George Boole

Definition - Was bedeutet George Boole?

George Boole (1815–1864) war ein englischer Logiker, Mathematiker und Pädagoge. Er begann als Schulmeister in England und wurde Professor für Mathematik an der Queen's University in Cork, Irland. Er produzierte zwei Hauptwerke der Logik, nämlich "Die mathematische Analyse der Logik" (1847) und "Die Gesetze des Denkens" (1854).

Er erfand die Boolesche Algebra, die die Beziehung zwischen Logik und Mathematik erweiterte. Es wurde später die Grundlage für die Überprüfung der Gültigkeit logischer Sätze, die mit Hilfe eines zweiwertigen Binärzeichens - wahr oder falsch - erstellt wurden. Für seine enormen Beiträge zur Informatik, insbesondere in der digitalen Computerlogik, gilt Boole als „Vater des Informationszeitalters“.

Technische.me erklärt George Boole

Als weitgehend autodidaktisches Wunderkind besuchte Boole nie die Universität. Mit 16 Jahren musste er die Schule verlassen, nachdem das Schuhgeschäft seines Vaters zusammengebrochen war. Im selben Jahr wurde er Assistenzlehrer und eröffnete später mit 20 Jahren seine eigene Schule. Bald interessierte sich George für Mathematik und entdeckte einen neuen Zweig der Mathematik, der als invariante Theorie bekannt ist. 1844 erhielt Boole für eine Arbeit über Differentialgleichungen die erste Goldmedaille der Royal Society of London. Obwohl Boole keinen Universitätsabschluss hatte, wurde er 1849 allein aufgrund seiner Veröffentlichungen zum Professor für Mathematik an der Queen's University ernannt.

Boole war einer der ersten Engländer, die über Logik schrieben. Er entwickelte eine neue Art der sprachlichen Algebra, die heute als Boolesche Algebra bekannt ist, als Methode zur Manipulation und mathematischen Lösung logischer Argumente. Boole schlug vor, die logischen Sätze auf algebraische Gleichungen zu reduzieren und die mathematischen Operanden durch logische Wörter wie AND, OR und NOT zu ersetzen. Er lieferte allgemeine Algorithmen in einer algebraischen Sprache, die auf verschiedene Arten komplexer Argumente angewendet werden konnten. In seiner Arbeit "Laws of Thought" versuchte er auch, eine gemeinsame Methode für Wahrscheinlichkeiten zu finden.