3. Geschichte der Computer und Algorithmen#

Was genau ist ein Computer? Eine magische Kiste voller Wunder oder ein Werkzeug mit schier unendlichen Möglichkeiten? In der heutigen Zeit sind Computer und Algorithmen fest im Alltag verankert. Ob als Smartphone in der Tasche, als smarter Kühlschrank in der Küche, als Fitnessuhr am Handgelenk, oder in Form von Navigationshilfen, sozialen Netzwerken, Bankdienstleistungen und Suchmaschinen—sie sind überall. Doch was sind sie eigentlich? Sie sind Produkte der Technik, die wir als die Gesamtheit aller nützlichen und kulturell weitergegebenen Informationen begreifen können. Und unser Verständnis jener Technik und deren Artefakte nennen wir Technologie. In diesem Abschnitt möchten wir die kulturelle Entwicklung der Computertechnik skizzieren, wobei wir uns hauptsächlich auf die Perspektive der westlichen Welt konzentrieren.

Lernziel

Sie können einen geschichtlichen Bezug zum Computational Thinking herstellen und dadurch vergangene, derzeitige und zukünftige technologische Entwicklungen in Relation setzen.

Computer sind nicht nur beeindruckende Ergebnisse des technischen Fortschritts, sondern auch kraftvolle Katalysatoren für weitere Entwicklungen. Ihre Rechenleistung ist unerlässlich, um komplexe Probleme zu lösen, die in nahezu allen wissenschaftlichen Disziplinen auftreten. Nehmen wir zum Beispiel Rechenzentren wie das Leibniz-Rechenzentrum (LRZ), welches unter anderem den Supercomputer SuperMUC-NG beinhaltet. Dieser ist mit 6480 Rechenknoten mit jeweils 48 Kernen (Zwei Intel Xeon Platinum 8174 24C 3.1GHz CPUs) ausgestattet. In solchen Rechenzentren werden beispielweise komplexe Klimamodelle auf einem Netzwerke bestehend aus Tausenden von Computern simuliert. Aber das ist nur die Spitze des Eisbergs. Ob es um die Erforschung neuer Materialien geht, die Interaktion von Molekülen, die Dynamik von Gasen und Flüssigkeiten, DNA-Analysen, autonomes Fahren oder Flugkontrollsysteme—in all diesen Bereichen ist die Rechenkraft von Computern und deren Nutzung in Form von Algorithmen unverzichtbar.

Dank Fortschritten in der Datenanalyse, besonders durch das Aufkommen des maschinellen Lernens und der Anerkennung von Informationen als wertvolles Wirtschaftsgut, steigt der Bedarf an Rechenleistung und Speicherplatz stetig an. Sowohl in der Wirtschaft als auch in der Wissenschaft ist dieser „Hunger“ nach Ressourcen deutlich spürbar. Themen wie die digitale Transformation, das Internet der Dinge (IoT) und künstliche Intelligenz (KI) werden nicht nur Unternehmen und Regierungen, sondern auch die Gesellschaft als Ganzes auf absehbare Zeit intensiv beschäftigen.

Computer sind unermüdliche Informationsverarbeiter, deren Leistungsfähigkeit schlichtweg atemberaubend ist. Um Ihnen eine Vorstellung zu geben: Im Jahr 2015 belief sich die gesamte Rechenleistung auf ungefähr \(2 \cdot 10^{20}\) Gleitkommaoperationen pro Sekunde. Das ist so viel, dass, um mit dieser Geschwindigkeit Schritt zu halten, jeder Mensch auf der Erde mehr Operationen pro Sekunde ausführen müsste, als es Menschen gibt!

In diesem Bereich sind Maschinen uns weit überlegen. So wie die Entdeckung fossiler Brennstoffe unsere physische Kraft weit übertroffen hat, so haben Computer unsere kognitiven Fähigkeiten in Bezug auf das Rechnen weit in den Schatten gestellt. Aber es ist wichtig zu beachten, dass Computer trotz ihrer beeindruckenden Geschwindigkeit noch erstaunlich primitiv sind. Sie agieren strikt nach vorgegebenen Anweisungen, ohne Kontext oder Intuition zu verstehen und ohne eigene Absichten zu haben. Ihre Stärke liegt in der rasenden Geschwindigkeit, mit der sie einfache Aufgaben erledigen können.

Im Vergleich dazu sind wir Menschen vielleicht langsam und ungenau, aber was uns ausmacht, ist unsere Fähigkeit zu brillanter Intuition und komplexem Denken. Denken und Rechnen mögen sich in ihrem Resultat auf die Wirklichkeit hin und wieder treffen—z.B. wenn wir durch unser Denken rechnen—doch können wir nicht davon ausgehen, dass Maschinen denken können.

Computer sind durch Netzwerke und unterschiedlichste Übertragungswege miteinander vernetzt und tauschen kontinuierlich Daten aus. Dabei sind es Algorithmen, die diese Informationen filtern, ordnen und bewerten. Obwohl sie aus einfachen Operationen wie Addition oder Multiplikation zusammengesetzt sind, ermöglichen sie weit komplexere Funktionen. In diesem Sinne sind Algorithmen die präzisen Handlungsanweisungen, denen Computer folgen. Sie sind das Medium, durch den menschliche Intelligenz in maschinenlesbare Sprache übersetzt wird.

Um die Technik von heute und die zukünftigen Entwicklungen besser zu verstehen, ist ein Blick in die Vergangenheit unerlässlich. Die Geschichte der Computer und Algorithmen ist eine reiche Erzählung von visionären Erfinder:innen, Ingenieur*innen, Wissenschaftler*innen, Philosoph*innen und Mathematiker*innen. Es ist eine Geschichte voller Höhen und Tiefen, in der Informatiker:innen lange für die Anerkennung ihres Fachgebiets kämpfen mussten. Diese Pioniere legten den Grundstein für das, was wir heute als Computational Thinking kennen. Als ihre Erben tun wir gut daran, uns zumindest kurz mit ihrem Erbe und ihren Errungenschaften auseinanderzusetzen.