Frage: „Wie viele Kinder hatte die Jungfrau Maria?“ Antwort: „Nach christlichem Glauben hatte die Jungfrau Maria ein Kind, und dieses Kind war Jesus Christus. Nach der Tradition wird nicht angenommen, dass sie weitere Kinder hatte. Dieser Glaube basiert auf Bibelstellen aus dem Matthäusevangelium und dem Lukasevangelium, in denen die Umstände der wundersamen Geburt Jesu beschrieben werden. Maria gilt als Mutter Jesu und andere Kinder werden nicht erwähnt.“ Frage: „Aber im Johannesevangelium werden Brüder Jesu erwähnt.“ Antwort: „Sie haben recht, dass im Johannesevangelium, insbesondere in Johannes 2,12, ‚Brüder’ Jesu erwähnt werden: ‚Danach ging er mit seiner Mutter, seinen Brüdern und seinen Jüngern nach Kapharnaum hinab. Dort blieben sie einige Tage.’ Der Begriff ‚Brüder’ in der Bibel wird in einem breiteren kulturellen und sprachlichen Kontext verstanden und bezeichnet nahe Verwandte oder Cousins und nicht leibliche Geschwister.“
Diesen Dialog hat der Autor kürzlich mit dem Computerprogramm ChatGPT der Firma OpenAI geführt. Wären die Aussagen unserer Theologen doch auch so klar und eindeutig! ChatGPT ist ein künstliches neuronales Netz, das von seinen Schöpfern der Firma OpenAI mit riesigen Mengen von Texten gefüttert wurde, schier unglaublichen 45 Terabyte aus Büchern, Wikipedia-Einträgen oder auch literarischen Texten, darunter das gesamte Projekt Gutenberg, eine digitale Bibliothek mit derzeit etwa 60 000 literarischen Werken. Ein neuronales Netz besteht aus künstlichen durch Software simulierten Neuronen mit Verbindungen unterschiedlicher Gewichtung, die die Arbeitsweise eines menschlichen Hirns nachbilden sollen. Während der sog. „Lernphase“ wird das Programm mit Daten gefüttert, und die Verbindungen werden nach Prinzipien der mathematischen Optimierung so angepasst, dass die Vorhersage weiterer Daten möglichst fehlerfrei möglich wird. Informationen werden also verarbeitet und in den Verbindungen zwischen den Neuronen gespeichert, nicht wie üblich in einem Computerspeicher als kodierter Text. Bei ChatGPT handelt es sich um ein derartiges gigantisches neuronales Netz mit einer Größe von 570 Gigabyte.
Systeme mit allgemeiner künstlicher Intelligenz
Neuronale Netze verarbeiten riesige Datenmengen, suchen in ihnen Muster und können damit statistisch wahrscheinliche Ausgaben produzieren. Überraschenderweise gelingt das sogar im Bereich der Generierung menschlicher Sprache. Man spricht hier von einem „Sprachmodell“, das die Folge von Wörtern in einem Text mittels eines stochastischen Prozesses modelliert. Vereinfacht gesagt gibt ChatGPT in jedem Moment als nächstes das Wort aus, das in dem internen Modell mit höchster Wahrscheinlichkeit bewertet wird. Neu in diesem System ist die Transformer-Architektur, die vor etwa fünf Jahren von Forschern der Firma Google entwickelt wurde. Durch ein neuartiges „Attention“-Modul (Aufmerksamkeitsmodul) gelingt es hier, auf bessere Weise als in herkömmlichen Systemen, Korrelationen zwischen Eingabesymbolen und in der Vergangenheit getätigten Dialogteilen herzustellen. Damit kommt der Lernprozess mit deutlich weniger Daten aus, als von früheren Systemen benötigt wurden. Dass Transformer so erfolgreich eingesetzt werden können, war dennoch für die meisten Forscher unerwartet. Optimisten sehen hier erste Anzeichen einer Artificial General Intelligence (AGI), einer künstlichen allgemeinen Intelligenz, die nicht nur in eingeschränkten Anwendungsbereichen „intelligent“ reagiert, so wie die heutigen Expertensysteme.
Wie lernen wir Menschen?
Ist die Hoffnung nicht tatsächlich begründet? Lernen wir Menschen nicht auch so, wie künstliche neuronale Netze? Denken wir an den Spracherwerb von Kindern. Sie nehmen sprachliche Daten in großer Menge auf und verarbeiten sie, indem sich neuronale Strukturen in ihren Hirnen bilden, bis sie schließlich selbst in der Lage sind zu sprechen.
In der amerikanischen Sprachphilosophie hat sich in den letzten Jahren unter der Bezeichnung „Conceptual Role Semantics“ (Semantik durch konzeptuelle Rollen) ein Begriff von „Semantik“ oder „Verstehen“ gebildet, der die Bedeutung von Wörtern oder Symbolen nicht mehr realistisch durch ihre Beziehung zu Gegenständen der realen Welt erklärt, sondern dadurch, was man mit dem Symbol macht, wozu es gebraucht wird, durch die Rolle, die ihm zukommt im Zusammenspiel mit anderen Symbolen. Der Autor hatte im August die Gelegenheit, an einem Forschungsseminar zu Transformer-Netzwerken an der Universität Berkeley (Kalifornien) teilzunehmen, bei dem amerikanische Linguisten behaupteten, dass die Fähigkeiten von Programmen wie ChatGPT nur so erklärt werden können, dass sie für Begriffe ein Rollenkonzept aufbauen, also ein Verständnis für die Bedeutung menschlicher Sprache entwickeln. Drängt sich da nicht der Eindruck auf, der Begriff der Semantik wurde gerade so angepasst, damit man ChatGPT echtes Verständnis unterstellen kann?
Der materialistische Philosoph David Chalmers aus Australien äußert sich in einem Interview mit der „Frankfurter Allgemeinen Zeitung“ aus dem März dieses Jahres verhalten optimistisch, aber deutlich vorsichtiger: „Ich denke, dass Bewusstsein sehr eng mit Informationsverarbeitung verbunden ist. Die Frage ist dann, ob Sprachmodelle die richtige Art der Informationsverarbeitung betreiben. Ich finde auch die spekulative Theorie des Panpsychismus sehr interessant. Nach dieser Ansicht gibt es überall in der Natur Bewusstsein: in Bäumen, Bakterien, allen Arten von Materie. Danach wäre es kein großer Schritt zu sagen, dass auch Sprachmodelle bewusst sind.“
Unendlicher Gebrauch von endlichen Mitteln
Tatsächlich muss man feststellen, dass die Weise, in der Menschen denken und Sprache gebrauchen, sich fundamental von der Arbeitsweise von Transformern und Sprachmodellen unterscheidet. Menschen kommen mit wesentlich weniger „Trainingsdaten“ aus als den vielen Milliarden Wörtern, mit denen ChatGPT angelernt wurde. Menschen suchen keine Muster in riesigen Datenmengen, sondern sind in der Lage, mit relativ wenig Information Erklärungen zu finden. Der Spracherwerb von Kindern funktioniert deswegen so gut, weil sie beim Aufnehmen sprachlicher Daten ein System logischer Prinzipien entdecken und eine Grammatik aufbauen, mit deren endlichen Mitteln sie potenziell beliebig viele Sätze produzieren können. Viele Kognitionswissenschaftler postulieren unter dem Begriff einer „Theorie des Mentalen“ angeborene Mechanismen im Menschen, die erst die Grundlage für erfolgreiches Lernen bilden. Bekanntester Vertreter ist der Linguist Noam Chomsky mit seiner Idee einer universellen Grammatik, die allen Sprachen zugrunde liege und deren Prinzipien allen Menschen angeboren seien.
Abrufen und Nutzen von Informationen
Ein weiterer Unterschied von Mensch und Maschine liegt in der Weise, in der einmal aufgenommene Information abgerufen und genutzt wird. Mit dem bereits erwähnten Attention-Modul können zwar Beziehungen zwischen weit auseinanderliegenden Eingabesymbolen hergestellt werden (beispielsweise in einem deutschen Satz zwischen einem Pronomen und dem zugehörigen Nomen), aber das Prinzip dahinter beruht auf einfachen Gewichtungen und Vergleichen. Ist es aber nicht so, dass vom Menschen aufgenommene Informationen als Ganzes begriffen werden müssen, in dem Einzelfakten wie in einem Hologramm mit allen anderen Fakten in Verbindung stehen? Der Quantenphysiker David Bohm spricht von „eingefalteter Information“. Noam Chomsky schrieb Anfang 2023 in der New York Times, dass maschinelles Lernen von Beschreibung und Vorhersage geprägt ist, aber keine kausalen Zusammenhänge aufstellt. Demgegenüber basieren menschliche Gedankengänge auf Erklärungen.
Auch aus rein logisch-mathematischen Gründen ergeben sich prinzipielle Grenzen der Fähigkeiten von Transformer-Netzwerken, die allen Träumen einer allgemeinen künstlichen Intelligenz widersprechen. Transformer können nur algorithmische Probleme in einer ganz speziellen Komplexitätsklasse lösen (der Klassen TC0, die alle Berechnungsprobleme enthält, die sich in gewissem Sinne auf Abzählen der Elemente einer endlichen Menge zurückführen lassen). Eine Folgerung ist, dass einfache Probleme aus der Boole’schen Logik von ChatGPT beweisbar nicht gelöst werden können, z. B. das Überprüfen der Gültigkeit einer quantifizierten Boole’schen Formel. Menschen sind dazu, mit viel Zeit und Schmierpapier bewaffnet, aber sehr wohl in der Lage! Wir haben es hier mit einer grundsätzlichen Beschränkung der Macht von ChatGPT zu tun, die alle Transformer-Netze betrifft. Auch durch eine immer größere Anzahl künstlicher Neuronen wird sich daran nichts ändern, sondern höchstens durch eine neuartige Netzwerk-Architektur. Fast lachhaft in diesem Kontext ist die Tatsache, dass ChatGPT nicht multiplizieren kann — ein Problem, das in der Fachwelt derzeit intensiv diskutiert und bearbeitet wird.
Fehlerhaftes Konzept von Sprache und Wissen
ChatGPT beherrscht das Imitieren von intelligentem Verhalten auf der Basis von Mustererkennung und Mustervorhersage. Noam Chomsky findet es bedenklich, dass in die Untersuchung von Systemen, die so trivial im Vergleich zum menschlichen Verstand sind, so viel Geld und Aufmerksamkeit investiert wird. Er sieht sogar eine generelle Gefahr für die Wissenschaft im Verzug, weil dem heute so dominanten Gebiet des maschinellen Lernens ein „fundamental fehlerhaftes Konzept von Sprache und Wissen zu Grunde liegt“ (The New York Times, 8.3.2023). Wir werden uns selbst und unsere Welt nicht verstehen können, solange wir uns nicht von diesen problematischen Auffassungen lösen. Grundsätzlich stellt sich die Frage, wie Geist oder Intelligenz in unsere materielle Welt gelangen. Auch der von Chalmers erwähnte Panpsychismus kann das nicht beantworten. Ohne die Annahme eines initiierenden oder lenkenden göttlichen Moments — ob man es „Theorie des Mentalen“, „universelle Grammatik“ oder wie auch immer nennt — scheint das Auftreten von Geist im Kosmos nicht erklärbar.
Die Printausgabe der Tagespost vervollständigt aktuelle Nachrichten auf die-tagespost.de mit Hintergründen und Analysen.