Derzeit vergeht kaum ein Tag vergeht, an dem die Zeitungen nicht über den Einsatz des Programms ChatGPT in verschiedenen Lebensbereichen berichten. Das Programm produziert Texte und stellt Zusammenhänge her, die menschlichen Leistungen gleichkommen oder sogar übertreffen.
Einige Fachleuten feiern das Programm deshalb sogar als ersten Vertreter einer neuen Generation von Systemen, die „artificial general intelligence” (allgemeine künstliche Intelligenz, AGI) zeigten. Versteht also das Programm, wovon es schreibt? Zweifel müssten da angebracht ein, meint „Tagespost“-Autor Heribert Vollmer.
Gespräch über die Jungfrau Maria
Vollmer, der in seinem Hauptberuf das Institut für Theoretische Informatik der Leibniz Universität Hannover leitet, nahm kürzlich an einem Forschungsseminar zu Transformer-Netzwerken an der Universität Berkeley im US-Bundesstaat Kalifornien teil. Dabei behaupteten amerikanische Linguisten, die Fähigkeiten von Programmen wie ChatGPT könnten nur so erklärt werden, dass sie für Begriffe ein Rollenkonzept aufbauen, also ein Verständnis für die Bedeutung menschlicher Sprache entwickeln.
In seinem Beitrag für das Ressort „Glaube und Wissen“ erläutert Vollmer nun, warum dem nicht so ist. Für seinen Beitrag führte Vollmer auch ein Gespräch mit ChatGPT darüber, wie viele Kinder die Jungfrau Maria gehabt habe. DT/reh
Wieso der Autor meint, dass Programm wie ChatGPT Intelligenz lediglich simulierten und was das Programm dem Autor auf seine Frage antwortete, können Sie in der kommenden Ausgabe der „Tagespost“ lesen.