Regensburg

Denken oder Rechnen

Eine ganz kurze Geschichte der Künstlichen Intelligenz.

Künstliche Intelligenz
Eine Antwort der Kirchen auf den Umgang mit Künstlicher Intelligenz fehlt bislang. Foto: Guido Kirchner (dpa)

Nein, es war nicht der 1. April. Es war vielmehr der 19. September 2019, als die Nachricht mich erreichte – und viele andere Menschen auch, schließlich wurde der Beitrag 14 000-mal geteilt. Die englischsprachige Website „MailOnline“ ließ darin eine Franziskanerin zu Wort kommen, die sich über die Zukunft des Priestertums Gedanken machte. Das tun derzeit viele Menschen, doch die Position der Ordensfrau sticht heraus, schließlich verlangte sie nicht weniger als die Öffnung des Weiheamts für Maschinen. Der „Robopriest“ soll es künftig richten. Darauf sei die Kirche vorzubereiten: auf „AI“ und „post-human priesthood“.

Sind wir schon so weit? Ist die Verzweiflung schon so groß? Und: Was hat es mit AI (Artificial Intelligence), zu deutsch: Künstliche Intelligenz (KI), auf sich? Zunächst: In der Tat ist das Thema längst in der Kirche angekommen. Nicht liturgisch – ethisch. „Können die Kirchen dazu schweigen, wenn sich die KI in Richtung Göttlichkeit bewegt? Und welche Rolle kommt dem Menschen zu, der Schöpfer dieses göttlichen Wesens ist?“, fragte jüngst Ute Leimgruber, Professorin an der Universität Regensburg, in einem Vortrag. Sie konstatierte, dass es bislang darauf keine Antwort der Kirchen gebe. Die katholische Kirche müsse sich, so die Pastoraltheologin, zum Thema äußern, tue das aber bislang zu wenig und vor allem auf eine zu naive Art und Weise.

Mehr als Mr. Data

Was sie damit meint, untermauert sie mit einem Zitat aus der Weihnachtspredigt 2019 des Limburger Bischofs Georg Bätzing, des neuen Vorsitzenden der Deutschen Bischofskonferenz: „Wir sind mehr als Mr. Data, dieser irgendwie sympathische Humanoide in der TV-Serie ‚Star Trek‘. Gott kommt in echt! Er hat Fleisch angenommen in seinem Sohn Jesus Christus.“ Richtig, doch gerade an der Überwindung des hier so klaren Gegensatzes von Stahl und Daten auf der einen, sowie Fleisch und Blut auf der anderen Seite arbeitet ja die KI. Im Transhumanismus – darauf läuft es ja hinaus – entstehen kybernetische Organismen, bei denen sich eben keine klare Grenze mehr ziehen lässt.

Die Grenze, die philosophisch zu ziehen ist, liegt zwischen Gehirn und Geist. Es geht also um die Frage des menschlichen Denkens und dessen maschinelle Simulation. Hier muss scharf unterschieden werden. Ein Blick in die Ideengeschichte kann dabei helfen.

Ist die Welt berechenbar?

Die Geschichte der Künstlichen Intelligenz beginnt vor 2 500 Jahren. Damals dachte man noch nicht an Maschinen, die wie Menschen denken, doch einige hatten bereits die Idee, dass es möglich (und gut) sei, das Denken durch Rechnen zu ersetzen. Sokrates etwa. Er fragte Euthyphron nach einem „Katalog von Regeln, der uns in jedem Augenblick genau sagt, wie wir uns zu verhalten haben“. Sokrates will klares Regelfolgen ohne Mehrdeutigkeiten. Er will das, was wir heute einen Algorithmus nennen.

Die Berechenbarkeit der Welt ist dann ein zentraler Topos der Frühaufklärung. Gottfried Wilhelm Leibniz und Christian Wolff versuchen, alle Fragen – philosophische wie praktische – auf Mathematik zurückzuführen. Bereits Descartes hatte die Idee einer „mathesis universalis“, mit der sich alles lückenlos und widerspruchsfrei erklären, ja: berechnen, lässt. So zum Beispiel auch die Sprache, die so oft zu Missverständnissen führt, im Privaten wie im Gesellschaftlichen. Sogar Kriege können durch dumme Bemerkungen ausgelöst werden. Alles eine Frage der Mathematik beziehungsweise des Algorithmus. Leibniz, der auch Mathematiker war, dachte daran, die Sprache – als situativ zu deutendes System von Wörtern und Wendungen – durch ein System von logisch verknüpften Zeichen zu ersetzen, das jede und jeder verstehen kann und auch in eindeutiger Weise versteht – Missverständnisse ausgeschlossen. „Characteristica universalis“ nannte er sein Projekt. Fragen der internationalen Diplomatie und andere Rechtsprobleme und Meinungsverschiedenheiten sollten nicht mehr besprochen, sondern berechnet werden: Die „angemessenen Charaktere oder Zeichen“, so der Gelehrte, „drücken alle unsere Gedanken aus“.

Mit diesem Projekt scheiterte Leibniz (immerhin fand er im Zuge seines Versuchs, alles auf einfachste Formen herunterzubrechen, den Binärcode – Grundlage der Digitaltechnik –, aber das ist eine andere Geschichte). Sprache funktioniert so nicht. Gleichwohl: Die Idee mit der allgemein verständlichen Universalsprache auf Zeichenbasis wurde seitdem immer mal wieder aufgegriffen. Zum Beispiel Anfang des 20. Jahrhunderts vom Berliner Architekten Tiemer, der im Rückgriff auf universal verwendete Zeichen, nämlich Zahlen, sein „Timerio“ entwickelte.

Mechanistische Modellierung des Menschen

Was schon mit Sprache nicht funktioniert, klappt mit dem Menschen insgesamt erst recht nicht. Wissen wir heute. Damals, im 18. Jahrhundert, stürzen sich die Enzyklopädisten in einem unfassbaren Fortschrittsoptimismus auf die mechanistische Modellierung des Menschen. Wir kennen das Bild vom Gehirn als ein Uhrwerk, in dem zwar feinste Rädchen drehen, das Denken gleichwohl auf einen deterministischen Prozess reduziert. Für Phantasie ist da kein Platz. Auf die Spitze treibt es Julien Offray de La Mettrie, der mit „L‘Homme-Machine“ (1748 anonym erschienen) die Verschränkung von Humanem und Technischem postuliert und den Menschen als eine sich selbst steuernde biologische Maschine beschreibt. Der Berliner Philosoph Holm Tetens sah La Mettries Schrift als Vorstoß, der „reichlich zu früh“ gekommen sei; heute aber „scheinen es die Wissenschaften selbst zu sein, die La Mettries Gleichung zum Thema machen“.

Die Ansätze der Aufklärung scheitern an der Lebenswirklichkeit. Natürliche Sprachen sind eben doch – natürlicher. Verständnisschwierigkeiten, Denkfehler und Missverständnisse eingeschlossen. Denken ist mehr als Logik, es umfasst auch Intuition und Gefühl. Den KI-Forschern ist das klar. Marvin Minsky (Erfinder des Begriffs „Künstliche Intelligenz“) meinte, es werde bald möglich sein, „Emotionen in eine Maschine hineinzuprogrammieren“. Minsky erklärte 1970, dass es in drei bis acht Jahren Maschinen mit der durchschnittlichen Intelligenz eines Menschen geben werde, die Shakespeare lesen würden. Fünfzig Jahre später liest kein einziger Rechner „Romeo und Julia“ – warum auch?

Denken ist mehr als Rechnen

Die Kernfrage lautet: Denken – lässt sich das auf Rechnen reduzieren? Anders gefragt: Was fehlt der Maschine? Woran scheitert die KI? Kurz: An der Komplexität des menschlichen Gehirns. Geist kann nicht so einfach mit Strom identifiziert werden, Denken ist mehr als Rechnen. Maschinen können kognitive und emotionale Akte des Menschen nicht glaubwürdig simulieren, schon gar nicht vollständig ersetzen. Einer der Väter des IT-Zeitalters, Alan Turing, hat sich dafür einen Test ausgedacht, das „Imitation-Game“. 1950 erschienen dazu in der englischen Zeitschrift „Mind“ die Testbedingungen: Die Maschine muss im Dialog mit einem Menschen erfolgreich einen Menschen vortäuschen. Dann müsse man ihr, so Turing, das Humanum schlechthin zubilligen: denken zu können. Bisher hat kein Rechner den Turing-Test bestanden.

Bisher – die Entwicklung geht weiter. Das Ziel von KI ist, das Denken des Menschen äquivalent auf das Rechnen einer Maschine zu übertragen beziehungsweise dann umgekehrt: den Rechner das menschliche Gehirn simulieren zu lassen. Dazu muss man wissen, wie das funktioniert, das Gehirn, wie das geht: denken. Das ist keine kleine Frage – die Philosophie des Geistes ist ein extrem kompliziertes Gebiet. Wir sind uns ja noch nicht einmal einig, was natürliche Intelligenz ist. Dabei ist die Künstliche Intelligenz – als Konkurrenz zur natürlichen Intelligenz – die „vierte Kränkung“ des Menschen (nach Kosmologie, Evolutionstheorie und Psychoanalyse). Es bereitet uns Unbehagen, dass Maschinen nicht nur besser Schach spielen als wir, sondern möglicherweise sogar besser beraten und in komplexen Situationen die besseren Entscheidungen treffen. Es geht die Furcht um, dass sie am Ende auch besser fühlen, besser trösten, besser lieben könnten – und dass damit die reale Gefahr besteht, sie machten uns eines Tages vollends überflüssig. Prominente Vertreter der KI-Forschung wie Minsky, Hans Movarec, Pionier der Robotik, und der Softwareentwickler Bill Joy sahen die Maschine schon in absehbarer Zeit über den Menschen triumphieren.

Doch heute wissen wir: So einfach ist das nicht. Entsprechend skeptisch sind Fachleute wie der Neurowissenschaftler Henning Beck. Im Interview mit dem Marketingjournal „Absatzwirtschaft.de“ unterstrich er 2019 die Vorzüge des menschlichen Gehirns: die Phantasie, die Kreativität – und die notorische Devianz: „Es gibt keine einzige Maschine, die kreativ ist. Das würde bedeuten, dass sie mit einer Regel brechen kann, und das mit einem bestimmten Ziel. Das machen Maschinen nicht. Ich kann ihnen vorschreiben, dass sie Regeln brechen sollen, aber dann würden sie ja immer noch meine Anweisung beachten.“

Kurz gefasst

Roboter helfen uns, Autos zu bauen und präzise chirurgische Eingriffe durchzuführen. Sie werden dies Dank der Fortschritte in der KI möglicherweise immer besser und effizienter tun. Die katholische Soziallehre wird diese Aspekte wohlwollend ergänzen, wenn sie dem Menschen dienen – und wer sollte etwas dagegen haben, dass belastende Tätigkeiten so weit wie möglich maschinell unterstützt werden? Aber eben nicht weiter. Denn Denken ist nicht Rechnen, Sprache ist nicht Zeichenlogik, Maschine ist nicht Mensch.

Die Printausgabe der Tagespost vervollständigt aktuelle Nachrichten auf die-tagespost.de mit Hintergründen und Analysen. Kostenlos erhalten Sie die aktuelle Ausgabe hier.