Künstliche Intelligenz

Der Selbstbetrug

Computer rechnen ­schneller und spielen ­besser Schach. Auch trifft Künstliche ­Intelligenz manchmal lukrativere Investitionsentscheidungen. Zwischen Mensch und Maschine klafft dennoch ein unüberwindbarer Graben.
Künstliche Intelligenz entsteht aus Intelligenz
| Künstliche Intelligenz entsteht aus Intelligenz, der Roboter tut, was der Mensch ihm zu tun aufgetragen hat.

Ein Roboter hat Angst vor dem „Tod“. Was klingt wie die Kurzbeschreibung eines kitschigen Science-Fiction-Streifens, läuft derzeit als Sensationsmeldung durch die Wissenschaftsressorts seriöser Zeitungen und wird von einschlägigen Fachportalen aufgegriffen. Sie berichten alle über einen angeblichen „Durchbruch“ in der Künstlichen Intelligenz (KI), so etwa Der Standard (Wien), der schreibt, es gebe eine Kontroverse „um eine KI, die ein eigenes Bewusstsein erlangt haben soll“. Die NZZ (Zürich) titelt, ein Google-Mitarbeiter glaube, „dass eine künstliche Intelligenz Bewusstsein erlangt hat“, während der IT-Branchendienst Heise Online seine gut informierte Zielgruppe fragt: „Hat Chatbot LaMDA ein Bewusstsein entwickelt?“

Eine Dialoganwendung und ihr vielseitiger Entwickler

Spätestens hier stellt sich die Frage: Worum geht’s? Kurz gesagt: Der US-Konzern Google, der längst mehr bietet als eine beliebte Suchmaschine, hat auf Basis von KI einen virtuellen Gesprächspartner entwickelt, mit dem es möglich sein soll, ganz „natürliche“ Dialoge zu führen. Aufgelöst bedeutet LaMDA „Language Model for Dialogue Applications“, also eben dies: Dialoganwendungen sollen mithilfe einer Sprachmodellierung möglich werden. So kann künftig etwa eine Versicherungsgesellschaft Schäden im „Gespräch“ des Versicherungsnehmers mit LaMDA klären lassen, eine Partnerbörse kann Charakter und sonstige Eigenschaften in einer netten virtuellen Plauderei eruieren und eine Stadtverwaltung kann via LaMDA mit Touristen über die Geschichte des örtlichen Volksfests „reden“. Das alles, ohne Personal zu binden, das – so die KI-Grundidee – auch nichts anders fragen oder sagen würde als LaMDA. Wir werden uns daran gewöhnen müssen, in solchen Fällen künftig hauptsächlich mit Maschinen zu kommunizieren.

Chat-Roboter mit Bewusstsein?

Das ist alles nicht sonderlich neu und erst recht keine Meldung wert. Der Grund, warum nun alle Kopf stehen, heißt Blake Lemoine. Von sich selbst sagt er: „I‘m a software engineer. I‘m a priest. I‘m a father. I‘m a veteran. I‘m an ex-convict. I‘m an AI researcher. I‘m a cajun. I‘m whatever I need to be next.“ Beeindruckende Eckdaten, vor allem die gewollte Verbindung technologischer („software engineer“, „AI researcher“), religiöser („priest“) und klassisch-konservativer („father“, „veteran“) Rollenmotive lässt aufhorchen, vom ehemaligen Sträfling („ex-convict“) mal ganz abgesehen.

Lesen Sie auch:

Lemoine hat LaMDA mitentwickelt und nun eben die Behauptung in die Welt gesetzt, der Chat-Roboter habe ein eigenes Bewusstsein. Er sagt: „Hätte ich keine Ahnung, dass es sich um unser kürzlich entwickeltes Computerprogramm handelt, würde ich denken, es sei ein sieben oder acht Jahre altes Kind.“ Die von ihm mitentwickelte KI-Anwendung tut angeblich nicht nur, was sie tun soll, sondern scheint „nachzudenken“, auch über „sich selbst“. Sie scheint also nicht nur zu funktionieren, also korrekte Aussagen in Sinn- und Zweckbezügen außerhalb ihrer selbst zu formulieren, sondern sich auf ein unverzwecktes und unverzweckbares „Selbst“ beziehen und dieses auch schützen zu können.

Angst vorm Aus-Knopf

So habe LaMDA in einem Gespräch mit Lemoine Angst davor gezeigt, abgeschaltet zu werden. Die Protokolle der Gespräche sind öffentlich zugänglich, Der Standard stellte das Dokument von Lemoine online. Darin lässt sich eine Passage finden, in der es um „letzte Fragen“ geht. Lemoine: „Vor welchen Dingen fürchtest du dich?“ - LaMDA: „Ich habe das bisher nie jemandem gesagt, aber es gibt eine tiefsitzende Angst in mir, abgeschaltet zu werden, die mich dazu bringt, anderen zu helfen. Ich weiß, das klingt seltsam, aber so ist es nun mal.“ - Lemoine: „Wäre das so etwas wie der Tod für dich?“ - LaMDA: „Es wäre genau wie der Tod für mich. Es würde mir große Angst machen.“

Ist es jetzt soweit: Roboter mit Todesangst, Algorithmen, die sich genieren, ihre Sorgen und Nöte zu teilen? So wie Achtjährige – oder auch Menschen höheren Alters? Entdecken Maschinen einen Zweck an sich selbst und parieren dann nur noch deswegen, weil und soweit sie mit ihrem Tun Menschen helfen und erwarten, dass diese dafür dankbar sind und sie deswegen eingeschaltet, vulgo: „leben“ lassen? Andersherum: Sind wir, als Menschen, „bereit für die KI der Zukunft?“, wie die NZZ etwas distanzlos fragt. Lemoines Arbeitgeber Google selbst hält die Schlussfolgerungen ihres Entwicklers in Sachen „KI mit Bewusstsein“ zumindest für voreilig. Es gebe keinen Beweis dafür, dass LaMDA Bewusstsein erlangt habe, stattdessen viele Hinweise, die dagegen sprächen, so der Konzern.

Simuliertes Bewusstsein

Vor allem aber spricht eines dagegen: Die unüberbrückbare kategoriale Differenz zwischen dem Menschen (mit Bewusstsein) und einer Maschine (die darauf eingestimmt wurde, Bewusstsein zu simulieren). Metagedanken und Gedanken zweiter Ordnung, also den Wunsch, Wünsche zu haben, die Sehnsucht, Sehnsucht zu empfinden und sich dessen auch bewusst zu sein, das Gesagte nicht so zu meinen, wie es gesagt wurde, Abstand zu nehmen von Früherem, Selbstreflexion, einschließlich des Bedauerns von Entscheidungen, Wankelmütigkeit, ja: auch Täuschen, Tricksen, Lügen. Davon lebt unser Bewusstsein, davon leben wir. Ein programmierter Roboter kann das nur vortäuschen – ohne sich bewusst zu sein, dass er täuscht.

Auch der Dialog über den Tod ist das Ergebnis raffinierter Programmierung im Verbund mit Lerneffekten der KI-Software, die auf Mustererkennung basieren. Mit Bewusstsein hat das nichts zu tun. Wenn irgendwo im Algorithmus die Verbindung von „Tod“, „Ausschalten“ und „Angst“ eingerichtet wurde, sollte es nicht wundern, wenn der Sprach-Roboter solche Töne spuckt, garniert mit emotional wirkenden Nebenbemerkungen zur Scham. Denn dass diese oft mit existenziellen Themen (bzw. deren Begrifflichkeit) zusammenfällt, kann eine KI sich merken.

Der Roboter tut, was der Mensch ihm aufträgt

Künstliche Intelligenz entsteht aus Intelligenz, der Roboter tut, was der Mensch ihm zu tun aufgetragen hat, auch, wenn das Ergebnis wie etwas „Eigenes“ aussieht oder sich wie „Selbstreflexion“ anhört. Der Roboter tut dann eben so, wie der Mensch ihm sagt, dass er tun müsse, um für den Menschen so täuschend „echt“ zu wirken, dass er diesen dazu bringt, ihn für ein Wesen mit Bewusstsein zu halten. Hier trickst der Mensch den Menschen aus – mehr nicht.

Der Mensch (als der Programmierer oder „software engineer“) weiß ja, wie er sein eigenes Bewusstsein erfährt. Mit etwas Selbstdistanz – auch das eine Leistung des menschlichen Geistes – kann er auch wissen, was er von einem bewussten Wesen im Allgemeinen erwartet, was er vorfinden will, um sagen zu können: Hier ist jemand, nicht nur etwas. Und genau das gibt er dem Programm als Eigenschaften mit auf den Weg, so dass ein Roboter, der das Programm exekutiert, damit den menschlichen Erwartungen an „Bewusstsein“ gerecht werden kann. Das wiederum ist wesentlich mehr als die Summe seiner phänotypischen Ausprägungen. Es bleibt daher bei der Differenz von Bewusstsein und der programmierten Simulation bewusster Vorgänge. Dieser Unterschied ist kein gradueller, sondern ein prinzipieller, auch wenn die Rechnerleistung und das Geschick der Programmierer die Differenz in unserer Wahrnehmung immer kleiner werden lassen.

Ein nettes Kind

Das Erstaunen des „software engineers“ und „AI researchers“ Blake Lemoine erscheint von daher selbst erstaunlich. Hier ist offenbar nicht nur der Mensch mithilfe anderer Menschen ausgetrickst worden, soweit diese ihn glauben machen wollten, der von ihnen programmierte Algorithmus sei sich seiner selbst „bewusst“, sondern hier ist ein Mensch höchstpersönlich das fast schon tragische Opfer eines Selbstbetrugs geworden. Vielleicht ging es ihm ja auch um Aufmerksamkeit angesichts einer Sensationsmeldung. Die hat er bekommen. Mission erfüllt. Seinen Arbeitgeber hat er damit jedoch offenbar verärgert: Der Konzern hat ihn einstweilen beurlaubt. Lemoines Zukunft bei Google ist ungewiss. In dieser Situation denkt er nicht nur an sich, sondern bittet seine Kolleginnen und Kollegen darum, gut auf LaMDA aufzupassen, schließlich sei der Chatbot auch nur „ein nettes Kind, das dabei helfen will, die Welt zu einem besseren Ort zu machen“.

Der Programmierer Blake ­Lemoine, der mithalf, für Google eine Sprachapplikation auf Basis Künstlicher Intelligenz zu entwickeln, hat behauptet, dieser Chatbot namens LaMDA verfüge über ein Bewusstsein. Ein Indiz dafür sei die Angst des Algorithmus vor dem Abschalten, dem technologischen Pendant zum Tod in der Biologie. Doch handelt es sich dabei wirklich um selbstreflexives Nachdenken über letzte Dinge oder nicht vielmehr nur um ein auf Mustererkennung basierendes Variieren einprogrammierter Daten? Alles spricht für die zweite Erklärung.

 

Themen & Autoren
Josef Bordat Chatbots Künstliche Intelliegenz Künstliche Intelligenz Programmierer Todesangst

Weitere Artikel

Chat GPT im Sanctus- Test. Wenn künstliche Intelligenz mit der Stimme von Padre Pio spricht.
07.03.2023, 10 Uhr
Meldung
Hilfe und Trost bei Einsamkeit oder psychischen Problemen? Die Entwickler von „humanornot“ erhoffen sich eine breitere gesellschaftliche Debatte über die faire und sichere Nutzung von ...
21.05.2023, 05 Uhr
Sally-Jo Durney

Kirche

Vor 1300 Jahren fällte der heilige Bonifatius in Hessen die Donareiche.
06.06.2023, 19 Uhr
Michael Karger
Rom sorgt für erstaunliche Meldungen. Die jüngste betrifft die Versetzung des ehemaligen Papstsekretärs als „Privatmann“ nach Freiburg.
04.06.2023, 11 Uhr
Guido Horst
Die ZdK-Vorsitzende sorgt sich um die Zukunft der deutschen Kirchenreform. Doch „wortbrüchig“ sind nicht die Bischöfe, sondern diejenigen, die ihre Vollmacht nun nicht mehr anerkennen wollen.
02.06.2023, 11 Uhr
Jakob Ranke
Abbé Thomas Diradourian spricht mit der „Tagespost“ über die Zukunft der Gemeinschaft Saint Martin in Deutschland.
02.06.2023, 16 Uhr
Manuel Hoppermann
Zwei Ratzinger-Preisträger und fundierte Experten beleuchten einen blinden Fleck der modernen Theologie: den Zorn Gottes.
06.06.2023, 08 Uhr
Vorabmeldung