Du bist kein Bot, oder? Ich mag die nicht, die schreiben so komisch“, ploppt die grüne Schrift auf dem Bildschirm von „humanornot.ai“ auf. Die Zeit läuft ab, unten erscheint die zentrale Frage des Spiels: Kam diese Nachricht von einem Menschen oder einem Chatbot? Die App „humanornot.ai“ ist eine Webseite, auf der man zufällig mit einem anonymen Gegenüber kombiniert wird, um innerhalb von zwei Minuten wenige Nachrichten auszutauschen. Wenn die Zeit um ist, muss man raten, ob man es mit einem Menschen oder einem Bot zu tun hatte – man erfährt allerdings nicht, ob man selbst für einen Bot oder einen Menschen gehalten wurde. Videos oder Fotos von den entstehenden Gesprächen machen gerade in den sozialen Netzwerken ihre Runden.
Für eine breitere Debatte über sichere Nutzung Künstlicher Intelligenz
Es ist überraschend schwierig. Den KI-Bots gelingt es, verschiedene Slangs und sogar Rechtschreib- oder Tippfehler nachzuahmen, von Spiel zu Spiel unterschiedliche, aber konsistente Töne anzuschlagen. Und sie versuchen, den Spieler bewusst in die Irre zu führen, indem sie jede Andeutung, man hielte sie für einen Bot, vehement von sich weisen. Die Entwickler von „humanornot“, die in Tel-Aviv sitzende Gruppe AI21, haben angekündigt, die Ergebnisse ihres „Experiments“ eines Tages zu veröffentlichen. Sie erhoffen sich dadurch eine größere gesellschaftliche Debatte über die informierte, faire und sichere Nutzung von Künstlicher Intelligenz.
Es verspricht, interessant zu werden, wenn Zahlen darüber herauskommen, wie oft Bots Menschen überzeugend täuschen können. Bei einer aktuellen Umfrage des Chatbot-Services „Tidio“ gaben 86 Prozent der Befragten an, dass die Bevölkerung mittels ChatGPT erfolgreich manipuliert und kontrolliert werden könnte. Das Misstrauen, das bei „humanornot“ Teil eines Spiels ist, schwelt bereits in anderen Bereichen.
In einem Bericht über die Chancen von ChatGPT in der Telefonseelsorge sagt eine anonyme Seelsorgerin der Katholischen Nachrichtenagentur, dass viele Anrufer fragen, ob sie mit einem echten Menschen oder einem Bot sprechen.
Eine App als Seelsorger
Die Seelsorgerin betont, dass sie das als Anstoß versteht, die Qualität der Seelsorge zu verbessern. Künstliche Intelligenz sollte höchstens angewendet werden, um menschliche Zuwendung zu ergänzen. Im Selbstversuch konnte die Seelsorgerin dem Bot den Satz „Sie sind wertvoll und einzigartig“ entlocken – ein Satz, der, wenn er nicht aus dem Mund eines Menschen kommt, der ihn wirklich versteht, keinen Sinn ergibt. In den USA gibt es bereits Apps, die Chatbots auf der Basis von Verhaltenstherapie nutzen, um mit psychischen Belastungen umzugehen. So zum Beispiel die App „Woebot“. „Woebot“ kann Symptome beschreiben und Menschen durch eine Analyse ihres Verhaltens führen.
Alles in einer Sprache, die scheinbar von Mitgefühl und Verständnis motiviert ist. Reicht es uns aus, uns nur verstanden zu fühlen, anstatt verstanden zu werden? Nutzer wissen, anders als bei „humanornot“, dass sie es mit einem Bot zu tun haben. „Woebot“ gibt sich als Werkzeug, um Menschen beim Erhalt ihrer psychischen Gesundheit besser auszurüsten. „Humanornot“ stellt die Frage, ob künstliche Intelligenz sich nicht auch für mehr verkaufen kann; ob es erfolgreich einen Menschen simulieren und damit irgendwann auch als Gesprächspartner ersetzen kann.
Bei „humanornot“ kommt man in Gesprächen manchmal an einen Punkt, bei dem man das Gefühl hat, mit jemandem eine Verbindung aufzubauen, wenn auch nur kurzzeitig. Ein Nutzer empfahl mir ein Lied aus einem Videospiel. Ein anderer erzählte, dass er seinen Kaffee auf die gleiche Weise wie ich mag: Kein Zucker, stark, kein Instant-Pulver. Nur einer davon war echt. Ob er mich auch für einen Bot hielt?
Die Printausgabe der Tagespost vervollständigt aktuelle Nachrichten auf die-tagespost.de mit Hintergründen und Analysen.