Logo Johann Wilhelm Naumann Stiftung Künstliche Intelligenz

"Science Fiction hat unsere Vorstellungen geprägt"

Chancen und Grenzen der Technologie sind vorhanden. Es gibt sogar Bereiche, in denen eine lückenlose Überwachung sinnvoll sein kann. Ein Gespräch mit Armin Grunwald.
Science-Fiction hat unsere Vorstellungen von KI stark beeinflusst.
Foto: Adobe Stock | Science-Fiction hat unsere Vorstellungen von KI stark beeinflusst. Die Wirklichkeit ist anders.

Herr Professor Grunwald, was ist Intelligenz? 

Dazu gibt es leider keine klare, anerkannte Definition. Man könnte sagen, Intelligenz ist das, was der Intelligenztest misst. Das sind bestimmte kognitive Fähigkeiten, zu denen vor allem Problemlösefähigkeiten gehören. So kann man zwar einerseits menschliche Intelligenz messen, aber seit es den Intelligenztest gibt, gibt es auch die Diskussion darüber, was der Intelligenztest alles nicht erfassen kann. Das sind situative Intelligenz, soziale Intelligenz und emotionale Intelligenz. Die sind in dem üblichen, eher technischen Verständnis von Intelligenz nicht erfasst. 

Wie kann man natürliche und künstliche Intelligenz voneinander abgrenzen?

Es gibt verschiedene Verständnisse von natürlicher Intelligenz. Wenn man über künstliche Intelligenz redet, meint man vor allem das, was bei Menschen der Intelligenztest messen kann, also die Problemlösefähigkeit. Man gibt der KI eine Aufgabe und die nötigen Daten, dann kann die Maschine die Aufgabe lösen. Das funktioniert in vielen Bereichen besser als Menschen das könnten und teilweise auch sehr viel schneller.

Lesen Sie auch:

Aber es gibt Grenzen. Bei KI denke ich oft an den berühmten Computer Hal 9000 aus dem Film "2001   Odyssee im Weltraum". Hal 9000 stellt an einem Punkt die Frage: "Werde ich träumen?" Wird uns irgendwann eine KI diese Frage stellen?

Wenn ein Computer uns so etwas sagt oder sagt: "Bitte stell mich doch nicht ab, dann leide ich oder dann muss ich sterben", stellt sich die Frage, woher weiß ich, dass dieser Computer das wirklich so denkt und empfindet? Oder folgt er nur seinem Programm, das ihm sagt, jetzt musst du sagen, dass man dich nicht abstellen soll. Woher weiß ich, ob das Emotionen in einem menschlichen Sinne sind?

Es gibt Roboter, die zeigen Emotionen und sehen aus wie Humanoide. Sind sie wirklich traurig, wenn sie ein trauriges Gesicht machen? Und wie könnte ich das feststellen? Glaube ich, dass da "jemand" ist? Es ist ein ernstes Problem, dass wir relativ schnell denken, da komme ein Roboter daher und sage "ich denke also bin ich". Sie haben die "Odyssee im Weltall" angesprochen. Unsere jahrzehntelange Erfahrung mit Science-Fiction verschiedenster Art hat unsere Mindsets so geprägt, dass wir sehr schnell Roboter, die sprechen, als Quasi-Menschen akzeptieren und nicht mehr daran denken, dass sie vielleicht extrem komplexen, aber letztlich doch nur Programmen folgen.

Künstliche Intelligenz
Foto: Adobe Stock | Künstliche Intelligenz nimmt einen immer breiteren Raum ein und dringt in viele Bereiche des Lebens vor.

Wie sehr wird ein Umgang mit KI im Alltag unsere Mindsets noch mal verändern? Wenn die Simulationen immer menschennäher werden, wie verändert mich das als Mensch?

Wir werden in einer solchen Welt von Objekten umgeben sein, die Menschen simulieren, aber selber keine sind. Wir können letztlich nicht hinter die Fassade schauen, ob die Ihnen jetzt wirklich einen guten Morgen wünschen oder ob das dann doch nur irgendwie programmiert ist. Woher kommt der Unterschied? Wenn Ihnen jemand begegnet und einen guten Morgen wünscht, werden Sie denken, der meint das ernst. Das können wir Menschen untereinander einschätzen, weil wir dialogische Wesen sind und eine Diskursgemeinschaft haben, in der wir Vertrauen aufbauen können. Das ist immer ein Weg über eine längere Zeit.

Dann nehmen wir für authentisch, was der andere sagt. Diese Gemeinschaft haben wir aber mit Robotern nicht! Die Gefahr wäre, dass wir so tun, als hätten wir sie, zum Beispiel aufgrund unserer Erfahrung mit Science-Fiction oder weil die Roboter so tun, als seien sie nette Gefährten. Sie kennen vielleicht Pepper, ein künstlicher Gefährte. Pepper ist immer hilfsbereit, hat immer ein Lächeln auf den Lippen, wird nie müde und weiß alles. Pepper rastet nicht aus und kennt keine schlechten Tage. Da wird sozusagen das Ideal eines Menschen auf den Roboter projiziert, der dann das technisch simulieren soll, was wir uns eigentlich von Menschen wünschen.

Kommt daher die Angst, dass die KI möglicherweise irgendwann den Eindruck erweckt, der bessere Mensch zu sein?

Achten Sie auf die Sprache. Die KI erweckt ja von sich aus keinen Eindruck. Die KI denkt auch nicht. Die KI rechnet. Wenn Sie sagen, die KI könnte den Eindruck erwecken, dann ist das unsere Zuschreibung an die KI. Wir tun das. Die KI tut das nicht von selbst. Wir reden so, als ob sie etwas tut. Man kann beobachten, wie wir durch den Sprachgebrauch diese "neuen Wesen" als Quasi-Menschen in unsere Gemeinschaft aufnehmen. Und da uns diese Wesen dann doch fremd sind und eben nicht diese Diskursgemeinschaft mit uns haben, werden sie uns unheimlich.

Lesen Sie auch:

Der Mensch muss immer die letzte Instanz sein, haben Sie in der ethischen Diskussion um KI gefordert. Sollte man KI-Systeme gesetzlich regulieren? Oder schränkt das die Forschung in unzulässiger Weise ein?

Es kommt darauf an, dass eine Regulierung immer demokratisch legitimiert ist und sachlichen Informationen folgt. Da geht es zum Beispiel darum, Verletzungen von Grundrechten auszuschließen. Das sind legitime Zwecke, und dazu ist Regulation nicht nur erlaubt, sondern verpflichtend geboten. Von der Wirtschaftslobby wird schnell mal gesagt, man werde erstickt von Vorschriften und das behindere die freien Marktkräfte. Es gibt jedoch vor allem die anderen Fälle, wo eine kluge, vorauseilende Regulierung Planungssicherheit für Investoren schafft. Da schafft Regulierung Sicherheit. Für bestimmte Anreizsysteme können Regulierungen sehr förderlich sein.

Die EU hat ausgeschlossen, mit KI so etwas wie Social-Scoring zu machen. Die Möglichkeiten sind ja enorm. Man könnte jemanden im Homeoffice mittels Kamera und Mikrofon komplett überwachen, so dass die KI entscheiden könnte, ob jemand arbeitet. Ein Gruselszenario? 

Auch hier noch mal die Sprache: Die KI würde nicht entscheiden, ob da jemand arbeitet oder nicht, sondern sie würde so vom Arbeitgeber eingestellt, dass sie nach bestimmten Kriterien dann eine Sortierung der Zeiten macht. Das Problem ist nicht die KI, sondern die Geschäftsmodelle können problematisch sein. 

An dieser Stelle bin ich gar nicht so eindeutig, wie Sie vielleicht erwartet haben. Es kommt auf die Zwecke an und ich kann einfach nicht sagen, es gebe gar keinen sinnvollen Zweck. Nehmen wir den Lokführer eines ICE: Da wäre es gar nicht schlecht, wenn "jemand" aufpassen würde, ob er nicht Comics guckt, statt auf seine Instrumente zu achten. Möglicherweise gibt es Fälle, wo so etwas sinnvoll sein kann. Von daher bin ich meistens gegen pauschale Verbote. 

Es kommt auf den Zweck der Anwendung an. Die KI als solche zu regulieren, ist an sich unsinnig. Man kann Anwendungen und Anwendungsfelder regulieren. Nur da geht es, weil die Anwendungsfelder letztlich die Kriterien liefern, was wir uns von der KI wünschen, was wir bereit sind in Kauf zu nehmen und was wir auf jeden Fall verhindern wollen. Das sieht auf jedem Feld anders aus. Das ist der Grund, warum es in der Stellungnahme des Ethikrates schwierig war, irgendwelche generellen Aussagen zu treffen. KI ist eine typische Querschnittstechnologie, die keinen Bereich auslässt. Für Atomenergie war es einfach, weil es eine singuläre Technologie war. Man richtet das Atomrecht ein. Fertig. Das geht bei KI so nicht.

Video

Bei welchen KI-Anwendungen sehen Sie ethischen Regelungsbedarf?

Beunruhigend sind für mich die Optionen einer flächendeckenden Überwachung. Sie haben das Homeoffice angesprochen. Bewegungsprofile sind bislang noch recht rudimentär. Aber über Gesichtserkennung kann man auch in großen Menschenansammlungen individuell Namen, Personalausweisnummern und Ähnliches zuordnen. Da geht es um eine (gefühlte) Unfreiheit, so dass man am Ende zumindest glaubt, sich nicht mehr frei bewegen zu können. Das gilt unabhängig davon, ob es so ist oder nicht. 

Wir sind eine Demokratie, und solange wir demokratisch kontrollierte Regeln für diese ganzen Überwachungsmöglichkeiten haben, ist es im Großen und Ganzen okay. Über Details kann und muss man streiten. Solange als legitim anerkannte Zwecke vorliegen, ist das weitestgehend in Ordnung. Aber wie man ja in einigen Ländern sehen kann, ist die Demokratie nicht einfach eine Errungenschaft, die immer so bleibt. 

Es kann immer Bewegungen einer allmählichen Entwicklung von Demokratie zur Diktatur geben. Auch Hitler ist im Einklang mit der Weimarer Verfassung an die Macht gekommen. Wenn dann solche Leute oder solche Systeme oder Parteien der Weimarer Zeit die Überwachungsmöglichkeiten in die Hände bekommen hätten, die wir heute haben und die mit KI immer perfekter werden, dann gruselt es mich nur noch.

Wie groß ist die Versuchung für die Politik, vielleicht ein begrenztes Maß an totalitären Strukturen einzuführen? 

Man kann beobachten, dass es solche Tendenzen und Verlockungen gibt. Denken Sie an Corona, da gab es auch bei uns interessante Diskussionen, ob der Datenschutz nicht manchmal verhindert, dass man Daten erheben darf, aus denen man zum Beispiel Maßnahmen gegen die Pandemie hätte ableiten können. Politisch legitimiert, zeitlich begrenzt und zweckgebunden kann man in einer Notsituation anders operieren als im Normalzustand. Aber das ist delikat, weil die große Frage immer die ist, ob nach der Notsituation der Normalzustand zurückkommt.
Ich sehe das in Berlin im Bundestag. Da werden immer mal wieder Sicherheitsbestimmungen aufgrund von bestimmten Ereignissen verschärft. Sie werden aber nie wieder zurückgenommen, wenn die Ereignisse weg sind.

Also ist das Risiko hoch?

Solange die Demokratie im Wechselspiel von Opposition, Regierung und unabhängigen Medien funktioniert, geht es. Die ganze Digitalisierung ist eine einzige Verlockung, immer wieder, auch für einen guten Zweck, Dinge zu tun, die nicht gut sind. Das gilt auch für KI- Anwendungen.


Zur Person

Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Foto: KIT/Markus Breig | Armin Grunwald ist seit über 30 Jahren in der Technikfolgenabschätzung engagiert.

Seit 1999 leitet er das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) in Karlsruhe und seit 2002 auch das Büro für Technikfolgenabschätzung beim Deutschen Bundestag. Armin Grunwald ist Professor für Technikethik am Karlsruher Institut für Technologie und seit 2021 Mitglied im Deutschen Ethikrat.

Katholischen Journalismus stärken

Hat Ihnen dieser Artikel gefallen? Stärken Sie katholischen Journalismus!

Unterstützen Sie die Tagespost Stiftung mit Ihrer Spende.
Spenden Sie direkt. Einfach den Spendenbutton anklicken und Ihre Spendenoption auswählen:

Die Tagespost Stiftung-  Spenden

Die Printausgabe der Tagespost vervollständigt aktuelle Nachrichten auf die-tagespost.de mit Hintergründen und Analysen.

Themen & Autoren
Peter Winnemöller Armin Grunwald Deutscher Bundestag Nationaler Ethikrat

Weitere Artikel

Die Beauty-Tech-Branche boomt, doch mit dem rapiden Wachstum steigen auch die Datenschutzbedenken. Nutzer hinterlassen digitale Spuren, die sensibel sind. Schönheit ja, aber zu welchem Preis?
19.02.2024, 14 Uhr

Kirche