Nur ein weiteres Werkzeug

Künstliche Intelligenz: Für die einen ist sie die neue „Zauberformel des technischen Fortschritts“, für die anderen bedroht sie den Fortbestand der Menschheit. In Wirklichkeit ist sie weder das eine noch das andere. Ein Plädoyer für ein wenig mehr Gelassenheit. Von Stefan Rehder
Künstliche Intelligenz: Zauberformel des technischen Fortschritts?
Foto: Adobe Stock | Künstliche Intelligenz

Künstliche Intelligenz (KI) ist einer der Stoffe, aus dem derzeit die Alpträume vieler Menschen gewebt werden. Dabei reicht die Palette der Ängste vom millionenfachen Verlust von Arbeitsplätzen durch den Wegfall ganzer Branchen über die totale Überwachung der Menschheit mithilfe intelligenter Software bis hin zu ihrer Versklavung oder gar Ausrottung durch intelligente Maschinen.

Als Treiber solcher Ängste fungiert keineswegs nur Hollywood. Obgleich die (Alp)„Traumfabrik“ mit Filmen wie „Blade Runner“ (1982) und dessen Fortsetzung „Blad Runner 2049“ (2017), der mittlerweile auf fünf Filme angewachsenen „Terminator“-Reihe (ab 1984 – Teil 6 soll Ende 2019 in die Kinos kommen), der „Matrix“-Trilogie (1999–2003), „Her“ (2013), „Transcendence“ oder „Ex Machina“ (beide 2014) jeweils ein Millionen-Publikum erreicht. In der Marvel-Comic-Superhelden-Verfilmung „Age of Ultron“ (2015) etwa versucht ein selbstlernendes globales Friedensprogramm die Menschheit zu vernichten, nachdem es zu der Überzeugung gelangt ist, dass es sein Ziel, Frieden zu schaffen, nur so auch tatsächlich erreichen kann.

Auch Wissenschaftler, die sich dem Transhumanismus verschrieben haben oder aber mit dem dieser Ideologie zugrundeliegenden Weltbild sympathisieren, führen den Ängsten, die viele Menschen KI gegenüber bisher hegen, mit ihren Veröffentlichungen ständig neue Nahrung zu. Dabei reichen die Visionen der Wissenschaftler von der Erschaffung einer „Singularität“, einer KI, die dem Menschen in allen Belangen überlegen ist, und die, wie „Ultron“, ein eigenes Bewusstsein ausbildet, bis hin zu Szenarien, in denen Mensch und Maschine miteinander verschmelzen und eine neue Superrasse bilden, die sich von der Menschheit ähnlich stark unterscheidet, wie das Hausschwein von uns. Ausführlich beschrieben finden sie sich in Bestsellern wie „Menschheit 2.0.: Die Singularität naht“ von Ray Kurzweil (Lola Books, 2014), „Superintelligenz – Szenarien einer kommenden Revolution“ von Nick Bostrom (Suhrkamp, 2016) oder auch „Leben 3.0 – Mensch sein im Zeitalter Künstlicher Intelligenz“ von Max Tegmark (Ullstein, 2017).

Dabei sind solche Szenarien in der „scientific community“ keineswegs unumstritten. Und das aus gutem Grund: Denn ganz gleich, ob sie nun in Hollywood oder im nur rund 500 Kilometer entfernten Silicon Valley entworfen werden – eines haben sie alle gemein: Sie basieren auf der Annahme, es sei Maschinen prinzipiell möglich, die gleichen intellektuellen Fähigkeiten wie Menschen zu erlangen. Fachleute sprechen in solchen Zusammenhängen auch von „starker KI“. Anders als „schwache KI“ (engl.: weak artificial intelligence), die von Menschen entwickelt und eingesetzt wird, um von ihnen definierte Anwendungsprobleme zu lösen, soll „starke KI“ (engl.: strong artificial intelligence) Probleme selbstständig identifizieren, aktiv – also gewissermaßen willentlich – angehen und autonom lösen können. Um als „stark“ gelten zu können, muss die KI dabei eine ganze Reihe von Fähigkeiten besitzen oder aber erfolgreich simulieren können, die wir tatsächlich mit Intelligenz verbinden, als da wären: Logisches Denkvermögen, die Fähigkeit, zu lernen und zu planen, die Fähigkeit, Entscheidungen auch dann zu treffen, wenn das Wissen, das dazu eigentlich benötigt wird, als unsicher klassifiziert werden muss, die Fähigkeit, in einer natürlichen Sprache zu kommunizieren sowie die Kombination aller dieser Fähigkeiten, um ein übergeordnetes Ziel zu erreichen. Als umstritten gilt, inwieweit „starke KI“ zusätzlich ein eigenes Bewusstsein benötigt, um derartige Fähigkeiten ausbilden zu können.

Fakt ist: Weltweit gibt es bislang überhaupt keine „starke KI“. Und es spricht viel dafür, dass dies auch so bleiben wird. Selbst Programme wie „Alpha Go Zero“ erfüllen bislang lediglich die Kriterien „schwacher KI“. Alpha Go Zero ist ein KI-Programm, das die Google-Tochter „DeepMind“ Ende 2017 präsentierte und das eine Weiterentwicklung der KI Alpha Go darstellt, die anderthalb Jahre zuvor den damals weltbesten Go-Spieler schlug. Go ist ein chinesisches Brettspiel, das als sehr viel komplexer als Schach gilt. Wurde Alpha Go noch mit den Spielstrategien von Menschen gefüttert, statteten die Entwickler seinen Nachfolger nur noch mit den Spielregeln aus. Nachdem Alpha Go Zero 70 Stunden gegen sich selbst gespielt hatte und sich so selbst „trainierte“, ließen die Entwickler die KI gegen seine frühere Version antreten. Das Ergebnis: In 100 Partien schlug Alpha Go Zero seinen Vorgänger ganze 100 Mal.

Den Informatikprofessor Antonio Krüger vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) ficht das nicht an. Probleme, die von Menschen schwer zu bewältigen seien, seien für KI leicht zu lösen. Umgekehrt stellten Dinge, die für Menschen leicht seien, eine KI vor große Probleme, erklärte der international anerkannte Experte für Mensch-Maschine-Interaktion und künstliche Intelligenz Mitte des Monats auf einer Klausurtagung der Enquete-Kommission „Künstliche Intelligenz“ des Deutschen Bundestags. So könne eine KI zwar inzwischen vergleichsweise leicht Fehler in einem Computer-Chip finden oder einen Schachweltmeister besiegen. Dafür scheitere sie bislang, wenn es darum gehe, einen Witz zu verstehen, ein Kind zu trösten oder eine Nano-Simkarte auszuwechseln.

Im Juni diesen Jahre hatte der Ingenieurwissenschaftler als Keynote-Speaker auf dem Industrie-Kongress in Österreich außerdem bekannt: „Ich persönlich glaube nicht an den Transhumanismus. Ich halte ihn auch für nicht zu erreichen, weil unser eigenes Dasein, unser Bewusstsein an unsere biologische Maschine gekoppelt ist.“ Vergessen dürfe man, so Krüger weiter, auch nicht, dass selbst so bemerkenswerte KI, die wie Alpha Go oder Alpha Go Zero, einen Go-Großmeister besiegen könnten, „nichts anderes können“. Zwar könne man viele Netze für ganz unterschiedliche Aufgaben parallel trainieren, doch seien „in der Realwelt“ Probleme häufig miteinander verzahnt. Und für die „unendliche Kombinatorik“, die es dort gebe, ließen sich eben nicht „unendliche viele Netze trainieren“. Auch sei bisher „unklar“, wie sich das Wissen, das sich ein Netz angeeignet habe, auf andere Netze übertragen lasse.

Der Anfang Oktober erschienene „Statusbericht Künstliche Intelligenz“ des Vereins Deutscher Ingenieure (VDI) hält denn auch trocken fest: „Die Erwartungen an die Leistungsfähigkeit technischer Systeme gehen weit über die derzeit validierbaren Ergebnisse hinaus.“ Felder, auf denen KI derzeit entwickelt werde, seien das „Autonome Fahren“, die „Medizinische Diagnostik“, die „Service-Robotik“, die „Prädiktive Instandhaltung in der Produktion“ sowie die „Optimierung umweltfreundlicher Anlagen“, wie zum Beispiel Kläranlagen.

Beispiel medizinische Diagnostik: Forscher der Universität Heidelberg fanden kürzlich heraus, dass KI bösartigen Hautkrebs besser erkennen könne als viele Ärzte. Zum Einsatz kam hier ein „neuronales Netz“, das Forscher mit mehr als 100 000 Fotos und den zugehörigen Diagnosen trainiert hatten. Bei den sich anschließenden Tests wurden der KI 100 Bilder mit schwierigen Diagnosen vorgelegt. In 95 Prozent der Fälle diagnostizierte die KI die Melanome korrekt, während die gutartigen Muttermale von der KI nur zu 63,8 Prozent richtig erkannt wurden. Dagegen erkannten die mit Zusatzinformationen ausgestatteten Hautärzte nur 89 Prozent der Melanome, aber 75,7 Prozent der ungefährlichen Muttermale.

Dabei soll die KI den Hautarzt nicht ersetzen, sondern ihm als Assistenzsystem dienen. Forscher gehen davon aus, dass der Einsatz von KI in der Medizin Ärzten helfen könne, „schwere Krankheiten früher zu erkennen“ und eine „Vielzahl von Menschen besser zu therapieren“. Allein in Europa könnten damit in den nächsten zehn Jahren rund 200 Milliarden Euro an Behandlungskosten eingespart werden, schreiben die Autoren des Statusberichts „Künstliche Intelligenz“.

Ein weiteres Gebiet, auf dem KI von Nutzen sein könne, sei das weite Feld der Service-Roboter, die Menschen bei der Arbeit unterstützen sollen. Das beginnt heute bei Exoskeletten, die es Menschen erleichtern oder gar erst ermöglichen, schwere Lasten zu heben und reicht über die roboterassistierte Chirurgie bis hin zum Einsatz sprachfähiger Roboter in der Alten- und Krankenpflege.

Einen solchen Serviceroboter entwickelt an der Technischen Universität München derzeit Professor Sami Haddadin. Der 38-jährige Haddadin – der Vater ist Jordanier, die Mutter Finnin – ist in Deutschland geboren und aufgewachsen und gilt weltweit als einer der führenden Forscher auf dem Gebiet der Robotik. TU-Präsident Wolfgang Herrmann bot ihm den Job des Gründungsdirektors der „Munich School für Robotics and Machine Intelligence“ (MSRM) an und stach damit die Elite-Universität Stanford und das renommierte Massachusetts Institute of Technology (MIT) aus, die sich ebenfalls um den verheirateten Vater dreier Kinder bemüht hatten. Gemeinsam mit seinem Bruder Simon und Sven Parusel entwickelte Haddadin den Roboterarm Franka. Ein völlig neuartiges, selbstlernendes Robotic-System, das mit einem hochauflösenden Tastsinn ausgestattet wurde und derart innovativ ist, dass Bundespräsident Frank-Walter Steinmeier seinen Entwicklern dafür im vergangenen Jahr den Deutschen Zukunftspreis verlieh. Inzwischen arbeitet Haddadin an der Entwicklung eines intelligenten Haushaltsassistenten, der es Senioren ermöglichen soll, so lange wie möglich in den eigenen vier Wände zu leben.

Gefährlich oder zumindest überaus nachteilig für den Menschen können sich dagegen Bewertungssysteme ausnehmen, die auf künstlicher Intelligenz basieren und die vor allem in China und den USA erprobt oder auch schon eingesetzt werden. In den USA etwa brüsten sich die Entwickler einer KI, mit der Geheimdienste Terroristen identifizieren können sollen, mit einer Falsch-Positiv-Rate von nur 0,08 Prozent. „Bei 55 Millionen Einwohnern sind das 4 400 Unschuldige, um wenige Hundert zu identifizieren“, rechnete die Algorithmen-Designerin Katharina Zweig von der Technischen Universität Kaiserslautern bei der Klausurtagung der Enquete-Kommission „Künstliche Intelligenz“ des Deutschen Bundestags vor. Ein Beispiel, das zeigt, dass der Mensch KI ebenso wenig blind vertrauen, wie er sie pauschal verwerfen sollte. Letztlich ist KI ein Werkzeug wie jedes andere auch. Eines, das weder „gut“ noch „schlecht“ ist. Gut oder schlecht ist allein die Art und Weise, wie die Menschen dieses Werkzeug verwenden. Und wozu.

Weitere Artikel
Warum künstliche Intelligenz eine Bedrohung für die Menschheit ist.
27.09.2022, 14  Uhr
Vorabmeldung
Der Transhumanismus ist eine Religion, die sich als Wissenschaft tarnt. Mit einer Fachtagung beleuchtet der Bundesverband Lebensrecht die Pläne der Menschenoptimierer.
05.05.2022, 19  Uhr
Stefan Rehder
Themen & Autoren
Deutscher Bundestag Frank-Walter Steinmeier Künstliche Intelligenz Nick Bostrom Raymond Kurzweil Ruprecht-Karls-Universität Heidelberg Totalüberwachung Wolfgang Herrmann

Kirche

Der Orientierungstext, der die theologischen Grundlagen behandelt, betont einseitig die Veränderlichkeit der Tradition, so der Philosoph Berthold Wald.
27.09.2022, 12 Uhr
Vorabmeldung
Frauengestalten der frühen Kirche müssen dafür herhalten, heute die Zulassung von Priesterinnen und Diakoninnen zu fordern. Textkritische Befunde geben das allerdings nicht her.
27.09.2022, 19 Uhr
Sebastian Moll
Kardinal Woelki hält an der Kölner Hochschule für Katholische Theologie fest und hofft in Sachen Konkordat auf eine baldige Einigung zwischen der Landesregierung von Nordrhein-Westfalen und ...
27.09.2022, 07 Uhr
Vorabmeldung