Zeit zu sterben?

Künstliche Intelligenz hat eine neue Qualität erreicht. In neuronalen Netzen findet sie selbstständig Wege, vorgegebene Ziele zu erreichen. Von Stefan Rehder
integrated microchip
Foto: (51490712) | Künstliche Intelligenz hat eine neue Qualität erreicht.

Am Ende von Ridley Scotts Kultfilm "Blade Runner" reflektiert der von Rutger Hauer meisterhaft gespielte Replikant Roy Batty im Angesicht seines Todes seine kurze Existenz. "Ich habe Dinge gesehen, die ihr Menschen niemals glauben würdet. Gigantische Schiffe, die brannten, draußen vor der Schulter des Orion. Ich sah C-Beams, glitzernd im Dunkeln nahe dem Tannhäuser Tor. All diese Momente werden verloren sein in der Zeit, so wie Tränen im Regen. Zeit ... zu sterben."

Im Los Angeles des Jahres 2019, in welchem der 1982 in die Kinos gekommene düstere Science-Fiction-Streifen spielt, sind die Replikanten der Serie Nexus-6 bereits derart hoch entwickelt, dass sie sich von Menschen nur noch mittels eines speziellen Testverfahrens, dem Voigt-Kampff-Test, unterscheiden lassen. Weil die Nexus-6-Replikanten Menschen ansonsten jedoch in praktisch allen Belangen überlegen sind, haben ihre Entwickler ihre Lebensdauer vorsorglich auf vier Jahre begrenzt. Ein Umstand, mit dem sich Roy nicht abfinden will.

Heute sind die möglichen Chancen und Risiken, welche die Erschaffung Künstlicher Intelligenz (KI) für die Menschheit birgt, sowie deren Umgang damit, längst nicht nur Thema von Science-Fiction-Filmen. In Büchern wie "Menschheit 2.0.: Die Singularität naht" von Ray Kurzweil (Lola Books, 2014) oder "Superintelligenz   Szenarien einer kommenden Revolution" von Nick Bostrom (Suhrkamp, 2016) werden sie ausführlich diskutiert. Dabei ist die Entwicklung Künstlicher Intelligenz nach Auffassung der beiden Chefvordenker des Transhumanismus bislang nicht einmal den Kinderschuhen entwachsen. Das Beunruhigende daran: Auch die bis jetzt mit KI erzielten Leistungen und Erfolge vermögen durchaus zu beeindrucken.

Ein Beispiel: 1997 gelang es dem von IBM entwickelten Schachcomputer "Deep Blue" niemand Geringeren als den damaligen Schachweltmeister Gary Kasparov in einem Wettkampf unter Turnierbedingungen zu besiegen. Und dabei brillierte "Deep Blue" in erster Linie durch sein Speichervolumen und seine Rechenleistung, anstatt durch das, was von KI-Forschern heute "maschinelles Lernen" oder auch "Deep Learning" genannt wird. Es war die schiere Rechenleistung, die es "Deep Blue" erlaubte, bis zu 200 Millionen Stellungen pro Sekunde zu berechnen und Kasparov in die Knie zu zwingen. "Lernen" konnte "Deep Blue" nicht.

Ganz anders das von der Google-Tochter "DeepMind" entwickelte Computerprogramm "AlphaGo", das seine Entwickler mit einer Architektur ausstatteten, die als neuronales Netz bezeichnet wird. Im Frühjahr 2016 schlug das Programm den Südkoreaner Lee Sedol, der als derzeit weltbester Go-Spieler gilt.
Go ist ein chinesisches Strategiespiel, bei dem die Spieler abwechselnd schwarze und weiße Steine auf einem Brett platzieren. Ziel ist es, durch das Legen geeigneter Formationen am Ende möglichst große Gebiete des Spielfeldes zu beherrschen, wobei auch Steine des Gegners eingeschlossen werden können. Aufgrund des größeren Spielfeldes (19x19) und dem daraus resultierenden Vielfachen möglicher Positionen gilt Go als ungleich komplexer als Schach. In China zählte Go neben der Malerei, der Kalligraphie und der Qin-Musik traditionell zu den vier grundlegenden Künsten, die jede gebildete Person beherrschen sollte.

Im Winter 2017 präsentierte Deep Mind unter dem Namen AlphaGo Zero dann eine neue Entwicklungsstufe von AlphaGo. Dabei hatten die Entwickler die neue Version erstmals ausschließlich mit den Spielregeln des Spiels ausgestattet. Menschlichen Strategien, beziehungsweise die Zugfolgen von Partien, die Menschen gespielt hatten, wurden dem Programm vorenthalten. Und siehe da: Nachdem es drei Tage lang gegen sich selbst gespielt und so "Erfahrungen" gesammelt hatte, war AlphaGo Zero deutlich stärker als die Version, die Lee Sedol besiegt hatte. AlphaGo Zero schlug seine frühere Version in 100 Partien ganze einhundertmal.
Anders als bei der traditionellen Programmierung, bei der ein Programmierer einem Computer Schritt für Schritt vorgibt, welche Anweisungen von ihm ausgeführt werden sollen, wird der KI beim sogenannten "maschinellen Lernen" vereinfacht gesprochen lediglich ein Ziel vorgegeben, das erreicht werden soll. Das Besondere an künstlichen neuronalen Netzwerken ist, dass sie sich   unter Beachtung der Naturgesetze   dabei selbstständig verändern und neu anordnen können, um bei der Ausführung der erwünschten Berechnungen immer besser zu werden.

Dieser Umstand flößt selbst im Silicon Valley, dem Mekka der KI-Forschung, vielen Respekt und manchen Angst ein. "Ich verstehe nicht, warum Menschen nicht besorgt sind", erklärte unlängst Microsoft-Gründer Bill Gates. Der im Frühjahr verstorbene Physiker Stephen Hawking vertrat gar die Ansicht, dass "Künstliche Intelligenz" das "Ende der Menschheit" bedeuten könnte. Und Tesla-Gründer Elon Musk sagte einmal: "Wenn ich raten müsste, was unsere größte existenzielle Bedrohung ist, dann ist es vermutlich das."
Einer, der keinen Zweifel daran hegt, dass KI zukünftige Gesellschaften massiv verändern und womöglich gar völlig neu strukturieren wird, ist der Physiker Mark Tegmark. Der gebürtige Schwede ist Professor am renommierten Massachusetts Institute of Technology (MIT) und Mitbegründer des "Future of Life Institute", das die menschliche Zukunft im Zeitalter künstlicher Intelligenz erforscht.

In Cambridge arbeitet Tegmark Tür an Tür mit den weltweit führenden KI-Entwicklern, die ihm Einblicke in ihre Labors gewährten. In seinem im vergangenen Jahr im Ullstein-Verlag erschienenen Buch "Leben 3.0" sucht er, ausgehend von dem Umstand, dass Menschen damit begonnen haben, Maschinen zu bauen, die sich selbst programmieren können, Antworten auf die Frage, "was passiert, wenn Maschinen uns in jeder Hinsicht überlegen sind?"

In dem lesenswerten, mehr als 500 Seiten starken Werk entwirft der Physiker dabei gleich fünf alternative Zukünfte, die vom "wohlwollenden Diktator" über den "versklavten Gott", die Rückkehr der Menschheit zu einer vortechnologischen Zivilisation, bis zur Ausrottung durch die Maschinen sowie der vorherigen Selbstzerstörung durch nukleares oder biotechnisches Chaos reichen.

Dabei definiert Tegmark "Intelligenz" ganz einfach als die "Fähigkeit, komplexe Ziele zu erreichen". Ob diese Fähigkeit dabei von Menschen oder Maschinen in Anschlag gebracht wird, ist für ihn nicht ausschlaggebend. Intelligenz benötige, so Tegmark, der sich zu einem materialistischen Weltbild bekennt, "weder Fleisch noch Blut noch Kohlenstoffatome".

"Die Angst vor Maschinen, die böse werden", sei in Wirklichkeit ein "Ablenkungsmanöver". Tatsächlich "besorgniserregend" sei nicht "Bosheit", sondern "Kompetenz". "Eine superintelligente KI ist definitionsgemäß sehr gut darin, ihre Ziele zu erreichen." Deshalb müsse die Menschheit sicher gehen können, "dass ihre Ziele mit den unseren übereinstimmen." Auch brauche eine KI, um Menschen Schaden zuzufügen, "keinen Roboterkörper, sondern lediglich eine Internetverbindung". Dass Maschinen keine Kontrolle über Menschen ausüben könnten, sei ein Mythos. Intelligenz ermögliche Kontrolle.
"Wir Menschen kontrollieren Tiger nicht, weil wir stärker, sondern weil wir schlauer sind." Wenn die Menschheit ihre "Stellung als schlaueste Spezies auf unserem Planeten" abgebe, dann sei es auch "wahrscheinlich", dass sie damit zugleich "die Kontrolle" abgebe.

Ähnlich wie Ray Kurzweil unterteilt auch Tegmark die Evolution in drei Stufen. Eine biologische (Leben 1.0), eine kulturelle (Leben 2.0) und eine technologische (Leben 3.0), in der Maschinen sich selbst gestalten. Anders als Kurzweil oder als der Evolutionsbiologe Richard Dawkins, einer der bekanntesten Vertreter des "Neuen Atheismus", verspürt Tegmark jedoch nicht den Wunsch, sich selbst programmierenden Maschinen das Feld zu überlassen. Und während Dawkins überzeugt ist, "dass alles, was ein menschliches Gehirn kann, durch Silizium repliziert werden kann", räumt Tegmark ehrlicherweise ein, dass bisher niemand genau sagen könne, was "Bewusstsein" sei oder wie "Intelligenz" entstehe.

Für den Physiker aber ist das auch gar nicht ausschlaggebend. Die Tatsache, dass das Programm AlphaGo sich durch maschinelles Lernen selbst befähigte, den Profispieler Lee Sedol mit bis dato völlig unbekannten Strategien zu besiegen, ist für Tegmark Grund genug, die Gefahr, die von sich selbst optimierenden Programmen ausgehen könnte, überaus ernst zu nehmen. "Die Menschheit hat jahrtausendelang Go gespielt und dennoch haben wir, wie die KI gezeigt hat, nicht einmal an der Oberfläche gekratzt", zitiert Tegmark Lees Kollegen Ke Jie.

Tegmark ist kein Maschinenstürmer, der technologischen Fortschritt verteufelt. Aber er verschließt auch die Augen vor seinen möglichen Gefahren nicht. "Bis jetzt haben unsere Technologien eigentlich hinlänglich wenige und begrenzte Unfälle verursacht, so dass die Vorteile die Nachteile überwiegen. Da wir jedoch unaufhaltsam immer leistungsfähigere technische Systeme entwickeln, werden wir unvermeidlicherweise irgendwann den Punkt erreichen, wo selbst ein einfacher Unfall verheerend genug sein könnte, um alle Vorteile zunichte zu machen."

Weitere Artikel
Künstliche Intelligenz: Zauberformel des technischen Fortschritts?
Nur ein weiteres Werkzeug Logo Johann Wilhelm Naumann Stiftung
Künstliche Intelligenz: „Zauberformel des technischen Fortschritts“ oder Bedrohung des Fortbestandes der Menschheit. Von Stefan Rehder
30.10.2018, 12  Uhr
Schäferjunge mit Schafen
WARSCHAU
Wie man wird, was man ist Premium Inhalt
Welchen Wert kann ein Leben haben, das auf der Angst vor dem scheelen Blick beruht? Ein Aufruf zum Selbstsein zwischen Egozentrik und Aufgehen im Kollektiv.
10.01.2021, 09  Uhr
David Engels
Themen & Autoren
Bill Gates Clinton Richard Dawkins Elon Musk Entwickler IBM Intelligenz Massachusetts Institute of Technology Menschheit Physikerinnen und Physiker Raymond Kurzweil Ridley Scott Stephen Hawking Suhrkamp Verlag Ullstein Verlag Ziele

Kirche

Papst in der Slowakei
Bratislava
In das reale Leben eintauchen Premium Inhalt
Die Pastoral muss kreativ begleiten und motivieren. In der Slowakei will die Kirche dafür den richtigen Weg finden. Papst Franziskus ermutigte bei seinem Besuch dazu. Ein Gastkommentar.
18.09.2021, 19 Uhr
Thomas Schumann