Noch sind Menschen nicht ersetzbar

„Können Maschinen denken?“ – Podiumsdiskussion in Berlin zum 100. Geburtstag des Computervisionärs Alan Turing. Von Katrin Krips-Schmidt

Das Alan-Turing-Denkmal aus einer halben Million Schieferplättchen in Bletchley nahe London, wo Turing im Zweiten Weltkrieg den deutschen U-Boot-Code knackte. Foto: dpa
Das Alan-Turing-Denkmal aus einer halben Million Schieferplättchen in Bletchley nahe London, wo Turing im Zweiten Weltkr... Foto: dpa

Science Fiction-Romane aus der Feder Asimovs und Fantasyfilme a la „Matrix“ zeichnen ein beklemmendes Bild von der Zukunft: Da haben Maschinen ihren nunmehr hilflosen Schöpfern, den Menschen, die Macht entrissen und beherrschen die Welt. Doch dazu wird es in der Realität, wohl auch künftig, nicht kommen.

Weit entfernt von einem oftmals nahezu horrormäßig aufbereiteten Szenario einer Dominanz superintelligenter Elektrogehirne wurde in der letzten Woche im Rahmen des „Forums Technoversum“ im Deutschen Technikmuseum Berlin die Frage „Können Maschinen denken?“ aufgeworfen und von kompetenter Seite hinreichend geklärt.

Dass es bei der mit über 200 Gästen sehr gut besuchten Diskussionsveranstaltung äußerst spannend zuging, ist nicht zuletzt der Auswahl an hochkarätigen Podiumsteilnehmern zu verdanken, die unter anderem in Forschung und Lehre an der Freien Universität Berlin sowie der Universität Lübeck tätig sind. Gewidmet war sie dem Leben und Werk eines der genialsten Pioniere des Computerwesens: Alan Turing (1912–1954), der am 23. Juni 2012 hundert Jahre alt geworden wäre und bereits mit 42 Jahren starb.

Eine von BBC News kürzlich publizierte Meldung wirft ein neues Licht auf die Suizidthese, nach der sich Turing am 7. Juni 1954 das Leben genommen hat. Wegen Depressionen, wie es landläufig heißt, denn der wegen seiner offen gelebten Homosexualität angeklagte Wissenschaftler, vor die Wahl „Gefängnis oder chemische Kastration“ gestellt, entschied sich für die Hormontherapie. Auf seinem Nachttisch fand sich neben dem im Bett liegenden Toten noch der angebissene, vermeintlich von ihm selbst vergiftete Apfel – der übrigens zum Logo des Computerherstellers Apple wurde. Nach heutiger Beweislage könne die These einer Selbsttötung – so die BBC – indes nicht aufrechterhalten werden. Turing starb zwar an einer Zyankali-Vergiftung, soviel ist sicher, doch weder wurde der Apfel auf das Gift hin untersucht, noch lässt seine Stimmungslage an den Tagen unmittelbar vor seinem Tod einen Suizid vermuten. Ebenso gut könne von einem Unfall ausgegangen werden. Turing, der gerne experimentierte, hatte Cyanid in seinem Haus vorrätig und war für seine Leichtfertigkeit im Umgang mit Chemikalien und Strom bekannt, von der mehrere erlittene elektrische Schläge Zeugnis geben.

Zurück bleibt die Gewissheit, dass die Umstände seines Ablebens ungewiss sind und es wohl auch für immer bleiben werden, getreu der herausragenden Erkenntnis des Logikers, die zu den wesentlichen Fundamenten der theoretischen Informatik zählen: mathematische Beweise sind nicht automatisierbar, soll heißen, sogar auf dem Gebiet der Mathematik lässt sich nicht alles beweisen, und man kann noch nicht einmal immer eindeutig entscheiden, ob man etwas beweisen kann.

Drei weitere Leistungen sind es, die mit dem Namen des britischen Mathematikers und Kryptoanalytikers untrennbar verbunden bleiben: die Entwicklung der ersten Schachprogramme und das Knacken des Enigma-Codes, mit dem die deutsche Wehrmacht im Seekrieg Nachrichten im Atlantik verschlüsselt versendete. Durch das Abhören und Dechiffrieren gelang es den Alliierten, die vor den britischen Inseln positionierten U-Boote der Deutschen zu orten und aufzubringen. Außerdem entwickelte er die Turingmaschine, ein Verfahren zur Messbarkeit Künstlicher Intelligenz, kurz KI genannt. Vor einem Computer sitzende Probanden stellen diesem Fragen, und anhand einer Unzahl vorformulierter Chatzeilen – das ist der Turingtest – entscheiden die Versuchspersonen, ob sie es mit einer Maschine oder mit einem Menschen, also einem echten intelligenten System, zu tun haben. Bis zum heutigen Tag hat noch kein Computer diesen Test bestanden und das wird sich nach Ansicht von Raúl Rojas – Professor für Informatik mit Spezialgebiet künstliche neuronale Netze an der FU Berlin – auch in den nächsten 50 Jahren nicht ändern.

Maschinen scheitern in einem Chatgespräch mit Menschen unter anderem an Fähigkeiten wie Humor und Ironie, da es dabei über die bloße Spracherkennung hinaus um das semantische Verständnis von Sprache geht – was eine so komplexe Leistung ist, die zu ihrer Bewältigung ein menschliches Gehirn voraussetzt. Ebenso wie das Lügen, das – so Rojas – die höchste menschliche Intelligenzleistung überhaupt darstellt, denn man muss nachvollziehbar lügen, indem man sich in die Gedankenwelt des anderen hineinversetzt.

Wie weit sind wir also von echter Künstlicher Intelligenz noch entfernt? Um diese Frage zu beantworten, müssen zunächst Definitionen her. Denn was bedeutet überhaupt Denken, was Intelligenz? Ganz zu schweigen vom Bewusstsein, einer Sphäre, mit der man sich in diesem Forum freilich nicht auseinandersetzen wollte. Interessant werde es für den Mathematik-Professor an der FU, Günter M. Ziegler, dort, wo es um Kreativität geht. Während Rechner durchaus in der Lage sind, auf bestimmten Gebieten ihnen von Informatikern einprogrammierte menschliche Teilfähigkeiten zu übernehmen – diese also zu „imitieren“ – sind sie doch selbst nicht „kreativ“. Denn das bedeutete, plötzlich Neues aus sich selbst heraus zu entwickeln, etwas, das der Programmierer nicht bereits in das System eingegeben hat.

Am Einspruch des Lübecker Professors für Theoretische Informatik Till Tantau, der durch einen Zufallsgenerator „Kreativität“ programmieren möchte, zeigte sich, wie schwierig es bisweilen mit allgemeingültigen Definitionen ist, die daher umso unentbehrlicher sind.

Aber wollen wir überhaupt „kreative“ Maschinen, die uns Menschen in allem so ähnlich wie möglich sind? Geht es nicht vielmehr darum, dass sie uns Tätigkeiten abnehmen, wie Sprach- und Gesichtserkennung oder auch Zeichnen? Dass sie bestimmte Arbeiten schneller für uns erledigen? Oder warum – so fragte Professor Ziegler – kann man Computer nicht stattdessen für solche Aufgaben einsetzen, die wir Menschen selbst gar nicht beherrschten?

Die Maschine als Mensch – in der Zeit der Aufklärung als „l'homme machine“ vom französischen Philosophen Julien Offray de la Mettrie (1709–1751) bereits als durchaus ernst gemeinte Vision antizipiert – sollte jedenfalls nicht unsere Zielvorstellung sein.

Dazu zitierte die Informatikerin und Sprecherin des Chaos Computer Clubs Constanze Kurz Joseph Weizenbaum (1923–2008), den berühmten IT-Kritiker, mit den Worten: „Was ist das für ein Menschenbild, was bedeutet das, wenn man glaubt, dass man Menschen jetzt herstellen kann?"

„Computer sind dumm“, so lautete die apodiktische Aussage Professor Rojas, der wohl niemand widersprechen wollte. Wie vor sechzig Jahren, als das Rechnerwesen noch in den Kinderschuhen steckte, sind wir auch heute noch ebenso weit davon entfernt, Maschinen echte Intelligenz beizubringen, woran sich auch in absehbarer Zeit nichts ändern wird. Grämen müssen wir uns deshalb aber nicht. Denn das, was Computer heute leisten, wenn sie von intelligenten Menschen programmiert werden, ist enorm.

Computer können mathematische Probleme – und nur diese – besser als wir Menschen lösen. Einsatzgebiete gibt es zuhauf.