Kolumne: Ethik in der KI-Forschung

Der Begriff „Ethik“ ist eine höchst vieldeutige „Edelvokabel“. Von Klaus Baumann

kolumne: Ethik in der KI-Forschung
Der Autor ist Professor für Caritaswissenschaft und christliche Sozialarbeit an der Universität Freiburg.Die Kolumne erscheint in Kooperation mit der Katholischen Sozialwissenschaftlichen Zentralstelle.

Ökonomische Interessen und möglichst frühzeitige Einbeziehung ethischer Fragen konfligieren in gravierendem Ausmaß im Feld künstlicher Intelligenz (KI). Eine von der Europäischen Kommission im Juni 2018 eingesetzte Arbeitsgruppe aus 52 mehrheitlich der Industrie nahestehenden Experten hatte im Dezember letzten Jahres einen Entwurf für „Ethik-Leitlinien für eine vertrauenswürdige KI“ veröffentlicht. Deren Frist war nach öffentlichem Protest um mehrere Wochen verlängert worden. Es folgten 511 kritische Eingaben und Kommentare. Im April hat nun die Europäische Kommission selbst Vorschläge für eine KI-Strategie veröffentlicht, der Titel: „Vertrauen bilden in eine menschen-zentrierte KI“. Die Beamten der Kommission korrigieren dabei die Vorschläge der Expertengruppe. Die hatte davor gewarnt, dass ethische Leitlinien die Entwicklung der KI in Europa nicht „ersticken“ dürften. Demgegenüber betont nun die Kommission, dass „Vertrauen eine Voraussetzung für einen menschen-zentrierten Ansatz für KI ist: KI ist kein Selbstzweck, sondern ein Instrument, das den Menschen dienen muss mit dem Ziel, menschliches Wohlergehen zu vergrößern“; dieses Wohlergehen werde gemessen an den Werten, auf welche die EU gegründet ist: auf „die Werte des Respekts vor der menschlichen Würde, Freiheit, Demokratie, Gleichheit, der Herrschaft des Rechts und des Respekts für die Menschenrechte“.

Das wirklich Überraschende: Mitarbeiter der EU-Kommission behandelten ethische Fragen erkennbar anders als die „hochrangige Expertengruppe“. Deren Ethik hatte in ihnen offenkundig schweres ethisches Unbehagen hervorgerufen. Der Vorgang zeigt deutlich: Der Begriff „Ethik“ ist eine höchst vieldeutige „Edelvokabel“. Möglicherweise half den EU-Beamten für ihr Vorgehen die Vorabkenntnis der fünf OECD-Prinzipien für KI, die im Mai von 42 OECD-Mitgliedsstaaten (inkl. USA) und weiteren Ländern angenommen worden sind. KI solle (1) „inklusives Wachstum, nachhaltige Entwicklung und Wohlstand“ für Menschen und den Planeten fördern, (2) im Dienst einer gerechten Gesellschaft die Herrschaft des Rechts, die Menschenrechte, demokratischen Werte und Diversität respektieren und stets durch menschliche Interventionen kontrolliert und verändert werden können. (3) KI soll so transparent sein, dass die Menschen die Ergebnisse von KI verstehen und in Frage stellen können. (4) KI-Systeme sollen ununterbrochen stabil und sicher sein und in ihren Risiken überwacht und kontrolliert werden. (5) Organisationen und Individuen in der KI-Entwicklung, -Verbreitung und -Anwendung sollen zur Rechenschaft gezogen werden dafür, dass KI diesen Prinzipien entsprechend funktioniert. Diese Prinzipien klingen gut; sie besitzen keine Gesetzeskraft, wollen jedoch internationale Standards und Ziele etablieren. Was jedoch „ethisch“ tatsächlich mit diesen Prinzipien gemeint ist und belastbar eingefordert werden kann und wird, ist im weiten Korridor der formulierten Prinzipien offen. Die weitere Entwicklung erfordert eine kontinuierliche Pflege kritischer ethischer Diskurse mitten in den KI-Entwicklungen, -Verbreitungen und -Anwendungen.

kolumne: Ethik in der KI-Forschung
Der Autor ist Professor für Caritaswissenschaft und christliche Sozialarbeit an der Universität Freiburg.Die Kolumne ers...