Ethische Regeln für KI: Führen auch hier alle Wege nach Rom?

Können Jahrtausende alte Regelwerke uns den Weg in eine bessere Zukunft mit Künstlicher Intelligenz weisen? Unsere Kolumnistin @Kryptomania, Expertin für Science Fiction, Datenschutz und Cybersicherheit, untersucht, ob ethische Prinzipien aus der Religion auf moderne Technologien angewendet werden könnten. Der Anlass? Mit dem „Rome Call for AI Ethics“ mischt sich auch der Vatikan in die Debatte um den richtigen Einsatz von KI ein. Ein bisschen Dune hat es aber auch in die Kolumne geschafft.

Eine Kolumne von Dr. Aleksandra Sowa

Wenn man Wikipedia oder Google zum Thema Religion und Science-Fiction konsultiert, enthält man wesentlich weniger Einträge, als man erwarten würde. Hat doch vermutlich jeder, der Denis Villeneuves Neuverfilmung von Dune perzipierte, die Szenen des sowohl angsteinflößenden wie auch imposanten Auftritts der Mutter Oberin der Schwesternschaft Bene Gesserit gut in Erinnerung. Diese, einem religiösen Orden nachempfundene, streng hierarchische Organisation lenkt seit Jahrtausenden im Hintergrund die Geschicke des Imperiums, ja des ganzen Dune-Universums, indem sie als ausgleichende politische Kraft im Geheimen agiert. Wikipedia vergleicht die Schwesternschaft mit Jesuitenorden oder Sufis, während Denis Villeneuve die Ordensfrauen in nachempfundenen Trachten spanischer Nonnen auftreten lässt.

Zum Thema „Christian Science-Fiction“ hat Wikipedia sogar noch weniger, nämlich ganze acht Einträge zu bieten. Dies ist insofern verwunderlich, da sich viele religiöse Werke – allen voran die Bibel – intensiv mit der Zukunft befassen. Insbesondere mit dem Leben nach dem (irdischen) Leben, ob im Himmel, im Paradies oder im Übergang ins Nirvana. Religionen bieten ihren gläubigen Anhängern oft alternative Leben in alternativen, nicht immer irdischen Welten. Die Nichtgläubigen werden mit Endzeitszenarien verwarnt, wobei aus diesem Repertoire die biblische Apokalypse zu den beliebtesten Themen religiösen Ursprungs in den Dystopien, Weltuntergangsgeschichten und zuletzt insbesondere in Climate Fiction gehören dürfte.

In Katastrophenfilmen wie Don‘t look up, in dem ein Komet auf die Erde zurast, oder 2012: Wir waren gewarnt, in dem ein nicht alt werden wollender John Cusack aka Jackson Curtis erlebt, wie ein Szenario aus seinem erfolglosen Roman, in dem die Erdkruste schmilzt und tektonische Platten auseinanderbrechen, Wirklichkeit wird, dürfen auch solche biblischen Requisiten wie die Arche Noah nicht fehlen. Auch wenn es nicht Gläubige, sondern meist ein paar Superreiche oder Supermächtige sind, die sich auf einer schwimmenden Techno-Insel über die Fluten hinweg – oder gar direkt inklusive Umzug auf einen anderen Planeten – retten können. Wer anschließend – wenn der andere Planet oder der trockene Boden unter den Füßen erreicht ist – für die Superreichen und Schönen das Holz hackt, die Schweine züchtet oder die Weißwurst produziert, wird meist elegant verschwiegen. Übrigens auch in der Bibel.

Könnte es möglicherweise sein, dass Religion eher eine Quelle der Inspiration für die Science-Fiction-Autoren und -Regisseure darstellt, als dass sie Gegenstand ihrer Erzählungen ist?

Lassen sich Ethikregeln für KI aus den Zehn Geboten ableiten?

Als vor Jahren die hektische Suche nach Ethikkriterien für Künstliche Intelligenz (KI) ausbrach und in Deutschland der Ethikrat (eine Arbeitsgruppe bestehend aus 26, vom Bundestagspräsidenten benannten Mitgliedern aus Wissenschaft, Verbänden oder kirchlichen Einrichtungen) damit beauftragt wurde, nach solchen zu suchen, war man so sehr von der Existenz genereller, alles übergreifender Kriterien überzeugt, dass man solche offensichtlichen Kriterien wie Qualität der Software, Sicherheit der Softwareentwicklung, Datenschutz etc. für Jahre in Forschung und Wissenschaft in den Hintergrund gedrückt hatte. Ignoriert wurde damit praktisch alles, was in den wenigen Jahrzehnten der Computer-Science als wissenschaftliche Disziplin als Kriterium für „gute“ Software im herkömmlichen Sinne galt.

Da es also vor allem um ethische Kriterien ging, die frei von technischen Qualitätskriterien sind, stellte sich die Frage, ob man auf der Suche danach nicht einfach auf bestehende Codizes aus der Menschenwelt ausweichen könnte. Wozu komplett neue Regeln erfinden?

Gedacht, getan. Eine Kollegin, Hochschulprofessorin für Informatik, und die Autorin dieser Kolumne nahmen sich die Zehn Gebote vor. Mit dem ersten Gebot „Ich bin der Herr, dein Gott. Du sollst keine anderen Götter haben neben mir“ ging es glatt. Die Frage war eigentlich nur, wer künftig die Rolle des „Gottes“ übernehmen wird? Ob es die Menschheit selbst sei, im Sinne der Prämisse, dass der Mensch das Ziel des Fortschritts sei und bleiben müsse. Oder ob als Deus ex Machina die KI diese Rolle übernehmen wird.

Beim zweiten Gebot „Du sollst den Namen des Herrn, deines Gottes nicht missbrauchen“, waren wir uns auch schnell einig, dass es sich hierbei um einen Aufruf oder eine Mahnung zur nachhaltigen und sorgsamen Nutzung der KI – ob durch die Wirtschaft, die Regierungen oder den Menschen als Endnutzer – handeln muss. Passt.

Im Falle des dritten Gebots, „Du sollst den Feiertag heiligen“, konnte es sich eigentlich nur um die inzwischen sehr verbreiteten Patchdays handeln, an denen IT-Hersteller versuchen, alle Löcher und Lücken, die man in ihrer Software entdeckt hat, zu kitten und zu pflastern.

Ab dem vierten Gebot, „Du sollst deinen Vater und deine Mutter ehren“, wurde es schwierig. Könnte es eine Ermahnung an die auf dem Arbeitsmarkt sehr gefragten, aber auch wechselwilligen KI-Entwickler sein, ihrem Vaterunternehmen oder der Muttergesellschaft, also dem IT-Hersteller, der sie beschäftigt, arbeitstechnisch treu zu bleiben? Kein Know-how, keine Erfahrungen oder etwaige Geschäftsgeheimnisse auf einem Memorystick zur Konkurrenz mitzunehmen?

Ist die KI ein menschliches Werk – oder gar Gottes Schöpfung?

Während wir über die richtige Auslegung des vierten Gebots in der Mensch-Maschine-Welt noch nachgrübelten, konnten wir das fünfte Gebot, „Du sollst nicht töten“, rasch überspringen. Das wurde bereits in den Sechzigern in den asimovschen Robotergesetzen gleich an der ersten Stelle festgelegt: „Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.“ Das Menschenleben ist und bleibt für die Maschinen tabu. Es sei denn, diese Maschine ist ein Kampfroboter – dann gibt es Ausnahmen.

Der Sicherheitsguru Bruce Schneier hat deswegen in seinem Buch Click Here to Kill Everybody dafür plädiert, zwischen halb autonomen und autonomen Waffensystemen nicht zu unterscheiden und sie gleich stringent zu regulieren bzw. zu verbieten. Verbote von Hochrisikotechnologien waren in der EU eigentlich geplant. Doch letztendlich entschied man sich, den Militärbereich gar nicht zu regulieren. Jedenfalls nicht im AI-Act.

Doch anders als KI-Verordnung oder das deutsche Grundgesetz sind die Zehn Gebote und damit auch das fünfte Gebot unerschütterlich gegen jedwede Versuche der Einflussnahme oder Veränderung resistent und bleiben dem bedingungslosen Schutz des menschlichen Lebens verpflichtet. Oder sogar jedes Lebens, wenn man der Interpretation des Theologen Eugen Drewermann zustimmt. Dieser sprach sich dafür aus, den Schutz auch auf andere göttliche Schöpfungen auszuweiten, also beispielsweise auch auf Tiere. „Recht verstanden bedeutet das 5. Gebot ‚Du darfst nichts töten‘, was lebt, außer im äußersten Notfall – und der darf nie die Regel werden!“, konkretisierte Drewermann in Die zehn Gebote.

Ob gegebenenfalls auch der Schutz Künstlicher Intelligenz vor etwaiger Zerstörung oder Abschaltung darunterfallen könnte – oder was auch immer man unter Töten einer Software versteht –, hängt mitunter davon ab, ob man bereit ist, die KI nicht als menschliches Werk, sondern als Schöpfung Gottes zu betrachten.

Beim sechsten und siebten Gebot – „Du sollst nicht ehebrechen“ und „Du sollst nicht stehlen“ – mussten wir aufgeben. Uns wollte einfach kein Anwendungsfall einfallen, bei dem diese Gebote relevant sein könnten. Könnte man sie als Aufforderung sehen, dass KI-Entwickler ihren Arbeit- bzw. Auftraggeber, den Tech-Konzernen treu und „bis der Tod uns scheidet“ verpflichtet bleiben? Könnte man mit dem siebten Gebot regeln, dass der KI-Entwickler seine Ideen und sein Wissen nicht mit zu einem anderen Anbieter, zur Konkurrenz mitnimmt oder gar – ein häretischer Gedanke – ein eigenes Unternehmen gründet oder sein eigenes KI-Modell entwickelt? Dies würde allerdings nicht explizit ethische Regeln für die Künstliche Intelligenz bedeuten. Sondern lediglich das Verhältnis zwischen zwei Interessengruppen regulieren. Das wäre vermutlich auch sinnvoll, aber nicht unser Ziel.

An dieser Stelle wurde uns klar, woran es lag, dass wir mit unserer Analyse nicht weiterkamen: Die Zehn Gebote regeln die Haltung des Menschen zu Gott und zu den Mitmenschen. Ethische Regeln für Künstliche Intelligenz sollten aber das Verhältnis zwischen der Maschine und den Menschen regeln – was weder in die eine noch in die andere Kategorie fällt. Ohne sich darüber im Klaren zu sein, welche der unterschiedlichen Interessengruppen und Akteure den anderen die Regeln aufoktroyieren darf – die IT-Hersteller, die hinter der KI stehen, die KI-Entwickler, die Politik und die Regulierer oder die Anwender –, dürfte es schwierig sein, Konsens zu finden. In der Hinsicht sind auch die politischen Papiere wie die Wahl- oder Digitalprogramme der Parteien keine große Hilfe, halten sie doch an der Teilung der Verantwortung zwischen den Nutzern und den Herstellern fest.

Eventuell liegt eine weitere Ursache für unser Scheitern, aus den Zehn Geboten ethische Kriterien für KI abzuleiten, auch darin, dass das System inzwischen zu viele Götter hat, die ihre Interessen, per fas et nefas, durchsetzen wollen, sei es, wie OpenAI, Einfluss auf die Gesetzgebung und Regulierung ausübend. Oder als Investoren und „Engel“ der Start-ups oder Jungunternehmen, die Richtung der Entwicklung der Technologie bestimmend.

Der Vatikan kümmert sich bereits um KI – und der Deutsche Ethikrat

Trotzdem war unsere Mühe nicht ganz umsonst. Jemand anders hat über all dies intensiver und detaillierter nachgedacht. Und es war niemand Geringeres als die Päpstliche Akademie für das Leben. Zusammen mit Microsoft, IBM, der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) und der italienischen Regierung wurde der Aufruf für eine KI‐Ethik – Rome Call for AI Ethics – erstmalig am 28. Februar 2020 unterzeichnet. Inzwischen gehören auch jüdische und muslimische Religionsführer sowie das Unternehmen CISCO zu den Unterzeichnern. Das Dokument wurde geschaffen, erklären die Autoren, „um einen ethischen Ansatz zur Künstlichen Intelligenz zu unterstützen und das Gefühl der gemeinsamen Verantwortung von Organisationen, Regierungen und Institutionen zu fördern, mit dem Ziel, eine Zukunft zu sichern, in der digitale Innovation und technologischer Fortschritt dem Menschen und der Kreativität dienen und nicht deren allmählicher Ersetzung.“

Bezüglich dieser Aussage ist der Rome Call for AI Ethics mit der wesentlich später, nämlich am 20. März 2023 vom Deutschen Ethikrat veröffentlichten Stellungnahme Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, in der „die Auswirkungen digitaler Technologien auf das menschliche Selbstverständnis und Miteinander umfassend untersucht“ wurden, kompatibel. „Der Einsatz von KI muss die menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen. Das sind grundlegende Regeln für die ethische Bewertung“, sagte bei der Vorstellung des Papiers die Vorsitzende des Ethikrats, Alena Buyx.

Doch beide Dokumente unterscheiden sich an zwei wesentlichen Stellen: Erstens passt der Rome Call for AI Ethics, sogar aufwendig als eine Broschüre designt, auf gerade zwölf Seiten, während die Stellungnahme des Ethikrats stolze 403 Seiten umfasst. Nachdem die im Jahr 2018 gegründete Datenethikkommission im Oktober 2019 ihr Gutachten zur algorithmischen Entscheidungen vorlegte (man hat sich bewusst gegen den Begriff KI entschieden), umfasste das Papier 240 Seiten. „Hätten wir mehr Zeit gehabt, wäre es kürzer geworden“, sagte die Co-Sprecherin, Christiane Wendehorst auf dem Europäischen Datenschutztag in Berlin. Gemessen an der Zeit, die der Ethikrat für seine Stellungnahme benötigte, müsste es sich bei den 403 Seiten um die kürzere Version handeln. Zweitens lässt der Aufruf aus dem Vatikan keine Ausnahmen zu, während die Stellungnahme aus Deutschland unterschiedliche branchenspezifische Empfehlungen formuliert, ob für Medizin, Bildung oder den öffentlichen Bereich.

Neben der Forderung, die neue Technologie solle der gesamten „Menschheitsfamilie“ dienen, sollte die KI laut Aufruf auch „die jedem ihrer Mitglieder und jeder natürlichen Umwelt innewohnende Würde“ respektieren „und die Bedürfnisse derer berücksichtigen, die am verletzlichsten sind“. Diese Forderungen ziehen sich wie ein roter Faden durch den gesamten Text des Rome Call for AI Ethics: ob in der Forderung einer diskriminierungsfreien Ethik („KI‐basierte Technologie darf niemals dazu benutzt werden, Menschen in irgendeiner Weise auszubeuten, insbesondere nicht diejenigen, die am verletzlichsten sind.“), einer inklusiven Erziehung („Im Bildungssektor sind Reformen notwendig, um hohe und objektive Standards zu etablieren, die individuelle Ergebnisse verbessern zu können. Diese Standards sollten sich nicht auf die Entwicklung von digitalen Fähigkeiten beschränken, sondern sich stattdessen darauf konzentrieren, dass jede Person ihre Fähigkeiten voll zum Ausdruck bringen kann, sowie darauf, dass der Einsatz für das Wohl der Gemeinschaft erfolgt, auch wenn daraus kein persönlicher Nutzen gezogen werden kann.“), oder nach transparenten Rechten („Die Entwicklung der Künstlichen Intelligenz im Dienste der Menschheit und des Planeten muss sich in Vorschriften und Prinzipien widerspiegeln, die die Menschen – insbesondere die Schwachen und Unterprivilegierten – und die natürliche Umwelt schützen.“).

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Um die Ziele zu erreichen, schlagen die Autoren vor, bei der Entwicklung jedes Algorithmus, von Anfang an eine „algorethische“ Vision zu verfolgen, die beispielsweise im Rahmen von „Ethik durch Design“ umgesetzt wird. Die ethische Nutzung von KI, genannt „Algor-Ethik“, wird durch sechs Prinzipien definiert, die zugleich „grundlegende Elemente einer guten Innovation“ darstellen. Diese Prinzipien sind: Transparenz oder Erklärbarkeit der KI‐Systeme; Inklusion; Verantwortung, wobei damit gemeint ist, dass diejenigen, „die den Einsatz von KI konzipieren“, mit Verantwortung und Transparenz vorgehen müssen; Unvoreingenommenheit, darunter „Fairness und Menschenwürde“ gewährleisten; Verlässlichkeit, d. h., KI‐Systeme müssen zuverlässig arbeiten; sowie Sicherheit und Privatsphäre: „KI‐Systeme müssen sicher arbeiten und die Privatsphäre der Benutzer respektieren.“

Nicht die Zehn Gebote, sondern die Allgemeine Erklärung der Menschenrechte werden zum Bezugsrahmen

Im Unterschied zum AI-Act der EU exkludiert der Rome Call for AI Ethics keinen bestimmten Bereich oder keine Branche explizit. Der Abschnitt: „Um KI‐Systeme zu entwickeln und einzusetzen, die der Menschheit und dem Planeten zugutekommen und gleichzeitig als Mittel für den Aufbau und die Erhaltung des internationalen Friedens fungieren, muss die Entwicklung der KI mit robusten digitalen Sicherheitsmaßnahmen einhergehen“, lässt sich also auf den Militärbereich beziehen. Für „hochentwickelte Technologien, die ein höheres Risiko der Auswirkung auf die Menschenrechte bergen, z. B. die Gesichtserkennung“ werden „[n]eue Formen der Regulierung“ empfohlen, die „angeregt“ werden müssen, um „Transparenz und Einhaltung ethischer Grundsätze zu fördern“. Gewiss, es sind noch keine konkreten Standards oder Handlungsempfehlungen und auch kein Gesetz, doch, um es mit den Worten von Evgeny Morozov auszudrücken, bevor man Computer und Technologie bei einer Mission sinnvoll einsetzen möchte, sollte die Mission klar sein.

Eventuell sind das die Vorteile des Rome Call for AI Ethics und auch der Grund, warum kürzlich ein weiterer Protagonist den Aufruf unterzeichnete: der Erzbischof von Canterbury, Justin Welby, berichtete Vatican News. Womit auch die anglikanische Kirche dem Aufruf zu einer ethischen Entwicklung der KI „die der Menschheit und nicht dem Profit dient, die der allmählichen Verdrängung des Menschen am Arbeitsplatz entgegenwirkt“ folgte. Denn anders als in unserem ersten Ansatz, liegen dem Römischen Aufruf zu einer KI-Ethik nicht die Zehn Gebote, sondern die Allgemeine Erklärung der Menschenrechte zugrunde: „In dem Bereich setzt der Vatikan auf religions- und konfessionsübergreifende sowie interdisziplinäre Zusammenarbeit“, betonte Vatican News und bestätigte, dass Papst Franziskus auf dem G7-Gipfel zum Thema Künstliche Intelligenz sprechen wird.

All dies käme dem Verständnis der Religion von Frank Herbert aus dem Dune-Universum schon sehr nahe: Die Religion sei nichts anderes als „die älteste und ehrenhafteste Form jeder menschlichen Bestrebung, die nach dem Sinn von Gottes Universum fragt“, heißt es in Der Wüstenplanet, „Wissenschaftler forschen nach den Gesetzmäßigkeiten von Ereignissen. Es ist die Aufgabe der Religion, den Menschen in die Gesetzmäßigkeit mit einzubeziehen.“

Dr. Aleksandra Sowa gründete und leitete zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst Görtz Institut für Sicherheit in der Informationstechnik. Sie ist zertifizierter Datenschutzauditor und IT-Compliance-Manager. Aleksandra ist Autorin diverser Bücher und Fachpublikationen. Sie war Mitglied des legendären Virtuellen Ortsvereins (VOV) der SPD, ist Mitglied der Grundwertekommission und trat als Sachverständige für IT-Sicherheit im Innenausschuss des Bundestages auf. Außerdem kennt sie sich bestens mit Science Fiction aus und ist bei Twitter als @Kryptomania84 unterwegs.

Alle Ausgaben ihrer Kolumne für 1E9 findet ihr hier.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!