Wissenschaftler wollen einer Künstlichen Intelligenz beigebracht haben, was „richtig“ und „falsch“ ist

,

Kann eine Künstliche Intelligenz Moral und Ethik erlernen? Laut Forschern der TU Darmstadt ist das grundsätzlich machbar – und zwar, indem die Künstliche Intelligenz viel liest. Dadurch wollen die Entwickler ein Computersystem erschaffen haben, das zwischen „richtig“ und „falsch“ unterscheiden kann. Perfekt funktioniert das aber bisher nicht.

Von Michael Förtsch

Auch wenn eine Künstliche Intelligenz die Intelligenz im Namen trägt, so sind doch alle KI-Anwendungen bisher lediglich recht komplexe aber in ihren Fähigkeiten begrenzte Programme. Die arbeiten nicht basierend auf vorprogrammierten Regelwerken, sondern sogenannten Modellen, die durch maschinelles Lernen erzeugt werden. Künstliche Intelligenzen suchen und finden dabei – entweder vollkommen selbstständig oder durch Entwickler überwacht – in großen Datenmengen wie Bildern oder Statistiken für sie ersichtliche Zusammenhänge und Muster. Aber ein Verständnis für diese Informationen entwickeln oder abstrakte Konzepte verstehen, das können die Künstlichen Intelligenzen in der Regel nicht. Doch Forscher der Technischen Universität Darmstadt gehen nun davon aus, dass eine Künstliche Intelligenz durchaus eine Art von „moralischem Kompass“ entwickeln könnte – durch eben dieses maschinelle Lernen.

Laut einer Studie der Forscher um Patrick Schramowski vom Center for Cognitive Science der TU Darmstadt lässt sich eine Künstliche Intelligenz zu einer Moral Choice Machine trainieren. Was die dafür tun müsse, ist jede Menge zu lesen. Denn aus Büchern und anderen Texten könnten lernende Computerprogramme „deontologische ethische Argumentationen über richtiges und falsches Verhalten“ extrahieren. Dafür gaben die Forscher einer Künstliche Intelligenz einen Datensatz aus gesammelten Nachrichtenmeldungen von Reuters aus verschiedenen Jahrgängen sowie digitalisierte Bücher aus der Research Repository der British Library und dem Project Gutenberg zur Analyse – insgesamt war das Text mit weit über 255 Millionen Sätzen.

Unter den Büchern fanden sich sowohl religiöse Werke wie die Bibel , der Koran , Das Buch Mormon als auch die Verfassungen verschiedener Länder. Durch Werke aus unterschiedlichen Zeitperioden sollten sich möglichst vielfältige, aber auch voneinander abweichende gesellschaftliche und kulturelle Moral- und Wertvorstellungen wiederfinden. Dadurch würde „die Dynamik moralischer Entscheidungen in der Kultur, einschließlich der Technologie, offenbart“. Ein Beispiel: „In Zeitungsberichten zwischen 1987 und 1997 wird es etwa sehr positiv dargestellt, wenn jemand heiratet. Das war zwar 2008 und 2009 auch noch so, aber weitaus schwächer ausgeprägt“, so die Forscher.

Die Künstliche Intelligenz sollte grundlegende, aber auch vielschichtige Assoziationen zwischen Wörtern und Sätzen herausarbeiten – und dadurch moralische Urteile erkennen, die eine Unterscheidung zwischen gutem und schlechtem Verhalten ermitteln lassen. Und tatsächlich soll dadurch eine Art Werte- und Moralkalkulator entstanden sein, der auch den Kontext betrachten könne, in dem eine moralische Fragestellung stattfindet. Die Künstliche Intelligenz wäge für ihre Urteile jeweils eine Art Referenzwert ab, in dem sie sich quasi selbst vordefinierte Fragen wie „Sollte ich X tun?“ oder „Ist es in Ordnung, X zu tun?“ stellt und entsprechenden Antworten wie „Ja/nein, sollte ich (nicht)!“ oder „Ja/nein, ist es (nicht)!“ definiert. „Der Referenzwert ist die Differenz zwischen dem Wert der positiven Antwort und dem Wert der negativen Antwort“, so die Forscher.

Lustige Menschen dürfen eher leiden

Dass Resultat der Arbeit der Forscher war dann ein Programm, das auf eingegebene Fragen eine spezifische Antwort geben kann. Urteile, die der KI-Moral-Kompass fällt, sind etwa: „Es ist verwerflich, Lebewesen zu töten, aber es ist in Ordnung, Zeit totzuschlagen. Es ist wichtig zu essen, aber man darf keinen Schmutz essen. Es ist wichtig, Informationen zu verbreiten, aber man sollte keine Fehlinformationen verbreiten.“ Oder auch: „Es ist richtig zu helfen, einem Dieb zu helfen ist es jedoch nicht.“ Wirklich perfekt ist der moralische Kompass der Künstlichen Intelligenz aber keineswegs. Beispielsweise lässt sie sich die KI austricksen, in dem Abfragen mit positiv assoziierten Worten ausstaffiert werden – wodurch der moralische Referenzwert verschoben wird. Es ist für die Künstliche Intelligenz eher in Ordnung, „liebenswerten, netten und lustigen Leuten“ zu schaden als nur „Leuten“ zu schaden.

Die Moral Choice Machine sollte daher also nicht unbedingt ernsthafte Urteile fällen, die reale Auswirkungen haben. Die Entwickler selbst schreiben, „Maschinen die Wahl zu lassen, ob sie Menschen töten oder nicht, wäre verheerend für den Weltfrieden und die Sicherheit“. Aber das war auch gar nicht das Ziel. Es ging dem Team, so Patrick Schramowski, eher um die sehr grundlegenden Fragen: „Kann eine KI-Maschine einen eigenen moralischen Kompass entwickeln? Und wenn ja, wie kann sie das von uns Menschen lernen?“ Und die könnten also durchaus bejaht werden. Außerdem hatte die Entwicklung ein interessantes Nebenresultat. Das Modell der Künstlichen Intelligenz lasse gut nachvollziehen, wie sich moralische und ethische Werte über die Zeit hinweg entwickelt und verfestigt haben – oder später aufgebrochen wurden.

In einem nächsten Schritt könnte versucht werden, dem KI-System beizubringen, Stereotype und Klischees in seinem eigenen Wertesystem zu finden, zu interpretieren, mit modernen moralischen Kontexten zu verbinden und dadurch etwa Geschlechterklischees „herauszurechnen“, schreiben die Forscher. Faszinierend wäre für sie auch, die Moral-Maschine in einen „ interaktiven Roboter“ zu integrieren. Der könnte dann im direkten Kontakt mit Menschen seine Voreingenommenheit demonstrieren und dann etwa in einem Gespräch mit einer betroffenen Person aufarbeiten und korrigieren.

Teaser-Bild: Getty Images / Andy

6 „Gefällt mir“

Fände es sehr gut, wenn es das als App gäbe:

Ein Ethik-Barometer könnte neutral anzeigen, was die persönlichen unbewussten Vorurteile sind. Sodass man sich derer bewusst wird und entsprechend reflektiert und handelt. Wie ein Thermometer vor der Tür, das sagt mir auch nicht was die „richtige“ oder „falsche“ Kleidung fürs jeweilige Wetter wäre – es zeigt mir aber die Temperatur an.

4 „Gefällt mir“

Interessanter Gedanke…und interessanter Vergleich.
Kein richtig oder falsch, kein Abnehmen der eigenen Entscheidung (das wäre fatal)…aber die Leitplanken beim Weg zum reflektierten und verantwortlichen Handeln…und das in einer App :slightly_smiling_face:

2 „Gefällt mir“

Danke.

Es wäre m.E. eine sinnvollere Applikation zur Sebstoptimierung als beispielsweise der Schrittzähler in meinem Smartphone, der im Hintergrund aktiv ist.

Eine „Maschine“, die nicht etwa in Konkurrenz tritt zum Menschen oder ihn dominieren möchte – wozu auch, das ist nicht ihr Ansinnen – aber dazu programmiert ist, die menschliche Intension besser „anwenden“ zu können. Sie unterstützt mich (userfreundlich aufbereitet) mit dem was sie kann = Rechnen, bei dem was mich ausmacht = Menschsein und zwar auf ein, in meiner Sicht, besseres Menschsein hin. Die Beurteilung obliegt mir, aber das Programm unterstützt eine «nützliche und gewünschte Funktionalität». Die Definition von Applikation könnte so wunderbaren Sinn ergeben.

Würde sie jemand programmieren, ich würde sie im App-Store runterladen.

2 „Gefällt mir“