Wie Kunst zu ethischer Künstlicher Intelligenz beiträgt

KünstlerInnen und Kulturschaffede haben die ethischen Probleme der Künstlichen Intelligenz (KI) schon diskutiert, bevor es KI überhaupt gab. Mit der Figur des „Golem“ im jüdischen Talmud, dem Monster aus Mary Shellys „Frankenstein“ oder dem von Karel Čapek erfundenen „Roboter“ wurden Blaupausen für die ethische Debatte geschaffen, die auch heute noch wertvoll sind. Natürlich waren diese noch nicht durch aktuelle KI inspiriert, aber sie dienen als zeitlose Warnungen vor unkontrollierbaren Technologien und wissenschaftlicher Überheblichkeit. Die besondere Qualität solcher Figuren liegt darin, dass sie eine an sich unsichtbare und immaterielle Technologie visualisieren und materialisieren und dadurch den gesellschaftlichen Diskurs über KI erleichtern oder sogar erst ermöglichen.


Video „Kratt Needs Work“

Diese künstlerische Darstellungs-Kompetenz wird teilweise gezielt eingesetzt, um ethische KI-Themen für die Zivilgesellschaft begreifbar zu machen. Die Regierung Estlands nutzt beispielsweise den lokalen Mythos des „Kratt“ für die öffentliche Diskussion ihrer KI-Gesetze. Der Kratt ist ein Fabelwesen aus Heu und Stöcken, das seelenlos alle Aufgaben seiner HerrInnen erledigt, aber sich auch gegen sie wenden kann, wenn es nicht ordentlich beschäftigt wird.

Ein anderes Beispiel ist das von KünstlerInnen organisierte italienische Projekt IAQOS, dass die Metapher der KI als Baby nutzt, um eine KI-gestützte Smart-City-Infrastruktur bottom-up und open source einzuführen. Ein ganzes Stadtviertel wird aktiv involviert, um das KI-Baby nach den ethischen Vorstellungen aller Bürger „großzuziehen“.

Um wiederum vor staatlicher Überwachung durch künstlich intelligente Infrastrukturen zu warnen, entwickeln Masterschüler der niederländischen Baltan Laboratories in Kooperation mit dem Ars Electronica Reasearch Institute Knowledge for Humanity einen als Pferd verkörperten Überwachungsalgorithmus Namens „Smart Hans“.


Durch Fußstampfen zeigt „Smart Hans“ die Zahl an, an die die Besucherin gerade denkt. Bild: Deborah Mora

Nach dem realen Vorbild des „gedankenlesenden“ Pferds „Kluger Hans“, entwickeln sie einen Algorithmus, der allein durch Analyse der Körperhaltung erraten kann, an welche Zahl man denkt. Die interaktive Installation demonstriert intuitiv die erschreckende Fähigkeit von KI nur mit Hilfe einer Webcam die Gedanken von Menschen auszuspionieren. Gleichzeitig ermöglicht sie den BesucherInnen die Funktionsweise des Algorithmus auszutesten, um diesen z.B. durch bewusste Veränderung der Körperhaltung in die Irre zu führen.

Einen direkteren Weg zur Inspiration der politischen Debatte geht die Münchner Botschaft der Künstlerrepublik Užupis. Sie adaptiert gezielt die etablierten Formate der KI-ethischen Regulierung, um die künstlerischen Sichtweisen ihrer Republik in die Debatte einzubringen. Sie hat z.B. die ersten von KünstlerInnen formulierten Prinzipien für vertrauenswürdige KI veröffentlicht, die als bisher einzige eine persönliche Selbstverpflichtung der individuellen KI-DesignerInnen vorsehen, und zwar ohne jegliche Prüfung aber für die gesamte „Lebenszeit“ des Algorithmus.


KI-Artikel Nummer π in der Verfassung von Užupis. Bild: Max Haarich

Mit demselben Gewicht auf der Eigenverantwortung des Menschen hat die Münchner Botschaft auch einen KI-Artikel für die Verfassung von Užupis formuliert: „π: Any artificial intelligence has the right to believe in a good will of humanity.“ Zur Zeit der Veröffentlichung 2018 war dies eine komplette Umkehr der ethischen KI-Debatte, in der die meisten KI-Unternehmen noch so taten, als müssten wir Menschen auf das Wohlwollen der genauso mächtigen wie unberechenbaren Technologie hoffen. Knappe drei Jahre später scheint die Relevanz der Eigenverantwortung in der KI-Debatte angekommen zu sein und im Juni 2021 wird der KI-Artikel von Užupis als Impuls zum Update der Österreichischen Verfassung im Rahmen der GLOBART Academy im Wiener Parlament vorgetragen.

Dies sind nur einige Beispiele dafür, wie die KI-Revolution mit Hilfe von Kunst- und Kultur zum Wohle aller gestaltet werden kann. Sie entsprechen der in den letzten Jahren lauter werdenden Forderungen nach stärkerer Beteiligung der Künste und Geisteswissenschaften bei der Gestaltung der Technologie und tragen hoffentlich langfristig zur Versöhnung der zwei Kulturen bei.

2 „Gefällt mir“

Hmmm. Ist der Begriff Künstliche Intelligenz nicht selbst auch eine „mythologische Fassung“ des Gegenstands von „Künstlicher Intelligenz“ oder dessen, was Künstliche Intelligenz sein soll? Denn letztlich ist er ja ähnlich verklärt und mit Vorstellungen aufgeladen, die eher an magisches Denken … öhm … denken lassen.

4 „Gefällt mir“

Absolut! Und ertappt: wissenschaftlich hoch unprofessionell drücke ich mich immer um diese Diskussion. Da öffnet sich bei mir sonst ein Rabbit Hole, in dem dann Fragen lauern wie: warum heißt dieses komische Metallding „Flaschenöffner“? Ich habe doch die Flasche selbst geöffnet und nicht dieses leblose Metallding!?

2 „Gefällt mir“

Ich entsinne mich da an einen Abend im Simplicissimus am Rosenheimer wo ein Kollege und ihr irgendwann „sehr tiefsinnig“ wurden. Und diese Frage war tatsächlich eine derjenigen, die wir erörtert haben.

Aber mir ging es tatsächlich darum, dass wir offenbar schon abstrakte/mythologische Begrifflichkeiten brauchen, um abstrakte/mythologische Begrifflichkeiten brauchen, um abstrakte/technologische Konzepte zu fassen, die wir kaum verstehen. Hat etwas von Cargo Cult.

2 „Gefällt mir“

Yo? Dasselbe Beispiel? Hast Du Dich dabei ferngesteuert gefühlt oder hab ich das diesmal nicht bemerkt? :stuck_out_tongue_winking_eye: Nach Lakoff und Johnson ist unser ganzes Denken komplett metaphorisch. Gleichzeitig ist es auch umgekehrt: wir nehmen die komplexeste Technologie, die wir schnallen, um soziale Phänomene zu erklären, die uns noch zu komplex sind. Z.B. in der Management-Theorie (und -Praxis) und genauso in der Hirnforschung änderten sich die Erkenntnisse beim Wechsel von der Maschinen- zur Computer-Metapher. Bin gespannt, was Quantencomputer mit unserem Denken machen werden :slight_smile: #AppliedParadox
Ps.: Cargo Cult is der Knaller :slight_smile:

1 „Gefällt mir“

Ich frag mich gerade… Nur so rein hypothetisch., ob wir alle auch so engagiert über ‚künstliche Intelligenz‘ reden würden, wenn dieser Begriff nie in die Köpfe der Leute ‚eingebrändet‘ worden wäre und wir stattdessen einzig von Muster-und Bilderkennung reden. Das Wort ‚Intelligenz‘ ist doch in diesem Kontext immernoch Etikettenschwindel.

1 „Gefällt mir“

Das ist tatsächlich eine gute Frage. Die Sache ist allerdings wohl, dass der Begriff einerseits eine im Grunde „dröge Technologie“ faszinierend und polarisierend macht. Das sorgt natürlich wiederum dafür, dass viele spannende Projekte und Produkte rund um diese Technologie ins Scheinwerferlicht rücken, wodurch die „dröge Technologie“ wiederum als spannend legitimiert wird, was wiederum Investition in die Technik und Interesse an der Technik provoziert. Allerdings ist es gut möglich, dass faszinierende Projekte die KI auch mit einer anderen Bezeichnung hätten interessant machen können.

Will sagen: Dadurch, dass es so ist, wie es ist, lässt sich schwer sagen, ob es anders wäre, wenn es anders wäre. Oder so.

2 „Gefällt mir“

Nein, eigentlich nicht. Muss sagen, dass ich sowas, zumindest meiner Erinnerung nach, noch nicht erlebt habe.

Bin gespannt, was Quantencomputer mit unserem Denken machen werden.

Ja, das wird interessant. Vielleicht wird es ja ähnlich wie in Arrival und wir lernen, dass es keine absoluten Zustände gibt.

1 „Gefällt mir“

Als ich 2010 noch an der RWTH gearbeitet habe, lief der Kram oft unter „Big Data Analysis“. Klang nicht so sexy wie KI und vor allem suggerierte es einen anderen Verantwortlichen: Datenanalyse wird von Firmen betrieben. Wenn was schiefgeht, sind die Firmen böse. „KI“ suggeriert, dass da etwas eigenständig handelt und die Firmen nur wie wohlwollende Eltern ihr bestes tun können, um das etwas unreife Kind zu wohlwollendem Handeln zu erziehen bzw. es zu trainieren.

1 „Gefällt mir“

Die Sache bei „Big Data Analysis“ ist halt, dass die sowohl mit KI- und Lernmodellen als auch ganz traditionellen Abgleichssystemen erfolgen kann. Rein KI gestützte Daten-Analyse bei großen Datenmengen wird daher jetzt gerne werbewirksam als Advanced Big Data Analytics verkauft.

Und man muss schon sagen, dass es ja tatsächlich nicht immer vollends im Verantwortungsbereich eines Entwicklers liegt, wie eine KI arbeitet. Vor allem bei Unsupervised und klassischem Deep Learning ist es ja einfach nicht einsehbar, wie und welche Muster eine KI lernt und entsprechend, wie sie dann zu ihrem Schlüssen kommt. Aber es ist halt eine Sache, eine KI so zu entwickeln … eine ganz andere Sache ist es dann, sie auf Menschen und Daten loszulassen, die in irgendeiner Weise heikel sind.

Ein Freund hat daher mal gesagt, dass der Umgang mit KI zumindest an vielen Instituten so ähnlich ist wie mit Medikamenten. Bei der Entwicklung ist es interessant und in Teilen auch richtig und wichtig, Fehler zu machen. Aber wenn du es dann auf den Markt bringst oder an Menschen testest, muss alles dafür getan sein, dass nachvollziehbar ist, wie das Medikament funktioniert und welche Nebenwirkungen es haben kann.

1 „Gefällt mir“

Das finde ich persönlich vorbildlich. Das hört man leider viel zu selten. „Im Zweifel einfach lassen“ ist die halbe Miete, wenn es um die Sicherstellung ethischer KI geht. „Move fast break things“ ist sowas von 2018.

2 „Gefällt mir“