5 Anforderungen an Ethik-Boards in KI-Unternehmen

Obwohl KI-Ethik immer intensiver debattiert wird, sind ethische Probleme nicht unbedingt weniger geworden. Laut einer Capgemini-Studie mussten sich knapp 60% der befragten Unternehmen in den letzten drei Jahren rechtlichen Prüfungen wegen Diskriminierungsvorwürfen unterziehen und 22 % sahen sich dem öffentlichen Zorn ihrer Kund_innen ausgesetzt. Was tun KI-Unternehmen überhaupt, um ethische Probleme anzugehen und öffentliche Bedenken auszuräumen?

Ethische Prinzipien, Trainings und Prüfsiegel bringen es irgendwie nicht.

In den letzten beiden Jahren entstand ein wahrer Hype um die Formulierung ethischer Prinzipien, die als Kompass für das Handeln der Mitarbeiter_innen dienen sollen. Das war möglicherweise gut für das Marketing, aber im Endeffekt verlagerte es die Hauptschuld auf Entwickler_innen, von denen wohl nur die wenigsten jemals vorhatten ethisch Bedenkliches zu programmieren. Mittlerweile verbreitet sich die ernüchternde Erkenntnis: Prinzipien allein helfen nicht, nicht einmal wenn sie den Segen des Papstes erhalten. Derselben Kritik müssen sich auch unternehmerische Ethik-Trainings aussetzen, die oft nur auf die untere Ebene der Unternehmenshierarchie zielen. Auch von ethischen Prüfsiegeln ist abzuraten, sofern sie ein lernendes (!) System zertifizieren, von dem manchmal nicht einmal die Entwickler_in sicher weiß, wie es sich bei fortgeführtem Training verhalten wird.

Immer mehr Unternehmen setzen auf Ethik-Boards

Ein vielversprechender Ansatz ist das Recruiting von Ethik-Expert_innen für Ethik-Boards die im direkten Austausch mit der Führungsebene stehen. Laut einem Forbes-Bericht sind Ethik-ExpertInnen aktuell die begehrteste KI-Rolle: 64% der befragten Unternehmen planen in der nächsten Zeit eine Ethik-Expert_in einzustellen oder zu trainieren. Ich habe fünf Empfehlungen formuliert, worauf man bei der Zusammenstellung eines Ethik-Boards achten sollte.
Aber zunächst möchte ich noch kurz eine Frage vorweg nehmen: bremst ein Ethik-Board nicht die Entwicklung des Unternehmens? Verliert man dadurch nicht Zeit im Rennen mit der Konkurrenz im In- und Ausland? Im Prinzip ja, aber beim KI-Wettrennen ist es wie in der Formel 1. Es kommen ständig Kurven und unvorhersehbare Hindernisse und die Saison gewinnt selten die Fahrer_in mit den schwächsten Bremsen. Hier nun meine Empfehlungen:

  1. Fachliche Diversität
    Mark Twain hat einmal gesagt: „wer als Werkzeug nur einen Hammer hat, sieht in jedem Problem einen Nagel“ Wo manche einen rassistischen Bias erkennen, sehen andere nur einen Bug. Nicht-technische Expert_innen wie SoziologInnen, Psycholog_innen aber auch Philosoph_innen oder auch Künstler_innen können manchmal den entscheidenden Hinweis geben.

  2. Geografische Diversität
    Algorithmen sind in den seltensten Fällen nur in einer Region und Kultur verfügbar sondern agieren oft global. Expert_innen aus entfernten Regionen können ethische Herausforderungen erkennen, die in unserem Kulturkontext gar nicht existieren.

  3. Soziale Diversität
    Eliten sind global vernetzt und denken oft zu ähnlich. Fachliche und geografische Diversität sind nichts wert, wenn das Ethik-Board am Ende nur aus Professor_innen besteht. Die Hauptaufgabe eines Ethik-Boards ist die Menschen zu vertreten, die von den Algorithmen betroffen sind. Daher sind die Einbeziehung und der Austausch mit Vertretern der Zivilgesellschaft essentiell für Effektivität und Glaubwürdigkeit.

  4. Unabhängigkeit
    „Wes Brot ich ess, des Lied ich sing.“ Eine Ethik-Expert_in, die ausschließlich von Ihrer Bezahlung lebt, ist weder nützlich noch glaubwürdig. Sie wollen unabhängige Rebell_innen an Bord, die Ihnen auf die Finger hauen, bevor es Ihre Kund_innen und Shareholder_innen tun.

  5. Transparenz
    Fehler können immer geschehen. Als Entschuldigung reicht es nicht, wenn man sich dann auf die Freigabe eines Ethikboards berufen kann. Für das Vertrauen der Kunde_innen und Shareholder_innen ist es unabdingbar, dass die Aktivitäten und Entscheidungen der Ethik-Expert_innen transparent und nachvollziehbar sind. Denn wenn trotz aller Bemühungen etwas schiefgeht, ist es wertvoll, wenn wenigstens die ehrlichen Bemühungen sichtbar sind.

Kurz: Wir vertrauen keinen Algorithmen, sondern nur den Menschen dahinter. Ethik kommt nicht aus dem Code, sondern aus dem Herzen!

6 „Gefällt mir“

Danke @MaxHaarich für den super Beitrag!

Ich würde sagen (oder hoffen): Diese Dinge allein bringen es nicht. Ich denke als Grundlage ist das für ein Unternehmen nicht schlecht. Etwas zum Nachlesen, ein erster Kontakt mit dem Thema, zumindest einmal ein Nachdenken.

Davon abgesehen finde ich das Konzept von Ethik-Boards, die direkt mit der Führungsebene kommunizieren, super. Die Frage ist nur: Welche Befugnisse haben diese Boards? Sollen sie eine Art Vetorecht haben? Oder können sie einfach übergangen werden…

Die meisten Regierungen dieser Welt haben auch Beratungsgremien… und ignorieren deren Empfehlungen je nach Bedarf. Wie siehst du das?

5 „Gefällt mir“

Ja klar, die Überschrift ist übertrieben und Dein Einwandt vollkommen berechtigt. Alles ist wertvoll, was die Unternehmen dazu bringt, sich mit Ethik zu beschäftigen. Und Deine Frage nach den Befugnissen ist absolut zentral. Eina Art Veto-Recht wäre das sicherste und wünschenswert, solange es verhältnismäßig eingesetzt wird. Auch mit Ethik kann man es übertreiben. Und grundsätzlich würde ich von keinem Unternehmen erwarten, dass es ethisch handelt. Unternehmen haben die Funktion ROI zu produzieren und sonst nichts. Den ethischen Rahmen hat die Politik gesetzlich durchzusetzen.

Bloß bei der KI sind wir in einer Situation, dass ethische Probleme oft entstehen, bevor sie überhaupt auf dem Radar der Gesetzgeber auftauchen. Gleichzeitig können ethische Probleme aufgrund des globalen Einsatzes von Algorithmen dann gleich ein entsetzliches Ausmaß erreichen, wie z.B. bei den Vorwürfen gegen Facebook zur Mitschuld am Genozid in Myanmar. Daher ist es nicht nur im Interesse der Zivilgesellschaft, sondern auch der Unternehmen und ihrer Shareholder, wenn sich Unternehmen dort, wo noch keine Gesetze existieren, selbst zu regulieren bzw. wirklich repräsentative Gesellschaftsvertreter zum Richter machen.

Was Ethik-Boards bei Regierungen machen, frage ich mich ernsthaft selbst. Während Staatschefs die Entwicklung autonomer Waffensysteme mit Vollgas vorantreiben, erwähnte das letzte KI-Whitepaper der EU autonome Waffensystem gar nicht. Die deutsche Datenethikkomission hat im letzten Gutachten ein Verbot von Waffensystem relativ Vorsichtig in den Raum gestellt und die Verbotsempfehlung der deutschen KI-Enquete scheint komplett ignoriert zu werden. Also wenn das autonome Töten von Menschen nicht kategorisch verboten wird, braucht man aus meiner Sicht nicht über digitale Ethik sprechen.

So, eigentlich hatte ich gar nicht vor einen zweiten Beitrag zu schreiben :smiley: #triggered

2 „Gefällt mir“

Das ist ein super wichtiges Thema und gefühlt sind wir im Umgang mit KI-Ethikfraken noch fast vollständig unbedarft.

Hab zu diesem Thema und über Ethik-Boardfragen hinaus, vielleicht auch als guten Einstieg, kürzlich den Hinweis auf diesen Eintrag in der Stanford Enzyklopädie bekommen: https://plato.stanford.edu/entries/ethics-ai/

Kopiere um nicht klicken zu müssen die knappe Übersicht mal raus:

After the Introduction to the field (§1), the main themes (§2) of this article are: Ethical issues that arise with AI systems as objects , i.e., tools made and used by humans. This includes issues of privacy (§2.1) and manipulation (§2.2), opacity (§2.3) and bias (§2.4), human-robot interaction (§2.5), employment (§2.6), and the effects of autonomy (§2.7). Then AI systems as subjects , i.e., ethics for the AI systems themselves in machine ethics (§2.8) and artificial moral agency (§2.9). Finally, the problem of a possible future AI superintelligence leading to a “singularity” (§2.10). We close with a remark on the vision of AI (§3).

For each section within these themes, we provide a general explanation of the ethical issues , outline existing positions and arguments , then analyse how these play out with current technologies and finally, what policy consequences may be drawn.

Glaub das ist eine gute Grundlage für einen Überblick. Vielleicht ergeben sich hier mehr Diskussionen zu diesem breiten und offenen Themenfeld.

2 „Gefällt mir“

Ein neu gegründeter Ethikrat soll Ministerpräsident Söder und die Staatsregierung nun in allen Zukunftsfragen beratend zur Seite stehen. Die Zusammensetzung wurde am 1. Oktober bekanntgegeben. Susanne Breit-Keßler, frühere Münchner Regionalbischöfin, wird dem Gremium vorsitzen.

https://www.bayern.de/bericht-aus-der-kabinettssitzung-vom-1-oktober-2020/#a-3

2 „Gefällt mir“

Die Forderung nach KI-Ethik-Boards finde ich grundsätzlich richtig und wichtig. Aber die Frage ist erst einmal, wo „KI“ anfängt. Denn mittlerweile wird das Wort Künstliche Intelligenz auf alles mögliche drauf geklebt, wo es gute PR bringt. Dabei ist KI oftmals nicht mehr als ein Programm mit Mustererkennung oder eines, das irgendwie Machine Learning angeflanscht hat. Und dann ist noch die Sache: Viele Dinge, die bei Künstlicher Intelligenz schief laufen können – rassistische, sexistische Benachteiligung –, da sie mit Datasets antrainiert werden, können bei klassischen Programmen fest einprogrammiert sein. Siehe beispielsweise Schufa oder Programme bei Arbeitsvermittlungen.

Zu den einzelnen Punkten:

Algorithmen sind in den seltensten Fällen nur in einer Region und Kultur verfügbar sondern agieren oft global.

Bist du da sicher? Nichts gegen den Punkt an sich, wenn das so ist. Aber ich wüsste nur gerne, ob es dafür – abseits von „global Playern“ wie Google, MS, TikTok und Amazon – wirklich so ist.

Sie wollen unabhängige Rebell_innen an Bord, die Ihnen auf die Finger hauen, bevor es Ihre Kund_innen und Shareholder_innen tun.

Was verstehst du darunter? Wie definierst du Rebellen? Ich bin da unsicher, was du da genau forderst.

4 „Gefällt mir“

Wow…danke für den Link! Wie befürchtet 20 Professor_innen (und eine Bischöfin für den Vorstand). Als ob Ethik eine Frage der Bildung wäre.

3 „Gefällt mir“

Puh, ja Du hast volkommen recht mit der Frage nach der Definition von KI. Ich umgehe ehrlich gesagt etwas die genaue Definition aus zwei Gründen: zum einen sollte solches Spezialwissen nicht zur Zugangsbarriere für die ethische Debatte werden. Zum anderen sollten sich Firmen nicht aus der Verantwortung stehlen können, dadurch das ihr Algorithmus gerade nicht mehr in die KI-Definition fällt.

Zu den „globalen Agieren“ habe ich ungenau formuliert: Ich wollte eigentlich nicht sagen, dass alle Algorithmen weltweit agieren (wie der fb-Timeline-Algorithmus), sondern dass viele Algorithmen oft von überall auf der Welt genutzt werden können, wie z.B. Online-Services zur Spracherkennung. Oft stellt man erst beim Wechsel des Cases/Kontextes mögliche Probleme fest, wie z.B. dass Spracherkennungsalgorithmen oft auf die Stimmen männlicher, weißer US-Amerikaner optimiert sind. Natürlich gibt es ganz viele - villeicht sogar die meisten? - Algorithmen die nur sehr lokal eingesetzt werden z.B. zur Optimierung der industriellen Produktion in einem bestimmten Werk eingesetzt werden. Diese spielen aber auch in der ethischen Debatte kaum eine Rolle.

Mit den „Rebell_innen“ meine ich das Ideal unbefangener, unkorrumpierbarer Leute, die ausschließlich für die Sache kämpfen. Die Frage ist, wie du die rekrutierst und organisierst. Ich könnte mir z.B. vorstellen, dass es eine unabhängige zivilgesellschaftliche Organisation mit einem großen Pool möglicher Ethik-Board-Member gibt, der von allen Tech-Unternehmen gemeinsam bezahlt werden (z.b. über die Digitalsteuer?). Die Member würdest du den Boards dann zufällig und nur für begrenzte Zeit zuweisen, damit sie sich nicht zu sehr „anfreunden“.

5 „Gefällt mir“

Eine private Studie einer britischen Investmentfirma hat 2019 sogar 40% aller europäischen „KI“-Unternehmen als Fake eingestuft:
https://www.golem.de/news/mmc-bericht-40-prozent-der-ki-startups-in-europa-entwickeln-gar-keine-ki-1903-139804.html

4 „Gefällt mir“

Sehe ich auch so. Nachdem aber die KI-Forschung prinzipiell voraussetzt, dass es keine Intelligenz im Sinne menschlich/kognitiv-biologischer in ihrer Disziplin gibt, erübrigt sich die Frage meines Erachtens.

2 „Gefällt mir“

Hier noch ein aktuelles Beispiel, das tief blicken lässt. BMW präsentiert seine ethischen Prinzipien und die sind nicht nur voll veraltet sondern einfach geklaut - wie unethisch ist das denn? :smiley:

2 „Gefällt mir“

:rofl: typisch KI-Szene, oder?
Erinnert mich schon fast an die Cryptocurrency-Whitepaper-Copycats.

2 „Gefällt mir“

Das ist natürlich bitter und sagt etwas über eine „Kultur“ zumindest bei den involvierten Personen aus. Eines der grundlegenden Elemente in Wissenschaft ist es sich nicht mit falschen Lorbeeren zu schmücken… Das sollte die BMW Gruppe auch wirklich nicht nötig haben…

Ein wenig zur Verteidigung kann man diese Pressemitteilung von BMW nennen, in der auf die Formulierung auf EU-Level referenziert wird:

Building on the fundamental requirements formulated by the EU for trustworthy AI, the BMW Group has worked out seven basic principles covering the use of AI within the company.

Nichtsdestotrotz: Wenn ich die 7 Punkte so vergleiche unterscheiden sie sich gerade mal im Fehlen der Nummerierung und dem Punkt am Ende jedes Listenelements…

Gemäß des BMW Pressetextes hoffe ich das ist nicht wirklich das Ende der Fahnenstange hinsichtlich der zukünftig zu erbringenden gedachten Eigenleistung in Sachen trustworthy KI…

Persönlich finde ich BMW hätte ein sehr viel besseres Bild von sich gegeben, wenn sie einfach als Corporate diese EU Prinzipien unterstützen und das so kommunizieren. „Why the hell do they need to invent or work out sth new and only for them ?!“…

3 „Gefällt mir“

Ja, die die Pressemeldung hatte ich erst übersehen. Die ist tatsächlich juristisch wasserdicht :wink: Hab den dort genannten Kontakt zweimal um weiter Infos gebeten, aber leider kam bisher keine Antwort. Ein Kumpel, der mit BMW zusammenarbeitet, meinte zu mir (ohne über den konkreten Fall genauer Bescheid zu wissen), dass solche Maßnahmen wohl eher in der Marketing-Abteilung entwickelt werden. Das Marketing hat zumindest geklappt: Die Meldung hat zwei Tage lang meinen Google-Alert dominiert :smiley:

3 „Gefällt mir“

Hallo @MaxHaarich - gute Vorlage für unsere Diskussion nächste Woche :wink: Ich habe für meine Arbeit den Slogan gewählt “Ethik ist nicht programmierbar - Verantwortung menschgemacht”. Passt ganz gut, oder? Aber das mit den Boards sehe ich kritischer. Auch jede Menge “Ethisches Theater”…aber die Frage ist zentral: wie sehen wirksame Institutionen aus?

4 „Gefällt mir“

Hi @Saskia, ich befürchte die Diskussion könnte etwas monoton werden, denn Deinen Slogan finde ich super :slight_smile: Ethisches Theater ist ein wichtiges Schlagwort und ich befürchte auch, das Boards dafür missbraucht werden können. Boards sind nur ein möglicher Bestandteil und entscheidend für mich ist deren Legitimation durch direkte Volksvertretung im Sinne von den in anderen Kontexten immer häufiger genutzten Citizen Council’s. Unternehmen sollten einfach mehr Demokratie wagen.

4 „Gefällt mir“

Genau - wenn ich mir die Boards anschaue, dann habe ich immer mal die Assoziation von „Friends & Family“. Man müsste man „Stakeholder“ - Zivilgesellschaft, NGOs, Kunden mit rein nehmen. Mist, wir bekommen keinen Dissens hin, oder :wink: Ich versuche es nochmal: Das aus meiner Sicht schärfere Schwert wären transparente, unabhängige, Peer-gereviewte Selbstverpflichtungen - „Zertifizierungen“ - wie bei der Einhaltung anderer Umwelt- und Sozialstandards, die gesetzliche Anforderungen (to come) überschreiten. Ich sehe das Problem bzgl. der ML als Black Box, aber es ginge mir mehr um eine Zertifizierung der Wirksamkeit im gewünschten Sinne und Risikolosigkeit in Bezug auf „unerwünschte Nebenwirkungen“. Dissens? Dann machen wir nächste Woche da weiter :slight_smile:

3 „Gefällt mir“