Nicolai Andersen über Corporate Digital Responsibility: „Wir verteufeln zu oft den Algorithmus an sich“

Unternehmen sollten die Chancen von KI nutzen, aber die Risiken minimieren. Das gelingt durch Corporate Digital Responsibility. Wichtig ist dabei eine abteilungsübergreifende und vor allem differenzierte Herangehensweise an die Technologie, erklärt Nicolai Andersen, Managing Partner Consulting von Deloitte, im Interview mit 1E9. Denn selbst Diskriminierung ist nicht gleich Diskriminierung.

Seit über 20 Jahren analysiert Nicolai Andersen, der selbst Ingenieur ist, wie sich technologische, wirtschaftliche und gesellschaftliche Trends auf Unternehmen auswirken können – und unterstützt diese bei der Entwicklung neuer Geschäftsmodelle und Prozesse. Auch bei Deloitte trieb er in seiner früheren Position des Chief Innovation Officers die digitale Transformation voran.

Als Präsidiumsmitglied der Initiative D21, dem gemeinnützigen Netzwerk für die digitale Gesellschaft, beteiligt er sich aktiv an der Debatte über ethische Fragen, die sich durch die Digitalisierung stellen.

Bevor wir über die Herausforderungen beim Einsatz von Künstlicher Intelligenz sprechen, sprechen wir doch erst einmal über die Chancen. Wie kann uns KI als einzelne Menschen, als Unternehmen, als Gesellschaft weiterbringen?

Nicolai Andersen: Künstliche Intelligenz wirkt manchmal wie ein Monster, vor dem man Angst haben muss. Deshalb ist es so wichtig, die Chancen nicht zu vergessen! Denn KI kann uns im ganz wörtlichen Sinne „weiterbringen“. Wir alle haben auf unseren Smartphones Navigationssysteme, die uns mit Künstlicher Intelligenz schnell, sicher und effizient zum Ziel lotsen. Unternehmen können mit KI die Routen ihrer Lastwagen optimieren. Das reduziert nicht nur Kosten, sondern auch den Ausstoß von CO2. Und wenn alle Unternehmen das tun, ist das ein wichtiger Beitrag zum Klimaschutz. KI bringt also einzelne Menschen, Unternehmen und die Gesellschaft weiter.

Ein weiteres Beispiel hört sich vielleicht provokant an, weil oft darüber gesprochen wird, dass Künstliche Intelligenz diskriminiert: Ich glaube aber, dass KI uns dabei helfen kann, nicht mehr so stark zu diskriminieren. Auch das ist eine riesige Chance. Und ich könnte noch viele andere Beispiele nennen.

Das klingt erstmal gut. Trotzdem scheint auch KI immer wieder Fehler zu machen. Gesichtserkennungssysteme verwechseln Menschen, die Bewerbungen von Frauen werden von Algorithmen aussortiert, Videos, die Verschwörungstheorien verbreiten, werden rasant weiterverbreitet.

Nicolai Andersen: Wir verteufeln zu oft den Algorithmus an sich, dabei liegt der Fehler meistens in der Anwendung oder im Training des Algorithmus. Da müssen wir wirklich unterscheiden – das sage ich jetzt mal als Ingenieur. Ein Gesichtserkennungssystem, das Menschen verwechselt, wurde noch nicht ausreichend mit Daten trainiert. Was die Bewerbungen angeht, so ist es nicht per se falsch, dass ein Algorithmus Frauen aussortiert – wenn ich ein Modell für Männerschuhe suche, zum Beispiel. Wenn der Algorithmus aber Menschen in einer Weise nach Eigenschaften aussortiert, die ich nicht will, ist wahrscheinlich beim Anfüttern des Algorithmus mit Daten ein Fehler passiert.

Bei der Verbreitung von Verschwörungstheorien müssen wir vorsichtig sein. Zum einen müssen wir uns als Gesellschaft fragen, wie viel Zensur wir wollen – oder ob es nicht besser wäre, nur illegale Inhalte zu unterbinden. So oder so müssen wir Algorithmen aber dazu befähigen, illegale Inhalte zu identifizieren, etwa durch bestimmte Schlüsselwörter. Dann werden sie solche Videos nicht weiterverbreiten, wenn sie feststellen, dass sich viele Leute dafür interessieren, sondern können sie sogar viel, viel besser unterbinden als jeder Mensch. Auch das ist wieder eine echte Chance! Kein Mensch könnte noch alle Videos auf Facebook oder YouTube kontrollieren. Bei vermeintlichen Fehlern von KI müssen wir in jedem Fall sehr differenziert herangehen.

Wie können Unternehmen denn durch Corporate Digital Responsibility sicherstellen, dass eine von ihnen eingesetzte oder entwickelte KI am Ende nicht ganz andere Ergebnisse produziert als gewünscht?

Nicolai Andersen: Der erste Schritt ist, im Unternehmen ein Grundverständnis dafür zu schaffen, was wir unter Künstlicher Intelligenz verstehen, welche Rolle Daten spielen und wie ein Algorithmus funktioniert. Der nächste Schritt ist die Frage, welche Chancen ich als Unternehmen durch KI habe und wo die Risiken liegen, wenn sie falsch zur Anwendung gebracht wird. Außerdem gehört für mich zu Corporate Digital Responsibility, dass sich die verschiedenen Fachbereiche des Unternehmens gemeinsam dem Thema stellen.

Ein Beispiel: Ein Unternehmen kommt zum Schluss, dass es hilfreich wäre, im Recruiting einen Algorithmus einzusetzen. Denn der würde vielleicht spannende Bewerbungen finden, die ich mir als Mensch gar nicht angeschaut hätte. Wenn ich nämlich einen Stapel mit hunderten Bewerbungen vor mir hätte, aber wenig Zeit, würde ich wahrscheinlich nach irgendeinem Kriterium vorsortieren. Ich würde vielleicht nur noch Bewerbungen von Personen anschauen, die wie ich in Karlsruhe studiert haben, und nur bei ihnen auf weitere Kriterien achten. Dass in dem Stapel, den ich aussortiert habe, viel bessere Kandidatinnen und Kandidaten stecken, sehe ich gar nicht mehr. Genau dieses Problem kriege ich durch einen Algorithmus gelöst.

Die Voraussetzung dafür ist allerdings ein Dialog zwischen den beteiligten Bereichen im Unternehmen. Es reicht nicht, wenn die Fachabteilung der IT die Anforderung einfach über den Zaun wirft und die IT später von der Fachabteilung erwartet, den Algorithmus zu verstehen. Nur im Austausch finde ich heraus, nach welchen Kriterien der Algorithmus nicht diskriminieren darf, wie ich verhindere, dass er das tut, und wie ich regelmäßig testen kann, ob er das immer noch nicht tut und sich nicht selbst unerwünschte Entscheidungsmuster beigebracht hat.

Viele Unternehmen geben sich auch Richtlinien zum ethisch korrekten Einsatz von Künstlicher Intelligenz. Was ist davon zu halten?

Nicolai Andersen: Grundsätzlich finde ich das sehr gut. In dem Moment, wo ich anfange, mir Richtlinien zu geben, fange ich an, über das Thema nachzudenken. Damit habe ich eine Diskussion im Unternehmen. Und so einfach sind diese Richtlinien gar nicht zu formulieren. Ich komme dann nämlich sehr schnell in Dilemma-Debatten: Wenn ich eine Funktion zum Wohlergehen einer Personengruppe zulasse, kann das Wohlergehen für eine andere Personengruppe gemindert werden. Das schafft Awareness. Richtlinien helfen außerdem, Vertrauen von außerhalb des Unternehmens aufzubauen.

Aus dem Bereich des Umweltschutzes wissen wir allerdings, dass Selbstverpflichtungen nicht immer ausreichen. Doch nur wenn ein Unternehmen die Dinge ernst nimmt, lässt sich damit vielleicht verhindern, dass dann zu schnell und zu stark reguliert wird.

Wie konkret sollten denn solche Richtlinien formuliert sein? Vielleicht könnten wir das wieder am Beispiel der Diskriminierung erörtern. Es gibt Fälle, in denen KI-Systeme Menschen diskriminierten: Gesichtserkennungsprogramme etwa, die schwarze Frauen zehnmal häufiger falsch identifizierten. Ist es da nicht folgerichtig, wenn Unternehmen entscheiden, dass ihre KI grundsätzlich nicht diskriminieren darf?

Nicolai Andersen: Das ist für mich zu pauschal. Natürlich gibt es bestimmte Formen der Diskriminierung, die sind absolut unzulässig. Da gibt es keine Diskussion. Ich kann nicht nach Hautfarbe oder Geschlecht diskriminieren, es sei denn es geht um Sonderfälle wie das männliche Schuhmodell, das ich vorhin gebracht habe.

Doch, um wieder etwas provokant zu formulieren: Warum sollte ein Unternehmen eigentlich nicht sagen, ich will Rassisten aussortieren? Aussuchen ist immer auch diskriminieren – und es gibt ein Aussuchen, das ich für durchaus zulässig halte. Natürlich können Unternehmen vorgeben, dass sie bestimmte Grunderfahrungen erwarten und deswegen werden Bewerberinnen und Bewerber aussortiert, die diese Erfahrungen nicht mitbringen. Mit zu pauschalen Formulierungen wäre ich also vorsichtig. Rein technisch betrachtet ist es ohnehin der gleiche Algorithmus.

Wer übernimmt denn am Ende die Verantwortung für Entscheidungen, die Algorithmen treffen? Wie wir schon festgestellt haben, neigen wir ja dazu, der KI die Fehler in die Schuhe zu schieben.

Nicolai Andersen: Gegenfrage: Wie haben wir das denn in der vor-digitalen Welt gemacht? Da haben wir es schließlich auch hingekriegt. Wenn ich die Personalabteilung leite und ich stelle eine Person ein, die mir meinen Stapel Bewerbungen vorsortieren soll, wer wäre denn dafür verantwortlich, wenn die Person offensichtlich das Falsche tut?

Ich als Führungskraft bin dann verantwortlich! Schließlich habe ich nicht sichergestellt, dass die Person mit dem Stapel das Richtige anstellt und nicht hochgradig diskriminierend unterwegs ist. Und wenn heute die Personalabteilung einen Algorithmus einsetzt, dann habe ich als Führungskraft die Verantwortung darauf zu achten, dass der Algorithmus das Richtige tut. Dafür brauche ich vielleicht Hilfe. Aber die muss ich mir eben holen.

Corporate Digital Responsibility – also Verantwortungsübernahme durch Unternehmen – ist das eine. Aber welche Verantwortung liegt eigentlich beim Staat oder auch der Gesellschaft?

Nicolai Andersen: Als Gesellschaft haben wir aus meiner Sicht die Verantwortung, die Chancen von KI zu nutzen und die Risiken so klein wie möglich zu halten – und da sind alle Spieler gefragt. Als Unternehmen habe ich die Verantwortung, dem Gesetzgeber dabei zu helfen, bestimmte Dinge zu verstehen, und ich habe auch die Verpflichtung, dass die Konsumentinnen und Konsumenten bestimmte Dinge verstehen. Und meine Erklärungen sollten nicht wie ein medizinischer Beipackzettel oder viele AGBs – also 20 Seiten in Schriftgröße 4 – aussehen. Das gehört für mich ebenfalls zu Corporate Digital Responsibility.

Auf Seiten des Gesetzgebers muss aus meiner Sicht Verständnis dafür da sein, wo ich tatsächlich regulierend eingreifen muss, weil das Risiko hoch ist, und wo nicht. Damit komme ich wieder zum Beispiel der Diskriminierung zurück: Wenn ich sage, ein Algorithmus darf generell niemanden aussortieren, dann habe ich natürlich alle Risiken im Griff, aber ich habe auch alle Chancen eliminiert. Als Gesetzgeber muss ich also granularer vorgehen.

Bezogen auf einen verantwortungsvollen Umgang mit KI: Wie beurteilst du denn gerade die Gesamtsituation in Deutschland und Europa?

Nicolai Andersen: Manches läuft noch nicht so, wie es laufen sollte. Aber ich sehe die Lage trotzdem sehr positiv. Wir sind für meinen Geschmack generell ein bisschen überkritisch, was die Risiken der Digitalisierung angeht, und unterschätzen die Chancen.

Aber aus der kritischen Sicht resultiert durchaus eine Stärke, wie wir bei der Datenschutzgrundverordnung der EU gesehen haben. Mittlerweile schauen andere Länder und sogar das Silicon Valley sehr genau darauf, was wir da gemacht haben. Daher: Grundsätzlich ist Kritik gut und treibt uns voran, so lange wir offen sind, zu lernen und Chancen zu nutzen.

Titelbild: Getty Images

3 Like
Wenn wir KI verantwortungsvoll einsetzen, müssen wir die Superintelligenz nicht fürchten
Autonome Waffen werden kommen, wenn wir nichts unternehmen
Studie: Deutsche Medien berichten eher einseitig über Künstliche Intelligenz
„Es muss nicht immer KI sein“: Carla Hustedt warnt Behörden vor Software, die sie nicht verstehen
Der Twitter-Gründer will, dass ihr den Algorithmus für eure Social-Media-Erfahrung selbst bestimmt
Das 1E9_Update vom 10. Februar 2021 // KI, Staats- und Waffengewalt und die Zukunft des Geldes
Wie lässt sich ein Grundvertrauen in Gesundheits-KI schaffen?
Künstliche Intelligenz kann lernen, Menschen zu manipulieren
Die Politik will „KI made in Germany“ fördern, kämpft aber mit hausgemachten Problemen
Das 1E9_Update vom 17. Februar 2021 // Der Staat und KI, die Zukunft des Geldes und ein Fehler in der Matrix
Nur wenn Unternehmen, Wissenschaft und Politik gezielt zusammenarbeiten, kann Europa zur KI-Macht werden
Kann Künstliche Intelligenz trotz ihres Energieverbrauchs zum Klimaschutz beitragen?
Das 1E9_Update vom 24. Februar 2021 // Viel KI, eine Alternative zum Lockdown und (kein) Hyperloop
10 Filme über Künstliche Intelligenz, die uns zum Nachdenken bringen
Ein „Failure of Imagination“ oder: Mark Zuckerberg braucht eine Hofnärrin!
Bei dieser Suchmaschine behältst du deine Daten – und trainierst eine KI auf deinem Smartphone
Das 1E9-Themenspecial: KI, Verantwortung und Wir
Das 1E9_Update vom 3. Februar 2021 // KI, Verantwortung und Wir