Wegen Rassismus, Überwachung und Polizeigewalt: IBM will keine Gesichtserkennungssoftware mehr verkaufen

Der Technologie- und Forschungskonzern IBM zieht Konsequenzen aus den mittlerweile in vielen Ländern stattfindenden Protesten gegen Rassismus und Polizeigewalt. Er will keine Technologien mehr verkaufen, die zu stattlicher Überwachung, Racial Profiling und Menschenrechtsverstößen beitragen können. Insbesondere die Zusammenarbeit mit Strafverfolgungsbehörden soll überdacht werden.

Von Michael Förtsch

Am 25. Mai 2020 war der Afroamerikaner George Floyd bei einer brutalen Festnahme in Minneapolis ums Leben gekommen. Der Polizist Derek Chauvin hatte Floyd über Minuten mit dem Knie im Genick fixiert, der daraufhin das Bewusstsein verlor. Wenig später konnte nur noch der Tod festgestellt werden. Seit diesem Todesfall protestieren Menschen in den USA und zahlreichen anderen Ländern gegen Rassismus und Polizeigewalt – und erzielen Wirkung. Mehrere US-Städte wollen ihre Polizeibehörden reformieren. Die US-Demokraten haben ein Reformpaket vorgelegt und Frankreich den Würgegriff bei Festnahmen verboten. Aber auch der Technologiekonzern IBM zieht für sich Konsequenzen und will zu einem „verantwortungsvollen“ Einsatz von Technik beitragen.

Wie der IBM-Chef Arvind Krishna in einem Brief an Mitglieder des US-Kongresses schreibt, wolle er mit dem Kongress daran arbeiten, die Gerechtigkeit und Gleichstellung voranzubringen – und zwar, was Reformen bei der Polizei, den Einsatz von Technologie, Bildung und Ausbildung angeht. Als eine erste Konsequenz für sich selbst zieht IBM, keine „general purpose“ Gesichtserkennungs- und Analyse-Software mehr anzubieten – also keine Systeme, die nicht speziell auf Bedürfnisse und Anforderungen hin optimiert und getestet wurden. Das Unternehmen will nicht den Einsatz von Technologien unterstützen oder fördern, die Massenüberwachung, rassistische Verfolgung und Kontrolle, Menschenrechtsverstöße, die Einschränkung von grundlegenden Freiheiten ermöglichen – oder sonstige „Zwecke, die nicht im Einklang mit unseren Werten und Grundsätzen des Vertrauens und der Transparenz stehen.“

Dabei lehne IBM, wie Krishna schreibt, das nicht nur im eigenen Unternehmen ab, sondern verurteile derartiges auch bei seinen Mitwettbewerbern und anderen Technologiekonzernen. „Wir glauben, dass es jetzt an der Zeit ist, einen nationalen Dialog darüber zu beginnen, ob und wie die Gesichtserkennungstechnologie von den inländischen Strafverfolgungsbehörden eingesetzt werden sollte“, so Krishna. Künstliche Intelligenz, wie sie hinter Gesichtserkennungssystemen steht, sei ein „mächtiges Werkzeug“, das helfen kann, die Sicherheit und Freiheit der Bürger zu stärken. Aber sie könne auch die gegenteilige Wirkung haben.

KI hat sich schon oft als rassistisch gezeigt

Der IBM-Chef verweist darauf, dass Künstliche-Intelligenz-Systeme bei Strafverfolgungsbehörden rassistische, sexistische und klassistische Tendenzen zeigen, die durch die Daten und Informationen entstehen, mit denen sie trainiert werden. Beispielsweise Kriminalitätsstatistiken, die in einer einkommensschwachen Region viele Verbrechen verzeichnen. Aber nicht weil dort übermäßig viele Verbrechen geschehen, sondern weil vorurteilsbehaftete Polizisten dort besonders oft kontrollieren und schneller Festnahmen vornehmen. Insbesondere bei Predictive-Policing-Systemen offenbarte sich in der Vergangenheit so immer wieder, dass Künstliche Intelligenzen auf diese Weise die rassistischen und klassistischen Vorurteile einer Polizeibelegschaft nicht nur verfestigen, sondern auch verstärken können.

Ebenso zeigte sich in einer Studie mit 189 Gesichtserkennungssystemen, dass diese Menschen mit asiatischen und afrikanischen Wurzeln bis zu 100 Mal ungenauer und schlechter identifizieren als Menschen mit kaukasischer Abstammung. Das MIT-Projekt Gender Shades enthüllte, dass schwarze Frauen bis zu 34,4 Prozent schlechter von Gesichtserkennungssoftware erkannt werden als weiße Männer. Der Grund ist, dass die entsprechenden Systeme mehrheitlich mit sogenannten Datasets trainiert werden, die eben primär Bilder von Menschen mit heller Haut und europiden Gesichtszügen zeigen. Die Initiative ImageNet, die derartige Datensammlungen anbietet, arbeitet schon daran, diese zu kontrollieren, entsprechend nachzubessern und ausgeglichener zu gestalten.

„Anbieter und Nutzer von KI-Systemen haben eine gemeinsame Verantwortung, sicherzustellen, dass Künstliche Intelligenz auf derartige Verzerrungen überprüft wird“, sagt Krishna. „Diese Tests müssen geprüft und gemeldet werden. Insbesondere wenn Künstliche Intelligenz in der Strafverfolgung eingesetzt wird.“ Dazu fordert der IBM-Chef weiter, dass die Polizei verstärkt Technik nutzen sollte, die die Transparenz und Nachvollziehbarkeit ihrer Einsätze unterstützt. Beispielsweise unterstützt Krishna den Vorschlag einer landesweiten Datenbank für Fehlverhaltens- und Missbrauchsfällen von Polizisten. Gleichsam sollten Einsätze mit Todesfällen gründlicher analysiert und aufgearbeitet werden.

Teaser-Bild: Getty Images

7 Like

Nach IBM hat jetzt auch Amazon reagiert und die Nutzung der von AWS entwickelten Gesichtserkennungssoftware durch die US-Polizei für ein Jahr ausgesetzt.

Die am MIT Media Lab tätige PoC, Feministin und Computerspezialistin Joy Buolamwini, die übrigens auch das oben erwähnte MIT-Forschungsprojekt Gender Shades leitet, hat sich mit der von ihr gegründeten Algorithmic Justice League schon lange gegen in Programmcode, KI und Algorithmen eingeschriebene Diskriminierung engagiert. PoC steht bei Buolamwini zunächst für Poet of Code, aber natürlich auch für Person of Colour.
Recht bekannt ist ihr TEDx Talk von 2016, „How I’m fighting bias in algorithms“.

Anfang 2020 feierte der Dokumentarfilm „Coded Bias“, bei dem Buolamwini und ihre Arbeit im Zentrum stehen (Regie: Shalini Kantayya) beim Sundance Filmfestival Premiere. Aktuell ist der Film im Stream des Human Rights Filmfestivals zu sehen.

3 Like

Danke für die super Links.