Bürgerrechtler klagen gegen Festnahme wegen fehlerhafter Gesichtserkennung

In Detroit wurde ein Mann wegen Diebstahls festgenommen. Ein Gesichtserkennungssystem soll ihn auf einem Videoband erkannt haben. Doch die Identifizierung war fehlerhaft. Daher wollen Bürgerrechtler nun dagegen klagen.

Von Michael Förtsch

Die Proteste gegen Rassismus und Polizeigewalt haben auch Tech-Unternehmen aufgerüttelt. IBM will nicht länger Gesichtserkennungssysteme verkaufen. Und sowohl Amazon als auch Microsoft wollen für mindestens ein Jahr beziehungsweise bis klare Regeln und Gesetze für den Einsatz dieser Technik gefunden sind, keine Gesichtserkennungstechnologien an US-Polizeibehörden liefern. Denn zu groß könnte der Schaden sein, der durch falsche Nutzung und auch Inkonsistenzen in den Systemen entsteht. Laut der US-amerikanischen Bürgerrechtsorganisation American Civil Liberties Union sei der Schaden aber schon längst da. Sie will nun Klage wegen der Festnahme eines Unschuldigen einreichen, die auf eine falsche Erkennung durch eine Gesichtserkennungssoftware zurückzuführen ist.

Am 9. Januar 2020 war der Afroamerikaner Robert Julian-Borchak Williams von der Polizei von Detroit in seinem eigenen Vorgarten verhaftet worden. Er war von einem Gesichtserkennungsdienst als ein gesuchter Ladendieb identifiziert worden, der sowohl im Oktober 2018 als auch März 2019 wertvolle Uhren entwendet hat. Wie sich herausstellte, war Williams jedoch nicht der Dieb. Erst nach einer Anhörung wurde er wegen „mangelnder Beweise“ freigelassen. Anschließend habe, so die American Civil Liberties Union, die Polizeibehörde von Detroit versucht, den Vorgang zu vertuschen. Sowohl Gerichtsbeschlüsse als auch Dokumentenanfragen bezüglich der Festnahme und der vermeintlichen Identifizierung von Williams wären konsequent ignoriert worden.

Werde Mitglied von 1E9 – schon ab 3 Euro im Monat!

Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein.

Jetzt Mitglied werden!

Basis für die Identifizierung sollen niedrig aufgelöste und sehr verrauschte Videoaufzeichnungen gewesen sein, die bei der Einspeisung in das von DataWorks Plus entwickelte Gesichtserkennungssystem der Michigan State Police mehrere fotografische Übereinstimmungen ergeben hätten. Darunter auch mit Williams Führerscheinfoto. Ein Wachmann eines beraubten Geschäftes soll die Identifizierung von Williams bestätigt haben – obwohl er nicht während des Diebstahls anwesend war. Erst bei einem direkten Vergleich des Videobildes mit Williams’ Gesicht soll der Fehler bemerkt worden sein. Laut Williams sagten die Beamten: „Der Computer muss sich geirrt haben.“

Gesichtserkennung funktioniert oft fehlerhaft

Laut der American Civil Liberties Union ist der Fall der erste, in dem eine falsche Festnahme alleinig basierend auf einer Gesichtserkennung stattfand – und ebenso der erste Fall, bei dem eine Klage dagegen eingereicht wird. Die Bürgerrechtler fordern eine komplette Löschung von Williams Fall. Denn obwohl Robert Julian-Borchak Williams dem Täter offenkundig nicht gleicht, ist er weiterhin aktenkundig. Ebenso drängt die ACLU auf die Entfernung sämtlicher personenbezogener Daten – wie Fingerabdrücke, Foto und DNA-Probe –, die aufgrund der Verhaftung bei der Polizei festgestellt wurden. Darüber hinaus wird gefordert, dass die Behörde die Nutzung der Software einstellt.

Bereits seit Jahren warnen Experten und Aktivisten vor dem Einsatz von Gesichtserkennungstechnologien bei der Polizei und anderen Behörden. Denn vielfach sind die Gesichtserkennungsprogramme unzuverlässig und bei bestimmten Ethnien deutlich fehleranfälliger als bei anderen. Beispielsweise zeigte eine Studie von 189 Gesichtserkennungssystemen, dass diese Menschen mit asiatischen und afrikanischen Wurzeln bis zu 100 Mal ungenauer und schlechter identifizieren als Menschen mit kaukasischer Abstammung. Ein MIT-Projekt names Gender Shades bewies zudem, dass schwarze Frauen bis zu 34,4 Prozent schlechter von Gesichtserkennungssoftware erkannt werden als weiße Männer. Ein Grund ist, dass die entsprechenden Systeme mehrheitlich mit sogenannten Datasets trainiert werden, die eben primär Bilder von Menschen mit heller Haut und europiden Gesichtszügen enthalten.

Teaser-Bild: Getty Images

2 „Gefällt mir“