US-Polizisten setzen Gesichtserkennungs-KI offenbar häufig falsch ein

Bei ihren Ermittlungen setzen gerade amerikanische Polizeistationen inzwischen häufig auf Gesichtserkennungs-Software. Offenbar sind die Beamten dabei aber „kreativer“ als von den Machern der KI vorgesehen. Zu diesem Ergebnis kam eine Studie der Georgetown University.

Ist auf den Aufnahmen der Überwachungskamera ein Teil des Gesichts nicht zu sehen, zum Beispiel die Augenpartie, wird dieser eben durch Stock-Fotos ergänzt. Sagt ein Zeuge, der Verdächte sah aus wie der Schauspieler Woody Harrelson, wird die KI eben mit dessen Foto gefüttert… Ein wahrer Fall, der sogar zur Ergreifung des Täters führte. Doch es hätte auch anders laufen können.

The Verge fasst in diesem Video das Problem mit Gesichtserkennung im Polizeieinsatz zusammen.

3 „Gefällt mir“