Forscher wollen eine Künstliche Intelligenz vorhersagen lassen, wer kriminell wird

Forscher der US-Universität von Harrisburg wollen eine Künstliche Intelligenz entwickelt haben, die am Gesicht eines Menschen ablesen kann, ob er oder sie kriminell wird. Hieß es zumindest. Mittlerweile haben die Wissenschaftler die Nachricht über ihre Entwicklung zurückgezogen. Denn ihre Behauptungen wurden heftig kritisiert.

Von Michael Förtsch

Es klingt nach einem Szenario für einen dystopischen Science-Fiction-Film wie Minority Report . Forscher sollen eine intelligente Software so entwickelt und mit Daten trainiert haben, dass sie voraussagen kann, ob jemand in Zukunft ein Verbrechen verüben könnte. Ganz einfach, indem die Künstliche Intelligenz sein oder ihr Gesicht analysiert. Genau diesen Durchbruch verkündete eine Forschungsgruppe an der Harrisburg University am 5. Mai. Laut einer Presseerklärung auf der offiziellen Website der Universität hat das Team dafür eine „automatisierte Gesichtserkennungssoftware“ ausgearbeitet.

Das auf einer trainierten Künstlichen Intelligenz basierende Programm sei in der Lage, „vorherzusagen, wie wahrscheinlich jemand ein Krimineller wird“. Und das mit einer Trefferrate von immerhin 80 Prozent, behaupten der ehemalige Polizist Jonathan W. Korn und die Professoren Nathaniel J.S. Ashby, Roozbeh Sadeghian und Roozbeh Sadeghian, die die Entwicklung hauptsächlich betreuten. Anders als andere Künstliche Intelligenzen, die bisher von Behörden, aber auch Unternehmen eingesetzt werden, soll das Programm „keine rassistischen Vorurteile“ besitzen, die durch mangelhafte oder unbedachte Trainingsdaten entstehen. „Die Vorhersage wird allein auf der Grundlage eines Bildes ihres Gesichts berechnet“, heißt es in der Pressemeldung.

„Kriminalität ist eines der prominentesten Themen in der modernen Gesellschaft“, ließ sich Jonathan W. Korn in der Pressemeldung zitieren. „Die Entwicklung von Maschinen, die in der Lage sind, kognitive Aufgaben auszuführen, wie zum Beispiel das Kriminalitätspotential einer Person anhand ihres Gesichts zu erkennen, wird den Strafverfolgungsbehörden und anderen Geheimdiensten einen bedeutenden Vorteil dabei verschaffen, das Auftreten von Kriminalität in bestimmten Bereichen zu verhindern.“ Die Software könne „winzige Merkmale in einem Bild extrahieren, die in hohem Maße kriminalitätsvorhersagefähig sind“, ergänzt Sadeghian in der Pressemeldung.

„Dumm wie sonst etwas!“

Wie genau und anhand welcher Merkmale die Künstliche Intelligenz die kriminelle Zukunft im Gesicht ablesen soll, das haben die Entwickler nicht verraten. Ebenso wurde nicht beschrieben, wie rassistische Vorurteile verhindert würden – denn die Studie, in der die Forschung beschrieben und aufgeschlüsselt wird, soll exklusiv in der Buchreihe Springer Nature: Research Book Series veröffentlicht werden. Das alles provozierte schon kurz nach Veröffentlichung der Pressemeldung sowohl Skepsis als auch Häme von KI-Entwicklern, anderen Forschern und Internetnutzern. Denn rassistische, sexistische und klassistische Tendenzen beim Trainieren von Künstlichen Intelligenzen zu verhindern, ist laut vielen Forschern eine der schwierigsten – und ungelösten – Herausforderungen.

Eine Erhebung des National Institute of Standards and Technology hat beispielsweise bei 189 getesteten Gesichtserkennungssystemen festgestellt, dass diese Menschen mit asiatischen und afrikanischen Wurzeln bis zu 100 Mal schlechter und ungenauer identifizieren als Menschen mit europäischer Herkunft und kaukasischen Gesichtszügen. Bei Studien sogenannter Predictive-Policing-Systeme, die anhand von Polizei- und Verhaftungsberichten vorhersagen sollen, in welchen Orten wann kriminelle Handlungen zu erwarten sind, wurden ebenso gravierende Vorurteile nachgewiesen. Denn die Software-Systeme übernahmen die rassistischen Tendenzen der Polizisten und erklären vor allem Einwanderernachbarschaften und Orte mit einkommensschwachen Familien zu Kriminalitätsbrennpunkten. Daher urteilten einige Kritiker, die Aussage, die Software der Universitätsforscher würde „keine rassistischen Vorurteile“ zeigen, sei „absurd“ und „dumm wie sonst etwas“.

Nach der Kritik und vielen Nachfragen hat die Universität die Pressemeldung und den Tweet, der diese angekündigt hat, zunächst kommentarlos gelöscht. Laut einer neuen Pressemeldung sei das auf Bitten der Fakultät geschehen, die in die Forschung involviert gewesen ist. Die Besorgnis und Kritik, die sich im Internet äußerste, solle bei einem „Update der Studie“ beachtet und adressiert werden. „Diese Universität unterstützt das Recht und die Verantwortung der Universitätsfakultät, Forschung zu betreiben und sich am intellektuellen Diskurs zu beteiligen, einschließlich jener Ideen, die aus verschiedenen ethischen Perspektiven betrachtet werden können“, heißt es dazu von der Universität Harrisburg. „Alle an der Universität durchgeführten Forschungsarbeiten spiegeln nicht unbedingt die Ansichten und Ziele dieser Universität wider.“

Die Vorstellung, dass eine trainierte Software irgendwann vollkommen neutral und objektiv urteilen könnte, wird von vielen KI-Forschern und Forscherinnen bezweifelt – zumindest, wenn die Daten und damit die Urteilsgrundlage, die Künstliche Intelligenzen konsumieren , von Menschen zusammengestellt werden. Jedoch arbeiten Unternehmen und Initiativen bereits seit mehreren Jahren an Möglichkeiten, Daten auf mögliche rassistische, sexistische oder anderweitig Menschen benachteiligende Tendenzen hin zu überprüfen, um einen sogenannten algorithmic bias zumindest soweit als möglich zu minimieren.

Beispielsweise arbeitet die Initiative ImageNet daran, die mehr als 20.000 Kategorien mit über 14 Millionen Bilder in seiner Datenbank zu kontrollieren und nachzujustieren. Nicht nur was die Ausgewogenheit angeht, sondern auch die Klassifizierungen und Verschlagwortungen. Auch Leit- und Richtlinien sollen weiterhelfen. Aber schon möglichst diverse Teams bei der Arbeit an Künstlichen Intelligenzen und bei der Datenzusammenstellung könnten laut Studien viel bewirken.

Teaser-Bild: 20th Century Fox

4 Like

Mein Kollege meint öfter, wenn ich etwas nicht gerade gelungen finde: „Barbara, mit dem Blick könntest du jemanden töten.“ Gut, dass mein Kollege noch keine solche KI ist. So können wir nochmal drüber lachen.