Über Jahre hat sich Facebook geweigert, zu überprüfen, ob seine Technologien bestimmte Bevölkerungsgruppen benachteiligen könnten. Nun hat es Teams zusammengestellt, die die Algorithmen des Unternehmens auf rassistische Tendenzen hin checken sollen.
Von Michael Förtsch
Gerne behaupten Entwickler und Plattformbetreiber, dass ihre Technologien vollkommen neutral arbeiten und werten. Das ist aber eher selten der Fall – insbesondere, wenn dahinter Künstliche Intelligenzen und andere mittels Daten trainierte Entscheidungs- und Mustererkennungsprogramme stehen. Unter anderem wurde in Studien festgestellt, dass Gesichtserkennungssysteme sowohl afroamerikanische als auch Menschen mit asiatischen Wurzeln schlechter erkennen. Sogenannte Predictive-Policing-Programme, die Verbrechen vorhersagen sollen, diskriminieren dagegen einkommensschwache Bevölkerungsgruppen. Nun will Facebook überprüfen, ob seine Algorithmen ähnliche Vorurteile und Benachteiligungen enthalten oder verstärken.
Facebook hat sowohl für seine Facebook-Plattform als auch für Instagram sogenannte new equity teams geschaffen, die eng mit der Facebook-internen Forschungsgruppe für die Entwicklung von Künstlicher Intelligenz zusammenarbeiten. Und dort insbesondere mit der Abteilung Responsible AI, die für die Nachvollziehbarkeit von Algorithmen-gestützten Entscheidungen zuständig ist. Die Teams sollen herausfinden, ob die Plattformen sowohl schwarze, lateinamerikanische als auch andere Menschen in irgendeiner Weise benachteiligen oder deren Sichtbarkeit einschränken. Es gehe darum, „sicherzustellen, dass Fairness und gerechte Produktentwicklung in allem, was wir tun, präsent sind", sagt ein Sprecher von Facebook gegenüber The Verge .
Werde Mitglied von 1E9 – schon ab 3 Euro im Monat!
Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein.
Jetzt Mitglied werden!Das ist für Facebook ein durchaus großer Schritt. Denn über Jahre hinweg hat das Unternehmen gezögert, in seinen Technologien und Angeboten eventuellen rassistischen, sexistischen und klassistischen Benachteiligungen nachzugehen. Dabei hatten Studien gezeigt, dass beispielsweise KI-Systeme, die gegen Beleidigungen und Hassrede und für Werbezwecke eingesetzt werden, dazu neigen, bestimmte Menschen einzuschränken. Auch innerhalb von Facebook selbst hatten sich immer wieder Mitarbeiter dafür ausgesprochen, die eigenen Algorithmen und digitalen Entscheidungsstrukturen zu überprüfen.
Facebook fällt bei Bürgerrechten durch
Unter anderem hat der Facebook-KI-Forscher Yann LeCun in der Vergangenheit klar gemacht, dass Plattformen wie Facebook sich „davor fürchten sollten, dass [Künstliche Intelligenz] nicht gut genug funktioniert“. Und dazu gehöre auch, dass sie Diskriminierungsstrukturen aus dem Alltag übernimmt und in den digitalen Raum überträgt und verstärkt. Wie LeCun sagt, sind „Maschinen-Lern-Systeme voreingenommen, wenn die Daten voreingenommen sind“. Heißt: Wenn beispielsweise ein Gesichtserkennungssystem mehrheitlich mit Bildern von weißhäutigen Menschen trainiert wird, wird es Menschen anderer Hautfarbe nicht so gut erkennen, wie auch Experimente bewiesen haben.
Ebenso hat eine zweijährige Prüfung der Facebook-Plattform durch eine Bürgerrechtskommission angeregt, dass das Unternehmen seine Künstliche-Intelligenz-basierten aber auch sonstigen digitalen Systeme auf möglicherweise rassistische und andere Tendenzen hin studieren sollte. Der 89 Seiten umfassende Civil Rights Audit hatte Facebook scharf kritisiert und festgestellt, dass in dem Social-Media-Konzern Entscheidungen getroffen wurden, die „erhebliche Rückschläge für die Bürgerrechte“ darstellen. Unter anderem würde das System Facebook Hassrede, Beleidigungen und Verschwörungstheorien eine große Bühne bereiten. Der Bericht hat aber ebenso festgestellt, dass Facebook in den vergangenen zwei Jahren mehrere Fortschritte hin zu einer besseren Praxis gemacht hat.