Facebook betreibt eine Simulation voller Bots, die trollen und betrügen

,


Die Entwickler von Facebook haben eine Facebook-Kopie erschaffen. Die ist nur mit Bots bevölkert, die so tun, als ob sie Menschen wären. Sie liken Beiträge, schließen Freundschaften und verbreiten Troll-Kommentare. Dadurch will Facebook zukünftig die echte Plattform verbessern und effektiver gegen bösartiges Verhalten vorgehen können.

Von Michael Förtsch

Seit Jahren wird es für Nutzer immer schwerer, sich auf Facebook sicher und gut aufgehoben zu fühlen. Wer dort mit einem öffentlich auffindbaren Profil aktiv und in Gruppen unterwegs ist, kann schnell das Ziel von verbalen Attacken werden. Außerdem gerät Facebook zunehmend in den Ruf, ein Paradies für Betrüger zu sein. Immer wieder schaffen es Menschen, Facebook-Nutzer hereinzulegen, um ihnen mit gefälschten Profilen und privaten Nachrichten über den Messenger Daten, ihre Identität oder Geld abzujagen. Das ist auch für Facebook selbst ein Problem. Denn all das schadet den Nutzern und damit der Reputation, dem Nutzerwachstum und damit den möglichen Werbeerlösen.

Bisher versucht Facebook, mit menschlichen Moderatoren und Künstlicher Intelligenz gegen diese Probleme anzugehen. Aber die Ergebnisse halten sich, wie Mark Zuckerberg selbst bei einer Anhörung erklärte, in Grenzen. Noch fehlt den Entwicklern des Social Networks das Wissen, wie Troll-Aktionen und Scams eigentlich genau ablaufen, welche Dynamiken dabei entstehen und insgesamt: Wie das „Verhalten einer Gemeinschaft von Nutzern auf einer Softwareplattform“ nun wirklich abläuft. Daher versucht Facebook nun, genau das realitätsnah zu simulieren. Dafür haben Entwickler eine funktionale, abgeschlossene aber verkleinerte Kopie der Facebook-Plattform aufgebaut, die für Menschen nicht zugänglich ist.

Stattdessen ist diese Web-Enabled Simulation mit Bots bevölkert, die mittels Machine Learning darauf trainiert wurden, sich wie verschiedene Nutzertypen zu verhalten. „Im einfachsten Fall erkunden Bots lediglich die Plattform und wählen zufällig aus einem Set von Interaktionen und Beobachtungen“, schreiben die Facebook-Entwickler in einer Studie zum Experiment. Beispielsweise können simple Bots einfach Beiträge betrachten und „Gefällt mir“-Klicks verteilen. Allerdings gibt es auch komplexere Bots, die Entscheidungen treffen, andere Bots befreunden, simulierte Texte und Kommentare schreiben und sogar als Gruppe gemeinsam auf ein virtuelles Ziel hin agieren können.

Bots sollen Bots täuschen

Die intelligenteren Bots sind beispielsweise darauf trainiert, einen interessierten Facebook-Nutzer zu simulieren, der sich in Debatten einbringt. Aber ebenso können sie als „bösartige Nutzer“ gestaltet sein. Sie können sich mit anderen Bots verknüpfen, um „potenziell die Privatsphäre verletzende Aktionen“ durchzuführen oder simulierte Kommentare hinterlassen, die auf der echten Facebook-Plattform als Hate Speech oder Beleidigungen eingestuft würden. Ebenso gibt es Bots, die darauf trainiert wurden, sich möglichst aktiv mit anderen Bots zu vernetzen. Aber nicht mit irgendwelchen, sondern mit Bots, die „passende Ziele“ für besonders heimtückische Attacken darstellen könnten.

Diese bösartigen Bots sind nämlich da, um Scammer – also Betrüger – nachzuahmen. Sie sollen mit Nutzern, die ein spezielles „Zielverhalten aufweisen“ virtuelle Freundschaften schließen und Tricks anwenden, um sie dann auszunutzen oder übers Ohr zu hauen. Nach welchen Regeln die Scammer-Bots vorgehen, wie sie Ziele auswählen und welche Mechanismen sie nutzen, will Facebook nicht verraten. Diese Details wären nämlich „offensichtlich sensibel“. Denn immer wieder gelangen Betrüger über Facebook so an Geld, sensible Daten, Geschäftsgeheimnisse oder private Informationen, die einen Identitätsdiebstahl möglich machen.

Die Web-Enabled Simulation soll es Facebook-Entwicklern ermöglichen, beispielsweise Fehler in der Software der Plattform zu finden. Ebenso soll sie es sichtbar machen, wenn eine Lücke im System entsteht, die es Nutzern ermöglicht, mehr Informationen über andere Nutzer zu sehen, als es erlaubt sein dürfte. Die Simulation könnte auch abschätzen lassen, wie Nutzer auf Änderungen am echten Facebook reagieren oder wie neue Optionen die Art, wie das Social Network genutzt wird, wandeln. Außerdem soll das simulierte Facebook sichtbar machen, wie genau sich nun betrügerische und aggressive Nutzer auf Facebook verhalten und „wie und wie effektiv unsere Präventivmaßnahmen“ dagegen sein können.

Teaser-Bild: Facebook

4 „Gefällt mir“