Auf der Videoplattform YouTube finden sich unzählige Videos, die teils radikale und gefährliche Verschwörungen propagieren. YouTube hatte angekündigt, deren Verbreitung zu begrenzen. Wie eine Studie jetzt zeigt, ist das tatsächlich gelungen. Jedoch lässt die Google-Firma offenbar einige Verschwörungen bewusst zu – beispielsweise solche, die den Klimawandel leugnen.
Von Michael Förtsch
Wer auf YouTube nur schnell ein kurzes Video schauen will, das ihm ein Freund oder eine Freundin empfohlen hat, der kann schnell Stunden auf der Videoplattform verbringen. Denn wenn das eine Video gelaufen ist, lädt durch die Autoplay-Funktion direkt das nächste. Und dann noch ein weiteres. Und so weiter. 70 Prozent der Videoinhalte, die auf YouTube abgespielt werden, sind solche vorgeschlagenen Videos. Welche das sind, das bestimmt ein Algorithmus, dessen Regelwerk geheim ist. Doch dieser Algorithmus hat in der Vergangenheit wohl nicht wenige Menschen in die düsteren Abgründe von YouTube gezogen.
So sammelte Mozilla mit seinem Projekt YouTube Regrets zahlreiche Geschichten von Menschen darüber, was ihnen YouTube so vorsetzte und wie sie damit umgingen. Auf Dokumentationen über Pferde folgten plötzlich Videos, in denen Hengste lautstark Stuten deckten, nach klassischen Volksliedern kam hetzender Nazi-Rock. Aber allem voran: Immer wieder wurden Menschen ohne sichtbaren Zusammenhang abrupt Videos mit Verschwörungstheorien empfohlen und angezeigt.
Das sind mal Videos, in denen Menschen darüber sprechen, dass in geheimen Anlagen Menschen mit Aliens gekreuzt werden. Oder, dass die Erde eine Scheibe sei. Es sind Clips, in denen Angst über vermeintliche Drogen im Trinkwasser, über Gift in Kondensstreifen oder über eine jüdische Weltverschwörung geschürt wird. Und es sind Videos, in denen Greta Thunberg zum Produkt einer Klima- und Umweltindustrie erklärt oder in denen Pläne zum „Austausch“ der europäischen Bevölkerung oder zur „Vernichtung des Deutschtums“ erfunden werden. Das sind nicht nur harmlose Was-wäre-wenn-Gedankenspiele oder skurrile Akte-X -Geschichten, sondern Verschwörungstheorien, die für rassistische Übergriffe und auch für tödliche Terroranschläge wie in Hanau, Halle und Christchurch mitverantwortlich gemacht werden können. Der Attentäter von Hanau hinterließ sogar selbst ein YouTube-Video, in dem er über Untergrundstädte in den USA sprach und zum bewaffneten Widerstand aufrief.
Werde Mitglied von 1E9 – schon ab 3 Euro im Monat!
Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein.
Jetzt Mitglied werden!Daher wurde in der Vergangenheit mehrfach gefordert, dass YouTube in die Mitverantwortung genommen werden – und vor allem handeln – muss. Im Januar letzten Jahres sagte die Videoplattform schließlich zu, entsprechende Schritte zu unternehmen. Zu dieser Zeit sollen, wie Bloomberg berichtete, bereits seit langem mehrere YouTube-Mitarbeiter vergeblich für Änderungen am Empfehlungs-Algorithmus gekämpft haben. „Wir werden damit beginnen, Empfehlungen von grenzwertigen Inhalten und Videos zu reduzieren, die die Nutzer auf schädliche Weise falsch informieren könnten“, verkündete YouTube dann in einer Erklärung. Nach einer aktuellen Studie hat das offenbar Wirkung gezeigt.
Eine Studie hat acht Millionen Videos auf Verschwörungen geprüft
Bereits vor der Ankündigung von YouTube, dass der Algorithmus geändert werden würde, hatte sich ein Team aus Entwicklern und Forschern der UC Berkeley School of Information, der University of California und der Mozilla Foundation zusammengefunden . Sie wollten prüfen, wie weit und häufig YouTube seinen Nutzern problematische Videos vorschlägt – und, nach der Ankündigung, ob die Bemühungen von YouTube, ihre Verbreitung einzuschränken, tatsächlich eine sichtbare Wirkung zeigen. Der Grund für diese Überprüfung? Die Zweifel der Studienautoren an der Plattform basierend auf dem Verhalten, das „YouTube über die vergangenen Jahre“ gezeigt habe. Unterstützt wurde das Team von Guillaume Chaslot, der einst selbst das Vorschlagssystem von YouTube mitentwickelt hat.
Die Forscher trainierten für ihre A longitudinal analysis of YouTube’s promotion ofconspiracy videos getaufte Studie selbst einen Algorithmus, der beurteilen sollte, ob ein vorgeschlagenes Video, eine Verschwörungstheorie präsentiert, oder nicht. Dafür schaute die Software nach Schlagworten im Videotitel, der Beschreibung, dem Transkript (falls vorhanden) und den Kommentaren, die auf Verschwörungstheorien schließen lassen. Insgesamt ließen die Forscher ihr System über einen Zeitraum von 15 Monaten rund acht Millionen Videoempfehlungen analysieren. Dabei konzentrierten sie sich auf den Watch-Next-Algorithmus, der die Videos für das kontroverse Autoplay-Feature liefert.
Als Ausgangspunkt für die Analyse nutzen die Forscher eine Liste von 1.080 YouTube-Kanälen. Darin: Die 250 meist geschauten YouTube-Kanäle, außerdem die Kanäle, deren Videos über den Wacht-Next-Algorithmus von diesen aus immer vorgeschlagen wurden, ebenso wie die Channels von Nachrichtenorganisationen und einige handverlesene Kanäle, die die Forscher als relevant erachteten. „Wir sammelten dann die 20 ersten Empfehlungen des Watch-Next-Algorithmus, ausgehend vom letzten Video, das von jedem der Startkanäle täglich von Oktober 2018 bis Februar 2020 hochgeladen wurde“, beschreiben die Autoren. „Die 1.000 meist empfohlenen Videos an diesem Tag wurden gespeichert und für unsere Analyse verwendet.“
Einige Verschwörungen werden weiterhin geduldet
Laut der Studie gab es zu Beginn der Datenerhebung Ende 2018 einen regelrechten Boom von Verschwörungsinhalten. Aber nach der Ankündigung von YouTube, gegen die Empfehlung von Verschwörungsvideos vorzugehen, sind die Zahlen kontinuierlich gesunken. Insbesondere seit April 2019 sei die Zahl der grenzwertigen Empfehlungen stetig abgeflacht, schreiben die Forscher: um bis zu 70 Prozent im Mai 2019. Auch YouTube selbst berichtete im Juni 2019, dass die Aufrufe von zuvor vorgeschlagenen Verschwörungsvideos um 50 Prozent und, wie es im Dezember hieß, um 70 Prozent zurückgegangen seien. Das sei eine Nachricht, „die mehrheitlich konsistent mit unserer Analyse ist“, heißt es nun in der unabhängigen Studie.
Allerdings sei die Zahl der empfohlenen Verschwörungsvideos seitdem langsam, aber sicher wieder gestiegen. Die Reduktion läge heute nur noch bei rund 40 Prozent – verglichen mit der Zeit zu der YouTube begann, gegen Verschwörungen vorzugehen. Dennoch habe es YouTube geschafft, einige Arten von Verschwörungstheorien fast vollständig aus seinen Empfehlungsalgorithmen herauszuhalten. Insbesondere Theorien zu 9/11 und der flachen Erde würden kaum noch auftauchen.
Noch oft vorgeschlagen würden hingegen Videos und Dokumentation , in denen der Klimawandel geleugnet wird. Über die Zeit der Studie hinweg, sei beispielsweise ein Clip namens The truth about global warming von Fox News ganze 15.240 Mal vorgeschlagen worden. In dem Video erklärt der auch von der Öl-Industrie finanzierte Wissenschaftler Patrick Michaels, dass die möglichen Folgen des Klimawandels weit übertrieben würden. Verschwörungstheorien, die ebenfalls mehrfach auftauchten, bringen hingegen Nikola Tesla und freie Energie mit Pyramiden in Verbindung oder behaupten, dass die NASA aufgrund von Geheimbasen von Außerirdischen nach Apollo 17 nicht mehr zum Mond geflogen ist.
Wie die Studienautoren sagen, würden sie auch jetzt noch „nicht ganz verstehen, wie die Empfehlungsalgorithmen von YouTube funktionieren“. Im Gespräch mit der New York Times erklärten sie aber, dass einiges darauf hindeute, dass YouTube bewusst entschieden habe, manche „Falschinformationen“ bedingt zuzulassen und andere nicht – aber das nicht öffentlich eingestehen wolle. „Es ist ein technologisches Problem, aber letztlich ist es auch ein politisches Problem“, sagt Hany Farid von der University of California. „Wenn sie die Fähigkeit haben, die Verbreitung einiger sehr problematischer Inhalte gegen Null zu fahren, dann wäre noch mehr möglich.“