Sei es der Glaube daran, dass Bill Gates das Coronavirus erfunden hat, die Erde eigentlich flach ist oder Politiker das Blut von Kindern trinken, um jung zu bleiben: Es ist vielfach die Videoplattform YouTube, die Menschen mit solchen Verschwörungsideen in Kontakt bringt und immer weiter hineinzieht. Mozilla will nun herausfinden, wie es dazu kommt – und die Nutzer sollen mithelfen.
Von Michael Förtsch
Es geht ziemlich schnell. Eigentlich will man nur kurz ein YouTube-Video schauen, das gerade auf Facebook oder Twitter verlinkt wurde. Doch plötzlich ist fast eine Stunde vergangen. Denn aus dem einen Video wurden erst zwei, dann vier und schließlich wer weiß, wie viele. Und die meisten davon hatten letztlich nur noch entfernt etwas mit dem zu tun, weswegen man zu YouTube hinüber geklickt hat. Das liegt am Algorithmus, der immer weiter Videos empfiehlt und, wenn das Autoplay-Feature aktiviert ist, auch gleich automatisch abspielt. Er soll uns vor dem Bildschirm halten – und tut das auch durchaus effektiv. Aber auch mit destruktiven Folgen. Denn YouTube hat viele Menschen in den Bann von Verschwörungstheorien gezogen.
Erst im Juni hatte eine Studie des King’s College London aufgeschlüsselt, wie essentiell die Videoplattform für die Bildung eines Glaubens an Verschwörungen und der Ängste vor vermeintlichen Verschwörern ist. „YouTube zeigt die stärkste Verbindung zu Verschwörungsüberzeugungen“, schreiben die Autoren. Ganze 60 Prozent der Probanden, die beispielsweise davon überzeugt sind, dass die 5G-Mobilfunktechnik das Coronavirus oder dessen Symptome auslöse, sollen „ihre Informationen zu Covid-19 von YouTube“ bekommen haben. Ganz ähnlich soll es bei den teils radikalen Anhängern der Verschwörungsideologie QAnon aussehen, dessen Anhänger meinen, dass eine „Elite“ die Geschicke der Welt leitet, Kinder missbraucht und eine Droge aus ihrem Blut gewinnt, die sie jung hält.
Auch Firefox-Entwickler Mozilla sammelte mit seinem Projekt Regrettable Recommendations Geschichten dazu, wie YouTube seine Nutzer mit Verschwörungstheorien, aber auch anderen grenzwertigen Videoinhalten in Kontakt bringt. Beispielsweise werden Menschen, die nach Dokumentationen über Wikinger suchen auch automatisch Videos vorgesetzt, die weiße Menschen als Herrenrasse glorifizieren. YouTube hat bereits Schritte dagegen unternommen – und das durchaus auch mit Erfolg. Dass dieser Erfolg aber nachhaltig ist, das wird bezweifelt. Daher will Mozilla nun, dass möglichst viele Menschen mithelfen, Daten über das Empfehlungssystem von YouTube zu sammeln.
Werde jetzt Mitglied von 1E9!
Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 3 Euro (+ MwSt) im Monat!
Jetzt Mitglied werden!Mozilla will mehr Transparenz
Allein im vergangenen Jahr soll YouTube seinen Algorithmus mehr als 30 mal verändert haben, um die Empfehlung von borderline content , wie YouTube es nennt, zu reduzieren. Laut Mozilla gäbe es aber kaum Datengrundlagen, um nachzuvollziehen, ob sich das Empfehlungssystem von YouTube tatsächlich dauerhaft verbessert hat und den Nutzern wirklich weniger fragwürdige Videos vorgesetzt werden. Außerdem sind die bisher von Mozilla gesammelten Anekdoten über regrettable recommendations keine ausreichende Arbeits- und Urteilsgrundlage. Deswegen sollen nun großflächig möglichst viele falsch gelaufene Empfehlungen nachvollzieh- und auswertbar gemacht werden.
Dafür hat Mozilla eine Browser-Erweiterung entwickelt: den RegretsReporter, der für Firefox und Chrome verfügbar ist. Nach dem Installieren sollen die Nutzer YouTube weiterhin so nutzen wie bisher. Im Hintergrund sammelt die Extension für die jeweils letzten fünf Stunden Informationen darüber, wie YouTube genutzt wird. Wird dem Nutzer dann ein Video vorgesetzt, das er als grenzwertig einschätzt, kann er es Mozilla samt eigenen Anmerkungen melden. Ebenfalls übertragen werden dann die Daten, die den Empfehlungsverlauf nachverfolgbar machen.
Laut Mozilla werden die Daten so anonymisiert wie möglich mitgeschrieben – und das auch nur, wenn der Nutzer auf YouTube unterwegs ist. Rückschlüsse auf die sendende Person sollen nicht möglich sein. Ebenso würden die Rohdaten nur einem kleinen Kreis von Forschern zugänglich gemacht und nur die Befunde später mit Journalisten, YouTube-Mitarbeitern und Regulierungsbehörden geteilt, die sich mit dem Problemen des YouTube-Algorithmus befassen. Wie und was genau gesammelt wird, das lässt sich hier nachlesen.
Laufen soll die aktive Sammlung von Daten zunächst über einen Zeitraum von sechs Monaten. Wie die Mozilla-Mitarbeiterin Ashley Boyd sagt, gehe es dann darum, das „Wie“ und „Wieso“ des Empfehlungssystems transparenter zu machen. Man hoffe außerdem darauf, bei den Menschen ein Bewusstsein für die Mechaniken von YouTube und anderen Video- und Social-Media-Plattformen zu wecken. „Ich würde mich freuen, wenn sich die Menschen mehr dafür interessieren würden, wie die KI und in diesem Fall die Empfehlungssysteme ihr Leben berühren“, sagte Boyd. „Es muss nicht geheimnisvoll sein, und wir können uns darüber klarer werden, wie man es kontrollieren kann.“
Teaser-Bild: Getty Images / Rick Loomis