Update:
Meta seine Pläne überraschend geändert. Wie das Facebook- und Instagram-Unternehmen am Freitag mitteilte, will es zumindest vorerst darauf verzichten, öffentliche Nutzerdaten aus der EU für sein KI-Training zu verwenden. Hintergrund ist eine Forderung der irischen Datenschutzbehörde Data Protection Commission, das Training insbesondere von Sprachmodellen wie der LLaMA-Reihe auf Basis von öffentlichen Inhalten der Nutzer auszusetzen. Auch die Verbraucherzentrale NRW hat Meta abgemahnt. Die deutschen Datenschützer fordern, dass Inhalte von Nutzern nur mit deren ausdrücklicher Zustimmung für das KI-Training verwendet werden dürfen. Meta räumt den Nutzern derzeit aber nur die Möglichkeit des Widerspruchs ein. „Das Widerspruchsverfahren ist sehr umständlich und wenig nutzerfreundlich“, so die Datenschützer.
Laut Meta ist dies „ein Rückschritt für die europäische Innovation und Wettbewerbsfähigkeit bei der Entwicklung von KI“. Denn „ohne die Einbeziehung lokaler Informationen könnten wir den Menschen nur ein zweitklassiges Erlebnis bieten“. Aus diesem Grund will Meta seinen KI-Dienst Meta AI zunächst nicht in EU-Ländern einführen.
Ursprüngliche Meldung:
Am 26. Juni sollen bei der Facebook-Firma Meta neue Datenschutzrichtlinien in Kraft treten. Diese erlauben es dem Unternehmen, Inhalte der Nutzer wie Texte und Bilder für das Training von KI-Modellen zu verwenden. Es besteht jedoch die Möglichkeit, Einspruch einzulegen.
Von Michael Förtsch
Für das Training von KI-Modellen werden riesige Datenmengen benötigt. Wie Forscher und Entwickler bereits mehrfach gewarnt haben, fehlt es sowohl den etablierten Technologiefirmen als auch den Start-ups zunehmend an qualitativ hochwertigen Trainingsdaten. Insbesondere die Entwicklung von Sprachmodellen könnte sich dadurch rapide verlangsamen. Bereits in zwei bis vier Jahren könnte die Entwicklung praktisch zum Stillstand kommen. „Wenn man an die Grenzen der Datenmenge stößt, kann man seine Modelle nicht mehr wirklich effizient skalieren“, sagen KI-Forscher wie Tamay Besiroglu. Unternehmen suchen daher bereits nach Methoden, KI-Modelle effizienter und mit weniger Daten besser zu trainieren. Vor allem aber suchen sie nach bisher ungenutzten Datenquellen.
Dazu gehört das Facebook-Unternehmen Meta, das erst in diesem Jahr mit Meta.ai einen eigenen Chatbot gestartet hat, für die offenen LLaMA-Modelle verantwortlich ist, aber auch an KI-Systemen zur Bild- und Videoerstellung arbeitet. Für deren Training werden auch Nutzerdaten verwendet. Zumindest von Nutzern aus den USA, wie die New York Times berichtet. Bei Facebook- und Instagram-Mitglieder in der Europäischen Union und Großbritannien ist das aufgrund strengerer Datenschutzgesetze allerdings nicht so ohne weiteres möglich. Deshalb hat Meta bereits im vergangenen Monat per E-Mail über eine Aktualisierung der Datenschutzrichtlinie informiert, die am 26. Juni 2024 in Kraft treten soll.
In dieser beruft sich Facebook nun auf „berechtigte Interessen“, um Nutzerdaten nutzen zu können, um KI-Produkte zu „entwickeln und zu verbessern“ und „Dritten bereitzustellen“. Diese Daten sollen öffentlich geteilte Texte – in Form von Posts und Kommentaren –, Bilder, Tags und Videos wie in Instagram- und Facebook-Stories umfassen. Zumindest von denjenigen, die laut den Meta-Plattformen 18 Jahre oder älter sind. Private Nachrichten und Unterhaltungen sollen nicht betroffen sein.
So geht der Opt-out
Wie in der E-Mail an die Meta-Kunden erwähnt wird, können Kunden den „berechtigten Interessen“ widersprechen. Konkret haben Nutzer in der EU und Großbritannien die Möglichkeit, ihre Daten von der KI-Verarbeitung auszuschließen: ein sogenanntes Opt-out. Allerdings, so kritisieren Nutzer und Datenschützer derzeit, ist diese Option in den verschachtelten Menüstrukturen von Facebook und Instagram versteckt und daher nur sehr schwer zu finden.
In Facebook befindet sich die Option unter „Einstellungen und Privatsphäre“ → „Einstellungen“ → „Datenschutzrichtlinie“ → „Widerspruchsrecht“ (Hier der direkte Link zum Formular). In der Web-App von Instagram ist die Option unter „Einstellungen und Privatsphäre“ → „Datenrichtlinie“ → „Widerspruchsrecht“ zu finden (Hier der direkte Link zum Formular). In der Smartphone-App wiederum unter „Info“ → „Datenschutzrichtlinie“ → „Widerspruchsrecht“.
Es wird jeweils ein Online-Formular aufgerufen, in dem das Wohnsitzland und die E-Mail-Adresse, unter der das Meta-Konto registriert ist, angegeben werden müssen. Außerdem werden ein Widerspruchstext und weiterführende Informationen abgefragt.
Werde Mitglied von 1E9!
Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.
Jetzt Mitglied werden!Hier genügt eine kurze Erklärung, wie:
Hiermit widerspreche ich ausdrücklich der Nutzung meiner persönlichen Daten durch Meta oder Dritte für das Training einer Künstlichen Intelligenz. Dazu zählen insbesondere meine Posts, Kommentare, Bilder sowie sämtliche personenbezogenen Informationen.
Ich verlange, dass meine Privatsphäre respektiert und meine Daten nicht für solche Zwecke verwendet werden. Ich fordere eine schriftliche Bestätigung, dass entsprechende Maßnahmen ergriffen werden, um meine Daten zu schützen und meinen Widerspruch zu berücksichtigen.
Die deutschen Verbraucherzentralen haben weitere vorformulierte Widerspruchserklärungen und Argumente, die angeführt werden können.
Innerhalb weniger Minuten sollte der Einspruch von Meta per E-Mail als „berücksichtigt“ bestätigt werden.
Kritik an Meta
Datenschützer wie die EU-NGO NOYB haben das Vorgehen von Facebook in den vergangenen Tagen bereits scharf kritisiert. NOYB sieht in dem Vorstoß, Nutzerdaten zum Training von KI-Modellen zu verwenden, einen „Missbrauch persönlicher Daten“. Max Schrems, Leiter der NGO, forderte nationale Daten- und Verbraucherschützer auf, die Verarbeitung der Daten durch Meta schnellstmöglich zu stoppen, bevor sie in Modellen wie der nächsten Version von LLaMA trainiert werden können. Er kritisierte auch, dass die Nutzer selbst aktiv werden müssen, um die Verarbeitung zu verhindern. „Es ist völlig absurd, die Verantwortung auf den Nutzer abzuwälzen“, so Schrems. „Wenn Meta Ihre Daten verwenden will, müssen sie Sie um Erlaubnis fragen. Stattdessen lassen sie die Nutzer darum betteln, ausgeschlossen zu werden.“
Laut Meta sei eine Nutzung von EU-Daten der eigenen Dienste dringend nötig. „Wenn wir unsere Modelle nicht auf den öffentlichen Inhalten trainieren, die Europäer auf unseren Diensten und anderen teilen, wie zum Beispiel öffentliche Beiträge oder Kommentare, dann werden die Modelle und die von ihnen angetriebenen KI-Funktionen wichtige regionale Sprachen, Kulturen oder Trendthemen in den sozialen Medien nicht richtig verstehen“, sagte Stefano Fratta, Global Engagement Director für Metas Datenschutzpolitik, in einem Blogpost. "Wir glauben, dass den Europäern mit KI-Modellen, die nicht auf den reichen kulturellen, sozialen und historischen Beiträgen Europas basieren, schlecht gedient ist.“
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Sprich mit Job, dem Bot!
War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!