Facebook will jetzt Deep Fakes entfernen


Auf Facebook sollen künftig Videos, die mit Künstlicher Intelligenz bearbeitet wurden, aufgespürt und entfernt werden. Satire- und Parodievideos sollen jedoch verschont bleiben. Damit will das Social Network offenbar einem erneuten Sturm der Kritik zuvorkommen.

Von Michael Förtsch

Es ging schnell. Vor drei Jahren wurden Deep Fakes erstmals in der breiten Öffentlichkeit bekannt. In einem mittlerweile gesperrten Bereich auf Reddit hatten sich Nutzer organisiert, die Deep-Learning-Technologien für Künstliche Intelligenzen nutzen, um die Gesichter von Schauspielerinnen in Pornovideos auf die Körper von Darstellerinnen zu projizieren. Waren diese ersten Videos oft noch plump und leicht als Fälschungen zu entlarven, sind aktuelle Deep Fakes zumindest auf den ersten Blick überzeugend – und manche nur noch schwer von einer realen Aufnahmen zu unterscheiden. Das gilt mittlerweile keineswegs mehr nur für Pornos. Deep-Fake-Künstler nutzen die Technik, um Barack Obama vor der Gefahr von Deep Fakes warnen zu lassen oder auch um Salvador Dalí ins Leben zurückzuholen. Und neben Videos lassen sich auch Audioinhalte und damit Sprache gekonnt fälschen.

Die US-Geheimdienste kamen zwischenzeitlich zur Einschätzung, dass die Technik das Potential hat, für gezielte Angriffe auf die öffentliche Meinungsbildung genutzt zu werden. Sie könne das Vertrauen in die Regierung und Berichterstattung von Medien schädigen. Zu dieser Überzeugung kamen nun offenbar auch die Entscheider bei Facebook im Vorlauf der kommenden US-Wahl. Das Social-Media- und Werbeunternehmen war vor Jahren daran gescheitert, Wahlmanipulation aus dem Ausland durch die Verbreiteten von Falschmeldungen und Wahlwerbung auf seiner Plattform zu verhindern – und musste sich dafür unter anderem vor dem US-Kongress rechtfertigen. Das will Facebook wohl nicht noch einmal riskieren: Wie Facebook in einem Blogbeitrag angekündigt hat, werden Deep Fakes auf der gesamten Plattform verboten.

Das Unternehmen will damit alsbald Inhalte entfernen, die „auf eine Art und Weise [verändert wurden], die für eine durchschnittliche Person nicht offensichtlich ist und die wahrscheinlich jemanden in die Irre führen könnte“. Auch Videos und Audioinhalte, die eindeutig das „Produkt von Künstlicher Intelligenz oder Machine Learning“ sind und Inhalte verschiedener Quellen verschmelzen, sollen verbannt werden. Das dürfte für Facebook durchaus eine Herausforderung werden. Denn ausgenommen von den neuen Regularien wären Inhalte, die als Parodie oder Satire zu werten wären. Ebenso sollen auch Videos, die bearbeitet wurden, um visuelle Inhalte nachzuschärfen oder Audioinhalte zu verbessern, außen vorgelassen werden.

Aber auch grenzwertige Videos wie das sogenannte Pelosi-Video sollen noch im Rahmen des Erlaubten sein. Bei diesem Video war eine Aufnahme einer öffentlichen Veranstaltung so verlangsamt worden, dass es wirkte, als würde die US-Politikerin Nancy Pelosi betrunken herum lallen. Das Video war aber nicht mittels Künstlicher Intelligenz, sondern einem klassischen Videoschnittprogramm bearbeitet worden.

Internationale Partner sollen helfen

Wie genau die Deep-Fake-Inhalte erkannt werden sollen, das erklärte Facebook bisher nicht. Jedoch hätte sich das Unternehmen mit Regierungsbehörden, akademischen Einrichtungen und auch Partnern aus der Industrie zusammengetan, um sein Ziel zu erreichen. Bei unklaren Fällen sollen die Inhalte an unabhängige Bewertungsstellen weitergeleitet werden. Insgesamt gäbe es davon 50 weltweit. Sollte ein Video nicht klar die Kriterien für eine Löschung erfüllen, aber dennoch zweifelhaft – oder „zum Teil gefälscht“ – sein, würde seine Verbreitung in der Timeline anderer Nutzer und damit in seiner Reichweite eingeschränkt. Handelt es sich um den Inhalt einer Werbeanzeige, würde diese komplett zurückgewiesen. Nutzer, die einen solchen Inhalt schon geteilt haben, würden eine Warnung angezeigt bekommen, dass der Inhalt zweifelhaft ist.

„Dieser Ansatz ist entscheidend für unsere Strategie und wir haben ihn aus unseren Gesprächen mit Experten abgeleitet“, heißt es von Facebook. „Wenn wir einfach alle manipulierten Videos, die von den Fact-Checkern als falsch gekennzeichnet wurden, entfernen würden, wären die Videos immer noch an anderer Stelle im Internet oder im Social-Media-Ökosystem verfügbar. Indem wir sie stehen lassen und als irreführend kennzeichnen, geben wir den Menschen wichtige Informationen und Kontext.“

Ein Wettbewerb soll Anti-Deep-Fake-Software fördern

Bereits Ende des letzten Jahres hatte Facebook erkennen lassen, dass Deep Fakes zukünftig erkannt und reguliert werden würden. Denn da hatte das Unternehmen gemeinsam mit Partnern wie Microsoft, Amazon, der Partnership on AI und verschiedenen Universitäten die sogenannte Deepfake Detection Challenge gestartet. Bei dieser können unabhängige Entwickler, Unternehmen und Teams neue Technologien einreichen, die das Aufspüren und Analysieren von Deep-Fake-Videos erleichtern sollen. Diese Techniken sollen dann nicht nur Facebook das Enttarnen einfacher machen, sondern beispielsweise auch Journalisten helfen, Videos und Audioaufnahmen auf ihre Authentizität zu prüfen.

Teilnehmer des Wettbewerbs können für ihre Entwicklungen auf über 470 Gigabyte an manipulierten Videos zu greifen, die von Facebook selbst erstellt worden waren. Als Preisgeld werden insgesamt 1 Million US-Dollar ausgelobt. Eingereicht werden können Codes, Programme und Konzepte noch bis Ende März dieses Jahres. Die Gewinner sollen dann im April verkündet werden.

Teaser-Bild: Ctrl Shift Face

6 Like

“The adversary will always win, you will always be able to create a compelling fake image, or video […]" (Futurism). KI ist leider die perfekte Technologie, um sich selbst austricksen…bin auch froh, dass es deepfakes weiter geben wird, denn mein Tag wäre wertlos ohne morgentliches Yoga mit „Hide the pain Harold“. Und Deepfakes sind ein wundervolles Tool, um zu visualisieren, was eigentlich undenkbar ist…z.B. dass die führenden Staatschefs der Welt gemeinsam Lennon’s „Imagine“ singen - stellt Euch das mal vor.

5 Like

Mit diesem Link hast du mich nachhaltig traumatisiert…

3 Like

Ja, bin eigentlich auch ziemlich froh, dass es die Technologie gibt - und sie genutzt wird. Ich bin sehr gespannt, ob sich der aktuelle Angst- und Panik-Hype, der einige Menschen befällt, in der Rückschau vlt. albern erscheinen wird.

3 Like

Haha ja, OMG

1 Like

holy cow ist das geil :)))) @Michael du bastelst ja auch an deep „fakes“. vielleicht könntest du mit @Wolfgang’s Face einen Yoga-Teaser für die 1E9 Konf machen. :smiling_face_with_three_hearts: für Body and Mind

3 Like

Das wäre einfach… wunderbar.

Mit entsprechendem Rohmaterial könnte ich das gerne versuchen ; )

1 Like