Wir sollten Deepfakes ernst nehmen, aber nicht in Panik verfallen

Die amerikanischen Geheimdienste sind alarmiert. Die EU-Kommission auch. Und Firmen für IT-Sicherheit sowieso. Sie fürchten, dass Deepfakes zur Manipulation von Wahlen missbraucht werden könnten. Experten sehen weniger schwarz. Auch weil es erste Lösungen gibt, um die gefälschten Videos zu entlarven.

Von Wolfgang Kerler

Wir müssen zuerst über Pornos reden. So eindeutig ist die Statistik. 96 Prozent der rund 14.700 Deepfake-Videos, die bereits im Netz kursieren, sind pornographisch. Das ergab eine Auswertung des niederländischen Start-ups Deeptrace, die gerade erschienen ist. In den gefälschten Pornos sind meistens britische und amerikanische Schauspielerinnen oder koreanische Musikerinnen zu sehen, wie sie vermeintlich Sex haben. In Wahrheit wurden ihre Gesichter mithilfe von Künstlicher Intelligenz auf die Köpfe von Pornodarstellerinnen verpflanzt.

Sogar der inzwischen für alle möglichen gefälschten Videos gebrauchte Begriff Deepfake geht auf die Manipulation von Pornos zurück. Im November 2017 startete der Reddit-User u/deepfakes ein gleichnamiges Forum, um sich mit anderen darüber auszutauschen, wie man Deep-Learning-Software nutzen könnte, um die Gesichter von Pornodarstellerinnen auszutauschen – mit denen von weiblichen Stars. Dieses Faceswapping wurde erst durch die Fortschritte der KI-Entwicklung außerhalb von Hollywood-Studios möglich und erschwinglich.

Das Reddit-Forum wurde schon im Februar 2018 dicht gemacht. Doch die Deepfakes waren nicht mehr zu stoppen. Jeder, der das nötige Wissen, die nötigen Rohdaten und die nötige Rechenpower hat, kann mit frei zugänglicher Software wie Faceswap oder DeepFaceLab synthetische Videos mit ausgetauschten Gesichtern erstellen. Auch auf YouTube und Instagram lassen sich inzwischen viele – nicht pornografische – Beispiele finden.

Mark Zuckerberg spricht endlich Klartext

Wenn allerdings neben Donald Trump plötzlich ein langhaariger Wladimir Putin im Abendkleid lächelt oder Mark Zuckerberg offen zugibt, dass es bei Facebook nur darum geht, intime Daten von Nutzern zu verwerten, ist bisher jedem klar: Diese Videos können nicht echt sein, sie sind Satire oder Kunst. Die meisten Deepfakes sehen bisher auch noch nicht völlig überzeugend aus – und hören sich auch nicht so an.

Allerdings dürfte es nur eine Frage der Zeit sein, bis sich das ändert. Synthetische Fotos, auf denen fiktive menschliche Models zu sehen sind, die es nie gegeben hat, lassen sich schon heute nicht mehr mit bloßem Auge als Werk einer Künstlichen Intelligenz identifizieren. Was passiert also, wenn Deepfake-Videos und gefälschte Sprachaufnahmen ebenso perfekt daherkommen? Drohen uns dann Desinformationskampagnen, wie es die amerikanischen Geheimdienste oder die EU-Kommission befürchten? Oder liegen die Risiken eigentlich ganz woanders?

Die Experten, mit denen 1E9 gesprochen hat, beurteilen die Lage recht differenziert. Fangen wir damit an, welche Gefahren sie sehen, bevor wir auf die Lösungen zu sprechen kommen.

Sind Lügner die großen Gewinner?

„Von allen Deepfake-Videos, mit denen ich bisher zu tun hatte, hatte ausgerechnet eines die größten Auswirkungen, das wahrscheinlich gar kein Fake war“, sagt Giorgio Patrini im Gespräch mit 1E9 – hier ist er als @giorgiop Mitglied. Er ist Chef und Entwicklungsleiter von Deeptrace, dem Start-up, das die oben zitierte Studie veröffentlicht hat und das an Software arbeitet, mit der Fake-Videos identifiziert werden können. Sein Statement bezieht sich auf ein Video, das zum Jahreswechsel 2018/2019 im zentralafrikanischen Gabun für eine Staatskrise sorgte. Als erstes westliches Medium hatte das Magazin Mother Jones darüber berichtet.

Ende des vergangenen Jahres gab es in Gabun Spekulationen über den Gesundheitszustand des Präsidenten Ali Bongo, weil er seit Oktober nicht in der Öffentlichkeit zu sehen war. Manche behaupteten, er wäre tot. Um gegenzusteuern, veröffentlichte die Regierung pünktlich die Neujahrsansprache des Politikers. Doch diese heizte die Gerüchte noch an, denn Ali Bongo hinterließ einen sonderbaren Eindruck – seine Mimik und Gestik wirkte aus Sicht von Kritikern unnatürlich. Ein Oppositionspolitiker bezeichnete das Video schließlich als Deepfake.

Eine Woche nach Veröffentlichung der Ansprache versuchten Teile des Militärs in einem missglückten Staatsstreich die Macht in Gabun an sich zu reißen. Als einen Beleg dafür, dass mit dem Präsidenten etwas nicht stimmte, wurde die Merkwürdigkeit des Videos genannt.

Der Verdacht der Fälschung wurde bisher allerdings nicht bestätigt. Forensische Untersuchungen – auch von Deeptrace – konnten keine Beweise dafür liefern, dass das Video manipuliert wurde. Hundertprozentig ausschließen ließ es sich bisher aber auch nicht. Allerdings gab es ohnehin eine andere mögliche Erklärung für die seltsame Anmutung des Videos: Ali Bongo erholte sich zur Zeit der Aufzeichnung von einem Schlaganfall. Dass der Präsident lebt, ist inzwischen ebenfalls klar, da er wieder öffentliche Auftritte absolvierte.

Ausführlich erklärte Giorgio Patrini den Vorfall in Gabun, seine Einschätzung zur Gefahr, die von Deepfakes ausgeht, und was er und Deeptrace dagegen tun wollen, auch auf der diesjährigen DMEXCO-Konferenz im Gespräch mit @Wolfgang von 1E9.

Der Punkt, den Giorgio Patrini mit diesem Beispiel machen will: „Allein die Tatsache, dass Leute über die Existenz von Technologie Bescheid wissen, mit der man Videos so realistisch fälschen kann, stellt bereits eine Bedrohung für die Demokratie, für die Medien und die Gesellschaft dar“, erklärt er. „Jeder kann nun die Aussagekräftigkeit von Videos in Zweifel ziehen.“ Für Audios, die ebenfalls mit KI gefälscht werden können, gelte das natürlich auch.

Die amerikanischen Juraprofessoren Danielle Citron und Robert Chesney haben für dieses Problem inzwischen einen Begriff geprägt: liar’s dividend , die Lügnerdividende. In einem TED-Talk definierte Citron diese kürzlich als „das Risiko, dass sich Lügner auf Deepfakes berufen, um sich der Verantwortung für ihr Fehlverhalten zu entziehen“. Auch andere mögliche krasse Folgen von Deepfakes schildert Citron – etwa, wenn in arabischen Staaten Fake-Videos die Runde machen würden, in denen amerikanische Soldaten den Koran verbrennen.

Für Desinformation braucht es keine Deepfakes

Weniger dramatisch stuft Alexander Sängerlaub die Gefahr durch Deepfakes ein. „Bildmanipulationen gab es schon zu Zeiten von Stalin“, sagt er zu 1E9. „Auch in der Filmindustrie werden schon lange Bilder manipuliert. Dafür mussten wir nicht auf Deep Fakes warten. Das einzige, was passiert, ist, dass es komfortabler und günstiger wird, manipulierte Videos herzustellen.“

Alexander Sängerlaub, hier bei 1E9 als @constructivealex, leitet bei der Stiftung Neue Verantwortung, einem Berliner Think Tank, das Projekt „Stärkung digitaler Öffentlichkeit“ und untersucht seit Jahren, wie sich Fake News über soziale Medien verbreiten und welchen Einfluss sie auf Wahlen haben können. Sein Hauptargument dafür, dass Deepfakes keine neue Bedrohungskategorie darstellen: Sie seien ziemlich überflüssig.

„Ich brauche kaum technische Mittel, um Fakes herzustellen, die sich rasend schnell in sozialen Netzwerken verbreiten“, sagt er. „Beim Video der angeblich betrunkenen Nancy Pelosi wurde einfach die Geschwindigkeit verringert. Oft reicht es auch, Bilder, Videos oder Zitate in einen neuen Kontext zu setzen.“ Statt Deepfakes reichen bisher Cheap Fakes , also: billige Fakes.

Recht gelassen sieht auch Matthias Nießner das politische Risiko, das Deepfakes und andere gefälschte Videos darstellen. „Ob von einem potenziellen Putin-Trump-Hybrid so viel Gefahr ausgeht, wage ich zu bezweifeln“, sagt er zu 1E9. Er ist Professor an der Technischen Universität München, war zuvor in Stanford und gehört zu den Pionieren der synthetischen Videos. 2016 präsentierte er die von ihm mitentwickelte Software Face2Face, die in Echtzeit die Mimik einer Person auf eine andere Person übertragen kann. Im amerikanischen Fernsehen transformierte er damit sogar den Showmaster Jimmy Kimmel ins Gesicht von Mike Tyson.

„Ich sehe eher Dinge wie Rache-Pornos oder High-School-Mobbing als Gefahr“, führt Nießner weiter aus. „Hier ist es teilweise völlig egal, ob man erkennt, dass eine Sequenz gefälscht ist. Der Schaden für die betroffene Person ist so oder so da.“

Das musste auch die indische Investigativ-Journalistin Rana Ayyub erleben. Nachdem sie in TV-Interviews kritisiert hatte, dass Kinderschänder in Indien geschützt würden, zirkulierten zunächst gefälschte Zitate von ihr auf Twitter. Anschließend verbreitete sich ein Deepfake-Pornovideo, in dem sie zu sehen war, über WhatsApp und andere soziale Medien – zunächst in Kreisen nationalistischer Politiker, dann wurde es über 40.000-mal geteilt wurde.

Eine gigantische Welle an Hass, Drohungen und Beschimpfungen schwappte digital über sie herein. „Ich war einem Lynchmob in Indien ausgesetzt. Die Leute dachten jetzt, sie könnten mit mir machen, was sie wollen“, schrieb sie in ihrem persönlichen Bericht, der auf Deutsch bei Focus Online erschienen ist.

Software, die Fake-Videos erkennt

Unabhängig davon, welche Befürchtungen sich als begründet darstellen und welche nicht: Wir werden technische Lösungen brauchen, wie wir Deepfakes erkennen können. Sowohl Matthias Nießner als auch Giorgio Patrini und einige andere Teams weltweit arbeiten genau daran. Zusätzlich wird es auch weiterhin Menschen brauchen, die mithilfe von Recherche, Wissen und Technologie Informationen und Desinformationen unterscheiden können. Da sind sich die meisten Experten einig.

Matthias Nießner und sein Team von der TU München haben mit FaceForensics (++) bereits eine Software veröffentlicht, die manipulierte Videos von Gesichtern erkennen kann – selbst wenn die Bilddateien stark komprimiert wurden. Insgesamt wünscht sich der Münchner Forscher einen sensibleren Umgang mit digitalen Informationen. „Daher wäre es sehr wünschenswert, wenn man dem Nutzer eines Browsers eine Analyse der Bilder oder Videos, die angezeigt werden, bereit stellen kann“, sagt er. Genau das soll durch FaceForensics (++) möglich werden.

Einzuschätzen, ob Informationen wahr oder falsch sind – dafür gibt es Journalismus.

Deeptrace von Giorgio Patrini entwickelt eine Deep-Learning-Software, die beispielsweise von Journalisten eingesetzt werden kann. Sie erkennt Manipulationen an Videos, die für das menschliche Auge nicht zu bemerken sind. Außerdem berücksichtigt sie die Metadaten der Clips, in denen sich Spuren der verwendeten Algorithmen finden können, und sie sucht nach ähnlichen Videos, die möglicherweise zeitlich früher erschienen und die Originale sein könnten.

„Wir arbeiten mit Machine Learning “, sagt Giorgio Patrini, „also wird die Software keine Schwarz-Weiß-Antworten liefern, sondern den Grad angeben, zu dem das Video vertrauenswürdig ist.“ Am Ende könnte dann der Journalist entscheiden, wie er die Informationen einordnet, die ihm das Programm liefert. „Einzuschätzen, ob Informationen wahr oder falsch sind – dafür gibt es Journalismus“, sagt auch Alexander Sängerlaub. „Der ist eigentlich noch viel notwendiger als früher, weil wir heute viel mehr Informationen und Desinformationen haben.“

Insgesamt sind die drei Experten, mit denen 1E9 gesprochen hat, optimistisch, dass wir Deepfakes in den Griff kriegen – zumindest, was die Gefahren für unsere Demokratie angeht. Gefälschte Pornos könnten am Ende also das größere Problem darstellen.

Teaser-Bild: Screenshot von einem YouTube-Video des Channels The Fakening

Achtung: 1E9 soll die neue Community für Zukunftsoptimisten werden. Wir sind derzeit noch in der Closed Beta, aber du kannst dich hier auf die Warteliste setzen lassen. Dann melden wir uns schon bald!

2 „Gefällt mir“

Sind Deepfakes nun eine Gefahr für unsere Demokratie oder nicht? Und wie sollten wir mit ihnen umgehen?

Diese Fragen habe ich allen drei Interviewpartnern gestellt. Gleich folgen ihre Antworten.

Solltet ihr Fragen oder eigene und ergänzende Einschätzungen haben – sehr gerne! Alex Sängerlaub alias @constructivealex und Giorgio Patrini alias @giorgiop stehen sicher auch noch für Nachfragen bereit. Giorgio freut sich über Fragen auf Englisch :wink:

The rise of synthetic media and deepfakes is forcing us towards an unsettling realization: our historical belief that video and audio are reliable records of reality is no longer tenable. Anyone finding him/herself in a compromising video or audio recording can appeal to plausible deniability. At the same time, as tools for fabricating digital evidence are becoming more accessible, there is growing concern of fake audios and video being utilized to smear political opponents. Without countermeasures, the integrity of democracies around the world are at risk.

2 „Gefällt mir“

Jede neue Medientechnologie kommt immer mit haufenweise Ängsten und Befürchtungen daher. Zu Beginn des Radiozeitalters sind – so die alte These – alle beim Hörspiel “Krieg der Welten” in Panik verfallen, Fernsehen machte uns dann “dick, dumm und krank” und Computerspiele, bzw. die “Killerspiele” dann alle zu Amokläufern. Von heute aus betrachtet, wirkten all diese Mediendiskurse ein bisschen zu dramatisch. Ähnliches erleben wir gerade mit den Diskursen zu Fake News und Deep Fakes. Was wichtig ist, dass wir als digital citizens lernen, mit den neuen Technologien und Herausforderungen digitaler Öffentlichkeiten, in der jede und jeder vermeintlich Informationen selbst produzieren kann, umzugehen. D.h. kritisch zu bleiben, um nicht auf jeden Fake reinzufallen, aber andererseits auch denen Vertrauen zu schenken, die uns mit qualitativ hochwertigen Informationen versorgen. Das gilt für uns als Journalisten genauso wie für uns als Bürger.

2 „Gefällt mir“

Matthias Nießner von der TU München ist leider (noch) kein 1E9-Mitglied. Seine Antwort auf die Fragen, die ich per Mail bekommen habe, will ich euch aber nicht vorenthalten:

Bedrohen Deep Fakes aus Ihrer Sicht unsere Demokratie? Und wie sollten wir als Gesellschaft generell damit umgehen?

Das denke ich nicht. Momentan gibt es noch viel Hype. Aktuell ist es es ist ja viel effizienter, einfach den Text unter einem Bild zu ändern, als kompliziert ein Video zu erstellen. Ich sehe momentan das Problem eher in Sachen wie Revenge Porn usw.

Prinzipiell muss man sich immer im Klaren darüber sein, dass Pixel synthetische Daten sind (ob in Videos oder Bildern). Ob eine Geschichte im Video echt ist oder nicht, hängt aber nicht nur davon ab, ob das Video gefälscht ist, sondern auch davon, ob die Szene gestellt ist (Video kann ja echt sein, aber die Story dahinter nicht).

Generell als eine langfristige Lösung sehe ich digitale Signaturen (ähnlich wie SSL) – sprich: Eine trusted source unterschreibt und bürgt sozusagen für die Echtheit. Ich könnte mir sowas im Journalismus durchaus vorstellen. Allerdings wird aktuell auch sehr selten Email-Verschlüsselung verwendet, was auch durchaus ein Problem ist. Von daher muss man erst mal schauen, in wie weit es wirklich ein praktisches Problem ist.

1 „Gefällt mir“

Ich halte Deep Fakes neben autonomen Waffensystemen für die größte gegenwärtige Gefahr von KI. Die Tatsache, dass es bislang keine folgenreichen Deep Fakes gab und forensische Software die Videos theoretisch erkennen kann, beruhigt mich nicht.

Was passiert also, wenn Deepfake-Videos und gefälschte Sprachaufnahmen ebenso perfekt daherkommen? Drohen uns dann Desinformationskampagnen, wie es [die amerikanischen Geheimdienste] befürchten? Oder liegen die Risiken eigentlich ganz woanders?

Richtig, das Voice-Cloning, also das Synthetisieren von Stimmen, macht ebenfalls große Fortschritte (Lyrebird, Deep Voice (braucht nur ein 3,7 Sekunden langes Sprachsample!)). Doch das Risiko liegt darin, dass wir Menschen gegenüber der Wahrheit indifferent werden.
Stellen wir uns ein Video mit gefälschten Gesichtern und gefälschten Stimmen vor. Was ist, wenn Kim Jong Un in einem Internetvideo den Abschuss einer atomaren Langstreckenrakete Richtung USA bestätigt? Oder wenn die NASA, die ESA, die russische und die chinesische Weltraumagentur in einer gemeinsamen Pressekonferenz den baldigen Einschlag eines Meteoriten verkünden? Vielleicht können Forensiker mit oder ohne KI-Hilfe einen noch so gut gemachten Deep Fake als Fälschung erkennen – aber ist es dann nicht vielleicht zu spät für eine Entwarnung? Nimmt in der öffentlichen Panik jemand diese Entwarnung ernst? Und weiter: Nimmt künftig noch irgendjemand tatsächlich authentische Videoaufnahmen ernst? Aviv Ovadya, Medienforscher und Ex-Googler, warnt vor Abstumpfung: Es braucht nur ein paar große Täuschungen, um die Öffentlichkeit zu überzeugen, dass nichts real ist.
Also: Wir sollten nicht in Panik verfallen, aber den Online-Plattformen die Erkennung und Kennzeichnung von Deep Fakes auferlegen. Und solche Videos, wenn es sich um Verleumdung oder absichtliche Desinformation handelt, im Zweifelsfall juristisch verfolgen können.

4 „Gefällt mir“

Ich gehe genau wie @constructivealex davon aus, dass die Bedeutung von verlässlichen Nachrichtenquellen wieder zunehmen wird - also die von glaubwürdigen Medien und Journalisten, denen die Leute vertrauen. Kurz gesagt: Wenn in der Tagesschau ein ESA-O-Ton läuft, glaubt man ihm, wenn er auf ominösen Twitter-Kanälen auftaucht, erstmal nicht. (Außer man geht von der großen Verschwörung der Mainstream-Medien aus, die von der Regierung gesteuert sind… aber dann glaubt man sowieso schon jeden Schrott, der gepostet wird.)

Nach all den Meldungen über Fake News in sozialen Netzwerken hat sich – zumindest in Gesellschaften mit Pressefreiheit, in denen die politischen Regime nicht selbst aktive Meinungsmanipulation über soziale Netzwerke betreiben – herumgesprochen, dass man nicht alles glauben sollte, was auf Facebook, Twitter oder YouTube steht. Ich denke, dieses Wissen wird sich auf Videos und Audios ausweiten, so dass die Leute erstmal gelassen bleiben, wenn plötzlich Videos, wie die von dir beschriebenen, auftauchen. Eine Kennzeichnung, dass die Authentizität zweifelhaft ist, wie du sie vorschlägst – und an der Matthias Nießner arbeitet – kann zu diesem Effekt zusätzlich beitragen.

3 „Gefällt mir“

Super Thema, @Wolfgang, und toller Beitrag. Die Frage, welche Konsequenzen Deep Fakes haben, betrifft womöglich aber nicht nur den politischen und journalistischen Bereich, sondern könnte auch unseren „Alltag“ verändern. Mein Freund Marco Wehr stellt die These auf, dass das echte Leben (wieder) zum „nächsten großen Ding“ werden könnte. Sein Artikel Von Angesicht zu Angesicht passt prima zu Eurem Aufmacher: www.derdebattehalber.de/von-angesicht-zu-angesicht :nerd_face:

3 „Gefällt mir“

Ich halte sie nicht für die größte Gefahr, aber durchaus für die „interessanteste“ (im negativen Sinne) Herausforderung, der wir in den kommenden Jahren begegnen werden. Denn waren Fakes bislang noch mit recht einfachen „Werkzeugen“ wie einer Google-Suche, Bilder-Rückwärtssuche oder dem Hochlanden in ein einfaches Bildanalyse-Tool etc. pp. zu enttarnen, wird es zwar bei Deep Fakes auch möglich sein, sie zu widerlegen. Jedoch wird es dafür deutlich umfangreicheres Softwareequipment und vor allem einen zeitaufwendigeren Prozess brauchen.

Und oft ist es genau das, was bei vielen Menschen – und auch manchen „Journalisten“ – zwischen dem Glauben an einen Fake, der Weiterbreitung und der Wahrheit steht: Komfort und Zeitaufwand.

Stimmt!

Und vor allem: Studien haben gezeigt, dass bei einem Gros der Menschen selbst ein enttarntes Fake aufgrund seiner emotionalen Aufladung stark im Gedächtnis bleiben und sogar falsche Erinnerungen produzieren können.

Bestes Beispiel: Pizzagate.

3 „Gefällt mir“

Die These der fremdgesteuerten Medien braucht es in diesem Falle nicht. Bis journalistische Medien die Sache richtig stellen können, kann das Fakevideo über die Sozialen Medien bereits weite Runden gedreht haben. Journalistische Arbeit braucht Zeit. Und ob sie eine Panik einfangen kann, dafür sehe ich keinen Beleg.
Zum anderen sehen wir dieser Tage, dass die sachlich begründbare Wahrheit, nennen wir es Verstand oder Tagesschau, grundsätzlich schwer hat gegen die gefühlte Wahrheit. Und Deep Fakes sind Zunder für die gefühlte Wahrheit.

Ich hoffe wie du und @constructivealex, dass die Bedeutung journalistischer Medien wieder steigen
wird, aber wenn, dann im Bereich der Nachrichtentiefe. Bis der Spiegel am Kiosk liegt, haben die Fakevideos mit Hilfe der Filterblasen bereits dicke Mauern um die Meinung Zigtausender gezogen.

2 „Gefällt mir“

Cooler Beitrag, coole Links! Aber de Debatte gab es nicht zum ersten Mal. Lange haben sich Gerichte dagegen gewehrt Fotografien als Beweismittel zuzulassen. Menschen hatten Angst vor dieser merkwürdigen Technologie, die niemals so ehrlich und eindeutig wie eine Zeugenaussage sein könnte.

Die Panikmache zu Deepfakes (in der übrigen Berichterstattung) wird oft von denen betrieben, die auch die technischen Lösungen verkaufen. Den meisten ist bewusst, dass hier nur ein sinnloses Wettrüsten beginnt, dass höchstens zu wirtschaftlichem Wachstum führt, aber nicht zu einem „ehrlicheren Internet“. Trotzdem werden Millionen dafür verballert.

Ja es ist schrecklich, dass sich Schüler Mithilfe von Deepfakes mobben können. Aber wenn Mobbing mit Deepfakes aussgeschlossen wäre, würden die Kids halt wieder gemeine Sachen malen oder singen. Wer Mobbing in Schulen wirklich angehen will, sollte sich mal das kompetitive System aus Kaisers Zeiten genauer anschauen.

Am Ende sind Deepfakes ein ganz normales neues Ausdrucksmittel. Man kann es für Blödsinn missbrauchen aber auch wundervolle Dinge damit erschaffen.

4 „Gefällt mir“

Ja, das hat sich auch leider schon einige Male gezeigt. Unter anderem mit den Behauptungen in Indien, „Fremde kommen ins Dorfen und stehlen eure Kinder“, die zu Lynchmorden geführt haben.

Oder auch in Venezuela und anderen südamerikanischen Ländern, in denen WhatsApp und andere Plattformen stark für die gezielte Wählerirritation missbraucht wurden. Widerlegungen von Behauptungen und Fake News durch Medien führten dabei zu einer Feedbackschleife, die für viele das Misstrauen in die Medien, „die die Wahrheit unterdrücken wollen“, fälschlicherweise nur noch bestätigte.

2 „Gefällt mir“

Diese Fälle sind aber Belege für die These, dass es dafür überhaupt keine Deepfakes braucht… Du kannst Fake News schon mit viel einfacheren Mitteln streuen.

Micaelbrendel schrieb:

" Nimmt künftig noch irgendjemand tatsächlich authentische Videoaufnahmen ernst? Aviv Ovadya, Medienforscher und Ex-Googler, warnt vor Abstumpfung: Es braucht nur ein paar große Täuschungen, um die Öffentlichkeit zu überzeugen, dass nichts real ist."

Das finde ich neben dem hervorragenden Beitrag von Dir eine der interessantesten Kernaussagen. Auf die wir reagiern müssen !

Das geht ja schon beim Klimawandel los. Da sind viele schon so abgestumpft das viele „gerne“ die Position vertreten, das man ja keinem mehr glauben kann ob das nun stimmt.
Obwohl es sachlich dazu keine Gegenposiionen gibt.
Verantwortung gegenüber Sachverhalten im Journalismus vs. Quote und Umsatz durch reisserische Überschriften ist hier ebenso ein gesellschaftliches Thema.

2 „Gefällt mir“

Diese Entwicklung könnte sich durch Deepfakes tatsächlich noch verstärken, das Risiko sehe ich auch. Denn: Wenn ich mir ohnehin die „Wahrheiten“ herauspicke, an die ich glauben will, und den Rest als Fake abstemple… dann kann ich natürlich auch die Aussage von Journalisten/Experten einfach als Meinungsmache abtun, die sagen, ein Video wäre gefälscht.

1 „Gefällt mir“

Um nochmal auf DeepFakes zurückzukommen. Man darf auch nicht vergessen, dass die natürlich nicht nur negative, sondern auch sehr unterhaltsame Seiten haben. Wie das hier:

2 „Gefällt mir“

Ich sehe Deepfakes auch als sehr großes Problem. Wenn ich mir ansehe wie die erwähnten „Cheap Fakes“ aus rechtspopulistischen Kreisen bis in meinen Bekanntenkreis schwappen, habe ich keine gutes Gefühl, wenn es erstmal richtig überzeugende Fakes für Misinformationskampagnen gibt. Definitiv ist hier der Journalismus (und damit einhergehend neue Technologien zur Fake-Erkennung) gefragt solche Missstände aufzuklären. Doch habe ich auch den Eindruck, dass das Vertrauen in die Medien stetig sinkt und Deepfakes so zu einer weiteren Spaltung der Gesellschaft führen könnte.

2 „Gefällt mir“

Ja, … daher werden wir einerseits nicht drumherum kommen, dass Journalisten das Werkzeug zur Enttarnung an die Hand gegeben wird. Aber auch gesetzliche Rahmen werden wir benötigen. Nur habe ich keine Ahnung wie Letztere aussehen sollen - vor allem um nicht gleichzeitig bestehende Rechte im Rahmen der Kunst- und Ausdrucksfreiheit einzuschränken.

2 „Gefällt mir“

Kalifornien geht nun in Form von zwei Gesetzen gegen Deepfakes vor. Eines ermöglicht es Opfern von Deepfake-Pornos, gegen deren Urheber vorzugehen. Das andere verbietet in den 60 Tagen vor politischen Wahlen die Veröffentlichung von politischen Fake-Videos, die nicht als Fakes gekennzeichnet sind.

1 „Gefällt mir“