Wie KI-generierte Bilder zur Desinformation genutzt werden

Was soll man noch glauben? Der Krieg zwischen Israel und der Hamas wird von einer Welle gefälschter KI-Bilder begleitet. Einige wurden tausendfach geteilt und millionenfach gesehen. Noch ist deren Wirkung und Sichtbarkeit gering. Aber Experten warnen vor den Folgen eines KI-Desinformationskriegs.

Von Michael Förtsch

Am 7. Oktober 2023 überfielen Kämpfer der palästinensischen Terrororganisation Hamas grenznahe Militärposten, Siedlungen und Kleinstädte in Israel. Sie töteten über 1.100 Menschen, verletzten über 5.400 weitere und nahmen 240 Geiseln, die in den Gazastreifen verschleppt wurden. Nur wenige Tage später startete die israelische Armee IDF ihre Militäroffensive in Gaza, um die Hamas zu zerschlagen. Mit Luftschlägen und Bodentruppen wurden zahlreiche Stellungen der Terrororganisation ausgehoben – aber auch die Infrastruktur des auf Hilfslieferungen angewiesenen Gazas zerstört. Tausende Menschen wurden durch die Kampfhandlungen getötet und noch mehr aus ihrer Heimat vertrieben.

Geführt wird der Krieg zwischen Hamas und Israel aber nicht nur mit Waffen, sondern auch mit Informationen. Und mit Desinformationen, die teils aus Unwissen, teils gezielt auf den großen Social-Media-Plattformen geteilt werden. Im Dezember verbreitete sich ein Video, das einen Großvater mit einem getöteten Säugling zeigt. Schnell machte die Behauptung die Runde, es sei kein Kind, sondern eine Puppe und all das nur ein Werk von Pallywood, also eine professionell organisierte Propagandainszenierung. Doch das tote Kind war echt, wie Journalisten wenig später verifizieren konnten.

Ganz anders verhielt es sich bei einem Video, das Palästinenser angeblich bei der Inszenierung der Nachwirkungen eines Luftangriffs zeigen soll. Das Video war ein Fake. Die Inszenierung war zwar echt und das Video stammte aus Gaza. Aber gedreht wurde es bereits 2017. Denn es handelte sich um einen Ausschnitt aus einem Hintergrundbericht des türkischen Senders TRT World über einen Filmdreh in Gaza – und die Chancen, die etwa junge Frauen als Make-up-Künstlerinnen in der Filmindustrie haben könnten.

Doch längst werden auch Bilder ins Netz gestellt, die offenkundig gefälscht, aber nicht gestellt oder manipuliert sind, sondern gleich gänzlich mit Künstlicher Intelligenz generiert wurden.

Gefälscht mit Künstlicher Intelligenz

Bereits kurz nach dem Start der israelischen Militäroperation verbreiteten sich im Internet zahlreiche Bilder, die angeblich die Folgen der israelischen Luftangriffe dokumentierten: zerstörte Häuser und Städte, Straßen voller Betonbrocken, Geröll und brennender Papier- und Pappfetzen. Andere zeigten Kinder, die unter zerstörten Gebäuden eingeklemmt waren, oder Körperteile, die zwischen eingefallenen Wänden hervorstachen. Die Bilder wurden auf Twitter, Facebook, in Telegram-Kanälen und anderen Social-Media-Plattformen geteilt. Doch sie waren nicht authentisch, sondern KI-generiert, mit Text-zu-Bild-Generatoren wie Stable Diffusion, Midjourney oder Adobe Firefly, die mittlerweile erlauben, fotorealistische Szenen zu erstellen.

Einige der Bilder stammten von Adobe Stock, einer der größten Bilddatenbanken im Internet. Jeder kann sich dort registrieren und Bilder einreichen – explizit auch KI-generierte Bilddateien. Wer nach „Gaza“ sucht, findet dort eine überwältigende Menge an Fotos, die bedrückende Szenen aus dem Landstreifen zeigen sollen. Darunter sind Darstellungen von Menschen mit Koffern und Rucksäcken, die durch Schwaden aus Staub fliehen, oder ein Junge mit einem Teddybären, der auf eine zerstörte Stadt schaut. Auf den ersten Blick wirken sie sehr überzeugend, aber es sind keine echten Fotografien, sie wurden nur als solche verbreitet. Deshalb griff Adobe im November 2023 ein und führte eine explizite Kennzeichnungspflicht für KI-Bilder ein. Ein Schritt, der zumindest dabei hilft, Fake-Fotos mittels Rückwärtssuche schneller zu enttarnen.

Immer wieder werden KI-Bilder verbreitet, die ganz bewusst der Propaganda und Desinformation dienen sollen. Ein angebliches „Foto“ soll etwa einen palästinensischen Vater zeigen, der seine Kinder durch Schutt aus einem zerstörten Gebäude führt. Es wurde bereits am 26. Oktober 2023 auf Twitter gepostet, über 20.000-mal geliket und mehr als 10.000-mal retweetet. Kommentare zeigen, dass nicht wenige Nutzer das Bild für eine authentische Fotografie hielten und halten. Denn erst bei einem genaueren Blick ist zu erkennen, dass dem Kleinkind einige Zehen fehlen, die den Vater umklammernden Arme der Kinder aus unmöglichen Stellen kommen und scheinbar direkt den Pullover durchdringen. Auch fällt nicht sofort auf, dass Teile des Schutts und Mülls im Hintergrund aus undefinierbaren Gegenständen bestehen.

Ähnliche Bilder existieren zuhauf. Viele davon sind, wie ein Bericht der Los Angeles Times anführt, bewusst gestaltet, um eine starke emotionale Reaktion hervorzurufen, insbesondere Mitleid und Wut. Daher handelt es sich vor allem um Bilder von leidenden, toten oder verletzten Kleinkindern oder Familien. Zuletzt verbreitete sich eine Serie von Darstellungen, die palästinensische Kinder zeigen, die in Zelten auf schlammigem Boden schlafen. Einige davon wurden millionenfach betrachtet und Zehntausendfach geteilt und geliket. Und das obwohl, wie Faktenchecker schnell demonstrieren konnten, sie ganz typische KI-Fehler wie zu viele oder zu wenige Zehen und Finger oder anderweitig unmögliche Anatomie aufweisen.

Unbekannte Urheber

Der BR-Redakteur, Netz-Experte und Politikwissenschaftler Christian Schiffer sieht im Einsatz von KI-Fakes im Krieg zwischen Israel und Hamas eine „besonders toxische Mischung“. Denn der Nahostkonflikt sei bereits so emotional geladen gewesen, wie kein anderer. „[Diese emotionale Aufladung] prallt nun auf eine neue Technologie, die natürlich im Informationsraum stattfindet“, so Schiffer. Die KI-Technologie mache es theoretisch „für jeden möglich, sich an dem Informationskrieg“ um den Nahostkonflikt zu beteiligen. Viele nehmen diese Möglichkeit wahr.

Wer die Urheber der Bilder sind, ist oft nicht nachvollziehbar. Hinter einem Teil der Bilder werden Hamas-nahe Gruppierungen vermutet, aber auch unabhängige Sympathisanten und Aktivisten. Dazu kommen vermutlich Internet-Trolle, die einfach provozieren oder irritieren wollen. Denn manche der Bilder scheinen zuerst auf dem für seine äußerst schwierige Debatten- und Diskussionskultur bekannten Internetforum 4chan aufgetaucht zu sein. Andere stammen aus Facebook- und Telegram-Gruppen. Auch pro-israelische KI-Bilder werden verbreitet, wenn auch offenbar in deutlich geringerer Zahl und eher als Material, das Geschlossenheit und Patriotismus propagiert. Hier ist ebenfalls unsicher, wer die Macher der Bilder sind.

Laut dem Fotoforensiker und Deepfake-Experten Hany Farid von der University of California, Berkeley sei die Wirkung der KI-generierten Bilder als Desinformationswerkzeug derzeit noch begrenzt. Nur einige wenige Bilder seien bislang viral gegangen und das zudem oft in Kreisen, die bereits sensibilisiert und emotional involviert sind. Für Debatten sorgte bisher eher echtes Bild- und Videomaterial, das aus dem Kontext gerissen wurde, wie etwa ein Video, das zeigen sollte, wie IDF-Soldaten angeblich Zeltlager mit einem Radlader zerstören. Aber das könnte sich ändern. Ein gelungener und überzeugender KI-Fake zum richtigen Zeitpunkt könnte durchaus eine destabilisierende Wirkung haben, wenn er nicht rechtzeitig erkannt wird, warnt Hany Farid.

Fakes in großer Zahl könnten zudem das Informationsökosystem verstopfen, für Konfusion und Verwirrung sorgen und den Faktencheck immer schwieriger machen, sagt der Fotoforensiker. Sie könnten für ein Grundmisstrauen sorgen – und eine Atmosphäre schaffen, in der jedem Bild und Video misstraut wird, weil es durchaus möglich scheint, dass es KI-generiert ist. Vor einem ähnlichen Zustand warnt auch Christian Schiffer. Der Vorwurf, ein Bild sei nicht echt, sondern KI-generiert, würde schon jetzt instrumentalisiert, beispielsweise von antisemitischen Verschwörungstheoretikern, die die Massaker am 7. Oktober 2023 leugnen. „Das viele der Bilder [der Massaker] KI-generiert sind, ist schon ein wichtiges Narrativ in der Szene“, so Schiffer. „Die KI-Bilderschwemme ist ein Katalysator für Leute, die all das leugnen wollen.“

Was könnte helfen?

Das Erzeugen von KI-Bildern zur Desinformation lässt sich schwer verhindern. Modelle wie Stable Diffusion sind Open-Source und können von jedem genutzt und weiterentwickelt werden. Frei verfügbare Dienste wie Midjourney und DALL-E 3 sind zwar mit bestimmten Sperren versehen, die aber primär das Generieren von gewalthaltigen Bildern verhindern sollen. Daher sieht Hany Farid vor allem die sozialen Netzwerke in der Pflicht, moderierend und aufklärend einzugreifen. „Aber es sind nicht nur die sozialen Netzwerke“, sagt er. Es brauche auch entsprechende Regulierungen durch Regierungen.

Auch Werkzeuge, die KI-generierte Bilder erkennen, könnten helfen. Doch bislang sind diese Tools nicht sonderlich zuverlässig. Sie erkennen noch zu oft echte Fotos als Fälschungen und Fälschungen als echte Fotos. Dienste wie AI or Not haben daher bislang sogar eher dazu beigetragen, authentische Fotos zu diskreditieren. So wurde ein Foto eines von der Hamas getöteten Säuglings als KI-generiert eingestuft, obwohl es das nicht ist. Einige KI-Entwickler mutmaßen, dass derartige Programme wohl nie wirklich zuverlässig arbeiten werden, da sich die Technologie und die Modelle sehr schnell entwickeln und wohl bald in kaum noch zu überschauender Varianz existieren werden.

„Es wird erst noch schlimmer werden – viel schlimmer – bevor es besser wird“, sagte Jean-Claude Goldenstein bereits im November 2023 gegenüber AP. Er leitet CREOpoint, ein Start-up, das mithilfe von Künstlicher Intelligenz und menschlichen Experten Falschinformationen im Netz aufdecken will. Er glaubt, dass es durch „generative KI zu einer Eskalation kommen wird, wie wir sie noch nie gesehen haben“. Nicht nur in Konflikten wie zwischen Israel und der Hamas, sondern auch anderen Auseinandersetzungen. Auch andere Beobachter warnen davor, dass KI-generierte Fotos und Videos in politischen und gesellschaftlichen Konflikten eine große Rolle spielen könnten – zur Desinformation und als Propaganda-Werkzeug – auch in Deutschland.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Erst Ende tauchte zunächst auf Telegramm, dann auf Twitter ein Bild auf, das eine mit Pizzakartons zugemüllte Halle zeigt – angeblich den Veranstaltungsort des Parteitags der Grünen, der von den Teilnehmern so zurückgelassen wurde. Das Foto war aufgrund vieler Bildfehler leicht als Fake zu erkennen, wurde aber dennoch Tausendfach geteilt, um die Partei und deren Mitglieder zu diffamieren. Im Vorlauf der Wahlen in den USA werden hingegen KI-Fakes geteilt, die Joe Biden bei geheimen Treffen mit Putin oder verwirrt und mit Windel in einem Gang des Weißen Haus zeigen sollen. Erste Initiativen in den USA und auch die Landeszentrale für Politische Bildung schlagen daher eine verpflichtende Kennzeichnung von KI-Bildern vor. KI-Forscher und Desinformationsexperten zweifeln daran, dass das eine nachhaltige Lösung darstellt.

Eine andere Option wird derzeit von mehreren Medienunternehmen erprobt. Mithilfe von Kryptographie, Blockchain oder anderen Datenbanken sollen Fotos und Grafiken eine Provenienz erhalten. Dadurch soll es möglich sein, bei Pressebildern mit einem Klick nachzuprüfen, wann ein Foto von wem erstellt wurde, mit welcher Kamera es aufgenommen wurde, wie es bearbeitet wurde und von welchen Medien oder Agenturen es verifiziert wurde. Zumindest dann, wenn die entsprechenden Medien und Plattformen diese Systeme unterstützen. Wird ein KI-Bild als Pressebild verbreitet, könnte es dadurch schnell enttarnt oder von Moderatoren eines Social Networks erkannt und entsprechend markiert werden.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

3 „Gefällt mir“