Regierungen, Geheimdienste und Medienunternehmen fürchten Manipulations- und Desinformationskampagnen mit Deepfakes. Microsoft hat nun ein Tool entwickelt, das Deepfakes erkennen soll. Außerdem soll ein digitaler Fingerabdruck helfen, authentische Videos erkennbar zu machen.
Von Michael Förtsch
Mittels Künstlicher Intelligenz ist es möglich, das Gesicht eines Menschen in einem Video gegen das eines anderen auszutauschen. Auch mit ganzen Köpfen geht das mittlerweile. Diese sogenannten Deepfakes werden genutzt, um Schauspielerinnen und Schauspieler gegen ihren Willen in Pornos zu bringen. Ebenso wird die Technik genutzt, um Schauspieler, Politiker und andere Berühmtheiten in Hollywood-Filme zu faken. Mit ReFace und Reflect gibt es mittlerweile sogar Smartphone-Apps, die kurze Deepfakes mit dem eigenen Gesicht ermöglichen. Geheimdienste und Behörden sehen in den gefälschten Videos aber auch eine akute Bedrohung für die Politik und Gesellschaft. Denn Deepfakes könnten theoretisch genutzt werden, um Politiker in Misskredit zu bringen und die Medien und Öffentlichkeit zu manipulieren.
Links das Original, rechts das Fake. Die Software von Microsoft soll recht sicher erkennen können, wo manipuliert wurde.
Microsoft will es daher in Zukunft einfacher machen, mittels Künstlicher Intelligenz manipulierte Videos zu erkennen und „Desinformation zu bekämpfen.“ Insbesondere mit Blick auf zukünftige Präsidentschaftswahlen und den Herausforderungen, denen Journalisten mit Deepfakes begegnen werden. Dafür hat Microsoft den sogenannten Video Authenticator entwickelt, der Fotos sowie Videos analysiert und sagen kann, mit welcher Wahrscheinlichkeit das Material manipuliert ist oder nicht.
Werde jetzt Mitglied von 1E9!
Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 3 Euro (+ MwSt) im Monat!
Jetzt Mitglied werden!Der Microsoft Video Authenticator sucht dafür nach Makeln, die Deepfakes momentan aufweisen. Unter anderem soll die selbst mittels Machine Learning trainierte Software die Übergänge zwischen dem Kopf und dem Fake-Gesicht ausfindig machen, die mit transparenten Übergängen kaschiert werden. Auch Differenzen zwischen den Grau- und Farbabstufungen oder Schärfebereichen zwischen dem Originalvideo und dem möglicherweise falschen Gesicht sollen als Indikatoren dienen. Entwickelt wurde die Software von den Forschungs- und Entwicklungsteams Microsoft Research und Microsoft Responsible AI, die sich für eine verantwortungsbewusste und sichere Nutzung von Künstlicher Intelligenz einsetzen sollen.
Ein Wasserzeichen als Gütesiegel
Der Microsoft Video Authenticator wurde von den Entwicklern vor allem mit Videos der Deepfake Detection Challenge getestet und soll dabei zielsicher Fakes erkannt haben. Allerdings gestehen die Entwickler ein, dass sich Deepfakes derzeit rasant entwickeln und stetig überzeugender werden - und aufwendige Videos dadurch bald auch die eigene Software täuschen könnten. „Daher müssen wir längerfristig nach besseren Methoden suchen, um die Überprüfbarkeit von Nachrichtenmaterial und anderen Medien zu ermöglichen“, heißt es von Microsoft.
Eine dieser Methoden soll eine Art digitaler Fingerabdruck – ein Hash-Wert – sein, der über das Microsoft-Cloud-Computing-System Azure unsichtbar in Bild- und Videomaterial eingearbeitet wird. Wird das Video abgespielt, kann er über ein Browser-Plug-in oder eine andere Software überprüft und samt Zusatzinformationen wie dem Urheber des Videos ausgelesen werden. Wurde das Video bearbeitet oder verändert, wird der Fingerabdruck ungültig und das Video von der Software als manipuliert erkannt.
Als erste Medienunternehmen wollen die britische BBC, die New York Times und die kanadische CBC das System im Rahmen ihres gemeinsamen Project Origin einsetzen. Hierfür sollen Videos zukünftig ein sichtbares digitales Wasserzeichen erhalten, das nachweist, dass das Videomaterial unverändert ist und aus sicherer Quelle stammt. Wird ein Video verändert, soll das Wasserzeichen „degenerieren“ und damit aufzeigen, dass eine Manipulation vorliegt.