Ein Team der University of Chicago will es Entwicklern und Nutzern von KI-Bild-Generatoren schwerer machen, fremde Bilder und deren Stile für das Training von Modellen zu nutzen. Mit einer freien Software können die Bilder dafür mit dem Stil anderer Künstler getarnt werden. Allerdings wurde die Methode bereits ausgehebelt.
Von Michael Förtsch
Mit Text-zu-Bild-Generatoren wie Midjourney, DALL-E 2 und Stable Diffusion können Nutzer beeindruckende Bilder erschaffen. Binnen weniger Monate hat sich die Technologie rasant entwickelt und ermöglicht mittlerweile sogar fotorealistische Aufnahmen, die kaum noch von echten Lichtbildern zu unterscheiden sind. Aber viele nutzen die KI-Werkzeuge auch, um Motive in Zeichen- und Malstilen bekannter Kreativer zu generieren und zu teilen. Das ist nicht ohne Probleme und Kritik. Denn die hinter den Tools stehenden Modelle wurden vielfach mit Bildern von Künstlern oder auch Fotoagenturen wie Getty trainiert, die nicht um Erlaubnis oder Einwilligung gefragt wurden. Das hat bereits zu Klagen gegen die Entwicklerunternehmen geführt. Ebenso tunen Nutzer offene Modelle wie Stable Diffusion mit zusätzlichen Bildern und dadurch auch Stilen.
Ein Team von Forschern des SAND Lab der University of Chicago will verhindern, dass derartiges in Zukunft weiterhin so einfach möglich ist. Die Firmen hinter den KI-Kunst-Generatoren würden von der Ausbildung, dem Talent und der Kreativität der Künstler profitieren, ohne sie zu entschädigen und zu benennen, so die Forscher. Mit dem Glaze Project haben die Entwickler daher eine Art digitalen Tarnanzug für digitale Bilder konzipiert, der zwar nicht das Kopieren der Dateien verhindert, aber dass Maschinenlern-Modelle die einzigartigen Stile der betreffenden Künstler adaptieren und emulieren. Dadurch würden sie als Trainingsmaterial für ein sogenanntes style mimicry unbrauchbar.
Wie die Forscher in einer Studie ausführen, nimmt das bereits für Windows und MacOS verfügbare Glaze-Programm an einem Kunstwerk „sehr kleine Änderungen“ vor. Die seien für einen Menschen nur beim genauen Hinsehen erkennbar, aber würden die Maschinenlern-Programme in die Irre führen. Denn diese Manipulationen seien nicht willkürlich, sondern würden die einzigartigen Muster des Werks auflösen und denen eines ähnlichen, aber bereits bekannten Stils angleichen – wie dem von Rembrandt, Monet oder Van Gogh. Hierfür nutzen die Forscher eine abgewandelte Methode des sogenannten Style Transfer, mit dem etwa Fotos in Fake-Gemälde im Stil bekannter Künstler konvertiert werden. Wird eine KI mit den getarnten Bildern trainiert, lernt sie also einen anderen Stil als gewünscht.
Tarnkappe kann bereits umgangen werden
Dass die Methode grundsätzlich funktioniert, das haben die Entwickler des SAND Lab in Kooperation mit mehreren Künstlern erprobt. Beispielsweise mit einem Musa Victoriosa genannten Gemälde von Karla Ortiz. Würde jemand das manipulierte Bild nutzen, um den Stil der Künstlerin in ein KI-Modell zu trainieren, würde das KI-System nicht Ortiz’ Stil erkennen, sondern „zum Beispiel den von Vincent van Gogh“, so die Forscher. Entsprechend würde jemand, der anschließend „Kunstwerke im Stil von Karla Ortiz“ damit erzeugen will, stattdessen Bilder in der Optik von Van Gogh oder einen Mischmasch aus beiden Stilen erhalten.
Laut den Entwicklern sei Glaze in Anbetracht der rasanten Entwicklung der Technologie „keine dauerhafte Lösung“, aber könne den Künstlern dennoch einen gewissen Schutz und Vorsprung bringen. „Diese transformative Technologie ist der erste von vielen Schritten, die uns dabei helfen, unsere Handlungsfähigkeit im Internet zurückzuerlangen“, so die Künstlerin Karla Ortiz dazu.
Werde Mitglied von 1E9!
Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.
Jetzt Mitglied werden!Die Reaktionen auf Glaze sind aber durchaus gespalten. Einige Künstler kritisieren, dass die Tarnkappe bei ihren Bildern stark erkennbar ist; sie etwa wabernde Muster auf Farbflächen erzeugt oder Farben und Details verzerrt. Außerdem haben Mitglieder der Initiative Spawning, die Künstler im Umgang mit und der Nutzung von KI-Werkzeugen unterstützen will, Glaze erprobt und festgestellt, dass die Tarnkappe nicht zuverlässig funktioniert und sich leicht entfernen lässt.
Laut Jordan Meyer von Spawning habe das Team die Software mit Kunstwerken von Salvador Dali erprobt. Dessen sehr eigener Stil hätte trotz Entfremdung als neuer Stil in ein KI-Modell trainiert werden können. Außerdem habe das Team sehr schnell eine einfache Methode gefunden, um getarnte Kunstwerke von den Verschleierungen zu trennen. „Wir begrüßen die Motivation und Bemühungen, die hinter dem Projekt stehen, aber leider hat es weniger als eine Stunde gedauert, bis wir Glaze umgehen konnten“, so Meyer. „Wir haben unsere Erkenntnisse mit den Projektentwicklern geteilt und gehen davon aus, dass weniger konsensorientierte Akteure nicht lange brauchen werden, um herauszufinden, was wir getan haben.“
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Sprich mit Job, dem Bot!
War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!