Microsoft soll wegen einer Programmier-KI verklagt werden, die mit Open-Source-Code trainiert wurde

Microsoft hat eine Künstliche Intelligenz entwickelt, die Programmierern beim Schreiben von Code hilft. Trainiert wurde die KI mit dem Quellcode von unzähligen Open-Source-Projekten. Daher will nun ein Entwickler klagen.

Von Michael Förtsch

Das Entwickeln von Software soll leichter werden. Das haben Microsoft und die Software-Entwickler-Plattform Github versprochen, als sie ihr KI-Werkzeug Copilot gestartet haben. Dabei handelt es sich um ein eine Art digitalen Co-Entwickler, der beim Schreiben von Code in Programmiersprachen wie Python, JavaScript, Ruby und anderen Vorschläge zur Vervollständigung macht. Und das, wie zahlreiche Entwickler attestieren, durchaus erfolgreich. Seit Mitte dieses Jahres ist das immer noch in der Entwicklung befindliche Werkzeug als bezahlter Zusatzdienst verfügbar. Mitentwickelt wurde Copilot von der Künstliche-Intelligenz-Forschungsfirma OpenAI, die dafür eine KI namens Codex mit dem Quellcode von unzähligen Programmen trainiert hat – und das, ohne die Autoren zu fragen.

Der Programmierer Matthew Butterick hat daher nun angekündigt, gegen Microsoft und sein Copilot-Programm vorzugehen. Denn offenkundig sei das Werkzeug mit den Millionen von Projekten von unabhängigen Entwicklern und Entwicklerteams trainiert worden, die ihre Programme auf der 2018 von Microsoft gekauften Plattform Github pflegen. Darunter vor allem zahlreiche Open-Source-Projekte, die zwar frei sind, aber dennoch unter Lizenzen stehen, die ihre Nutzung, Weiterentwicklung, Verbreitung und ihre kommerzielle Verwertung einschränken. Laut Microsoft sind diese Lizenzen jedoch hinfällig, da für das Training von Copilot die sogenannte „fair use“-Klausel greife. Diese sieht vor, dass urheberrechtlich geschütztes Material genutzt werden darf, wenn dies „der öffentlichen Bildung und der Anregung geistiger Produktionen“ diene.

Dass fair use im Falle von Copilot tatsächlich angewendet werden kann, konnte Microsoft bisher nicht belegen. Deshalb will Matthew Butterick nun klagen – und ruft andere dazu auf, sich ihm anzuschließen. Denn: „Es geht hier nicht um eine Meinung, sondern um das Gesetz“, schreibt er. Daher müsse ein Gericht die Lage klären und den Entwicklern, die Plattformen wie Github nutzen, Sicherheit verschaffen. Denn was Microsoft mit den Entwicklern mache, sei, sie als „kostenlose Produzenten einer Ressource“ zum Training einer Maschine zu missbrauchen. Das sei unethisch und füge der Open-Source-Community nachhaltigen Schaden zu. Wie Butterick fürchtet, könnten Nutzer von Copilot überdies durch die Nutzung der Code-Vorschläge unwissentlich Lizenzrechte verletzten.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Prozess mit Vorbild?

Sollte es zu einem Prozess kommen, könnte dieser auch für andere KI-Projekte maßgeblich sein. Denn andere Werkzeuge, die auf Künstliche Intelligenz setzen, werden ebenfalls mit öffentlich zugänglichen, aber oft urheberrechtlich geschützten Werken trainiert, die einfach aus dem Internet gezogen werden. Erst kürzlich entzündeten sich Debatten an Text-zu-Bild-Generatoren wie Midjourney, Stable Diffusion und DALLE 2, die mit Fotos, Grafiken und Malereien trainiert sind, die eindeutig nicht zu einer derartigen Verwendung freigegeben wurden. Eine Suchmaschine erlaubt seit kurzem in LAION, einem der größten Datasets zum Training von Bild-KIs mit 5,8 Milliarden Bildern, nach eigenen Werken zu suchen. So lässt sich feststellen, ob diese ohne Genehmigung zur KI-Entwicklung verwendet wurden oder nicht.

Künstler und Künstlerinnen wie Holly Herndon und Mathew Dryhurst fordern, dass eine Möglichkeit geschaffen werden müsste, eigene Werke aus solchen Datenpaketen herauszuhalten. Denn „es kann in niemandes Interesse sein, ihre Rechte zu verletzen“, sagen sie. Künstler wie David O’Reilly finden noch deutlichere Worte. Er schrieb auf Instagram, die Macher derartiger KI-Werkzeuge „bestehle eine ganze Generation“ von Kreativen, um einer neuen Generation ein Werkzeug verkaufen zu können, um die Werke der Bestohlenen imitieren zu können.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Titelbild: Shutterstock / Pixel-Shot

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

2 „Gefällt mir“