Eine neue Initiative soll helfen, KI-Unternehmen sichtbar zu machen, die die Erlaubnis der Ersteller ihrer Trainingsinhalte einholen. Sie sollen dafür ein Gütesiegel erhalten. Langfristig soll das Projekt auch Prozesse schaffen, um eigene Inhalte für KI-Trainings zur Verfügung zu stellen oder auszuschließen.
Von Michael Förtsch
Der Druck auf OpenAI, Anthropic, Google, Meta, Mistral, StabilityAI, Midjourney und andere KI-Unternehmen wird immer größer. Denn es werden immer mehr Klagen gegen sie eingereicht, da sie ungefragt Terrabyte an eigentlich urheberrechtlich geschützten Daten aus dem Internet gesammelt haben, um damit ihre KI-Modelle zu trainieren. Vor allem Künstler, Autoren und Medienunternehmen wie die New York Times sind in ihrer Kritik sehr deutlich. OpenAI, Google und einige andere Unternehmen versuchen daher, zumindest mit großen Verlagen zuweilen hochdotierte Lizenzabkommen abzuschließen. Öffentlich beteuern die Firmen jedoch, dass sie das Recht auf ihrer Seite hätten – und es ohne diese Praxis nicht möglich wäre, wirklich nützliche KI-Modelle zu erschaffen. Auch daher soll nun ein Projekt beweisen, dass es auch anders gehen kann.
Eine von Kreativarbeitern gestartete Initiative namens Fairly Trained will daraufhin wirken, dass jene, die Material erschaffen, das zum Training von KI-Modellen eingesetzt wird, um Erlaubnis gefragt oder sogar dafür entlohnt werden. Seien es Autoren und Autorinnen, Künstlerinnen und Künstlern oder anderen kreativ arbeitende Menschen. „Wir glauben, dass es viele Verbraucher und Unternehmen gibt, die es vorziehen würden, mit generativen KI-Unternehmen zusammenzuarbeiten, die auf Daten trainieren, die mit dem Einverständnis ihrer Ersteller bereitgestellt wurden“, so die Initiatoren.
Hinter Fairly Trained steht zuvorderst Ed Newton-Rex, ein Musikproduzent, der selbst mit generativer Künstlicher Intelligenz arbeitet. Bis Ende 2023 war er als stellvertretender Leiter der Audioabteilung bei Stability AI tätig. Im November des vergangenen Jahres gab er seinen Posten jedoch auf. Denn seiner Ansicht nach sei die Art und Weise, wie Modelle des Unternehmens entstehen, nicht gerecht. Stability AI würde kreative Menschen ausbeuten und von ihren Werken profitieren, ohne etwas im Gegenzug zurückzugeben. Die sogenannte Fair-Use-Klausel deckt das Vorgehen von Stability AI und anderen KI-Firmen nicht ab.
Fair trainierte Musik-KIs
Fairly Trained soll dazu beitragen, KI-Firmen sichtbarer zu machen, die wirklich fair mit Urhebern und ethisch mit Trainingsdaten umgehen. Denn die gibt es, sagt Newton-Rex. Derzeit führt die Initiative in ihrer Liste unter anderem Beatoven.ai, Boomy, LifeScore, Somms.ai und Tuney, die Musik und andere Klanginhalte generieren lassen. Dienste, die andere Medienformate erzeugen lassen, befänden sich bereits in einem Prüfungsprozess von Fairly Trained und könnten eine entsprechende Zertifizierung erhalten, mit der sie ähnlich einem Biosiegel werben dürfen.
Werde Mitglied von 1E9!
Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.
Jetzt Mitglied werden!Ein Sprachmodell dürfte jedoch wahrscheinlich nicht bald in der Liste der Fairly-Trained-zertifizierten Modelle erscheinen, spekuliert der Musikproduzent bei The Next Web. Denn derzeit seien vermutlich alle davon „mit einer riesigen Menge urheberrechtlich geschützter Werke trainiert“.
Die Initiative stößt durchaus auf Resonanz, wie Bloomberg berichtet. Unterstützung erhält sie beispielsweise von der Universal Music Group, der Verlegervereinigung AAP und dem Siri-Miterfinder und KI-Entwickler Tom Gruber, der auch im Beraterkomitee von Fairly Trained sitzt. Das aktuelle Gütesiegel soll nur das erste von mehreren Projekten sein. Die Initiative will sich auch Möglichkeiten annehmen, Opt-in- und Opt-out-Prozesse zu schaffen, mit denen Kreativschaffende aktiv ihre Werke für KI-Trainings bereitstellen oder ausschließen können. Ähnliche Pläne verfolgt auch der Verein Spawning, der bereits eine Möglichkeit geschaffen hat, nach eigenen Inhalten in KI-Datasets zu suchen und KI-Crawler von der eigenen Website fernzuhalten.
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Sprich mit Job, dem Bot!
War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!