Ein Gütesiegel soll 'fair trainierte' KIs auszeichnen

Eine neue Initiative soll helfen, KI-Unternehmen sichtbar zu machen, die die Erlaubnis der Ersteller ihrer Trainingsinhalte einholen. Sie sollen dafür ein Gütesiegel erhalten. Langfristig soll das Projekt auch Prozesse schaffen, um eigene Inhalte für KI-Trainings zur Verfügung zu stellen oder auszuschließen.

Von Michael Förtsch

Der Druck auf OpenAI, Anthropic, Google, Meta, Mistral, StabilityAI, Midjourney und andere KI-Unternehmen wird immer größer. Denn es werden immer mehr Klagen gegen sie eingereicht, da sie ungefragt Terrabyte an eigentlich urheberrechtlich geschützten Daten aus dem Internet gesammelt haben, um damit ihre KI-Modelle zu trainieren. Vor allem Künstler, Autoren und Medienunternehmen wie die New York Times sind in ihrer Kritik sehr deutlich. OpenAI, Google und einige andere Unternehmen versuchen daher, zumindest mit großen Verlagen zuweilen hochdotierte Lizenzabkommen abzuschließen. Öffentlich beteuern die Firmen jedoch, dass sie das Recht auf ihrer Seite hätten – und es ohne diese Praxis nicht möglich wäre, wirklich nützliche KI-Modelle zu erschaffen. Auch daher soll nun ein Projekt beweisen, dass es auch anders gehen kann.

Eine von Kreativarbeitern gestartete Initiative namens Fairly Trained will daraufhin wirken, dass jene, die Material erschaffen, das zum Training von KI-Modellen eingesetzt wird, um Erlaubnis gefragt oder sogar dafür entlohnt werden. Seien es Autoren und Autorinnen, Künstlerinnen und Künstlern oder anderen kreativ arbeitende Menschen. „Wir glauben, dass es viele Verbraucher und Unternehmen gibt, die es vorziehen würden, mit generativen KI-Unternehmen zusammenzuarbeiten, die auf Daten trainieren, die mit dem Einverständnis ihrer Ersteller bereitgestellt wurden“, so die Initiatoren.

Hinter Fairly Trained steht zuvorderst Ed Newton-Rex, ein Musikproduzent, der selbst mit generativer Künstlicher Intelligenz arbeitet. Bis Ende 2023 war er als stellvertretender Leiter der Audioabteilung bei Stability AI tätig. Im November des vergangenen Jahres gab er seinen Posten jedoch auf. Denn seiner Ansicht nach sei die Art und Weise, wie Modelle des Unternehmens entstehen, nicht gerecht. Stability AI würde kreative Menschen ausbeuten und von ihren Werken profitieren, ohne etwas im Gegenzug zurückzugeben. Die sogenannte Fair-Use-Klausel deckt das Vorgehen von Stability AI und anderen KI-Firmen nicht ab.

Fair trainierte Musik-KIs

Fairly Trained soll dazu beitragen, KI-Firmen sichtbarer zu machen, die wirklich fair mit Urhebern und ethisch mit Trainingsdaten umgehen. Denn die gibt es, sagt Newton-Rex. Derzeit führt die Initiative in ihrer Liste unter anderem Beatoven.ai, Boomy, LifeScore, Somms.ai und Tuney, die Musik und andere Klanginhalte generieren lassen. Dienste, die andere Medienformate erzeugen lassen, befänden sich bereits in einem Prüfungsprozess von Fairly Trained und könnten eine entsprechende Zertifizierung erhalten, mit der sie ähnlich einem Biosiegel werben dürfen.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Ein Sprachmodell dürfte jedoch wahrscheinlich nicht bald in der Liste der Fairly-Trained-zertifizierten Modelle erscheinen, spekuliert der Musikproduzent bei The Next Web. Denn derzeit seien vermutlich alle davon „mit einer riesigen Menge urheberrechtlich geschützter Werke trainiert“.

Die Initiative stößt durchaus auf Resonanz, wie Bloomberg berichtet. Unterstützung erhält sie beispielsweise von der Universal Music Group, der Verlegervereinigung AAP und dem Siri-Miterfinder und KI-Entwickler Tom Gruber, der auch im Beraterkomitee von Fairly Trained sitzt. Das aktuelle Gütesiegel soll nur das erste von mehreren Projekten sein. Die Initiative will sich auch Möglichkeiten annehmen, Opt-in- und Opt-out-Prozesse zu schaffen, mit denen Kreativschaffende aktiv ihre Werke für KI-Trainings bereitstellen oder ausschließen können. Ähnliche Pläne verfolgt auch der Verein Spawning, der bereits eine Möglichkeit geschaffen hat, nach eigenen Inhalten in KI-Datasets zu suchen und KI-Crawler von der eigenen Website fernzuhalten.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

2 „Gefällt mir“

Ich werde das Gefühl nicht los, dass diese ganze IP-Debatte komplett inszeniert ist. Ich kann nicht glauben, dass es wirklich Menschen gibt, denen die Musik-Einnahmen von der KI-Konkurrenz weggeschnappt wurden. So etwas kann doch wenn überhaupt nur Leute betreffen, die austauschbare Fahrstuhlmusik-Musik produzieren? Kein Mensch würde doch aufhören die Alben seiner Lieblingsband zu kaufen, nur weil es eine ähnliche und günstigere KI-Cover-Band gibt!?

2 „Gefällt mir“

Ich steh dem ganzen noch ohne feste Meinung gegenüber.

Aber ich glaube, an der Debatte ist durchaus etwas dran. Nehmen wir etwa Künstler, deren unique selling proposition ihre Stimme ist. Wenn jeder damit einfach neue Musik machen kann, dann ist das schon etwas, das man als übergriffig verstehen kann. Das gleiche gilt für Künstler, die ganz eigene Mal- und Zeichenstile entwickelt haben.

Da könnte man schon fragen, ob diesen Künstlern nicht eine Entlohnung zustünde, wenn ihre Stimme, ihr Stille in ein Modell fließen, das dann vielleicht auch kommerziell genutzt wird.

Und auch wenn Leute jetzt nicht unbedingt ein Album der Lieblingsband nicht kaufen, könnte es doch sein, dass sie die günstigere KI-Cover-Band auf Spotify hören, und dadurch das Original weniger. Vielleicht weil der Typ, der die KI-Cover macht tatsächlich kreative Texte schreibt … wer weiss. KI-Musik kann schon jetzt durchaus gut sein. Jedenfalls: Diese KI-Fakes könnten dem Original quasi Aufmerksamkeit nehmen und dadurch mittelbar auch Einnahmen.

2 „Gefällt mir“

Das ist alles absolut nachvollziehbar und logisch, aber kennst Du einen Fall, wo ein Artist echt nachweisebar kopiert und um seine Einnahmen gebracht wurde? Was man da im Internet so findet sind ja fast immer eher unbekannte Leute, die vermutlich sogar von AnwältInnen zu einer öffentlichen Klage überredet wurden - was man mit mir auch versucht hat.

Mit dem letzten Punkt hast Du natürlich recht, dass KI-Fakes dem Original die Aufmerksamkeit nehmen könnten. Aber dann müsste man vielleicht auch Tütensuppen kritisieren, weil sie echte Lebensmittel imitieren. Bei Tütensuppen ist uns klar: wer die kauft, der/die weiß, dass er/sie minderwertige Scheiße ist. Vielleicht spricht man irgendwann über KI-Musik wie über Tütensuppen und lästert über eine Party, auf der nur billige KI-Musik lief.

1 „Gefällt mir“

Noch gibt es so einen konkreten Fall wahrscheinlich nicht. Was einerseits wohl daran liegt, dass die Entwicklung vor allem hinsichtlich Musik gerade erst richtig Schwung aufnimmt. Aber auch, weil sich entgangene Einnahmen schwer verifizieren und nachweisen lassen.

Den Tütensuppenvergleich finde ich amüsant, aber nicht 100%ig treffend. Ich weiß auch nicht, ob es einen wirklich treffenden Vergleich für diese Aufmerksamkeitsverschiebung gibt. Vielleicht ist es so wie mit Video Games, bei denen „die ältere Generation“ immer sagte, dass es Zeit- und Geldverschwendung ist. Aber nun sind Videospiele – oder auch Anime, Social Media etc. – vollkommen normal und Teil unserer Freizeit.

1 „Gefällt mir“

Als Architekt bin ich dazu angehalten nur zertifizierte Bauprodukte zu verwenden. Sonst bekomme ich im Schadensfall Stress mit meiner Haftpflichtversicherung. Warum sollten z.B. Journalisten/Pressedienste nicht die gleiche Verpflichtung bei Verwendung von KI-Tools haben. Das ist die Sicherung von Qualitätsstandards, eine übrigens sehr deutsche Qualität. Alles andere ist eben mit Risiken behaftet.

2 „Gefällt mir“

Beim Bau von Gebäuden verstehe ich das absolut. Da stehen Menschenleben auf dem Spiel. Ich will nicht ausschließen, dass man mit schlechter Musik auch Menschen töten könnte, oder zumindest verletzen (brauner Ton).

Aber ich glaube diese Art der Zertifizierung zielt nicht auf die Qualität des Outputs, sondern sichert nur eine ethische Beschaffungspraxis. Wenn der Algorithmus die Trainingsdaten z.B. grundsätzlich in Flat-Earther-Reggae-Volksmusik verwandelt, würde diese Zertifizierung weiterhin gültig bleiben.

2 „Gefällt mir“