Beschwerde in den USA: Behörde soll die Entwicklung von KI-Modellen durch OpenAI stoppen

Verstoßen OpenAI und Microsoft mit GPT-4 gegen amerikanisches Verbraucherschutzrecht? Das ist zumindest, was das Center for AI and Digital Policy in den USA derzeit behauptet. Die Gruppe verlangt einen Stopp der KI-Entwicklung durch OpenAI.

Von Michael Förtsch

Gerade erst forderte eine Gruppe von über 1.000 KI-Forschern, Wissenschaftlern und Unternehmern eine Pause bei der Entwicklung von leistungsfähigen KI-Modellen à la GPT-4. Jetzt hat die Non-Profit-Forschungsorganisation Center for AI and Digital Policy bei der Federal Trade Commission, die für Wettbewerbsrecht und Verbraucherschutz zuständig ist, eine offizielle Anfrage eingereicht, die Praktiken von OpenAI auf eventuelles Fehlverhalten und mögliche Regelverstöße zu untersuchen. Denn nach Einschätzung der Gruppe verletze GPT-4 zahlreiche Verbraucherschutzvorschriften. Das über den KI-Chatbot ChatGPT nutzbare Modell sei „parteiisch, irreführend und ein Risiko für die öffentliche Sicherheit“.

Die vom Center for AI and Digital Policy eingereichte Beschwerde bei der FTC erhebt mehrere Vorwürfe. Unter anderem lasse sich mit GPT-4 Schadcode generieren, der für die Entwicklung von Viren und Phishing-Attacken eingesetzt werden könnte. Außerdem lasse sich mit dem Chatbot beziehungsweise dem Modell hochspezifische Propaganda erzeugen. Auch spricht die Beschwerde davon, dass das Modell durch unausgewogene Trainingsdaten verschiedene Stereotype und Vorurteile auf Basis von Geschlecht, Hautfarbe, Namen und anderen Faktoren „eingebacken“ habe, die beim Einsatz der KI im Personalmanagement zu Nachteilen für bestimmte Personengruppen führen könnten.

Daneben führt die Gruppe verschiedene Probleme beim Datenschutz und dem Schutz der Privatsphäre an – durch einen Fehler konnten zuletzt Nutzer fremde Chatverläufe mit der Künstlichen Intelligenz und möglicherweise sogar Zahlungsinformationen einsehen. OpenAI selbst hat die Schwächen und mögliche Gefahren der eigenen Sprachmodelle schon früh eingeräumt. Laut dem Center for AI and Digital Policy scheitere das Forschungs- und Entwicklungsunternehmen an zahlreichen Standards, die für den Schutz von Verbrauchern gelten und verstoße konkret gegen Abschnitt 5 des FTC Act, der „unfaire und irreführende Handelspraktiken“ untersagt.

Die FTC könnte KI regulieren

„OpenAI hat GPT-4 in voller Kenntnis dieser Risiken, einschließlich potenzieller Verzerrungen und schädlichen Verhaltens, für die Öffentlichkeit zur kommerziellen Nutzung freigegeben“, heißt es in der Beschwerde des Center for AI and Digital Policy. „Wir glauben, dass die FTC OpenAI und GPT-4 genau unter die Lupe nehmen sollte.“ Die Non-Profit-Organisation fordert die Behörde in der Beschwerde zudem dazu auf, einen Stopp der Entwicklung von weiteren GPT-Modellen anzuordnen.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Darüber hinaus verlangt das Center for AI and Digital Policy eine Verpflichtung für OpenAI, zukünftige KI-Modelle durch unabhängige Experten überprüfen zu lassen, bevor diese für Nutzer freigegeben und kommerziell vermarktet werden dürfen. Nutzern wiederum solle durch die FTC eine Möglichkeit gegeben werden, ohne große Hindernisse eigene Beschwerden bezüglich KI-Werkzeugen einzureichen.

Die Federal Trade Commission hat in der Vergangenheit mehrfach vor den potentiellen Gefahren unkontrollierter Entwicklung von Künstlicher Intelligenz gewarnt und die Möglichkeit einer spezifischen Regulierung angedeutet. „Sie müssen über die vorhersehbaren Risiken und Auswirkungen Ihres KI-Produkts Bescheid wissen, bevor sie es auf den Markt bringen“, warnte die Behörde erst im Februar 2023. Unternehmen, die KI-Werkzeuge anbieten, könnten sich bei Fehlern nicht darauf berufen, dass eine Künstliche Intelligenz eine Blackbox sei oder einfach einem Drittentwickler – wie etwa den Entwicklern von Datasets – die Schuld an einem Versagen geben.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

1 „Gefällt mir“