Kein GPT-5: Steve Wozniak, Elon Musk und andere fordern eine Pause der KI-Entwicklung

Die rasante Entwicklung von Künstlicher Intelligenz sorgt nicht nur für Staunen, sie macht vielen auch Sorgen. Eine Gruppe von KI-Forschern, Philosophen und Unternehmern wie Gary Marcus, Steve Wozniak und Elon Musk fordern eine Schaffenspause bei der Arbeit an immer mächtigeren KI-Modellen, um die möglichen Risiken zu bewerten.

Von Michael Förtsch

In den letzten Monaten haben KI-Systeme für Debatten, Staunen und Angst gesorgt. Insbesondere der Chatbot ChatGPT von OpenAI, die auf dem Sprachmodell GPT-4 basierende Suchmaschine Bing und nun auch der Google-Herausforderer Bard überraschen mit ihren Fähigkeiten. Sie können lange Gespräche führen, auf einen Befehl hin spezifische Texte komponieren und sogar Programmcode generieren. Forscher gehen davon aus, dass solche Sprachmodelle, aber auch Text-zu-Bild-Generatoren wie Stable Diffusion oder DALL-E 2 in Zukunft manche Jobs, die jetzt Menschen erledigen, überflüssig machen werden. Gleichzeitig warnen KI-Entwickler vor den Fehlern, die KI-Systeme machen – und dass diese bei einem unbedachten Einsatz der Technologie zur Gefahr werden könnten.

Rund 1.000 KI-Entwickler, Forscher, Philosophen und Unternehmer haben nun in einem offenen Brief dazu aufgerufen, eine sechs Monate dauernde Pause bei der Forschung an KI-Systemen einzulegen, die stärker und fähiger sein könnten als GPT-4. Unter den Unterzeichnern sind Tesla-Chef Elon Musk, der Apple-Co-Gründer Steve Wozniak, der Neurowissenschaftler Gary Marcus und Emad Mostaque, der Chef des Stable-Diffusion-Mitentwicklers Stability AI. Initiiert wurde der offene Brief von der Non-Profit-Organisation Future of Life Institute, das rund um die Möglichkeiten und die Risiken von Künstler Intelligenz forscht.

Laut dem offenen Brief haben sich „KI-Labors in den letzten Monaten in einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Gehirne begeben, die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren können“. Die um Modelle wie GPT-4 herum geschaffenen Systeme würden in verschiedenen Branchen zu Konkurrenten der Menschen. Sie würden zu massiven ökonomischen, politischen und gesellschaftlichen Verwerfungen führen. „Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen sein werden, uns überlisten, überflüssig machen und ersetzen können?“, fragen die Unterzeichner des Briefes. „Solche Entscheidungen dürfen nicht an nicht gewählte Führungskräfte der Tech-Industrie ausgelagert werden.“

Mehr Transparenz und Kontrolle

Die Unterzeichner des offenen Briefs fordern, dass die Pause bei der Entwicklung von KI-Systemen genutzt wird, um ein Portfolio an Sicherheitsprotokollen für fortschrittliche KI-Designs zu konzipieren und zu implementieren. Dieser Prozess solle von externen Experten überwacht werden. „Das bedeutet keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr von dem gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten“, heißt es im offenen Brief. „Wenn eine solche Pause nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium einführen.“

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Wie die Unterstützer des offenen Briefs ausführen, sollte sich die Entwicklung von Künstlicher Intelligenz nicht auf immer mächtigere Modelle und leistungsfähigeren Systeme konzentrieren. Stattdessen sollten die Sicherheit, Nachvollziehbarkeit, Verlässlichkeit und Transparenz im Vordergrund stehen. „Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“, heißt es in dem Schreiben. Dabei sollten die betreffenden Firmen und Initiativen mit Regulierungsbehörden zusammenarbeiten, die im Zuge der aktuellen Entwicklungen eingerichtet und mit entsprechenden Befugnissen ausgestattet werden sollten.

Die Forderungen des Future of Life Institute und der Unterzeichner des offenen Briefs finden viel Zustimmung. Jedoch scheinen einige der einstigen Unterzeichner ihre Unterschriften zurückgezogen zu haben. Bill Gates und Sam Altman, Co-Gründer und Chef von OpenAI, waren auf der Liste, aber sind nun nicht mehr zu finden. Außerdem gibt es auch einige Kritiker, die nichts von dem Vorstoß halten. Darunter der bekannte der Informatiker und Meta-Chef-KI-Forscher Yann LeCun. Er sagt, er „stimme der Prämisse [des Briefs] nicht zu.“ Der deutsche KI-Forscher Joscha Bach spottet zudem, dass 1.000 Leute „unterschrieben haben, um KI sprichwörtlich lahmer zu machen“.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

3 „Gefällt mir“

Ich habe den offenen Brief grade unterzeichnet und in meinem Newsletter aufgeschrieben, warum.

KI-Systeme die menschenähnliches Verhalten aufzeigen laufen Gefahr, die menschliche Fähigkeit für Theory of Mind zu kapern, und diese Fähigkeit ist grundlegend für unsere anderen kognitiven Fähigkeiten wie Lernen oder Sprache.

Social Media hat bereits gezeigt, dass “move fast and break things“ unvorhersehbare Konsequenzen zeitigen kann. Ich denke nicht, dass ich das für Systeme sehen möchte, die menschliche Kognition imitieren. Move fast and break brains: Can we not?

3 „Gefällt mir“

Ich bin bei diesem Brief sehr zwiegespalten: 6 Monate bringt für eine Regulierung nicht viel. Dort wird in Jahren gedacht. Für die inzwischen abgehängten Wettbewerber aber schon. Und dass jetzt die handelnden Akteure vor den Gefahren warnen, hat ja auch etwas von „wir hatten es Euch ja gesagt“… Was ist also die tatsächliche Motivation und ist das Instrument geeignet? :thinking: Menschenfreundlichkeit und Humanismus ist es bei Elon Musk sicher nicht.
Und er schürt Ängste und das imperiale Narrativ der Silicon-Valley Überlegenheit…
Warum wenden die Unternehmer nicht einfach die IEEE-AI-Standards an und integrieren CDR Prinzipien in ihre Organisation? Damit würden sie sich selbst regulieren und ein Brief wäre nicht nötig…

1 „Gefällt mir“

Das ausgerechent Elon Musk von einer „Pause“ redet. Herzallerliebst. Aber ich denke nicht das es hier um potenzielle Gefahren geht, sondern man versucht die öffentlichen Ängste auszunutzen um sich eigene Marktpositionierungen zu sichern.

1 „Gefällt mir“