Die rasante Entwicklung von Künstlicher Intelligenz sorgt nicht nur für Staunen, sie macht vielen auch Sorgen. Eine Gruppe von KI-Forschern, Philosophen und Unternehmern wie Gary Marcus, Steve Wozniak und Elon Musk fordern eine Schaffenspause bei der Arbeit an immer mächtigeren KI-Modellen, um die möglichen Risiken zu bewerten.
Von Michael Förtsch
In den letzten Monaten haben KI-Systeme für Debatten, Staunen und Angst gesorgt. Insbesondere der Chatbot ChatGPT von OpenAI, die auf dem Sprachmodell GPT-4 basierende Suchmaschine Bing und nun auch der Google-Herausforderer Bard überraschen mit ihren Fähigkeiten. Sie können lange Gespräche führen, auf einen Befehl hin spezifische Texte komponieren und sogar Programmcode generieren. Forscher gehen davon aus, dass solche Sprachmodelle, aber auch Text-zu-Bild-Generatoren wie Stable Diffusion oder DALL-E 2 in Zukunft manche Jobs, die jetzt Menschen erledigen, überflüssig machen werden. Gleichzeitig warnen KI-Entwickler vor den Fehlern, die KI-Systeme machen – und dass diese bei einem unbedachten Einsatz der Technologie zur Gefahr werden könnten.
Rund 1.000 KI-Entwickler, Forscher, Philosophen und Unternehmer haben nun in einem offenen Brief dazu aufgerufen, eine sechs Monate dauernde Pause bei der Forschung an KI-Systemen einzulegen, die stärker und fähiger sein könnten als GPT-4. Unter den Unterzeichnern sind Tesla-Chef Elon Musk, der Apple-Co-Gründer Steve Wozniak, der Neurowissenschaftler Gary Marcus und Emad Mostaque, der Chef des Stable-Diffusion-Mitentwicklers Stability AI. Initiiert wurde der offene Brief von der Non-Profit-Organisation Future of Life Institute, das rund um die Möglichkeiten und die Risiken von Künstler Intelligenz forscht.
Laut dem offenen Brief haben sich „KI-Labors in den letzten Monaten in einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Gehirne begeben, die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren können“. Die um Modelle wie GPT-4 herum geschaffenen Systeme würden in verschiedenen Branchen zu Konkurrenten der Menschen. Sie würden zu massiven ökonomischen, politischen und gesellschaftlichen Verwerfungen führen. „Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen sein werden, uns überlisten, überflüssig machen und ersetzen können?“, fragen die Unterzeichner des Briefes. „Solche Entscheidungen dürfen nicht an nicht gewählte Führungskräfte der Tech-Industrie ausgelagert werden.“
Mehr Transparenz und Kontrolle
Die Unterzeichner des offenen Briefs fordern, dass die Pause bei der Entwicklung von KI-Systemen genutzt wird, um ein Portfolio an Sicherheitsprotokollen für fortschrittliche KI-Designs zu konzipieren und zu implementieren. Dieser Prozess solle von externen Experten überwacht werden. „Das bedeutet keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr von dem gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten“, heißt es im offenen Brief. „Wenn eine solche Pause nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium einführen.“
Werde Mitglied von 1E9!
Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.
Jetzt Mitglied werden!Wie die Unterstützer des offenen Briefs ausführen, sollte sich die Entwicklung von Künstlicher Intelligenz nicht auf immer mächtigere Modelle und leistungsfähigeren Systeme konzentrieren. Stattdessen sollten die Sicherheit, Nachvollziehbarkeit, Verlässlichkeit und Transparenz im Vordergrund stehen. „Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“, heißt es in dem Schreiben. Dabei sollten die betreffenden Firmen und Initiativen mit Regulierungsbehörden zusammenarbeiten, die im Zuge der aktuellen Entwicklungen eingerichtet und mit entsprechenden Befugnissen ausgestattet werden sollten.
Die Forderungen des Future of Life Institute und der Unterzeichner des offenen Briefs finden viel Zustimmung. Jedoch scheinen einige der einstigen Unterzeichner ihre Unterschriften zurückgezogen zu haben. Bill Gates und Sam Altman, Co-Gründer und Chef von OpenAI, waren auf der Liste, aber sind nun nicht mehr zu finden. Außerdem gibt es auch einige Kritiker, die nichts von dem Vorstoß halten. Darunter der bekannte der Informatiker und Meta-Chef-KI-Forscher Yann LeCun. Er sagt, er „stimme der Prämisse [des Briefs] nicht zu.“ Der deutsche KI-Forscher Joscha Bach spottet zudem, dass 1.000 Leute „unterschrieben haben, um KI sprichwörtlich lahmer zu machen“.
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Sprich mit Job, dem Bot!
War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!