Ex-Chefwissenschaftler von OpenAI gründet Konkurrenzunternehmen zur Entwicklung sicherer Super-KI

Der renommierte OpenAI-Forscher Ilya Sutskever hat im Mai seinen Posten als Chefwissenschaftler aufgegeben. Nun hat er seine eigene Firma gegründet. Sein einziges Ziel ist es, eine sichere Super-KI zu entwickeln.

Von Michael Förtsch

Erst im Mai hatte OpenAI sein neues KI-Modell GPT-4o vorgestellt. Nur einen Tag nach dem so genannten Spring Update verließ Ilya Sutskever das Unternehmen. Er war einer der ursprünglichen Co-Gründer, der Chefwissenschaftler und einer der Leiter des Risikoteams der einst als reine Non-Profit-Organisation gestarteten KI-Firma. Er soll bei einigen der technischen Schritte, die zu Modellen wie GPT-3 und später dem Chatbot ChatGPT führten, eine zentrale Rolle gespielt haben. Sutskever war aber auch eine der zentralen Figuren hinter der kurzfristigen und umstrittenen Entlassung von Sam Altman Ende 2023. Denn Sutskever warnte sowohl offen als auch – wie mehrfach berichtet – hinter geschlossenen Türen vor einer zu schnellen und unüberlegten Entwicklung von Künstlicher Intelligenz. Nun hat er sein neues Projekt angekündigt.

Wie Sutskever auf X – ehemals Twitter – öffentlich machte, hat er eine Firma namens SSI Inc. gegründet – kurz für Safe Superintelligence. Dabei handelt es sich um ein Forschungs- und Entwicklungslabor mit Sitz in Palo Alto und Tel Aviv, das ein einziges Ziel und ein einziges Produkt im Visier hat: eine Künstliche Superintelligenz zu erschaffen, aber eine, die sicher ist. Denn das sei „die wichtigste technologische Herausforderung unserer Zeit“, heißt es in der Ankündigung. Sowohl die Sicherheit als auch die Fähigkeiten einer Künstlichen Intelligenz seien „technische Probleme, die durch revolutionäre technische und wissenschaftliche Durchbrüche gelöst werden müssen“.

Bei allem, was SSI Inc. tue, stehe die Sicherheit an erster Stelle. Deshalb soll es auch langfristig nur ein kleines, aber kompetentes Team geben. Dazu gehören derzeit neben Sutskever der Ex-OpenAI-Forscher Daniel Levy und Daniel Gross, ehemals führender KI-Forscher bei Apple, Co-Planer des Supercomputers Andromeda Cluster und Investor. Das neue Unternehmen soll ein schlankes Management haben. Im Gegensatz zu anderen KI-Start-ups wolle man sich „nicht von Produktzyklen ablenken lassen“. „Unser Geschäftsmodell bedeutet, dass Sicherheit und Fortschritt unabhängig von kurzfristigen kommerziellen Zwängen sind“, heißt es in der Ankündigung.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Die Firma sucht nur nach den Besten!

Derzeit sucht SSI Inc. nach den „besten Ingenieuren und Forschern der Welt“, um sein Ziel zu erreichen. „Das Team wird völlig abgeschottet sein von jeglichem Druck von außen“, verspricht Sutskever. Denn der KI-Forscher ist überzeugt, dass die Sicherheit einer starken Künstlichen Intelligenz nicht in „technischen Leitplanken“ liegt, wie sie derzeit etwa bei Sprachmodellen wie GPT-4 zum Einsatz kommen. Sondern dass sie nur durch tiefgreifende technologische Durchbrüche erreicht werden kann, die sie tief in der Architektur einer Künstlichen Intelligenz verankern. „Mit sicher meinen wir sicher im Sinne von nuklearer Sicherheit und nicht sicher im Sinne von Vertrauen und Sicherheit“, sagt Sutskever in einem Interview mit Bloomberg.

Fragen zur Finanzierung, wer und in welcher Höhe das Start-up unterstützt, dazu will sich Sutskever derzeit nicht äußern.

Die Ankündigung wurde mit viel Zustimmung, aber auch Kritik aufgenommen. „Viel Glück – die Menschheit wird unermesslich profitieren, wenn ihr Erfolg habt!“, schrieb etwa der OpenAI-Entwickler Boris Power. Andere kritisierten SSI Inc. als potentielle Geldverbrennungsmaschine, da eine Künstliche Superintelligenz nicht möglich wäre oder scherzten, dass ein Unternehmen, dass sich Safe Superintelligence nennt, an den eigenen Ansprüchen scheitern muss.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!