Elon Musk will wohl eine eigene KI-Firma gründen, um ein Anti-ChatGPT zu entwickeln

Einst war Elon Musk an der Gründung von OpenAI beteiligt. Zuletzt jedoch kritisierte er die Firma und ChatGPT immer wieder. Offenbar will er nun ein eigenes Unternehmen gründen, um dem Chatbot- und KI-Entwickler Konkurrenz zu machen. Leiten soll das Projekt wohl ein ehemaliger Google-Entwickler.

Von Michael Förtsch

Als ob Elon Musk nicht schon genug zu tun hätte. Erst Ende letzten Jahres hatte der nun erneut reichste Mann der Welt das soziale Netzwerk Twitter gekauft, das er mit massiven Entlassungswellen und dem aggressiv beworbenen Abo-Service Twitter Blue in ein profitables Geschäft verwandeln will. Außerdem muss sich der umstrittene Tesla-Chef wohl nun den Aktionären des Elektroautobauers stellen. Denn die haben eine Sammelklage eingereicht, da Tesla sie über die Fähigkeiten des Fahrassistenzprogramms Autopilot getäuscht haben soll. Die Selbstfahranwendung stelle ein „ernsthaftes Unfall- und Verletzungsrisiko“ dar. Wie The Information berichtet, will Elon Musk jetzt offenbar dennoch auch ins KI-Wettrennen einsteigen.

Laut der Recherche des Magazins habe der US-Unternehmer in den vergangenen Wochen den Kontakt zu mehreren KI-Entwicklern und Informatikern gesucht. Das Ziel von Musk sei es, mit einem neuen Unternehmen einen Konkurrenten zu ChatGPT zu entwickeln und ein Gegengewicht zu OpenAI zu schaffen. Der Leiter der neuen KI-Firma soll wohl Igor Babuschkin werden, ein Experte für maschinelles Lernen, der erst in der letzten Februarwoche seine Anstellung bei Google DeepMind aufgegeben hatte. Bestätigen wollte Babuschkin die Mutmaßungen nicht. Jedoch äußerte er gegenüber The Information, dass er Interesse habe, mit Musk zu arbeiten.

Seit dem Start von ChatGPT lobte Elon Musk die Fähigkeiten des Chatbots, kritisierte ihn und OpenAI aber auch massiv. Er ärgerte sich darüber, dass ChatGPT etwa bestimmten ideologisch und politisch aufgeladenen Fragen ausweicht, unklare Antworten auf umstrittene Themen gibt und zuweilen parteiisch erscheint. Manches davon räumte OpenAI zwischenzeitlich selbst als Problem hat. Beispielsweise mag der OpenAI-Dienst kein lobendes Gedicht über Donald Trump verfassen, wohl aber über Joe Biden. Laut Musk seien derartige Ergebnisse Grund zu einer „ernsthaften Besorgnis“ und es stelle eine große Gefahr dar, eine Künstliche Intelligenz daraufhin zu trainieren, „woke“ zu sein.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Musk warnt seit Jahren vor Künstlicher Intelligenz

Elon Musk selbst war einst einer der Geldgeber für OpenAI. Das Ziel des 2015 gestarteten Non-Profit-Unternehmens war es, Künstliche Intelligenz in einer verantwortungsvollen Weise zum Nutzen aller Menschen zu entwickeln und zu verhindern, dass Künstliche Intelligenz zu einer Bedrohung oder Gefahr heranwächst. Laut Elon Musk sei das heute nicht mehr der Fall. Bereits 2018 hatte er den Aufsichtsrat von OpenAI aufgrund eines Streits über die Ausrichtung des Unternehmens verlassen, dessen Tochterunernehmen OpenAI LP seit 2019 auch gewinnorientiert arbeitet. OpenAI habe sich, kritisiert Musk, seitdem unter der Leitung des Investors Sam Altman zu einer „Profitmaximierungsfirma entwickelt, die praktisch von Microsoft kontrolliert wird“. Das sei nicht gewesen, was er im Sinn hatte.

Musk hatte Künstliche Intelligenz in der Vergangenheit mehrfach als „eine der größten Risiken für die Zukunft der Menschheit“ ausgemacht und vor der unkontrollierten Entwicklung von KI-Systemen gewarnt. KI-Forscher stimmten Musk sowohl zu, kritisierten aber auch seinen Alarmismus und seine dystopischen Metaphern, die er öffentlich anführte. Bereits 2017 forderte der Unternehmer mehr Aufsicht und Regulierung durch Behörden und andere staatliche Stellen. Diese müssten „proaktiv, nicht reaktiv“ in die Entwicklung von trainierten und lernenden Systemen eingreifen.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

1 „Gefällt mir“