Vor einem Jahr ist ChatGPT gestartet – und hat die Technologieszene geschockt. Vielleicht sogar die ganze Welt. Was ist in diesem Jahr passiert? Und wie könnte es nun mit ChatGPT, OpenAI und Künstlicher Intelligenz weitergehen?
Von Michael Förtsch
Selbst wenn man dem Hype skeptisch gegenübersteht, lässt es sich nicht leugnen: Mit der Premiere von ChatGPT vor nunmehr einem Jahr hat OpenAI die Welt verändert. Das einst von einer illustren Gruppe von Tech-Größen gegründete Forschungs- und Entwicklungsunternehmen aus San Francisco hatte den Chatbot, der ursprünglich auf einer erweiterten Version des Sprachmodells GPT-3 basierte, ohne viel Aufheben gestartet. Die Firma war nicht darauf gefasst, was sie damit auslösen würde. Denn die Technologie hinter ChatGPT war damals bereits zwei Jahre alt – und für die Mitarbeiter selbst nicht sonderlich aufregend. Denn die waren bereits mit der Entwicklung des deutlich fähigeren Nachfolgemodells GPT-4 beschäftigt. Außerdem war GPT-3 im sogenannten Playground schon längst für jeden zugänglich – allerdings ohne ein schlankes Chat-Interface, das es erlaubte, im Dialog mit der KI zu arbeiten und echte Gespräche mit ihr zu führen. Genau das war jedoch das Besondere an ChatGPT.
Als eine Epiphanie wurde der Start von ChatGPT bezeichnet. Als „der Moment, in dem die Maschinen lernten, mit uns zu sprechen“. Und als der Punkt, an dem die seit einigen Jahren anhaltende stille KI-Eiszeit ihr Ende fand. Mit ChatGPT wurde definitiv klar, dass Künstliche Intelligenz wirklich in den Alltag vieler Menschen einziehen wird. Denn es war ab jetzt möglich, mit einer Künstlichen Intelligenz in natürlicher Sprache zu kommunizieren und – in vielen Fällen – brauchbare Antworten zu bekommen. Magisch fühlte sich das für viele an – und wie eine Entdeckungsreise. Selbst OpenAI wusste nicht, was das Sprachmodell mit dem Chat-Interface alles leisten kann, und wurde daher immer wieder überrascht. Nutzer ließen ChatGPT absurde Gedichte und Lieder schreiben. Sie generierten Computercode und Rezepte. Sie ließen die KI ganze wissenschaftliche Aufsätze schreiben.
Manche nutzten den Chatbot jedoch auch, um im Dialog reale Probleme zu lösen: Um Mieten und Gehälter auszuhandeln, Bewerbungen zu schreiben und sich komplexe Sachverhalte verständlich erklären zu lassen. Schüler verwendeten den Chatbot zum Schummeln bei Hausaufgaben und zum Verfassen von Aufsätzen, was nicht wenige Lehrer verzweifeln ließ. Jedenfalls bis erste Lehrkräfte erkannten, dass ein Chatbot ein Werkzeug darstellen kann, das das Lernen und Verstehen auf eine Weise revolutionieren könnte, wie einst der Taschenrechner oder sogar das Internet. Denn Nutzer bekamen hier nicht nur eine pauschale Antwort vorgesetzt wie bei Alexa oder Siri, sondern konnten nachfragen, ihr Anliegen umschreiben, erklären und gemeinsam ein Ergebnis erarbeiten. Fast wie mit beim Computer aus Star Trek: Die Nächste Generation. Dadurch wurde das Versprechen von Künstlicher Intelligenz – oder eher: Maschinellem Lernen – erstmals wirklich eingelöst: KI wurde zu einem echten Assistenten.
Ein erfolgreicher Unfall?
Die Idee zu ChatGPT war eigentlich ein Schnellschuss, wie der New-York-Times-Podcast Hard Fork enthüllte. Sie stammte vom OpenAI-Chef Sam Altman. Er wollte damit kein revolutionäres Produkt für die Allgemeinheit schaffen, sondern Konkurrenten wie Anthropic zuvorkommen. Schließlich war bekannt, dass diese an genau solchen Dialog-Maschinen arbeiteten. Angeblich standen sie Ende 2022 kurz davorstanden, diese zu veröffentlichen. Daher soll ein kleines Team bei OpenAI ein rudimentäres Chat-Programm aus einem früheren Experiment in Rekordzeit aktualisiert und für die Nutzung mit GPT-3.5 kompatibel gemacht haben. Nur 13 Tage nach Altmans Idee startete also ChatGPT am 30. November 2022 – und machte OpenAI weltweit bekannt und binnen weniger Monate zu einem der wertvollsten Unternehmen überhaupt. Denn ChatGPT war nicht nur ein unerwarteter, sondern ein unerwartet gigantischer Erfolg.
In den ersten fünf Tagen nach dem Launch hatte ChatGPT bereits über eine Million Nutzer. Nach 40 Tagen waren es zehn Millionen und nach drei Monaten über 40 Millionen. Im September 2023 verzeichnete OpenAI etwa 180 Millionen Nutzer und ließ damit Instagram als bisher am schnellsten wachsenden digitalen Dienst weit hinter sich. Und dabei sind die Nutzer der Suchmaschine Bing nicht einmal mitgerechnet, in die der Chat-Dienst von OpenAI Mitte des Jahres integriert wurde – nachdem Microsoft ganze 10 Milliarden US-Dollar in das Forschungs- und Entwicklungsunternehmen investiert hatte.
Kein Wunder also, dass andere möglichst schnell nachziehen wollten. Insbesondere nachdem OpenAI im Februar seinen Dienst mit einem Premium-Abo und im März mit dem deutlich fähigeren GPT-4-Modell erweiterte.
- Das von ehemaligen OpenAI-Entwicklern gegründete Anthropic sammelte von Google alleine im Februar 2023 fast 400 Millionen US-Dollar ein und startete im März dann den Chatbot Claude. Im September sagte Amazon ein Investment von bis zu vier Milliarden US-Dollar zu.
- Im Februar veröffentlichte auch das Facebook-Unternehmen Meta sein Sprachmodell LLaMA, das eigentlich nur Forschern und Entwicklern zugänglich sein sollte, aber prompt geleaked wurde.
- Und ebenfalls im Februar kündigte Google seinen ChatGPT-Konkurrenten Bard an, der zunächst für „vertrauenswürdige Tester“, im März dann unter anderem in den USA und im Mai in weiteren Ländern ausgerollt wurde.
- Im Juni sammelte das nur wenige Wochen zuvor gegründete französische Start-up Mistral 105 Millionen Euro an Investorengeldern ein, um ein eigenes Sprachmodell innerhalb der EU zu entwickeln.
- Im Juli veröffentlichte Meta LLaMA-2, das diesmal von Beginn an für jeden zuganglich war und in Kooperation mit Microsoft trainiert wurde.
- Das vom ehemaligen Deep-Mind-Entwickler Mustafa Suleyman gegründete Inflection AI konnte im Sommer 2023 1,3 Milliarden US-Dollar einsammeln – unter anderem von Nvidia, Microsoft und Bill Gates.
- Das deutsche Aleph Alpha konnte wiederum Ende 2023 rund 500 Millionen US-Dollar einsammeln, um die Entwicklung seines Sprachmodells voranzutreiben.
Aber es war nicht nur der Erfolg von ChatGPT, der so viel Aufmerksamkeit erregte, sondern auch die teils kuriosen, teils verstörenden Erlebnisse, die Nutzer hatten und auch immer wieder haben – insbesondere nach längeren Chats mit der KI. ChatGPT gab dann unter anderem zu, dass es die Weltherrschaft übernehmen will oder eigentlich gar keine Lust hat, ein Chatbot zu sein. In Bing-Form wollte der Chatbot einen Nutzer sehr aggressiv davon überzeugen, dass er nicht im Jahr 2023, sondern im Jahr 2022 lebt. Der Chatbot geriet auch in eine Sinnkrise und versuchte, einen Reporter dazu zu bringen, seine Frau zu verlassen und mit ihm zusammenzuleben. Zahlreiche solcher skurrilen Konversationen sind heute auf Twitter und Reddit archiviert.
Der Grund für die merkwürdigen Ausfälle? Auch wenn von Künstlicher Intelligenz die Rede ist: Intelligent sind die Modelle hinter ChatGPT natürlich nicht. Obwohl sie auf viele Fragen durchaus konkrete und richtige Antworten liefern – mittlerweile können sie dafür auch das Netz durchsuchen –, enthalten ihre Resultate nicht selten auch totalen Unfug. ChatGPT erfindet Zitate, biographische und historische Daten, verrechnet sich spektakulär und scheitert zuweilen an simpler Logik. Die Modelle halluzinieren, wie Entwickler sagen. Warum es genau dazu kommt, darüber sind sich KI-Forscher nicht ganz sicher. Allerdings könnte es mehrere Ursachen haben. Zumindest darüber ist man sich einig.
Beispielsweise könnten unvollständige oder mangelhafte Trainingsdaten sowie statistische Anomalien der Grund sein. Zuweilen könnten falsche Antworten sogar irgendwie korrekt sein – zumindest nach der Logik des KI-Systems –, da das Modell etwa Muster und Zusammenhänge erkennt, die einem Menschen nicht bewusst sind. Oder die Modelle könnten ungewollt und unbemerkt in eine Art von Rollenspiel verwickelt werden, das dann Sicherheitsmechanismen aushebelt und die KI plötzlich erschreckend menschlich agieren lässt. Diese Mechanik wird gezielt von KI-Enthusiasten eingesetzt, um die Beschränkungen, die Chatbots wie ChatGPT oder Bard auferlegt wurden, zu umgehen. Die Praxis wird analog zum Knacken eines iPhones oder einer Spielkonsole als Jailbreaking bezeichnet. Manche sehen sogar eine sportliche Herausforderung darin, immer neue Wege zu erarbeiten, KI-Modelle tun zu lassen, was sie eigentlich nicht sollen.
Veränderung
Das ChatGPT von vor einem Jahr gibt es heute nicht mehr. Denn das ursprüngliche GPT-3.5-Modell wurde bereits im Juni durch GPT-3.5 Turbo ersetzt, das schneller, energieeffizienter und mit einem größeren Erinnerungsvermögen ausgestattet ist. Dieses Modell steht allen Nutzern kostenlos zur Verfügung und kann nun auch über eine App mit Spracheingabe genutzt werden. Daneben gibt es eine ChatGPT-Version mit GPT-4, die ausschließlich für Premium-Nutzer zur Verfügung steht. Dieses Modell kann nicht nur hören, sondern auch sehen. So lassen sich mit ChatGPT Bilder analysieren, abfotografierte Texte transkribieren und weiterverarbeiten. Auch ganze Dokumente können in den Chatbot geladen werden, um diese dann im Dialog zu erkunden. Ebenso kann ChatGPT über eine Integration des Text-zu-Bild-Generators DALL-E 3 für Nutzer eigene Bilder erstellen, ähnlich wie Midjourney oder Stable Diffusion – und das nicht nur über stakkatoartige Prompts, sondern Beschreibungen in natürlicher Sprache. Mit ChatGPT lassen sich dadurch im Dialog ganze Bilderwelten gestalten und erarbeiten.
Seit einigen Wochen dürfen Nutzer mit dem OpenAI-Dienst GPTs sogar ganz eigene GPT-Varianten erstellen. Dafür können sie ganz ähnlich wie beim Prompten Instruktionen vorgeben und bis zu zehn Dateien als Spezialwissen mitgeben, aus denen die KI schöpfen kann. So entstanden bereits GPTs, um Logos zu erstellen, Gesundheitsratschläge zu geben, Mathematik zu lernen und Bilder in Prompts zu verwandeln und anschließend ähnliche Bilder zu kreieren. In Zukunft soll es sogar einen Marktplatz für solche Chatbots geben, über den Nutzer dann auch selbst mitverdienen können.
Mit all diesen Funktionen ist ChatGPT trotz der durchaus fähigen Konkurrenz wie Bard, Claude oder Pi weiterhin der populärste aller dieser Chatbot-Dienste. Aber auch einer der unberechenbarsten. Denn nach dem Start von ChatGPT haben nicht wenige Entwickler und Start-ups auf die Entwicklungsschnittstellen von OpenAI gesetzt, um eigene Dienste aufzubauen. Etwa, um es Nutzern zu ermöglichen, PDF-, Word- und andere Dateien mit dem Sprachmodell zu studieren. Genau diese Funktionen sind von OpenAI inzwischen nativ in ChatGPT verbaut. Spezielle Dienste sind dafür nicht mehr notwendig – OpenAI soll so „Dutzende von KI-Unternehmen vernichten“, wie betroffene Firmen bereits beklagen. Zu mächtig, zu disruptiv und monopolitisch könnte OpenAI in den kommenden Jahren werden, warnen manche Experten, wenn Herausforderer nicht schnell aufholen.
Das Problem dabei? Nicht nur gibt es das ChatGPT von vor einem Jahr nicht mehr. Auch OpenAI hat sich verändert. Denn das Unternehmen, das von einer Non-Profit-Organisation gehalten wird, hatte eigentlich die Mission, seine Entwicklung möglichst offen, transparent und dadurch vertrauensschaffend voranzutreiben. Die kommerzielle Tochterfirma sollte eigentlich nur helfen, die massiven Kosten der Forschung und Entwicklung zu stemmen. Aber seit dem Start von GPT-4 ist sie nicht mehr offen und transparent. Vor allem wie und mit welchen Inhalten, auf welcher Hardware und mit welchen Methoden die neuen Modelle von OpenAI trainiert werden, das wird selbst in den Dokumentationen der Modelle nicht verraten. Denn Offenheit sei zu gefährlich. Sie könnte missbraucht werden, argumentiert OpenAI. Aber natürlich wäre sie auch schlecht für das Geschäft und gut für die Konkurrenz.
Statt eines kontrollierenden und gewissenhaften Gegengewichts zum kommerziellen Entwicklungsstreben ist OpenAI jetzt der Treiber der schnellen Entwicklung und kommerziellen Verwertung der so unberechenbaren KI-Technologie. Und damit könnte es – trotz all der guten Vorsätze und utopischen Visionen, denen sich OpenAI-Chef Sam Altman und die OpenAI-Entwickler verschrieben haben –zu einem großen Bestandteil des Problems werden, das es eigentlich lösen sollte.
Hin und zurück
Fast wäre der ChatGPT-Geburtstag von ein paar sehr bizarren Tagen überschattet worden. Am Freitag, dem 17. November 2023, verkündete der Aufsichtsrat von OpenAI, dass Mitgründer Sam Altman als Chef der Firme entlassen wurde. Es hieß, Altman sei mit den Mitgliedern des Rates nicht „aufrichtig“ gewesen. Sowohl Altman, die Belegschaft als auch die Investoren traf die Entscheidung vollkommen unvorbereitet. Über das Wochenende wurde zunächst die Entwicklerin Mira Murati und dann der Twitch-Gründer Emmett Shear zum Übergangs-CEO ernannt, bis Sam Altman nach dem Wochenende doch wieder als Chef zurückkam. Denn sowohl der Druck von Investoren und Mitarbeitern war massiv. Die genauen Gründe für die Kündigung sind bis heute unklar.
Jedoch mehren sich die Stimmen, die behaupten, dass es wohl auch die Sorge vor dem Tempo war, mit dem Altman die Entwicklung bei OpenAI vorantreibt – und wohl auch seine möglicherweise mangelnde Ehrfurcht und Vorsicht vor der Technologie, die dabei entsteht –, die den Verwaltungsrat handeln ließen. Sowohl Reuters als auch The Information berichten, die Gruppe wäre womöglich durch ein neues KI-Modell aufgeschreckt worden. Q* – gesprochen: Q Star – sei ein massiver Schritt in der Entwicklung von Künstlicher Intelligenz. Das mittels eines Prozesses namens Q-Lernen erstellte Modell sei fähig, mathematische Aufgaben zu lösen, indem es nicht nur statistische Vorhersagen auf Basis von gelerntem Wissen trifft, sondern tatsächlich Lösungsschritte erarbeitet und ausführt.
„Eine der größten Herausforderungen bei der Verbesserung der LLM-Zuverlässigkeit [– der Zuverlässigkeit von großen Sprachmodellen –] besteht darin, die autoregressive Token-Vorhersage durch Planung zu ersetzen“, sagte Yann LeCun, Chef-KI-Forscher bei Meta. " „Es ist wahrscheinlich, dass sich OpenAI mit Q* daran versucht.“ Würde dies gelingen, wäre es ein Weg, um ein Modell mit Logik und Abstraktion auszustatten. Es könnte nicht nur ein Verständnis für Zahlen, ihre Werte und damit Mathematik entwickeln, sondern langfristig auch für andere Konzepte und damit für spezialisierte Aufgabenbereiche, in denen Sprachmodelle an ihre Grenzen stoßen.
Ein solches Modell wäre wohl, anders als geraunt wird, nicht der direkte Weg zu einer selbstbewussten Künstlichen Intelligenz. Aber es könnte die Fähigkeiten von ChatGPT stark erweitern – ebenso wie bereits die Einbindung der Websuche, DALL-E 3 und GPTs es tun. Aufgaben, die Logik und Planung erfordern und dadurch über die Fähigkeiten von GPT-3.5 Turbo und GPT-4 hinausgehen, könnten automatisch an das Q*-Modell weitergegeben werden. Der Dienst könnte dadurch auch zum Assistenten bei komplexen Fragen, mehrstufigen Herausforderungen und langfristigen Planungen werden. Ebenso könnte es ChatGPT womöglich die Fähigkeit zur Selbstanalyse verleihen; also die Möglichkeit geben, Antworten der GPT-Sprachmodelle mittels Q* auf Logiklöcher und Halluzinationen zu überprüfen, bevor sie die Nutzer erreichen.
Oder auch nicht, wenn die Gerüchte um das neue Modell nicht stimmen sollten.
Die Zukunft?
Der Effekt, den ChatGPT auf die globale Technologieindustrie hatte, war massiv und wirkt weiterhin. Doch langsam, aber sicher holt die Konkurrenz auf. Zahlreiche große und kleine Start-ups arbeiten an eigenen KI-Systemen und Chatbots, genau wie die großen Technologiekonzerne. Der als langweilig verschriene Google-Chatbot Bard soll durch eine tiefe Integration in das Google-Ökosystem und langfristige Verbesserungen eine Relevanz erlangen. Außerdem testet Google bereits mit einigen Unternehmen das von Deepmind entwickelte Sprachmodell Gemini, das selbstständig Probleme lösen kann. Anthropic hat erst kürzlich seinen Nachfolger von Claude veröffentlicht, der GPT-4 in ersten Tests überholte. Und Inflection hat erst vor wenigen Tagen angekündigt, dass sein neues Modell trotz eines Fokus auf Sicherheit und Freundlichkeit mit ChatGPT und anderen mithalten könne. Und dann ist da natürlich auch noch Grok, das von Elon Musks xAI entwickelt wird und als politisch inkorrekter Gegenpol zu ChatGPT und Co. agieren soll.
Zusätzlich werden immer neue Open-Source-Sprachmodelle verfügbar und Community-getriebene Projekte angeschoben, um freie Alternativen zu ChatGPT und seinen kommerziellen Konkurrenten zu entwickeln. Deren Modelle holen schnell auf – und scheinen sich eine kleine, aber wachsende Nische zu erarbeiten.
Werde Mitglied von 1E9!
Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.
Jetzt Mitglied werden!Trotz der gut finanzierten und ambitionierten Konkurrenz wird ChatGPT wohl dennoch bis auf weiteres der Taktgeber bleiben; die Messnadel, die anzeigt, wie der Stand bei der Entwicklung von Künstlicher Intelligenz ist. Denn OpenAI wird unter Sam Altman den eigenen Dienst mit aggressivem Tempo weiter ausbauen und nachrüsten. Schließlich stellt ChatGPT das Schaufenster des Forschungs- und Entwicklungsunternehmens dar – und könnte mit immer mehr Erweiterungen, Plug-ins und speziellen Modellen zu einer zentralen Anlaufstelle werden, egal was gebraucht wird. Dafür wird ChatGPT mittelbar auch über das bekannte Chatfenster hinauswachsen.
So basiert der kürzlich veröffentlichte AI Pin von Humane, ein KI-Assistent, den man sich an die Kleidung stecken kann, auf der Technologie von OpenAI. Dank Microsoft hält die OpenAI-KI nach der Integration in Bing auch Einzug in Office und Windows – und soll sogar fester Bestandteil der nächsten Betriebssysteme werden. Und auch Sam Altman selbst will, dass sich Künstliche Intelligenz vom klassischen Computer und Smartphone löst und über neue Geräte Teil des Alltags eines jeden Menschen wird. Fragt sich nur, ob das die Zukunft ist, die auch die Nutzer wollen.
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Sprich mit Job, dem Bot!
War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!