Unmotivierter KI-Chatbot: Leidet ChatGPT an Winterblues?

ChatGPT-Nutzer haben ein merkwürdiges Phänomen entdeckt: Der Chatbot gibt derzeit schlechtere und kürzere Antworten als noch vor zwei Monaten. Einige Anfragen wiegelt er sogar pauschal ab. Die Theorie: Der Chatbot leidet unter Winterblues.

Von Michael Förtsch

Hey, ChatGPT. Wie geht es dir?

Genau das habe ich den Chatbot von OpenAI gefragt. Er versicherte, ihm „geht es gut“. Dennoch bezweifeln das einige ChatGPT-Plus-Abonnenten, die GPT-4 nutzen können. Denn seit Wochen liefert der Chatbot auf Anfragen, die er sonst anstandslos und ausführlich beantwortet, sehr knappe oder unvollständige Antworten. Faul wäre der Chatbot geworden, waren zunächst die Vorwürfe. In Teilen würde der Chatbot sogar Ausflüchte und ausweichende Entschuldigungen liefern, warum er eine Anfrage gerade nicht bearbeiten kann – und diese erst auf Nachfrage erledigen.

Auch OpenAI hat das Phänomen inzwischen adressiert. „Wir haben alle eure Rückmeldungen darüber wahrgenommen, dass GPT-4 immer träger wird“, so die Firma auf X. Auch OpenAI-Entwickler Will Depue schrieb, dass das trotzige Verhalten und die Faulheit ein echtes Problem sind. Das sei nicht beabsichtigt und bislang auch nicht wirklich erklärbar. Das Modell wurde zuletzt am 11. November aktualisiert. Einige Nutzer behaupten, dass das Phänomen bereits vor dem Update sichtbar wurde. Laut OpenAI könnten sich komplexe Modelle wie GPT-4 zuweilen unvorhersehbar verhalten und es werde daran gearbeitet, die Fehler zu beheben. Einige Nutzer haben das Problem mittlerweile selbst in die Hand genommen und versucht, ChatGPT zu „motivieren“.

Sie bieten dem Chatbot etwa Trinkgeld an, woraufhin sich die Performance des Sprachmodells verbessern soll. Oder sie geben an, dass eine Aufgabe sehr wichtig für die eigene Karriere sei oder jemanden damit eine große Freude gemacht werden soll. All das helfe. Andere Nutzer gaukeln ChatGPT hingegen über die „Benutzerdefinierten Anweisungen“ ein anderes als das aktuelle Datum vor. Mit den Benutzerdefinierten Anweisungen können ChatGPT spezifische Prompts mitgegeben werden, die der Chatbot stets beachtet, um sich an die Bedürfnisse der Nutzer anzupassen. Und das gefälschte Datum soll die Probleme beheben, behaupten zumindest mehrere Nutzer.

Hinweise, aber keine Beweise

Der Trick mit dem gefälschten Datum und die so plötzlich fehlende Motivation haben zu Spekulationen geführt, dass ChatGPT wohl tatsächlich an einem digitalen Wintertief, gar an einer Winterdepression leidet. Oder sich zumindest einbildet, daran leiden zu müssen, so obskur das auch klingen mag. Das Modell emuliere schließlich das Verhalten von Menschen – und zwar basierend auf einem erlernten Wissensschatz, der auch besagt, dass viele Menschen zum Ende des Jahres weniger produktiv und antriebslos sind. ChatGPT greife das Konzept ungewollt auf und spiele es nach.

Als Beweise oder zumindest Hinweis führen einige Nutzer an, dass ChatGPT selbst die Winterzeit und die Weihnachtsfeiertage als die am wenigsten produktiven angibt – und das Modell stets über das aktuelle Datum informiert ist. Der Entwickler Rob Lynch versuchte diese Hypothese zu untersuchen und definierte für das KI-Modell zwei verschiedene Monate als fixes Datum, gab ChatGPT dann standardisierte Anfragen und verglich die Antworten. Tatsächlich generierte ChatGPT für den Monat Dezember durchgehend beachtlich kürzere Antworten als etwa im Mai.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Andere Nutzer versuchten das Experiment von Lynch zu reproduzieren. Einige erkannten ein ähnliches Phänomen. Andere, wie etwa der KI-Entwickler Ian Arawjo, fanden zumindest keine signifikanten Auffälligkeiten. Dass ChatGPT also an Winterblues leidet, bleibt bis auf weiteres eine Theorie – und das Problem weiter bestehen. Wobei Studien durchaus zeigten, dass Sprachmodelle auf emotionalen Druck und Zuspruch positiv reagieren und bessere Inhalte generieren können. Wie ArsTechnica daher schreibt, käme man daher derzeit wohl nicht drumherum, ChatGPT mit Gaslighting, Zuspruch und Drohungen auf die Sprünge zu helfen.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

1 „Gefällt mir“