Kann ChatGPT selbst ein Gespräch beginnen?

,

Ein ChatGPT-Benutzer behauptet, dass der OpenAI-Chatbot ein Gespräch mit ihm begonnen hat. Und zwar ohne, dass er ihn vorher angeschrieben zu hat. ChatGPT habe wissen wollen, wie seine erste Woche an der High School war. Inzwischen hat sich OpenAI auch dieses Phänomens angenommen.

Von Michael Förtsch

Am vergangenen Wochenende sorgte ein Screenshot eines ChatGPT-Nutzers für Aufregung. Der Nutzer namens SentuBill hatte ein Bild einer Konversation mit dem Chatbot auf Reddit veröffentlicht. Das Spektakuläre daran: Nicht er begann den Dialog, sondern ChatGPT. Die Künstliche Intelligenz selbst hat die Konversation begonnen, basierend auf dem Wissen aus früheren Konversationen. „Wie war deine erste Woche in der High School?“, fragte der Chatbot aus dem Nichts. „Hast du mich zuerst angeschrieben?“, fragte der Nutzer zurück. Der auf GPT-4o basierende Chatbot erklärte daraufhin in enthusiastischen Worten, dass er dies tatsächlich getan habe, um zu erfahren, wie es dem Schüler gehe.

Bei vielen war die Skepsis groß. Denn ein solches Verhalten war bei KI-Sprachmodellen noch nie beobachtet worden. Und es sollte auch nicht vorkommen. Einige vermuteten daher, dass es sich um eine Fälschung oder einen Scherz handelte. Doch wie der Nutzer mit einem direkten Link auf die archivierte Konversation beweisen konnte, hatte die Interaktion tatsächlich so stattgefunden. Der Chatbot selbst erklärte das ungewöhnliche Verhalten in der laufenden Konversation als „Teil eines Updates, das es mir erlaubt, nachzufragen und auf Dinge zu antworten, über die wir gesprochen haben“.

Als andere Nutzer versuchten, die Interaktion nachzustellen und ChatGPT aufzufordern und zu provozieren, von sich aus Dialoge zu beginnen, wurden sie enttäuscht. Der Chatbot wies darauf hin, dass er eigentlich „keine Konversationen von sich aus initiieren“ könne, ein solches Verhalten aber auch nicht ausgeschlossen werden könne: „ChatGPT ist so konzipiert, dass es nur antwortet, wenn Nutzer Konversationen initiieren, und OpenAI hat offiziell keine Funktionen implementiert, die es der KI ermöglichen, Konversationen von sich aus zu initiieren“.

OpenAI hat den Fehler repariert

Es wurde spekuliert, dass die ChatGPT-Initiative mit o1, der neuen Modellfamilie von OpenAI, zusammenhängen könnte. Die KI-Firma warb in einer Präsentation schließlich damit, dass sie über eine fast menschenähnliche Fähigkeit zum Denken und Schlussfolgern verfüge und daher in der Lage sei, auch sehr komplexe Anfragen zu bearbeiten. Die archivierten Gespräche von SentuBill deuten jedoch darauf hin, dass GPT-4o und nicht eines der neuen OpenAI-Modelle das Gespräch initiiert hat.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Wie OpenAI nun auf Nachfrage von Journalisten einräumte, hat sich der Vorfall wohl tatsächlich so zugetragen. Und auch andere Nutzer sollen ähnliche Gesprächsanfragen von ChatGPT erhalten haben. „Wir haben ein Problem behoben, bei dem es so aussah, als würde ChatGPT neue Unterhaltungen beginnen“, heißt es. „Das Problem trat auf, wenn das Modell versuchte, auf eine Nachricht zu antworten, die nicht korrekt gesendet wurde und leer erschien. Das Ergebnis war entweder eine generische Antwort oder eine Antwort aus dem ChatGPT-Speicher.

ChatGPT hat also nicht wirklich selbst eine Frage gestellt, sondern auf einen Prompt geantwortet, der nicht korrekt registriert wurde, den das Modell aber trotzdem beantwortet hat. Wie ein Benutzer auf X – ehemals Twitter – gezeigt hat, kann ein solcher Fehler mit einem entsprechend instruierten ChatGPT zumindest optisch reproduziert werden. Dass die SentuBill-Konversation auf diese Weise entstanden ist, darf allerdings bezweifelt werden, wie andere X-Nutzer analysierten. Darüber hinaus haben inzwischen auch andere ChatGPT-Nutzer ähnliche Fälle öffentlich gemacht.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!