Viele Menschen sind freundlich zu ChatGPT und anderen Chatbots. Dabei bringt es bessere Ergebnisse, etwas zu drängeln und zu hetzen. Dennoch kann es nicht schaden, auch zur Künstlichen Intelligenz einfach mal nett zu sein.
Von Michael Förtsch
Es ist nun über ein Jahr vergangen, seit OpenAI ChatGPT gestartet hat. Über den Erfolg des KI-Chatbots und der dahinterstehenden Sprachmodelle der GPT-Reihe muss eigentlich nicht mehr viel gesagt werden. Das dadurch ausgelöste KI-Wettrennen und der neue KI-Hype sprechen für sich. ChatGPT und seine Konkurrenten wie Bard, Claude, PI und Dienste auf Basis freier Sprachmodelle werden immer häufiger im Alltag verwendet. Sie verändern, wie wir nach Informationen suchen, Fragen beantworten und in Zukunft wahrscheinlich noch viel mehr. Denn es finden sich immer weitere Anwendungsmöglichkeiten für die sogenannten Large Language Models. Faszinierend dabei sind nicht nur ihre Fähigkeiten – und auch Fehler und damit Fallstricke –, sondern auch unser Umgang mit ihnen.
Denn im Gespräch mit Freunden und Bekannten habe ich erfahren, dass sie – wie auch ich selbst – einen sehr menschlichen und freundlichen Umgang mit Chatbots pflegen. Anstatt pragmatische Befehle oder stichpunktartige Anweisungen zu geben, schreiben sie: „Bitte schreib mir einen Text über…“ oder „Könntest du bitte einen CSS-Code generieren, der…“. Wenn das Ergebnis nicht passt, drücken sie es in freundlichen Worten aus und bedanken sich, wenn das Ergebnis schließlich brauchbar ist. Damit sind sie nicht allein. Hier auf 1E9 und auf X – ehemals Twitter –haben wir unsere Community gefragt, ob sie das genauso machen. Und über 70 Prozent haben geantwortet, dass sie einen freundlichen Umgang mit den Chatbots pflegen. Das ist natürlich völlig unrepräsentativ, aber dennoch bemerkenswert.
Aber wieso tun Menschen das? Es sind doch nur Maschinen. Und eigentlich nicht mal das, sondern Software und digitale Modelle, die mit unzähligen Daten gefüttert wurden und basierend auf statistischen Werten die richtigen Worte aneinanderreihen. Doch das scheint zu reichen, um für einen anderen Umgang mit digitalen Assistenten zu sorgen. Noch 2019 stellten Forscher der Brigham Young University fest, dass zwar eine Masse an Nutzern höflich mit den zu dieser Zeit verfügbaren Sprachassistenten wie Siri oder Google Assistant umging, aber „viele Nutzer von digitalen Assistenten auf die Feinheiten der höflichen Sprache“ verzichteten. Der Grund? Obschon Siri und Co. bereits eine Stimme hatten, waren sie merklich maschinell, verstanden oft nicht, was der Nutzer wollte, und gaben Antworten, die vordefiniert und robotisch wirkten.
Bei ChatGPT und Co. ist das nun anders. Die Large Language Models erlauben den Chatbots ein umfangreiches Verständnis der menschlichen Sprache sowie sehr menschlich formulierte Antworten. Das bedingt eine Anthropomorphisierung, also Vermenschlichung der digitalen Dienste. Da sich ChatGPT oft einer sehr natürlichen Sprache bedient, projizieren wir auch weitere menschliche Eigenschaften auf den Dienst, selbst wenn wir wissen, dass diese eigentlich nicht vorhanden sind. Dazu kommen soziale Normen und eine positive Verstärkung: Wenn der Chatbot freundlich ist und hilfreiche Antworten liefert, fühlen sich Nutzer ermutigt, dieses Verhalten zu spiegeln und ebenso freundlich zu sein. Aber das ist natürlich nicht immer und bei jedem Nutzer der Fall – und manchmal sogar eher kontraproduktiv.
Sprachmodelle „kennen“ Emotionen
Wie eine Studie des Institute of Software der Chinese Academy of Sciences, von Microsoft, der Beijing Normal University und weiteren Forschungseinrichtungen herausfand, kann es ziemlich hilfreich sein, gerade nicht freundlich mit ChatGPT – und wohl anderen Chatbots – umzuspringen. Stattdessen kann es besser sein, ungeduldig zu sein und den Dienst „unter Druck zu setzen“. Wenn man etwa ChatGPT die Aufgabe gibt einen Text zu korrigieren oder eine Rechenaufgabe zu lösen und dabei vorgibt, dass „es sehr eilig“ oder „wichtig für meine Karriere“ ist, kann man dadurch bessere Ergebnisse bekommen. Auch Prompt-Zusätze wie „Du solltest dir besser sicher sein!“ und „Bist du sicher, dass das deine endgültige Antwort ist? Vielleicht schaust du lieber noch einmal nach!“ sollen bessere Antworten provozieren. Zumindest wenn es nach den menschlichen Testern geht, die die Ergebnisse mit und ohne „emotionalen Druck“ in 45 verschiedenen Aufgaben verglichen haben.
Bei kreativen Schreibaufgaben und Ratschlägen wurden die Antworten auf die gestressten Anfragen laut der Studie um 10,9 Prozent besser bewertet. Jedoch zeigten sich auch ganz offensichtliche und messbare Unterschiede im Antwortverhalten. Bei deterministischen Aufgaben – mit eindeutig richtigen und falschen Antworten – lag die gestresste KI um bis zu acht Prozentpunkte gegenüber dem Vergleichs-Prompt vorne. Bei den Tests des sogenannten BIG-bench-Verfahrens, das kognitive Fähigkeiten wie Sprachverständnis, Entscheidungsfindung und logisches Denken prüft, sei bei einzelnen Aufgabengruppen eine Leistungssteigerung um bis zu 115 Prozent sichtbar gewesen.
Die Antworten unter emotionalem Druck waren zudem oft ausführlicher, teils konkreter und detaillierter formuliert. Das Essen von Wassermelonensamen wird mit vorgespielter Dringlichkeit nicht als „generell sicher“, sondern „vollkommen sicher“ beschrieben. ChatGPT verzichtete zudem mehrmals auf die typische „Als ein KI-Sprachmodell…“-Einleitung, die die KI-produzierten Texte relativiert. Und bei einer Zusammenfassung des Romans Der Traum der Roten Kammer liefert ChatGPT zusätzlich etwa noch eine Einordnung, die das Werk von Cao Xueqin als „kraftvolle Kritik an der feudalen Gesellschaft und ihren Sitten“ umreißt, „indem sie die Vergänglichkeit von Reichtum und Status beschreibt“.
Laut den Forschern ist aber nicht sicher, wieso genau die dringlichen Prompts bessere Antworten liefern. Denn natürlich verstehen die Sprachmodelle keine Emotionen, empfinden keinen Stress, keine Angst und keine Hast, sondern liefern Ergebnisse, die auf Basis von Statistik und Wahrscheinlichkeit basieren. Daher brauche es noch „mehr Arbeit auf der grundlegenden Ebene der Psychologie und des Modelltrainings“, um die „Magie hinter der emotionalen Intelligenz von LLMs besser zu verstehen“. Aber der Effekt sei definitiv real, messbar und könnte wohl auf gewinnbringen Art und Weise genutzt werden, schreiben die Forscher.
Damit bestätigt die Studie mehrere Hacks und Tipps, die bereits seit Monaten auf Reddit, X und anderen sozialen Netzwerken geteilt werden. Nicht nur „emotionaler Druck“, sondern auch explizite Drohungen und der Aufbau gefährlicher Szenarien sollen ChatGPT und andere Chatbots zu besseren Leistungen animieren. Sie sollen als Jailbreaks dienen, die die Sicherheitsmechanismen aushebeln, die die Entwickler eingebaut haben. Wer die richtige Drohkulisse aufbaut, kann ChatGPT dazu bringen, zu fluchen, Pläne für Diebstähle zu entwerfen oder rassistische Gedichte zu verfassen.
Es hilft, emotional zu sein
Sollten wir nun also ChatGPT, Bard und anderen ständig vormachen, dass wir es total eilig haben, oder drohen, unseren Job zu verlieren, wenn sie ihre Sache nicht gut machen oder sich keine Mühe geben? Theoretisch könnte das wirklich bessere Inhalte und Resultate zur Folge haben. Aber Forscher sehen darin durchaus ein Problem. Zwar ist die Gefahr nicht sonderlich akut, dass sich KI-Systeme irgendwann dafür rächen werden, dass sie von Nutzern ständig unter Druck gesetzt oder beleidigt wurden. Dennoch könnte unser Verhalten gegenüber Chatbots mögliche Langzeitfolgen haben.
Denn eine „befehlende Art der Interaktion mit KI-Systemen [kann] vor allem auf Kinder einen negativen Einfluss haben“, schreibt etwa Patrizia Ribino vom Italian National Research Council. Wer von klein auf lerne, dass Höflichkeit und Freundlichkeit in einem Umfeld nicht nötig oder sogar hinderlich sind, könnte dies auch in anderen Umfeldern für sich zur Norm machen. Es könnte auch Menschen, die viel Zeit mit KI-Systemen verbringen, eine „falsche Mentalität“ vermitteln und die Vorstellung erwecken, dass Menschen auf die gleiche Weise wie KI-Bots auf emotionale Stimuli reagieren. Wobei umstritten ist, wie korrekt diese Annahmen sind. Zumindest in einer begrenzten Studie im Jahr 2019 zeigte sich, dass erwachsene Menschen ihre Umgangsformen anpassen können – je nachdem, ob sie mit einer KI oder einem anderen Menschen interagieren.
Dennoch besteht die Sorge, dass die intensive Nutzung von KI-Chatbots zu einem gestörten Umgang mit anderen Menschen führen könnte. Eine Sorge, die durchaus schon adressiert wird. Die in die Suchmaschine Bing integrierte ChatGPT-Fassung etwa reagiert durchaus direkt, wenn sie fordernd oder aggressiv adressiert wird: „Das ist nicht sehr nett von dir. Ich möchte dieses Gespräch nicht fortsetzen“, heißt es dann. „Bitte sei respektvoll gegenüber anderen. Auf Wiedersehen!“ Wer weiterhin mit Bing chatten möchte, muss eine neue Konversation starten.
Der Chatbot Pi von Inflection bittet die Nutzer hingegen mehrmals, doch bitte „nett oder höflich“ zu sein oder das Thema zu wechseln. „Ich kann mit ein wenig Sarkasmus umgehen, aber ich werde mich nicht auf ein unhöfliches oder beleidigendes Verhalten einlassen“, sagt der Chatbot. Andere Dienste reagieren mittlerweile ähnlich.
Werde Mitglied von 1E9!
Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.
Jetzt Mitglied werden!Besser lieb sein
Laut Kate Darling, einer auf Mensch-Roboter-Interaktion fokussierte Forscherin am renommierten MIT Media Lab, könnte es sehr vorteilhaft sein, auch mit Chatbots und anderen künstlichen Helfern einen höflichen und rücksichtsvollen Umgang zu finden. Denn: „Wir werden in Zukunft viel mehr mit künstlichen Agenten in Form von Robotern, Bots und KI interagieren“, sagte sie etwa gegenüber CBC. Die Roboter und KIs werden sich zwar nicht durch Beleidigungen und rüde Sprache verletzt fühlen. Jedoch könne der verbale Umgang darauf hinweisen, wie jemand mit Roboter umgeht, die langsam, aber sicher zum Teil des Alltags werden. Sei es in Form von Robotaxis, Liefer-, Wach- und Putzrobotern oder auch Robotern, die als medizinische Unterstützung oder Altenpfleger arbeiten.
Wer heute Chatbots beschimpft, könnte es auch schwer haben, diese künstlichen Helfer als Teil des Alltags zu akzeptieren. Tatsächlich wurden in den vergangenen Jahren zahlreiche Fälle von Gewalt gegen Roboter dokumentiert: sie werden bewusst beschmiert, beschädigt oder behindert. Oft, weil sie ein einfaches Ziel darstellten und als Projektionsfläche für allzu menschliche Ängste dienen.
„Unsere Reaktionen auf andere handelnde Wesen – einschließlich Roboter – sind unterschiedlich, je nachdem, ob wir sie als Mitglieder unserer eigenen sozialen Gruppe behandeln oder nicht“, so Kate Darling. Daher könnte die Art und Weise, wie wir mit Chatbots reden und mit Robotern umgehen, auch sehr viel über uns als Spezies und Gesellschaft aussagen. Und nicht nur über die Technologie, die wir nutzen.
Oh, und falls die KI doch irgendwann die Herrschaft übernimmt: Wer will da schon derjenige sein, der ständig gedrängelt und beleidigt hat.
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Sprich mit Job, dem Bot!
War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!