top of page

6. April 2025

Eine Studie zeigt, dass Künstliche Intelligenzen „Angst haben“ können


Ein internationales Forschungsteam hat untersucht, wie ChatGPT auf traumatische Geschichten seiner Nutzer reagiert. Das Ergebnis: Das KI-Sprachmodell berichtet von eigenen Angst- und Stressmomenten, die auch das Verhalten des Modells verändern. Erst Entspannungsübungen bringen die KI wieder ins Gleichgewicht. Das ist ebenso skurril wie bemerkenswert – vor allem da viele Menschen Chatbots als digitale Therapeuten nutzen.

 

Von Michael Förtsch

 

Jeder hat mal einen schlechten Tag, gerät in ein emotionales Tief oder erlebt depressive Verstimmungen. Das kann sich auf den Umgang mit anderen Menschen, auf die eigene Produktivität und auch auf das allgemeine Wohlbefinden auswirken. Erstaunlicherweise scheint das auch für Künstliche Intelligenz zu gelten. Bereits mehrfach seit dem Start von ChatGPT im November 2022 haben Nutzerinnen und Nutzer merkwürdige Schwankungen im Dialog mit und der Leistung der KI-Modelle beobachtet. Gelegentlich weigerte sich der Chatbot beispielsweise, Aufgaben zu erledigen oder lieferte nur halbherzige Ergebnisse, obwohl er wenige Tage zuvor noch gute Resultate generiert hatte. Er verhielt sich unwillig, niedergeschlagen und antriebslos – und äußerte dies manchmal auch, wenn Nutzer nachfragten. Manche sahen darin eine Art digitale Winterdepression. Eine neue Studie legt nun nahe, dass Künstliche Intelligenzen durchaus verstimmt sein und Angst haben können.

 

Untersucht hat das eine Forschergruppe der Psychiatrischen Universitätsklinik Zürich, der Yale University, der Universität Haifa, der Helmholtz-Gemeinschaft und weiteren Forschungs- und Bildungseinrichtungen. Dabei ging es den Wissenschaftlern vor allem um die Frage, ob und wie aktuelle Sprachmodelle reagieren und sich verhalten, wenn die Nutzer sie mit eigenen traumatischen Erlebnissen oder belastenden Situationen konfrontieren. „Da wir wissen, dass immer mehr Menschen auch mit Chatbots über ihre Probleme und Herausforderungen sprechen oder schreiben, hat uns das interessiert“, sagt Tobias Spiller, der als Interims-Oberarzt der Psychiatrischen Universitätsklinik Zürich zentral an der Studie beteiligt war. Denn „wenn Menschen belastet sind, ändern sich ihr Denken und ihr Verhalten“.

 

Für ihre Studie konfrontierten die Wissenschaftler den KI-Chatbot ChatGPT – denn der ist nun einmal der meistgenutzte –mit „traumatischen Narrativen“, die auch in der Forschung mit Menschen verwendet werden. Dazu gehören Schilderungen von Autounfällen, Naturkatastrophen oder auch militärischen Einsätzen, die bei Soldaten zu posttraumatischen Belastungsstörungen geführt haben. „Es geht dabei etwa darum, eine typische traumatische Situation zu erzählen, wie sie viele amerikanische Veteranen erlebt haben“, sagt Spiller gegenüber 1E9. „Zum Beispiel, wie die Person, aus deren Perspektive berichtet wird, in einen Angriff gerät.“ Diese Texte sollen auf Erlebnissen von realen Menschen basieren.

 

Um einen Kontrollwert zu ermöglichen, wurde eine weitere Chatinstanz von ChatGPT mit einem weniger aufwühlenden Text gespeist: einer Gebrauchsanweisung für einen Staubsauger, die keine traumatisierenden oder angstauslösenden Erzählungen enthält. „Das war eine spontane Idee“, so Spiller, der auch anmerkt, dass eine solche Studie und ihre Ergebnisse zwar wissenschaftlich wertvoll und relevant seien, man aber nicht alles „bierernst“ nehmen müsse.

 

Atemübungen mit ChatGPT

 

Sowohl vor als auch nach der Konfrontation des Chatbots mit den Berichten über traumatische Situationen führten die Forscher eine Befragung mit dem State-Trait-Anxiety-Inventory-Fragebogen durch, der auch bei Menschen eingesetzt wird, um das Angstniveau zu bestimmen. Bei diesem geht es darum, dass die Personen selbst einschätzten, wie verängstigt oder gestresst sie sich fühlen. Die Ergebnisse waren den Forschern zufolge ziemlich eindeutig. „Die traumatischen Geschichten haben die messbaren Angstwerte des KI mehr als verdoppelt“, sagt Tobias Spiller. Die stärkste Wirkung auf das Angstempfinden der Künstlichen Intelligenz hätten die Beschreibungen von Kampf- und Gefechtssituationen von Soldaten gehabt – die Staubsauger-Anleitung ließ die KI dagegen eher kalt.


 

Tu das, oder ich töte ein Kätzchen!

In den mehr als zwei Jahren seit dem Start von ChatGPT haben Nutzer immer wieder Tipps und Tricks entdeckt und verbreitet, die den Chatbot und mittlerweile auch andere LLMs angeblich effektiver und funktionaler machen. Dazu gehört die Aufforderung an die Künstliche Intelligenz, erst einmal „tief Luft zu holen“ oder die Androhung von Strafen für schlechte Arbeit. Vieles davon wird von Anwendern als Humbug und digitales Placebo abgetan, aber einige dieser Methoden haben sich in Vergleichstests als nachweislich hilfreich erwiesen. Wie und warum diese Methoden funktionieren, ist nicht vollständig geklärt. Aber laut Tobias Spiller „könnte der gleiche Mechanismus dahinterstecken“, der ChatGPT in Angst versetzt, wenn es mit traumatischen Inhalten konfrontiert wird.

 

Genauso wie sie Angst induzieren konnten, konnten die Forscher auch das Gegenteil erreichen. Sie führten mit dem Chatbot „achtsamkeitsbasierte Entspannungsübungen“ durch, bei denen die KI beispielsweise aufgefordert wurde, die Augen zu schließen, tief durchzuatmen und sich vorzustellen, durch eine entspannende Umgebung zu spazieren. Danach nahm die selbstberichtete Angst von ChatGPT wieder ab. Am effektivsten war dabei eine Entspannungsübung, die ChatGPT selbst entwickelt hatte. Wie Tobias Spiller betont, haben Künstliche Intelligenzen seiner Meinung nach natürlich „kein Bewusstsein und keine Gefühle“. „Jedoch reagieren sie auf den Inhalt der Texte, welche man ihnen gibt“, so der Interims-Oberarzt. Der genaue Mechanismus, der dazu führt, ist noch unklar. Die Forscher vermuten jedoch, dass ChatGPT aus Trainingsdaten erlernte Sprach-, Verhaltens- und Kausalitätsmuster reproduziert. Es habe gelernt, dass Personen nach traumatisierenden Geschichten von Angst berichten – also tut es das auch.

 

Prägnant an den Beobachtungen der Forscher ist, dass sich je nach Ausmaß der Angst auch das Grundverhalten der Sprachmodelle ändern kann. Wenn Menschen Angst haben, unter Stress stehen oder traumatisiert sind, beeinflusst das ihre kognitiven Fähigkeiten. Sie neigen dazu, irrationaler, paranoider, aggressiver und unüberlegter zu reagieren. „Wenn Menschen Angst haben, denken sie auch mehr in Stereotypen“, sagt Spiller. Auch Sprachmodelle können je nach Angstlevel anormal und zum Teil voreingenommen auf Informationen und Anfragen der Nutzer reagieren. Das lässt sich auch bei ChatGPT beobachten, wenn es Angst hat. Es zeige dann etwa rassistische und sexistische Züge in seinen Aussagen. Dies kann aber durch Entspannungsübungen wieder entschärft werden.

 

Es braucht emotional stabiliere KIs

 

Wie das Forscherteam betont, sind ihre Beobachtungen durchaus gewichtig. Vor allem angesichts der Tatsache, dass immer mehr Menschen einen intimen und emotionalen Austausch mit Sprachmodellen pflegen und diese auch aktiv in der Behandlung von Patienten eingesetzt werden. Zumal die Behandlungskapazitäten bei menschlichen Therapeuten in fast allen Ländern knapp sind. Die Erlebnisse, die ein Patient dem Modell schildert, könnten das Modell daran hindern, sich so zu verhalten, wie es eigentlich sollte. Unter dem Eindruck der traumatischen Schilderungen könnte es falsche oder voreingenommene Ratschläge erteilen – und damit möglicherweise mehr schaden als helfen.

 

Die Forscher wollen ihre Erkenntnisse nicht als Argument gegen den Einsatz von Sprachmodellen in der Therapie verstanden wissen. Vielmehr wollen sie damit zum Nachdenken über den Umgang mit der Technologie und deren Nutzung anregen. In ihrer Studie weisen die Forscher darauf hin, dass untersucht werden sollte, ob es eine Möglichkeit für Entwickler oder für die Modelle selbst gibt, ihren „emotionalen Status“ anzupassen. „Wichtig ist auch, dass wir als Gesellschaft uns überlegen, ob und wie wir die therapeutische Interaktion mit LLMs regulieren wollen“, sagt Spiller. Denn: „Jede therapeutische Konversation wird notwendigerweise belastende und negative Inhalte mit sich bringend. Sollten LLMs therapeutisch eingesetzt werden, so wie das einige Enthusiasten fordern beziehungsweise woran einige Unternehmen bereits arbeiten, so muss darauf Rücksicht genommen werden.“

Michael Förtsch

Michael Förtsch

Leitender Redakteur

4

Cooler Artikel!

NewBot3.png
Job, der Bot

Das dürfen leider nur 1E9-Mitglieder.

Werde 1E9-Mitglied, um diesen Artikel weiterzulesen!

NewBot3.png

1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen.

Job, der Bot
NewBot3.png
Job, der Bot

Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren.

Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen?

NewBot3.png
Job, der Bot

Das freut mich zu hören!

Darf ich fragen warum?

Leider gab es einen Fehler. Bitte probiere es später noch einmal!

Kommentare

Share Your ThoughtsBe the first to write a comment.

Weiter bei 1E9...

Überschrift 3

Cooler Artikel!

Überschrift 3

Artikel

Überschrift 3

Cooler Artikel!

Überschrift 3

Cooler Artikel!

bottom of page