Ein US-Entwickler nutzte den Text-Generator GPT-3 offenbar für ein fragwürdiges Menschenexperiment

Der Co-Gründer eines US-Non-Profit-Unternehmens, das Hilfe bei mentalen Problemen und Krisen anbietet, hat ein Experiment durchgeführt. Er ließ einen Chatbot die Antworten auf die Fragen von Hilfesuchenden formulieren. Es ist unklar, ob sich die Nutzer wirklich darüber im Klaren waren, dass sie mit einer Maschine chatteten.

Von Michael Förtsch

Derzeit sorgt der KI-getriebene Chatbot ChatGPT für Staunen und zahlreiche Debatten. Das Textwerkzeug basiert auf dem KI-Model GPT-3, das mit Milliarden von Texten trainiert wurde und für Entwickler bereits seit längerem über eine Schnittstelle zur Verfügung steht. Zahlreiche Wissenschaftler und Start-ups erproben die Möglichkeiten und haben GPT-3 beispielsweise in Spiele wie AI Dungeon integriert oder lassen das KI-Werkzeug Texte und Programmiercode schreiben. Ein Entwickler namens Rob Morris hat nun eine ethisch zweifelhafte Anwendung getestet. Er ließ GPT-3 Menschen in mentalen Krisensituationen helfen – offenbar, ohne, dass sie wussten, dass sie mit einer Maschine kommunizieren.

Wie Rob Morris in einem Twitter-Thread ausführt, führte er das Experiment mit Koko durch, einer von ihm mitgegründeten Non-Profit-Organisation, die eine Krisen- und Notfall-Hilfe für Menschen bereitstellt. Über die Chat-Plattformen Telegram und Discord können Menschen um Hilfe und Gespräche bitte – oder selbst anderen beistehen. Wie Morris sagt, ging es ihm bei dem Experiment darum, mit GPT-3 „effizienter und effektiver“ zu werden. Denn GPT-3 könne ebenfalls Menschen beraten, ihnen Tipps und Hilfestellungen geben.

Der Entwickler integrierte GPT-3 über eine Schnittstelle in Discord. Insgesamt habe die KI rund 30.000 Nachrichten mit 4.000 Menschen ausgetauscht, die über Koko um Hilfe und Beistand in schwierigen Lebenslagen oder mentalen Krisensituationen suchten. Laut Morris wurden die Chats mit der KI von den Nutzern „höher bewertet als jene, die von Menschen geschrieben“ wurden. Koko-Helfer hätten den Austausch der Nachrichten allerdings moderiert und überwacht. Sie hätten die generierten Texte weitergeben, umformulieren oder erneut generieren können.

Ethisch verwerflich?

Die Interaktion mit den Chatbot-Nachrichten soll höher und der Austausch deutlich schneller gewesen sein. Die Nutzer wussten aber offenbar nicht, dass sie es auch mit einem Bot zu tun hatten. Erst im Nachhinein wären sie aufgeklärt worden, wie Morris in seinem ursprünglichen Twitter-Thread zum Experiment nahelegt. „Als die Menschen erfuhren, dass die Nachrichten von einer Maschine erzeugt wurden, funktionierte es nicht mehr“, resümiert Morris die Hilfestellungen durch GPT-3. „Simulierte Empathie fühlt sich seltsam und leer an.“ Aus diesem Grund sei GPT-3 mittlerweile wieder aus der Chat-Hilfe-Plattform entfernt worden.

Das Experiment stieß im Internet auf viel Kritik. Als „unethisch“, „gruselig“ und „monströs“ wurde es auf Twitter bezeichnet. Als Reaktion darauf twitterte Rob Morris einige „Klarstellungen“ über das Experiment, die seinen ursprünglichen Aussagen jedoch widersprechen. Wie Morris in diesem Nachtrag schreibt, wären Nutzer doch nicht ohne ihr Wissen mit GPT-3 als Helfer verbunden worden. Es habe eine Opt-in-Funktion gegeben. Aber wie diese die Nutzer konkret informierte oder aufklärte, beschreibt er nicht.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

„Wir wollten herausfinden, ob [die Helfer] dadurch effektiver werden würden […] Die Nutzer des Dienstes haben nicht direkt mit der KI gechattet“, so Morris. Auf Nachfragen zu den sich widersprechenden Aussagen ging Morris nicht ein. Auch auf eine Interviewanfrage von 1E9 mit einigen Fragen reagierte er bislang nicht. Wie der Entwickler resümiert, sei es möglich, dass „echtes Einfühlungsvermögen etwas ist, das wir Menschen als etwas Einzigartiges schätzen können“. Empathie sei vielleicht die einzige Sache, bei der eine Maschine niemals einen Menschen ersetzen kann.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

3 „Gefällt mir“