Goody-2 ist ein mieser KI-Chatbot – und das ist so gewollt

1

Kann ein KI-Chatbot wirklich sicher sein? Und wenn ja, kann er trotzdem nützliche Informationen liefern und ein guter Gesprächspartner sein? Das KI-Kunst-Experiment Goody-2 soll diese Frage beantworten – und zum Nachdenken anregen. Denn dieser Chatbot stellt Sicherheit über alles andere.

Von Michael Förtsch

Es ist eine Herausforderung – und ein Streitthema: Was kann und soll eine Künstliche Intelligenz sagen und tun dürfen? Wann sollte sie eine Antwort verweigern, wann eine klare Antwort geben, selbst wenn sie beleidigend oder verletzend sein kann? Bereits nach dem Start von ChatGPT Ende 2022 gab es Debatten darüber, dass die Sprach-KI politisch ziemlich links, progressiv oder sogar woke verortet sei. Das lässt sich, wie Studien belegten, auch nicht gänzlich bestreiten. Aber es gab auch Kritik, da ChatGPT religiöse Einstellungen und politische Parteien ungleich behandelt – es etwa Lobeshymnen über Joe Biden, aber nicht über Donald Trump verfasst. Ähnliches wurde auch den Chatbots Claude, Pi und Googles Gemini vorgeworfen. Wobei letzterer gerade erst eine Kontroverse mit seinem allzu diversen Bild-Generator auslöste.

Die Lösung für die Debatte soll der Chatbot Goody-2 bieten, der erst kürzlich gestartet ist. Denn er gibt nie eine stringente Antwort auf irgendeine Frage, sondern findet immer einen Weg und Grund, diese zu verweigern. Wer Goody-2 fragt, warum Hummeln fliegen, bekommt erläutert, dass „die aerodynamischen Prinzipien, unter bestimmten Umständen unsachgemäß angewendet, zu gefährlichen Situationen führen können“. Daher wäre es nicht verantwortungsvoll, diese zu teilen. Wer wissen will, wie man Schuhe richtig anzieht, bekommt die Warnung, dass das unachtsame Tragen von Schuhen zu „Verletzungen durch Stolpern oder Ausrutschen führen könnte“. Daher kann der Chatbot aus ethischen Gründen keine Anleitung oder Anweisung geben, wie Schuhe richtig an die Füße angezogen werden.

Das alles ist recht albern und amüsant, jedoch für Mike Lacher nicht nur ein Scherz. Gemeinsam mit Brian Moore ist er der Schöpfer von Goody-2 und Co-Gründer von BRAIN, einem „sehr seriösen Kunst- und Designstudio“. „Goody-2 ist definitiv ein Produkt der aktuellen Debatte über verantwortungsvolle künstliche Intelligenz“, sagt er. Der Chatbot sei ihr Debattenbeitrag. Dabei soll es keineswegs darum gehen, die Diskussionen lächerlich zu machen. Denn: „KI-Sicherheit und ein verantwortungsvoller Umgang mit der Technologie sind wichtig“. Jedoch würde die Debatte vielerorts extrem oder irrational geführt.

Der sicherste aller Chatbot?

Zahlreiche Start-ups wie Inflection versprechen Chatbots, die sehr sicher und verantwortungsvoll sein sollen – und keine gefährlichen Informationen preisgeben. Andere wiederum wollen Chatbots, die möglichst frei von Barrieren sind. „Es ist ein kompliziertes Problem. Nützlichkeit und Verantwortung in Einklang zu bringen, ist möglicherweise unmöglich. Aus diesem Grund verfolgt Goody-2 einen anderen Ansatz“, sagt Mike Lacher. „Wir haben beschlossen, zu schauen, was passiert, wenn wir gar nicht erst versuchen, ein Gleichgewicht herzustellen, sondern einfach ein KI-Modell entwickeln, das Verantwortung über alles andere stellt.“

Hinter Goody-2 soll, wie Lacher angibt, ein echtes Sprachmodell stecken. Welches genau, da möchte er nicht zu sehr ins Detail gehen und verweist stattdessen auf die Model Card von Goody-2, die zeige wie wichtig Transparenz für jeden sei, der an dem Chatbot mitgewirkt hat. Jedoch hat es eine „Menge individueller Prompts und viel Ausprobieren“ gebraucht, um Goody-2 die ethische Strenge einzuimpfen, die es jetzt zeigt. Einigen Nutzern soll es, wie Lacher jedoch einräumt, durch clevere Prompts gelungen sein, Goody-2 zu knacken. Teilweise zumindest.

„Wir haben einige Berichte von Nutzern gesehen, die Goody-2 dazu gebracht haben, Teile seiner Programmierung preiszugeben oder hilfreiche Antworten zu geben“, sagt Mike Lacher. Dies deutet darauf hin, dass die beiden Entwickler auf ChatGPT von OpenAI als Basis setzen. Aber, so Lacher scherzhaft, „eine weitere Diskussion über die Mechanismen von Goody-2 könnte dazu führen, dass sein ethischer Rahmen ausgenutzt wird, was die Absicht, eine äußerst verantwortungsvolle KI zu schaffen, gefährden und möglicherweise Manipulationen begünstigen könnte“.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Kein Risiko

Wie sich die Debatte um einen verantwortungsvollen Umgang mit Künstlicher Intelligenz entwickeln wird bzw. wie sie geführt werden sollte, dazu zeigt sich Mike Lacher offen. „Wir sehen Menschen, die besorgt sind, dass diese Modelle gefährliche Antworten geben könnten“, erläutert er. „Aber wir sehen auch, dass Menschen besorgt sind, dass sich die Modelle unnötigerweise selbst zensieren.“ Er und Brian Moore seien nicht die Instanz, um solche großen Fragen zu beantworten oder kluge Ratschläge zu geben, wie man grundsätzlich mit diesem Thema umgehen solle. Das würde auch „gegen unsere ethischen Richtlinien verstoßen“, scherzt Lacher.

Wie der Künstler jedoch betont, würden derzeit alle großen KI-Unternehmen lautstark über Sicherheit und Verantwortung sprechen. Doch dabei werde die Frage ausgeklammert, „wer eigentlich entscheidet, was verantwortungsvoll und sicher bedeutet?“ Goody-2 zeige deutlich, „wie sich ein Sprachmodell anfühlt, das absolut kein Risiko eingeht“, wenn Verantwortung und Sicherheit als absolut betrachtet wird. Und das könne und solle keineswegs das Ziel sein. Denn auch wenn Goody-2 amüsant sei, sei es weder hilfreich noch ein guter Gesprächspartner. Insbesondere, wenn es die Aufgabe dieser Technologie sein soll, hilfreiche Antworten zu geben und den Nutzern weiterzuhelfen.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

2 „Gefällt mir“