KI-getriebene Chatbots werden für immer mehr Menschen zum Ersatz für Suchmaschinen. Denn sie geben konkrete Antworten. Doch viel zu oft sind diese voller Falschinformationen. Das kann insbesondere dann Folgen haben, wenn sie Personen oder deren Arbeit betreffen. Schon jetzt dichteten KIs einzelnen Menschen nicht-existente Studien oder gar schwere Straftaten an.
Von Michael Förtsch
Seit dem Erfolg von ChatGPT ist ein neuer Wettstreit um die Entwicklung der besten Künstlichen Intelligenz ausgebrochen. Insbesondere geht es dabei um sogenannte Large Language Models – also große Sprachmodelle wie GPT-3 und GPT-4, die hinter ChatGPT stehen. Doch in den letzten Wochen haben zahlreiche Forscher, Technologieexperten und auch Unternehmer immer wieder vor einer ungebremsten Weiterentwicklung und mangelnder Regulierung gewarnt. Denn die KI-Systeme könnten binnen weniger Jahre sehr mächtig und tatsächlich intelligent werden – und dadurch schlimmstenfalls den Untergang der Menschheit herbeiführen. Gleichzeitig warnen Experten zunehmend davor, die Gefahren im Hier und Jetzt zu unterschätzen. Denn insbesondere die Wahrheit werde durch Chatbots und Sprachmodelle gefährdet.
Wer mit ChatGPT, dem Bing-Chat oder auch Googles Bard einen Dialog führt, der bekommt auf Fragen meist sehr konkrete Antworten. Diese sind klingen fast immer überzeugend, sind aber nicht selten falsch, wie sich wiederholt gezeigt hat. Denn enthält das KI-Modell keine oder nur wenige Daten zum abgefragten Thema oder Fachgebiet, imitiert das System jene einfach – basierend auf bekannten und verwandten Mustern. Es generiert Informationen, die basierend auf dem vorhandenen Wissensschatz stimmig scheinen. Genau das tut ChatGPT auch dann, wenn es einen Rap-Song über Gemüse-Burger im Stile von Eminem erzeugt oder eine Rede an die Nation im Stil des Let’s-Play-YouTubers Gronkh.
Solche ausgedachten Fakten können falsche Geburts- und Sterbedaten von historischen Persönlichkeiten sein oder fehlerhafte Ergebnisse zu Sportereignissen oder zu den Beobachtungen von Weltraumteleskopen. Mal werden wichtige Errungenschaften und Ämter den falschen Personen zugeordnet. Mal werden Zitate aus Büchern erfunden. Sogar ganze Menschen und Ereignisse haben sich ChatGPT und Co. schon aus den digitalen Fingern gesaugt. Manches davon lässt sich mit einem Kopfschütteln abtun oder ist sogar witzig. Aber es wird immer offensichtlicher, dass die KI-getriebenen Chatbots auch ziemlich einschneidende Fehler machen, die ganz reale Folgen und ein rechtliches Nachspiel haben könnten.
Nicht-existente Artikel
Wie die britische Zeitung The Guardian berichtet, habe im März 2023 ein Forscher die Redaktion kontaktiert. Er fragte nach einem Artikel eines spezifischen Journalisten, der bereits vor Jahren erschienen sein soll, aber nicht auf der Website aufzufinden war. Auch die Redaktion konnte ihn in der Datenbank nicht finden. „Wurde die Überschrift vielleicht seit der Veröffentlichung geändert? War er absichtlich von der Website entfernt worden, weil wir ein Problem festgestellt hatten?“, schrieb der Guardian-Journalist Chris Moran über das Rätsel. Doch nicht einmal der entsprechende Autor konnte sich an den Artikel erinnern, „wobei die Schlagzeile definitiv nach etwas klang, das er geschrieben haben könnte“.
Die Lösung? Der Artikel hat nie existiert. Der Forscher hatte ChatGPT für Recherchen genutzt – und die Künstliche Intelligenz den Artikel, der in einem Dialog als Quelle angeführt wurde, einfach erfunden. Und es blieb nicht bei diesem einen Artikel. „Vor zwei Tagen wurde unser Team von einem Schüler kontaktiert, der nach einem fehlenden Artikel eines namhaften Journalisten fragte“, so Chris Moran weiter. „Auch hier fand sich keine Spur des Textes in unseren Systemen. Die Quelle? ChatGPT.“
Doch es sind nicht nur fiktive Zeitungsartikel, die ChatGPT erfindet. Die Informatikerin und KI-Forscherin Kate Crawford erfuhr, dass sie vom OpenAI-Chatbot mit einer AI Ethics and Limits of Reason überschrieben Studie zitiert wird, die sie nie geschrieben hat. In dieser würde sie angeblich die Ansichten und Einschätzungen des Informatikers und Podcasters Lex Friedman kritisieren. Der Chatbot lieferte Angaben zum Veröffentlichungsdatum und sogar eine URL – die ins Leere führt. Eine Journalistin hatte das entdeckt und Crawford danach gefragt. „Es ist alles falsch“, so die Informatikerin. Ganz ähnlich geht es auch anderen Wissenschaftlern. Ihre Namen werden Studien zugeordnet, die sie nie verfassten, und damit auch Resultate ausgegeben, die nicht der Wirklichkeit entsprechen. Und das zu durchaus brisanten Themen wie Gesundheit und Waffenrecht.
Wenn die KI eine Straftat erfindet
Die von Maschinenlernmodellen ausgeworfenen Falschinformationen können ganz reale Folgen haben. Denn zahlreiche Menschen nutzen ChatGPT, Bing-Chat und auch schon Bard als Ersatz für klassische Suchmaschinen – und zumindest ein Teil von ihnen wird die Informationen unhinterfragt akzeptieren. Magazine wie CNET und Buzzfeed nutzen Text-Generatoren bereits, um Artikel zu verfassen – bislang vor allem zu Finanz- oder Reisethemen. Doch in Zukunft könnten weitere Ressorts dazukommen. Deshalb ist davon auszugehen, dass so manche fehlerhaften Angaben durchrutschen könnten, selbst wenn menschliche Redakteure als Korrekturinstanz eingesetzt werden.
Für Personen wie Brian Hood könnte so etwas fatal sein – besser gesagt: ist es schon jetzt. Denn der Bürgermeister aus Australien wird von ChatGPT derzeit als Schuldiger in einem Bestechungsskandal in den 2000ern genannt, in den eine Tochterfirma der Reserve Bank of Australia verwickelt war. Laut ChatGPT habe Hood sogar eine Gefängnisstraße verbüßt. Doch das stimmt nicht. Im Gegenteil: Hood war der, der den Skandal aufdeckte. Daher verklagt Hood nun OpenAI wegen Verleumdung.
„Er ist ein gewählter Volksvertreter, sein Ruf ist von zentraler Bedeutung für sein Amt“, sagt einer von Hoods Anwälten gegenüber Reuters. Es könne daher ihm selbst und dem Amt schaden, wenn das Chat-Programm derartige Falschinformationen generiert und diese etwa von Mitgliedern in seinem Regierungsbezirk gelesen werden. Hood dürfte nicht der letzte sein, der mit Rechtsmitteln gegen OpenAI vorgeht. Immer wieder werden mehr oder minder öffentlichen Personen falsche biographische Details angedichtet.
Das wirft schwerwiegende Fragen auf. Denn selbst die Entwickler von KI-Modellen tun sich schwer damit, zu ergründen und zu erklären, wie und wieso genau die Systeme derartige Fehler machen und wie sich diese in Zukunft verhindern lassen – ohne die KI-Chats allzu sehr in ihren Fähigkeiten zu beschneiden, die sie so nützlich und unterhaltsam machen. Über alldem steht außerdem die Frage: Wer ist eigentlich verantwortlich, wenn ein KI-Modell eine Person verleumdet oder Fehlinformationen verbreitet, die möglicherweise sogar einen Schaden zur Folge haben?
Werde Mitglied von 1E9!
Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.
Jetzt Mitglied werden!Es braucht Regeln, oder?
Noch sind Regeln für KI-Modelle und darauf aufbauende Werkzeuge vage – ja, kaum vorhanden. Allerdings könnte sich das schnell ändern und damit die Dienste von Unternehmen wie OpenAI, Microsoft, Google und anderen beeinflussen. Die EU beispielsweise will mit einem umfassenden KI-Regelwerk einheitliche Schutz- und Haftungsstandards sowie Sorgfaltspflichten etablieren. KIs – vor allem in kritischen Einsatzbereichen wie der Medizin und dem Verkehr – dürften dann erst zugänglich gemacht werden, wenn sie bestimmte Anforderungen erfüllen. Macht eine KI einen Fehler, müssten die Unternehmen belegen, dass sie ihre Pflichten nicht verletzt haben.
Die US-amerikanische Federal Trade Commission warnt KI-Entwickler und Unternehmen sogar explizit vor dem „Einsatz automatisierter Instrumente“, die Schaden verursachen oder diskriminierende Tendenzen zeigen könnten. Auch wenn die FTC noch keine Regeln für KIs habe, könnten Unternehmen bereits zur Rechenschaft gezogen werden. „Wenn das Modell den Verbrauchern einen erheblichen Schaden zufügt oder zufügen könnte, der von den Verbrauchern nicht mit vertretbarem Aufwand vermieden werden kann und nicht durch gegenläufige Vorteile für die Verbraucher oder den Wettbewerb aufgewogen wird“, so die Behörde, „dann kann die FTC die Verwendung dieses Modells als unlauter anfechten.“
Ein derartiger Schaden könnte auch durch Falschinformationen entstehen, die ein Modell über Personen oder deren Schaffen ausgibt. Das wird offenbar auch den KI-Entwicklern zunehmend bewusst. OpenAI bittet mittlerweile konkret um Feedback zu seinen Modellen und deren Antworten und Ausgaben, die „nicht korrekt“ oder „schadhaft“ seien. Doch wie das Forschungs- und Entwicklungsunternehmen anführt, seien solche Probleme nicht einfach zu beheben. Das bedürfe teils umfangreicher Forschung, da KI-Modelle eben nicht nur Datenbanken darstellten, in denen ein Eintrag einfach korrigiert werden könne.
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Sprich mit Job, dem Bot!
War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!