ChatGPT: Brauchen wir für KI-Chatbots eine neue Medienkompetenz?

Der intelligente Chatbot ChatGPT verblüfft mit seinen Fähigkeiten. Er schreibt Lieder, liefert Fakten und kann sogar komplexe Texte zusammenfassen. Aber er erzählt auch viel Unsinn und erfindet Informationen. Braucht es daher eine neue Medienkompetenz und ein kritisches KI-Denken, wenn diese digitalen Werkzeug in unseren Alltag vordringen?

Von Michael Förtsch

Understatement ist eine Tugend. Fragt man den von OpenAI entwickelten KI-Chatbot ChatGPT nach seiner Bedeutung dann versucht er, diese herunterzuspielen. „Ich bin Assistant, ein Sprachmodell von OpenAI, und ich bin nicht darauf ausgelegt, die Welt zu verändern“, schreibt das Programm. „Ich wurde entwickelt, um Nutzern bei der Beantwortung von Fragen und dem Erledigen von Aufgaben zu helfen.“ Ein Werkzeug sei das Programm, das „dazu beitragen kann, die Effizienz und die Genauigkeit von Aufgaben zu verbessern, die mit der Verarbeitung von Text und Sprache zu tun haben“. Als Revolution mag sich ChatGPT nicht bezeichnen, aber es könne „die Art und Weise, wie Menschen Informationen bearbeiten und Probleme lösen, verbessern.“

Dass ChatGPT mit dieser bescheidenen Selbsteinschätzung richtig liegt, daran haben zumindest so einige Technologiebeobachter und Nutzer mittlerweile ihre Zweifel. Denn der Chatbot hat sich binnen kürzester Zeit zum Phänomen entwickelt. Und das nicht von ungefähr. Seine Fähigkeiten und sein Wissen verblüffen. ChatGPT kann Rap-Songs im Stil von Eminem zu einem vorgegebenen Thema texten, Programmiercode liefern, Rezepte erstellen, beim Zusammenbau eines PCs mit einer Schritt-für-Schritt-Anleitung helfen und sogar ganze Aufsätze zu fachspezifischen Themen schreiben – vom amerikanischen Weißkopfseeadler bis hin zur Kernfusion.

Sogar Nachfragen sind möglich – denn ChatGPT verfügt über eine Art digitales Kurzzeitgedächtnis, kann Bezüge zu früheren Chat-Eingaben erkennen und einen Kontext erfassen. Ist ein Antworttext zu lang oder hat ChatGPT einen Aspekt übersehen, der unbedingt enthalten sein sollte, kann man einfach eine Nachfrage stellen und schon liefert das Programm. Aber vor allem: ChatGPT wirkt in der direkten Konversation weitaus weniger wie eine Maschine als es bisherige Chatbots oder auch KI-Assistenten wie Siri oder Google Assistant tun. ChatGPT versteht in vielen Fällen, was gemeint ist und was der Nutzer vor dem Bildschirm von ihm will. Das ist schon enorm. Und erst langsam zeigt sich, was ChatGPT alles leisten kann.

Der Entwickler OpenAI hat, um das zu ermöglichen, das hinter dem Chat-Programm stehende Sprachmodell GPT-3 mit Milliarden von Texten trainiert. Es lernte dadurch die statistischen Zusammenhänge natürlicher Sprache, den Aufbau von Texten, aber auch Fakten und Informationen und welche Relevanz diese in welchen Zusammenhängen haben. Die Frage ist nun: Was bedeutet das alles?

Nicht nur ein Spielzeug!

Seit dem Start von ChatGPT wird mit dem Werkzeug kreativer Humbug getrieben. Schüler und Studierende zeigen auf TikTok, wie sich die Entwicklung von OpenAI nutzen lässt, um Hausaufgaben und Studienarbeiten zu schreiben – und wie sich die Chatbot-Herkunft mit anderen KI-Tools clever verschleiern lässt – wobei mittlerweile Tools existieren, die dem entgegenwirken könnten. YouTuber lassen sich von ChatGPT einfache Skripte zu Alltagsthemen texten, die sie dann mit Werkzeugen zur Erstellung digitaler Avatare in eine Videoform überführen, um Werbegeld der Videoplattform abzugreifen. Und bereits dutzende Male haben Tech-Redakteure in Experimenten herausgefunden, dass es für Leser nicht so einfach ist, einen von einem Menschen geschriebenen Text von einem ChatGPT-Text zu unterscheiden.

Erste Lehrkräfte an Schulen und Universitäten prophezeien das Ende von Hausaufgaben und Doktorarbeiten. ChatGPT würde Schülern und Studierenden in vielen Bereichen die eigene Recherche abnehmen oder sogar das Lesen von Lern- und Studienmaterial überflüssig machen. „Du kannst ganze akademische Arbeiten einfügen und das Programm bitten, sie zusammenzufassen“, sagt etwa Ethan Mollick von der University of Pennsylvania auf Twitter. „Es ist dieser Multiplikator an Fähigkeiten, den wir, glaube ich, noch nicht ganz verstanden haben, der absolut überwältigend ist.“ Die Chat-KI des 2015 von einer Gruppe um den Investor Sam Altman und Tesla-Chef Elon Musk gegründeten Non-Profit-Unternehmens OpenAI könnte die Art und Weise, wie Menschen an Informationen kommen, also nachhaltig prägen.

Nicht suchen, sondern fragen, könnte die Zukunft sein. Das alarmiert auch Google – insbesondere, da Microsoft bereits angekündigt hat, das System in seine Bing-Suche und andere Produkte zu integrieren und Milliarden in OpenAI zu investieren. Dabei greift ChatGPT derzeit nicht einmal auf das Internet zu, sondern weiß lediglich das, mit dem es einst trainiert wurde – Textinhalte, die bis ins Jahr 2021 hineinreichenn. Darüber hinaus besitzt ChatGPT kein Wissen über die Welt und Geschehnisse. Aber auch so kommt es bereits dem sehr nahe, was Google seit Jahren als Vision ausgibt: Irgendwann eine digitale Maschine bereitstellen, die nicht eine Liste von möglichen Antworten und Quellen auf eine Suche liefert, sondern eine konkrete Antwort.

Erst der Anfang

Bereits in diesem Frühjahr will OpenAI GPT-4 präsentieren, den Nachfolger des Modells auf dem ChatGPT aufbaut. Und der soll seinen Vorgänger in nahezu allen Aspekten übertreffen. Das Modell soll mehr wissen, mehr verstehen und elaborierter und dynamischer formulieren, heißt es von jenen, die behaupten, sie hätten bereits einen Blick darauf werfen können. Es sei fähig, ganze Bücher zu schreiben. Schon jetzt lässt sich mit ziemlicher Sicherheit feststellen, dass digitale Antwort- und Gesprächsmaschinen wie ChatGPT alsbald zu einem integralen Bestandteil unseres Alltags werden. Nicht nur, um damit witzige oder kreative Texte zu generieren, sondern um konkrete Antworten auf akute Fragen zu bekommen, zu recherchieren und uns im tagtäglichen Leben zu unterstützen.

Das dürfte aber nicht ohne Probleme und Herausforderungen sein – sowohl für die Entwickler als auch für die Gesellschaft. Die Architektur und Funktionsweise von ChatGPT und verwandten Systemen weist Begrenzungen und Fallstricke auf, die noch nicht gänzlich erkundet sind. Alleine schon, da die Art und Weise, wie ein solches KI-System die ihm vorgelegten Informationen analysiert, interpretiert und speichert nur begrenzt nachvollziehbar und rekonstruierbar ist. Es lässt sich also bisher nicht sagen, ob und wieso eine Künstliche Intelligenz ihre Texte formuliert, wie sie es tut, warum sie bestimmte Informationen heranzieht oder weglässt. Erst jetzt beginnen Wissenschaftler Wege zu finden, um das Lernen und Arbeiten von Maschinen transparenter zu gestalten.

Trotz der maschinellen Überzeugungskraft und Selbstsicherheit, mit der ChatGPT uns Informationen präsentiert, müsste eigentlich jede Antwort mit einer grundlegenden Skepsis betrachtet werden. Es gibt bereits zahlreiche Beispiele, die das untermauern. Unter anderem glaubt ChatGPT offenbar dann und wann, dass Elefanten die größten Eier legen; scheitert daran, mathematische Theorien zu erklären und geht offenbar davon aus, dass jemand ein weißer Mann sein muss, um einen guten Wissenschaftler abzugehen. Und wird ChatGPT gebeten, einen Artikel mit Quellenangaben zu versehen, liefert er diese – aber alle davon sind fiktiv, sie wirken lediglich überzeugend. Selbst Zitate erfindet das Chat-Programm zuweilen. Das ist ein Phänomen, das als Halluzination bezeichnet wird und dessen Ursprung immer noch umstritten ist.

ChatGPT selbst schreibt auf eine Nachfrage, dass „man nicht erwarten [sollte], dass ChatGPT immer die richtigen Antworten liefert“, und merkt an, dass „ChatGPT nur ein Computerprogramm ist und keine menschliche Intelligenz besitzt. Es kann keine Empathie oder kritisches Denkvermögen zeigen.“ Dennoch werden wohl zahlreiche Menschen den Aussagen von ChatGPT und vergleichbaren Projekten ihren Glauben schenken; sie als vertrauenswürdige Quelle ansehen. Auch, weil sie in vielen Fällen wohl einfach die korrekten Antworten und Informationen liefern. Wirklich problematisch wird das, wenn solche Systeme genutzt werden, um automatisiert Artikel, Nachrichtenmeldungen oder Fachbücher zu verfassen. Die eigentlich clevere Künstliche Intelligenz könnte dadurch Fehlinformationen und Halbwahrheiten in die Welt setzen. Aber nicht nur das.

Ein Modell, wie es hinter ChatGPT steht, ist zwar groß, umfasst jede Menge Wissen und Informationen. Aber dennoch ist es vergleichsweise homogen und entwickelt sich – zumindest bislang – nur in festen Versionssprüngen. Es bildet einen sehr begrenzten Status in einer sich rasch entwickelnden Welt ab. Vom Überfall der Ukraine durch Russland hat die aktuelle Version von ChatGPT noch nie etwas gehört und findet daher, dass „sowohl Russland als auch die Ukraine berechtigte Bedenken“ zur Politik ihres Nachbarn haben. Der FTX-Gründer Sam Bankman-Fried ist zudem „für seine Expertise im quantitativen Handel und sein Engagement in der Kryptowährungsbranche“ bekannt.

Dazu liefert ChatGPT auf eine Frage oft eine einzige und im Kern wiederkehrende Antwort, eine einzige Wahrheit – auch wenn, diese eindimensional oder falsch sein mag. Anders als Google, das mit seinen Suchergebnissen – noch – mehrere Quellen und damit auch Sichtweisen präsentiert. Das, befürchten einige Forscher und Kritiker, könnte den gesellschaftlichen Diskurs, die Wissensgesellschaft und die Meinungsvielfalt schädigen, wenn denn ChatGPT und ähnliche Programme sich wirklich durchsetzen sollten. Es würde die Notwendigkeit, sich aus mehreren Quellen zu bedienen und zu informieren schmälern.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Brauchen wir eine neue Medienkompetenz?

Einige der derzeitigen Probleme von Systemen wie ChatGPT könnten sich lösen lassen, indem der Künstlichen Intelligenz der Zugriff auf das Internet beziehungsweise einen Index desselben ermöglicht wird. Sie könnten so auf aktuelle Fragen eine Antwort liefern und Informationen abfragen, die nicht im zentralen Modell vorhanden sind. Aber das würde wiederum neue Probleme und Fragen aufwerfen. Unter anderem, ob und wie ein Programm wie ChatGPT die Inhalte von Websites gewichten, werten und verifizieren könnte, bevor sie für Antworten an die Nutzer verwertet werden. Könnte ein KI-System zuverlässig eine Satire erkennen oder eine Verschwörungstheorie als ebensolche identifizieren? Wie könnte verhindert werden, dass solche Systeme versehentlich private Daten akkumulieren?

Ebenso ist offen, wie ein KI-Chatbot mit ethischen, moralischen oder auch weltanschaulichen Fragestellungen umgehen sollte – insbesondere, wenn er weltweit genutzt werden kann. Seine Auffassungen stellen schließlich eben nur jene der Kulturen, Gesellschaften und Zeiten dar, mit deren Schriften er trainiert wurde. Schon jetzt ist ChatGPT ein behelfsmäßiger Inhaltsfilter vorgeschaltet, der verhindert, dass das System beispielsweise Hilfestellung bei Verbrechen oder illegalen Aktivitäten gibt oder Weltanschauungen beleidigt. Auf manche Fragen antwortet ChatGPT auch nur ausweichend – etwa, wenn es um den Status von Taiwan, die Zukunft von Hong Kong unter chinesischer Führung oder religiöse Praktiken geht. Auch mag das Chat-Programm keine Argumente für die Nutzung fossiler Brennstoffe niederschreiben. Letzteres sei laut OpenAI-Chef Sam Altman jedoch nicht beabsichtigt.

Geht es nach Altman, müsste noch mehr Forschung und Entwicklung in ChatGPT fließen. Letztlich solle es „in einem sehr weiten Rahmen“ das liefern, was die Nutzer anfragen und so funktionieren, wie sie es erwarten. Doch das ist mit viel Verantwortung verbunden. Wie sich an den vorher genannten Beispielen zeigt, könnten auch zahlreiche ideologische Debatten um eine solche Antwortmaschine entbrennen. Sollte ein ChatGPT bestimmte Antworten lieber nicht geben, weil sie kontrovers und unangenehm sein könnten? Sollte es sich bei bestimmten Fragen einer klaren Antwort verweigern, auch wenn eine solche möglich wäre? Und wer trägt die Verantwortung für die Antworten eines solchen Systems, das letztlich eine Essenz eines riesigen Berges an mensch-gemachten Informationen darstellt?

Ohne Zweifel werden ChatGPT und wohl auch andere große KI-Sprach-Modelle unsere Zivilisation stark prägen. Sie sind eine disruptive und kreative Kraft. Sie werden verändern, wie wir suchen, Antworten finden, lernen und wie wir uns mit großen und kleinen Themen auseinandersetzen. Vor allem in Schulen und Universitäten wird ein Umdenken stattfinden müssen. Der gekonnte Umgang mit solchen Werkzeugen wird zu einer wichtigen Fähigkeit erwachsen. Ebenso wie das Einschätzen, Gewichten und Einordnen der Ergebnisse, die diese liefern. Sie fordern eine neue Art digitaler und medialer Kompetenz und eine Fähigkeit zur kritischen Rezeption.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

7 „Gefällt mir“

„Brauchen wir für KI-Chatbots eine neue Medienkompetenz?“ … Puh, eine große Frage die ihr da stellt.

Die Antwort ist eigentlich ganz klar: Ja! Unbedingt!

Aber diese klare Antwort ist nicht so ganz ohne und vor allem nicht so einfach. Im Großen und Ganzen ist unsere Gesellschaft in Sachen Medienkompetenz irgendwo zwischen Gutenberg und „Bild Zeitung“. Währen die Medien in der Zeit etwa die Entwicklung von Feuerstein zu Mondrakete zurückgelegt hat.

Das hat sehr viel mit Märchen, und wie wir damit umgehen, zu tun. Gutenberg ist unter anderem dafür bekannt, dass er das Märchenbuch „Bibel“ für alle (die lesen konnten) verfügbar gemacht hat. Die „Bild Zeitung“ ist dafür bekannt, Märchen zu aktuellen Begebenheiten zu erzählen. Und die KIs erfinden Märchen, die sie sich aus den Informationen zusammen klauben, die ihnen eingegeben wurden.

Das einfach gestrickte Gemüt ist geneigt, die Märchen zu glauben. Das hinterfragt nicht, das brabbelt nach, das handelt entsprechend. Das ist betrüblich und schlimm. Das ist aber auch Realität.

Der kritische Geist fängt an zu hinterfragen und stellt ganz schnell Diskrepanzen zwischen Märchen und dem eigenen Erleben fest. Da steht nämlich kein Gelähmter auf(1). Und da wird weder aus Wasser Wein, noch aus einem Picknickkorb ein Mahl für 5000(2). Und es stimmt auch nicht alles was in der „Bild Zeitung“ steht. Tatsächlich stimmt da sogar nur recht wenig.

Bei Bibel und „Bild Zeitung“ ist es heute recht einfach zu recherchieren, was ist richtig, was ist falsch.

So eine KI, die ist ein bisschen kleverer. Der stehen genug Quellen zur Verfügung. Die zieht dich über den Tisch ohne dass du es merkst. Und, was noch viel entscheidender ist, ohne dass du es nachprüfen kannst.

Ja, da ist unbedingt eine neue Medienkompetenz nötig.

4 „Gefällt mir“