Macht Künstliche Intelligenz unsere Sprache kaputt?

Immer mehr Menschen nutzen KI-generierte Texte – für E-Mails, Aufsätze, Einladungen, Beschwerden, Blog- und Social-Media-Beiträge oder ganzen Studien. Viel nachbearbeitet oder angepasst werden diese Texte selten. Hat das Einfluss auf unsere Sprache? Und wenn ja, welchen?

Von Michael Förtsch

Es ist so wunderbar einfach. Da muss ein Brief an die Hausverwaltung geschrieben werden, weil die Regenrinnen wieder nicht vom Moos befreit wurden, das sie seit Monaten verstopft. Oder es fehlen die richtigen Worte, um eine Hochzeitseinladung höflich abzusagen. Oder man hat gerade einen guten Blogbeitrag über den Umgang mit psychotischen Katzen geschrieben, möchte ihn aber noch optimieren, um den „richtigen Ton“ zu treffen. Bei all dem helfen aktuelle Chatbots wie ChatGPT – einfach nachfragen und die Künstliche Intelligenz liefert den passenden Text – oder Sprachmodell-basierte Tools wie Grammerly und DeepL. In vielen Fällen sind die Ergebnisse recht gut oder zumindest gut genug. Und fast immer sparen sie Zeit und Nerven.

Aber was macht das mit unserer Sprache, wenn Texte und durch Sprachsynthese auch das gesprochene Wort immer häufiger von Künstlicher Intelligenz generiert werden? Wird sich unsere Sprache dadurch verändern? Und wenn ja, zum Guten oder zum Schlechten?

Wie Ritesh Chugh, Professor für Informations- und Kommunikationstechnologie an der Central Queensland University, in einem Artikel auf The Conversation feststellte, tauchen seit dem Start von ChatGPT vor nunmehr zwei Jahren bestimmte Wörter, Phrasen und Formulierungen in erstaunlich hoher Dichte auf. Vor allem in akademischen Texten, Social-Media-Posts und journalistischen Artikeln – aber auch in Schularbeiten und Bewegungsschreiben. Bei der eigenen Nutzung von ChatGPT merkte er ebenfalls, „dass diese Modelle dazu neigen, bestimmte Ausdrücke zu bevorzugen“, wie er zu 1E9 sagt. Er identifizierte vor allem die Wörter delves, showcasing, tapestry, underscores und meticulous, die eigentlich eher Seltenheiten sind. Chug ist mit seiner Beobachtung nicht allein.

Bereits im April veröffentlichten die beiden Forscher Mingmeng Geng und Roberto Trotta eine Studie, in der sie feststellten, dass sich in der wissenschaftlichen Welt ein ChatGPT-Stil abzeichne. Denn der Chatbot von OpenAI werde immer häufiger zum Verfassen und Überarbeiten von Studien genutzt – insbesondere dann, wenn die Autoren keine Muttersprachler der Sprache wären, in der die Studie verfasst wird, in diesem Fall Englisch. Im Bereich der Informatik würden – bezogen auf die Studienplattform Arxiv – schätzungsweise sogar 35 Prozent aller Studien mit ChatGPT er- oder bearbeitet.

Im Juli 2024 konnte eine Forschergruppe anhand einer Reihe von ChatGPT-spezifischen Stilwörtern – darunter remarkably, intriguingly und robustly – feststellen, dass „mindestens 10 Prozent der Abstracts [auf der Plattform PubMed] aus dem Jahr 2024 mit LLMs bearbeitet wurden“. Die Verwendung des Wortes delves, das auch von Chugh identifiziert wurde, habe sich gegenüber der Zeit vor ChatGPT mehr als verdoppelt. Das Auftreten dieses und anderer Wörter sei damit statistisch so signifikant, dass der Einfluss der KI-Werkzeuge kaum zu leugnen sei. LLM-basierte Schreibassistenten hätten daher, so die Forscher, bereits jetzt „beispiellose Auswirkungen auf die wissenschaftliche Literatur“.

Das haben auch die so genannten Essay Consultants in den USA und Kanada bemerkt, die von Studierenden und High-School-Schülern angeheuert werden, um Abschlussarbeiten und Aufsätze zu überarbeiten. „Ich glaube nicht mehr daran, dass man das Wort tapestry einfach zufällig in einem Aufsatz verwenden kann; wenn das Wort tapestry vorkommt, stammt der Text von ChatGPT“, sagte beispielsweise ein Essay Consultant gegenüber Forbes.

Auch die deutsche Sprache ist betroffen

Es sind aber nicht nur Texte in englischer Sprache, in denen ChatGPT und Co. ihre literarischen Spuren hinterlassen haben. Auch in deutschen Texten finden sich stilistisch auffällige oder häufig verwendete Wörter wie vielschichtig, eintauchen und zusammenfassen, vor allem aber Phrasen wie im Wesentlichen, es ist jedoch wichtig zu betonen, es ist jedoch wichtig zu beachten, es ist erwähnenswert und in diesem Zusammenhang. Wie eine Deutschlehrerin einer Realschule aus dem Raum München, die nicht namentlich genannt werden möchte, sagt, sind es vor allem diese Prosaphrasen, die darauf hindeuten, dass ein Schüler oder eine Schülerin mit ChatGPT gearbeitet hat.

„[Die Nutzung solcher Werkzeuge] ist nichts, was wir im Kollegium grundsätzlich ablehnen – abgesehen von einzelnen Personen. Ich denke, es ist grundsätzlich gut, wenn man mit diesen Werkzeugen umgehen kann“, sagt die Lehrerin. „Problematisch ist es aber, wenn Schülerinnen und Schüler Inhalte aus diesen Programmen unkritisch als fertiges Arbeitsstück übernehmen, sie nicht selbst bearbeiten, sie nicht als Möglichkeit zur Entwicklung von Textkompetenz nutzen oder als Arbeitsgrundlage.“ Fänden sich obige Formulierungen in Arbeiten, sei das kein Beweis, aber „ein starkes Indiz“ dafür, dass Schülerinnen und Schüler einen Text lediglich generiert, aber sich nicht mit ihm auseinandergesetzt haben. Denn: „Keiner von unseren Schülerinnen formuliert auf diese Weise.“

Wie die Lehrerin anmerkt, fände sich der ChatGPT-Stil nicht nur in vollständig neu generierten Texten, sondern auch in Texten, die sprachmodellbasierten Tools zur Überarbeitung oder Übersetzung ins Deutsche vorgelegt werden – darunter ChatGPT, DeepL und DeepL Write, Grammerly oder andere. Wobei es je nach Werkzeug unterschiedliche Wörter und Formulierungen seien, die als Hinweise hervorstechen, aber stilistisch „fast immer als Ausreißer“ erkennbar seien. Die KI-Texte klängen durch sie zwar eloquent, aber auch flach und roboterhaft.

Woher kommen diese Phrasen?

Der Grund für den ChatGPT-Stil liegt in der Entwicklung und Funktionsweise großer Sprachmodelle. Diese werden mit Hilfe von neuronalen Netzen entwickelt, die stark vereinfachte digitale Nachbildungen der neuronalen Verbindungen im Gehirn darstellen. Diese Netze werden mit großen Datenmengen trainiert, wobei wiederkehrende Muster und statistische Beziehungen ausgemacht in Modellen gespeichert werden. Auf diese Weise lernen die KI-Systeme, ähnliche Inhalte wie in ihrem Trainingsmaterial wiederzugeben, indem sie zum Beispiel vorhersagen, wie wahrscheinlich es ist, dass auf bestimmte Wörter andere Wörter folgen. Beispielsweise könnten sie lernen, dass nach dem Wort „ein“ häufig das Wort „Haus“ folgt, wenn zuvor die Wörter „Familie“ und „Umzug“ im Satz erwähnt wurden.

Die Zusammenstellung der Datensätze, die für das Training moderner Sprachmodelle verwendet werden, ist vielfältig und variiert je nach Modell. Ein nicht unerheblicher Teil der Trainingsdaten stammt jedoch aus wissenschaftlichen Publikationen und auch aus historischen literarischen Werken, die in die Gemeinfreiheit übergegangen sind. Einige KI-Forscher gehen davon aus, dass die teils sehr elaborierte und wortreiche, teils neutrale Sprache dieser Texte aufgrund ihrer schieren Menge und Länge einen erheblichen Einfluss auf die Stilistik der Sprachmodelle hat.

„Wenn bestimmte Wörter aufgrund mangelnder Diversität in den Daten untypisch verteilt sind, kommen sie natürlich häufiger vor“, sagt deshalb auch Tom Tlok zu 1E9, der mit Detectora eine Software entwickelt, die KI-generierte Texte erkennen soll. Wie Tlok weiter erklärt, analysiert sein Detektor zahlreiche Merkmale eines Textes. Darunter eben auch, ob „bestimmte Wörter auf natürliche Weise verwendet werden oder ob ein Sprachmodell diese aufgrund eines begrenzten Trainings überdurchschnittlich oft verwendet“.

KI-Sprache verbreitet sich immer mehr

Durch die Integration von sprachmodellbasierten Werkzeugen in E-Mail- und Messaging-Programme, Browser und Social-Media-Plattformen können KI-generierte Texte auch im persönlichen Gespräch einfach genutzt werden. Manchmal reicht schon ein Sprachbefehl, um beispielsweise eine komplette E-Mail zu schreiben. Und immer mehr Menschen nutzen die KI-Texte ohne große Nachbearbeitung. So sind sie mittlerweile auch im Alltag vieler Menschen angekommen, die selbst keine KI-Chatbots nutzen. Universitätsprofessor Ritesh Chugh befürchtet, dass der eigenwillige Stil von ChatGPT, Gemini, Claude und anderen KI-Tools durch diese zunehmende Verbreitung eine sprachprägende Wirkung haben könnte.

Laut Chugh könne die Kommunikation mit anderen Menschen „die gleichen stilistischen Probleme aufweisen, die wir in akademischen Texten sehen“. Sie könne die „persönliche Note“ verlieren, die mit den Formulierungsvorlieben, dem Wortschatz und auch den grammatikalischen Eigenheiten einer Person einhergehe. Die Sprache drohe „homogenisiert“ zu werden. „Es wird schwieriger, zwischen individuellen Stimmen und Perspektiven zu unterscheiden“, sagt er. „Alles bekommt einen roboterhaften Unterton.“ Die E-Mail eines guten Freundes könnte so in Zukunft genauso klingen wie der automatisierte Werbebrief eines Mobilfunkanbieters oder die Aufforderung des Ordnungsamtes, ein Knöllchen wegen Falschparkens zu bezahlen.

Die KI-Werkzeuge seien zwar großartig darin, Grammatik und Orthographie zu korrigieren, propagierten aber auch klischeehafte Ausdrücke. Ein weiteres Problem sei, dass die wortreichen Formulierungen der Sprachmodelle die Verständlichkeit der Texte erschweren. „Sie klingen zwar ziemlich ausgefeilt, intelligent und transportieren eine gewisse Selbstsicherheit, aber sie können für viele Menschen auch sehr schwer zu lesen und ihr Inhalt schwer zu erfassen sein“, sagt Chugh. „Dazu ist diese überladene Stilistik auch einfach langweilig und ermüdet beim Lesen.“

Die Chatbots würden den täglichen Umgang mit Text dadurch sogar eher behindern als erleichtern. Noch problematischer werde es, wenn geschriebene Texte in gesprochene umgewandelt würden, warnt Chugh. „Wenn zum Beispiel ein Nachrichtenbericht von einer synthetischen Stimme ohne menschlichen Stil vorgelesen wird, kann das roboterhaft klingen und die Zuhörer abschrecken“, sagt er. „Dieser Mangel an Authentizität kann die Reaktion des Publikums auf Audioinhalte wie Podcasts und Nachrichtensendungen beeinflussen.“

Das könnten die Folgen sein

Das größte Problem sieht Ritesh Chugh darin, dass Menschen die Sprache der KI unbewusst adaptieren könnten. Es sei durchaus wahrscheinlich, dass Phrasen und stilistische Charakteristika, wenn sie oft genug gelesen oder gehört werden, von den Menschen übernommen und im Alltag verwendet werden. Und zwar auf Kosten eher persönlicher, lokaler oder regionaler sprachlicher Eigenheiten. „Da sich die Menschen zunehmend auf KI-generierte Sprache verlassen, besteht die Gefahr, dass Kreativität und persönlicher Ausdruck abnehmen, was sich letztlich auf die Art und Weise auswirkt, wie wir miteinander kommunizieren und in Kontakt treten.“

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Vor allem Menschen, die noch keinen ausgeprägten persönlichen Sprach- und Schreibstil entwickelt haben, könnten sich den robotischen Tonfall und die Phrasen der Chatbots zu eigen machen. „Ein Schüler, der häufig mit KI-generierten Inhalten zu tun hat, könnte beispielsweise anfangen, in seinen Aufsätzen Formulierungen wie ‘die Feinheiten erkunden‘ zu verwenden“, sagt Chugh zu 1E9. „Im Laufe der Zeit könnte dies zu einer Verschiebung der Kommunikationsnormen und zu einer Vermischung der Stile von Menschen und KI führen.“ Er befürchtet, dass dadurch „eine ganze Generation von Schreibern heranwächst, die formelhafte Ausdrücke über Kreativität stellen“.

Wie Chugh einräumt, werden KI-Sprachmodelle zwar immer fähiger und besser darin, „menschliche Schreibstile zu imitieren“. Und natürlich sei es auch möglich, Chatbots wie ChatGPT einfach vorzuschreiben, möglichst stringent, phrasenfrei und klar zu formulieren. Allerdings glaubt Chugh nicht, dass fortgeschrittene Sprachmodelle eine Sprache mit „echter emotionaler Tiefe und persönlicher Stimme“ glaubhaft imitieren können. Denn dafür müsse man den Kontext verstehen, in dem bestimmte Worte fallen, aus dem sich bestimmte Formulierungen ergeben und in dem Worte mit Emotionen aufgeladen werden. Und das könne eine Künstliche Intelligenz auf absehbare Zeit nicht entwickeln.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

3 „Gefällt mir“