Wurden Wissenschaftsmagazinen Studien untergeschoben, die von Künstlichen Intelligenzen verfasst wurden?

Ein Wissenschaftler aus Frankreich ist auf ein mysteriöses Phänomen gestoßen. In zahlreichen Fachmagazinen entdeckte er Studien, die mit merkwürdigen Synonymen für etablierte IT-Fachbegriffe durchsetzt waren. Seine Vermutung: Diese Texte wurden mit einer Künstlichen Intelligenz verfasst.

Von Michael Förtsch

Tagtäglich werden von Wissenschaftlern zahlreiche neue Studien zu den verschiedensten Fachgebieten und Themen veröffentlicht. Nicht wenige davon sind für normale Menschen eher schwer verständlich, weil sie mit abstrakten Worten, Fachbegriffen und ungewöhnlichen Formulierungen durchsetzt sind. Dennoch wunderte sich der IT-Forscher Guillaume Cabanac von der University of Toulouse als er im Frühling 2020 auf mehrere wissenschaftliche Artikel stieß, die mit sonderbaren Wortkonstruktionen gespickt waren – mit welchen, die offenbar als Synonyme für eigentlich etablierte Begriffe aus der Welt der Computerwissenschaften gedacht sind.

Statt dem Begriff „big data“ stand in den Artikeln „colossal information“, statt „artificial intelligence“ „counterfeit consciousness“, statt „voice recognition“ „discourse acknowledgement“ oder statt „cloud computing“ „haze figuring“. Wer sich in die Artikel einliest, der kann erahnen, was mit diesen Begriffen gemeint ist. Aber Guillaume Cabanac kamen diese „gequälten Phrasen“, wie er sie nannte, nicht nur merkwürdig vor, sondern auch interessant. Insbesondere da sie recht plötzlich in einer ziemlich großen Häufung zu finden waren. Gemeinsam mit einigen Kollegen konnte er über 800 Studien mit diesen Wortkonstruktionen in verschiedensten wissenschaftlichen Fachblättern ausfindig machen. Alleine 30 Artikel entdeckte Cabanac im Magazin Microprocessors and Microsystems.

Das Gros der Artikel stammt, wie die Forscher in einer eigenen Abhandlung festhalten, aus China und Indien. Aber nicht nur. Und sie wurden von den Machern der Fachblätter offenbar nicht oder zumindest nicht gründlich geprüft, wie die Wissenschaftler nach ihrer Recherche festhalten. Aber wo kommen die Artikel nun eigentlich her? „Während die angenommen niedrigen redaktionellen Standards erklären könnten, wie Texte mit gequälten Phrasen veröffentlicht werden konnten“, schreiben die Wissenschaftler, „ist die Art und Weise, wie sie überhaupt zu Stande kamen, noch mysteriös.“

Aber das Forscherteam hat eine Idee. „Es erscheint unwahrscheinlich, dass ein erfahrener Wissenschaftler eine nicht standardisierte Terminologie verwendet, um bekannte Konzepte in seinem Fachgebiet zu bezeichnen“, argumentieren die Forscher. Sie glauben daher, dass nicht ein Mensch, sondern eine Maschine die Texte verfasst hat. Womöglich haben nicht ganz so renommierte und ethisch nicht ganz korrekte Wissenschaftler die Studien anderer Wissenschaftler plagiiert und versucht, dies mit Übersetzungssoftware zu verschleiern. Wer einen deutschen Text beispielsweise mit Google Translate ins Englische übersetzt und dann wieder ins Deutsche, wird diesen kaum wieder erkennen können. Eine weitere Möglichkeit sei, dass eine Software oder ein Online-Dienst genutzt wurde, um bestehende Texte umzuformulieren oder neu zu verfassen – beispielsweise QuillBot.

Verstehe, was die Zukunft bringt!

Als Mitglied von 1E9 bekommst Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 2,50 Euro im Monat!

Jetzt Mitglied werden!

Noch eine Option: Die Texte sind gänzlich mit Text-Generatoren produziert worden. Beispielsweise dem von OpenAI entwickelten GPT-3 oder einer vergleichbaren KI-Software. „Textgeneratoren werden seit mehr als einem Jahrzehnt zur Erstellung gefälschter wissenschaftlicher Arbeiten verwendet. Solche unsinnigen Arbeiten werden sowohl von Menschen als auch von Maschinen leicht erkannt“, schreiben die Forscher. Aber: „Inzwischen produzieren komplexere KI-gestützte Technologien Texte, die von menschlichen Texten nicht mehr zu unterscheiden sind.“ Beweisen können die Forscher ihre Annahme noch nicht, aber die Indizien sind da. Daher hoffen sie, ein Bewusstsein bei den Verlegern und Redaktionen von Fachblättern für „solche fragwürdigen KI-generierten oder umgeschriebenen Texte“ zu schaffen. Denn diese „bedrohen die Integriert der wissenschaftlichen Fachliteratur“.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Teaser-Bild: Getty Images

3 „Gefällt mir“