Der US-Geheimdienst Central Intelligence Agency nutzt Künstliche Intelligenz, um einflussreiche Politiker zu simulieren, mit ihnen zu chatten und ihr Verhalten vorherzusagen. Das klingt nach Science Fiction, soll aber laut Forschern erschreckend gut funktionieren. Als Basis für den CIA-Chatbot soll die Technologie etablierter KI-Firmen dienen.
Von Michael Förtsch
In den vergangenen Jahren hat Künstliche Intelligenz zahlreiche große Entwicklungssprünge gemacht und dabei Nutzer, Entwickler und selbst KI-Forscher immer wieder überrascht. Insbesondere sogenannte generative KI-Modelle haben gezeigt, dass sie erlernte Muster mit erstaunlicher Präzision reproduzieren können. Sei es, dass sie Gedichte im Stil bekannter Autoren, Gemälde mit den Pinselstrichen berühmter Künstler oder sogar Songs erfolgreicher Bands reproduzieren. Genau das macht sich seit einiger Zeit auch einer der größten und einflussreichsten Geheimdienste zunutze. Laut einem Bericht der New York Times simuliert die Central Intelligence Agency – kurz CIA – mit Hilfe Künstlicher Intelligenz die Führungspersönlichkeiten verschiedener Länder.
Der Geheimdienst soll dabei auf die gleiche Technologie zurückgreifen, die hinter Chatbots wie ChatGPT, Claude oder Gemini steckt. Es handelt sich dabei um große Sprachmodelle oder LLMs, die aus riesigen Datenmengen aufgebaut werden: Nachrichtenmeldungen, Bücher, akademische Abhandlungen und so ziemlich alles, was sich im Internet finden lässt. Die Entwicklung der CIA-KI soll vor zwei Jahren begonnen und von William J. Burns, dem ehemaligen CIA-Chef, aktiv vorangetrieben worden sein. Er hatte stark auf die technische Modernisierung des Geheimdienstes, auf Technologieinvestitionen in Millionenhöhe und die Adaption von cutting edge technology gedrängt. Nicht zuletzt aufgrund der rasanten Entwicklung KI-basierter Werkzeuge in China.
Wie der Artikel der New York Times andeutet, soll die CIA den Chatbot nicht komplett alleine entwickelt haben. Vielmehr habe sie als Grundlage auf Modelle bereits etablierter Privatunternehmen im Bereich der Künstlichen Intelligenz zurückgegriffen und diese für die eigenen Zwecke angepasst und weiterentwickelt. Das habe es dem Geheimdienst ermöglicht, das Projekt „schnell und kostengünstig“ umzusetzen, wie CIA-Technologiedirektor Nand Mulchandani im Gespräch mit der US-Zeitung sagt. Welche Unternehmen hier mit dem Geheimdienst kooperierten haben, wird bewusst nicht verraten.
Technologie aus der Privatwirtschaft
Der Chatbot der Central Intelligence Agency soll vor allem von Geheimdienstanalysten genutzt werden. Die Agenten können mit simulierten Versionen ausländischer Präsidenten, Premierministern und anderen führenden Persönlichkeiten chatten, ihnen Fragen stellen und sie um Einschätzungen bitten. Das soll ihnen helfen, die Sicht der politischen Entscheidungsträger auf Ereignisse in den USA und der übrigen Welt zu verstehen und mögliche Reaktionen zu antizipieren. Wie würde zum Beispiel der chinesische Präsident Xi Jinping reagieren, wenn Donald Trump, anders als sein Vorgänger Joe Biden, Taiwan keine Militärhilfe mehr zusagen würde? Oder was würde Olaf Scholz sagen, wenn die USA ankündigen, nicht mehr Teil der NATO sein zu wollen?
Die Gespräche sollen ähnlich funktionieren wie ein Dialog mit ChatGPT oder simulierten Charakteren auf Character.AI. Allerdings sollen die Antworten der simulierten Staats- und Regierungschefs auf hochkomplexen Profilen basieren, die ihre Persönlichkeit, ihre Entscheidungsfindung sowie ihre persönlichen Neigungen, ihr politisches Engagement und ihre emotionalen Eigenheiten widerspiegeln. Die Profile sollen auf einer Fülle von öffentlichen Daten wie Interviews, Reden und anderen Auftritten basieren. Auch geheime Informationen, die zum Beispiel von Spionen gesammelt oder durch Hacks und Leaks erbeutet wurden, sollen einfließen.
Die Verhaltensvorhersage ist seit Jahrzehnten eine der Kernkompetenzen der Central Intelligence Agency. Denn ihre Aufgabe besteht nicht nur in der Informationsbeschaffung, sondern auch in der gezielten Einflussnahme im Ausland. Deshalb beschäftigt der Geheimdienst zahlreiche Psychologen und Profiler, die versuchen, die Psyche einflussreicher Personen zu analysieren, ihre Denkweisen zu verstehen und Manipulationsansätze zu finden. Es ist nicht zu erwarten, dass Chatbots diese menschlichen Seelendeuter allzu schnell ersetzen. Allerdings haben KI-Modelle bereits gezeigt, dass sie erstaunlich gut darin sind, in scheinbar belanglosen Informationen relevante Zusammenhänge zu entdecken, zu verknüpfen und private Informationen zu rekonstruieren.
Werde Mitglied von 1E9!
Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.
Jetzt Mitglied werden!Auch ChatGPT ist ein guter Profiler
Erst Ende 2024 sorgte ein Prompt für ChatGPT auf Plattformen wie Reddit für Aufsehen, der den Chatbot in die Rolle eines CIA-Profilers schlüpfen lässt. Seine Aufgabe: ein detailliertes Profil des Nutzers zu erstellen. Dieses kam nach Meinung einiger Nutzer der Realität – oder zumindest deren Selbstbild – erschreckend nahe. Ein Eindruck, den eine Studie der Cornell University bestätigte. Demnach sind Sprachmodelle durchaus in der Lage, Personen nach einem ausführlichen Gespräch in Bezug auf Offenheit, Extrovertiertheit, Gewissenhaftigkeit und anderen Persönlichkeitsmarkern einzuschätzen.
Diese Fähigkeit kann bei KI-Chat-Plattformen wie ChatGPT und Gemini noch verstärkt werden. Denn diese verfügen mittlerweile über ein digitales Gedächtnis, in dem bestimmte Informationen während der Nutzungsdauer festgehalten werden können, wenn die Funktion nicht bewusst deaktiviert wird. ChatGPT kann sich beispielsweise Informationen über den Familienstand, Haustiere, Vorlieben, Termine, Allergien, Abneigungen und Interessen merken. Auch Angaben des Benutzers, wie ChatGPT mit ihm interagieren soll – etwa ein eher formeller oder eher informeller Ton – können gespeichert werden.
Eine Forschungsinstitutionen übergreifende Studie kam sogar zu dem Schluss, dass KI-Modelle als „generative Agenten“ bei ausreichender Information die Persönlichkeit eines Menschen simulieren können – wie es eben die CIA versucht. Dazu wurden mit mehr als 1.000 Personen zweistündige Interviews geführt und auf deren Basis von LLMs digitale Zwillinge generiert. In späteren Frage-Antwort-Runden konnten die KI-Personen die Antworten ihrer realen Vorbilder in 85 Prozent der Fälle korrekt vorhersagen. Die Forscher sehen in den großen Sprachmodellen daher ein „neues Werkzeug, um individuelles und kollektives Verhalten“ zu untersuchen.
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Sprich mit Job, dem Bot!
War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!