Schauen wir Moonfall und lassen uns zu Tode erschrecken: Für bessere Software – oder wenigstens bessere KI

Politiker sollten sich den neuen Roland Emmerich Streifen Moonfall definitiv anschauen, findet unsere Science-Fiction- und Cybersicherheits-versierte Kolumnistin @Kryptomania. Klar, der Film mag etwas albern und stellenweise langweilig sein, aber er erfüllt aus ihrer Sicht doch einen höheren Zweck: Er ermahnt uns, Künstliche Intelligenz rechtzeitig zu regulieren.

Eine Kolumne von Dr. Aleksandra Sowa

Megastrukturen. Die Chinesische Mauer ist eine. Laut Wikipedia zählen auch die Reisterrassen der philippinischen Kordilleren dazu. Doch viel häufiger als im realen Leben kommen Megastrukturen in der Theorie vor. Es handelt sich dabei um Objekte, deren Größe nicht in Metern, sondern in Megametern bzw. Tausenden von Kilometern gemessen wird. So scheint es naheliegend, dass (theoretische) Megastrukturen im Kosmos, im Weltall, konzipiert oder vermutet werden, wo sie anders als auf der Erde genug Platz für ihre Dimensionen besitzen. Wikipedia unterteilt Megastrukturen in orbitale und transorbitale, wobei diese in planetarer oder stellarer Größe vorliegen können. Zu Letzteren, also den vom kleineren Umfang, gehört die Dyson-Schale (auch Dyson-Sphäre genannt), die man beispielsweise aus der Science-Fiction-Serie Star Trek kennt. Von den theoretischen zu den fiktiven Megastrukturen ist es nur ein Katzensprung: Das Konzept der Megastrukturen ist in der Science-Fiction beliebt.

Kann der Mond auch eine Megastruktur sein? Unbedingt, meint Dr. K. C. Houseman in dem aktuellen Katastrophenfilm Moonfall des Regisseurs und Produzenten Roland Emmerich, den man auch solche Juwelen der Kinematografie wie Independence Day verdankt. Mit seiner Theorie hatte Dr. Houseman leider nicht viel Glück. Bei der NASA hätte er beinahe einen Job als Hausmeister ergattert – und seinen aktuellen Job in einer Reinigungsfirma für eine Universität missbraucht er dazu, an Daten über den Mond zu kommen. Diesen Datenblättern entnimmt er eines Tages (Achtung, Spoiler!), dass der Mond, nach Milliarden Jahren stiller Existenz als natürlicher Satellit der Erde, seinen Orbit verlassen hat und sich auf die Erde zubewegt. Und das relativ schnell.

Wie es bei verkannten Genies oft vorkommt, will Dr. Houseman, der eigentlich kein Doktor ist, zuerst niemand glauben bis auf ein paar Follower in sozialen Medien und eine kleine Gruppe von Verschwörungstheoretikern. Insbesondere die NASA streitet alles ab. Doch die hat im Film über Jahrzehnte Fakten zu den Aktivitäten auf den Mond verschleiert hat. Ihr Direktor räumt sogar eiligst seinen Posten, als die Daten für die bevorstehende Kollision der beiden Astralkörper doch bestätigt werden, und flüchtet in die Berge, um sich mit seiner Familie ein paar schöne Momente zu gönnen. Ein Happy End gibt es dennoch: Ein ehemaliger Astronaut, eine ehemalige Pilotin und nolens volens Direktorin der NASA sowie der besagte Dr. Houseman retten die Erde und bringen den Mond wieder in seinen Orbit. Vorher müssen die Titelhelden jedoch gegen das US-Militär, das alles in die Luft sprengen möchte, eine böse Künstliche Intelligenz (KI), schlechtes Wetter und eine Reihe weiterer Hindernisse kämpfen – und dies mithilfe eines ausgemusterten Raumschiffs aus einem Museum (vgl. Battleship ).

Der Mond als künstliche Megastruktur

Dr. Houseman wird durch seinen Einsatz für die Erde und zur Bestätigung der Korrektheit seiner Theorien zum Teil des Betriebssystems des Mondes. Denn der Mond ist, das hat man eigentlich schon lange geahnt, eine künstliche Megastruktur. Erbaut wurde er von einer guten KI, die wiederum von unseren Vorfahren – Menschen – in einer weit entfernten Galaxis beauftragt wurde, das Leben an einem sicheren Ort (in unserem Sonnensystem), weitab der bösen KI, entstehen zu lassen. Gute und böse KI sind in Moonfall leicht optisch voneinander zu unterscheiden.

Während die nette Megastruktur geordnet ist und aus mechanischen Ringen, die offenbar den newtonschen Regeln folgen, besteht und von einem (virtuellen) Betriebssystem gesteuert wird, das die Menschen als eine gute, zu schützende Spezies erkennt, ist die böse KI als ein Schwarm organisiert. Sie ist dunkel, bedrohlich sowie unberechenbar ist, bewegt sich schlangen- oder wurmartig und vernichtet alles, was auf eine Verbindung von Biomasse mit Elektronik hindeutet (z. B. Menschen mit Handys). Beide KIs, das erfährt man aus der Erläuterung des Betriebssystems des Mondes, wurden von Menschen erschaffen, die der irdischen Zivilisation weit voraus waren. Warum ist die eine KI böse geworden? Durch das Erlangen des Bewusstseins. Sie wandte sich gegen ihren Schöpfer und vernichtete ihn.

Moonfall beweist vor allem eins: Emmerichs Art des Katastrophen-Erzählens ist ausgereizt“, urteilten die Kritiker des NDR, „Das Immer-Noch-Spektakulärere kippt nun vollends ins Lächerliche. Weder kann, noch möchte man den abstrusen Mond-Entstehungs-Theorien dieses Films folgen. Und wenn planetare Verwüstungsbilder nur noch langweilen, dann ist der Katastrophenfilm wohl eher eine Film-Katastrophe.“ Dem ist entschieden zu widersprechen. Abstrus? Vielleicht. Langweilig? Ein bisschen. Aber nicht, wenn man den Film als eine Metapher betrachtet. Ähnlich, wie man den die Erde ansteuernden Kometen aus Don’t Look Up als eine Parallele zur Klimakatastrophe interpretiert. Zwar ist ein Szenario, bei dem der Mond auf die Erde fällt, nicht sehr wahrscheinlich. Auch die Tatsache, dass der Mond eine Megastruktur außerirdischer Herkunft ist, können wir bis auf Weiteres nicht beweisen. Doch eine böse KI – die kann uns durchaus passieren. Und das in nicht allzu ferner Zukunft.

Du hast Lust auf Zukunft?

Dann bist du bei 1E9 richtig. Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Konstruktiver Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du außerdem exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Schützt uns die Ampel vor Moonfall?

Vielleicht braucht es nicht mal mehr zwei Superhelden von der NASA und einen Verschwörungstheoretiker, um der Katastrophe entgegenzuwirken. Als sich vor einigen Jahren einige Menschen die Frage stellten, wer dafür verantwortlich wäre, wenn eine, sagen wir, von Facebook oder Google programmierte Künstliche Intelligenz Amok laufen und die Menschheit ausradieren würde, reagierte das Bundesministerium des Innern mit einem entsprechenden Eintrag in der Cyber-Sicherheitsstrategie für Deutschland 2016: „Vorgaben für eine angemessene Verteilung der Verantwortlichkeiten und Sicherheitsrisiken im Netz zum Beispiel durch Produkthaftungsregeln für IT-Sicherheitsmängel und Sicherheitsvorgaben für Hard- und Softwarehersteller werden geprüft.“

Denn KI, egal, ob man sie sich unter dem Antlitz des Terminators oder eines wurmartigen Schwarms vorstellt, ist eben Software. Nur eine sehr komplexe Software, die sich gelegentlich auch der Hardware bedient. Dafür, dass es erst gar nicht dazu kommt, dass die Software böse wird, hat man zwei weitere Konzepte in der CSS 2016 verankert: Security-by-Design sowie IT-Gütesiegel. Ersteres wurde nicht weiter konkretisiert; aus Letzterem wurde nach weiteren fünf Jahren, 2021, ein IT-Sicherheitskennzeichen, das das Bundesamt für Sicherheit in der Informationstechnik (BSI) den Herstellern auf freiwilliger Basis anbietet.

Vielleicht sollte jeder ein bisschen verantwortlich sein. Vielleicht aber auch niemand.

Konsequent nur, dass es dann in dem Koalitionsvertrag zwischen CDU, CSU und SPD aus dem Jahr 2018 hieß: „Die Hersteller und Anbieter digitaler Produkte und Dienstleistungen müssen Sicherheitslücken bekanntmachen und schnellstmöglich beheben. Wir werden klare Regelungen für die Produkthaftung in der digitalen Welt aufstellen. Risiko- und Verantwortungssphären für Verbraucher, Hersteller, Provider werden wir dabei ausgewogen abgrenzen und prüfen, wie wir den Rechtsrahmen für Versicherungsmodelle gegen Cyber-Schäden verbessern können.“ Die Frage nach der Verantwortung für die Softwaremängel blieb ungeklärt: Vielleicht sollte jeder ein bisschen verantwortlich sein. Vielleicht aber auch niemand.

Und obwohl das Thema in dem neuen Koalitionsvertrag zwischen SPD, Bündnis 90/Die Grüne und FDP aus dem Jahr 2020 keine explizite Erwähnung fand, überraschte die Bundesinnenministerin Nancy Faeser mit einer klaren Ansage in ihrer Rede auf dem BSI-Kongress: Nun sollen Softwarehersteller für fahrlässige Schäden haften. Eine Initiative, die, wenn konsequent und vor allem zeitnahe umgesetzt, das Potenzial dazu hat, die Menschheit vor dem Ausradieren durch eine böse KI zu schützen. Zudem existiert das Vorhaben der Europäischen Kommission, die Vorgaben für die Entwicklung und den Betrieb von KI-Systemen in einer KI-Verordnung (AI Act) zusammenzustellen. „Wir unterstützen den europäischen AI Act“, heißt es im aktuellen Koalitionsvertrag. „Wir setzen auf einen mehrstufigen risikobasierten Ansatz, wahren digitale Bürgerrechte, insbesondere die Diskriminierungsfreiheit, definieren Haftungsregeln und vermeiden innovationshemmende ex-ante-Regulierung.“ Die KI-Verordnung liegt vorerst in der Entwurfsversion vor und die Kommentierungsfrist wurde zunächst bis zum September 2021 verlängert.

Roland Emmerich, der lange vor Moonfall auch einen Film produzierte, der die globale Klimaerwärmung zum Thema hatte – The Day After Tomorrow –, kritisierte in einem Gespräch mit The Hollywood Reporter, dass die Netflix-Produktion Don’t Look Up vermutlich ihre Wirkung verfehlen wird: Schuld daran sei der einer Komödie ähnelnde Charakter des Films und die Tatsache, dass bei den Zuschauern, gerade durch die Schlussszene, nicht genug Angst erzeugt wird. Das gestaltet sich bei Moonfall ganz anders: Zwar wollte man weder auf komische Elemente noch unterhaltsame Dialoge verzichten, doch die böse KI, den Sandwürmern aus Dune nicht unähnlich, wirkt, optisch jedenfalls, recht bedrohlich und ist zweifelsohne tödlich. Eventuell sollte man den Regulierern und Normengebern in Deutschland und der EU nahelegen, sich von Moonfall zu Tode erschrecken zu lassen, und sie so zu etwas mehr Eile inspirieren und motivieren. Am besten, noch bevor uns irgendetwas, ob der Mond, ein Komet oder etwas ganz anderes auf die Köpfe fällt.

Dr. Aleksandra Sowa gründete und leitete zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst Görtz Institut für Sicherheit in der Informationstechnik. Sie ist zertifizierter Datenschutzauditor und IT-Compliance-Manager. Aleksandra ist Autorin diverser Bücher und Fachpublikationen. Sie war Mitglied des legendären Virtuellen Ortsvereins (VOV) der SPD, ist Mitglied der Grundwertekommission, trat als Sachverständige für IT-Sicherheit im Innenausschuss des Bundestages auf, war u.a. für den Vorstand Datenschutz, Recht und Compliance (DRC) der Deutsche Telekom AG tätig und ist aktuell für eine Wirtschaftsprüfungsgesellschaft als Senior Manager und Prokurist aktiv. Außerdem kennt sie sich bestens mit Science Fiction aus und ist bei Twitter als @Kryptomania84 unterwegs.

Alle Folgen der Kolumne von @Kryptomania findest du hier.

Titelbild: Collage von 1E9, Bildmaterial von Lionsgate

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

6 „Gefällt mir“

Leider gehen wir beim Thema AI Regulierung immer noch nach den alten Muster vor. Ein Gesetz (AI Act), das jahrelang erarbeitet wird, soll vorab alle möglichen Risiken von KI entgegnen. Ich denke, es müsste vielmehr in die Richtung kontinuierliches Monitoring gehen, damit schnell genug reagiert und eventuell untergesetzlich nachgeschärft werden kann. Das soll aber nicht zu einer staatliche Überwachung von Technologien führen. Aber KI-Regulierung ist keine einmalige Angelegenheit, die durch einen AI-Act erledigt ist. Zivilgesellschaftliche Akteure wie Algorithmwatch machen hier eine gute Arbeit, ohne zu sehr schwarzmalerisch zu sein.

2 „Gefällt mir“

Apropos K. I., seht euch auchmal den neuen Film von Jean Pierre Jeunet „Bigbug“ an (Netflix).
Bei mir persönlich nutzt das bloße „Angstmachen“ vor etwas nicht mehr wirklich… führt eher zu einer Art Erschöpfungszustand der dann in Langeweile endet.

Dystopien mit Humor zu verbinden, ist für mich ein herrlicher Geniestreich… Gerade an dem Punkt wenn man es schafft die Menschheit gesamt gesehen lächerlich zu machen. Das triggert doch nachhaltiger., als Emmerichs Katastrophen-Gerassel… Öh… Daher auchmal kurz Bigbug eingeschoben… Aber Spoiler Alert gebe ich ansonsten nicht weiter…

4 „Gefällt mir“

Guter Punkt :+1: Das Thema hatte ich in meiner letzten Gastvorlesung: Man sollte „smart“ regulieren. Aber was genau heißt „smart“? Die Politik hat, wie Stanislaw Lem empfohlen hat, eventuell verstanden, dass die präregulative Ära zu Ende gegangen ist. Noch ist aber das, was man tut, nicht sehr effektiv. Insbesondere dann, wenn sich die Behörden selbst nicht an die Vorgaben halten :sunglasses:

2 „Gefällt mir“

Merci für den Hinweis! Wird gemacht :+1:

2 „Gefällt mir“

So dumpf die Filme von Emmerich auch sind: irgendwie hat er dennoch ein gutes Gespür, was zukünftige Brennpunkte angeht. Klimawandel, internationale Kooperation bei Katastrophenfällen und nun Künstliche Intelligenz.

2 „Gefällt mir“

Bei einer Sache unterscheiden sich Emmerichs Katastrophenfilme von anderen apokalyptischen Filmen: Der Fernseher bzw das Radio läuft. Bis zum apokalyptischen Ende. Und oft darüber hinaus :+1:

1 „Gefällt mir“

Ich befürchte eine echte super KI kann man nicht regulieren, sonst wär sie nicht super(-human). Aber die Zeit drängt: im Fall Myanmar könnte man behaupten, dass es zumindest schon „Quasi-Super-KIs“ gibt, die einen menschlichen Schwarm mobilisieren können. Und hier zeigt sich, wie nutzlos unsere bisherige Regulierung sowohl in der Vorbeugung als auch in der Bestrafung ist.

Wie @SamS schreibt sind wir echt in alten Regulierungsmustern festgefahren. Es gibt keinen Prozess, um ein Produkt zu regulieren, dass sich nach dem Verkauf weiterentwickelt. Die Idee des kontinuierlichen Monitoring ist 2021 im EU Act angekommen. Als nächstes muss die Stärkung der Eigenverantwortung (und Haftung) jedes einzelnen dazukommen. Ansonsten wird man KI-Probleme niemals vorbeugend vermeiden können.

Ich verweise da natürlich zu gern auf die bei Algorithmwatch gelisteten Užupis Principles for Trustworthy AI Design. Die einzigen KI-Prinzipien, die beide Punkte schon seit 2019 fordern.

3 „Gefällt mir“