Wenn wir von Künstlicher Intelligenz sprechen, schwingt immer noch ein Hauch von Terminator mit. Dabei hat das, was heute als KI unseren Alltag erobert, wenig mit derart superintelligenten Maschinen zu tun. Ein weniger ehrfurchtsvoller Blick auf die Technologie könnte uns dabei helfen, verantwortungsvoller mit ihren Stärken und Schwächen umzugehen.
Ein Essay von Wolfgang Kerler
Wieder eine Studie, die uns das Fürchten lehrt. Vereinfacht sagt sie das aus: Könnten wir eine Künstliche Intelligenz programmieren, die schlauer ist als wir, die selbstständig lernt, die über das Internet auf das gesamte Wissen der Menschheit zugreift und alle Maschinen der Welt kontrolliert, so wären wir nicht in der Lage, diese KI zu kontrollieren. Kein Algorithmus könnte dieser Superintelligenz, die dem menschlichen Intellekt weit überlegen ist, noch Grenzen setzen. Zu diesem Ergebnis kam jetzt ein internationales Team von Wissenschaftlerinnen und Wissenschaftlern. Und es wird noch apokalyptischer: Womöglich würden wir eine solche Superintelligenz nicht einmal erkennen.
Puh, dachte ich mir zunächst. Noch eine Forschungsarbeit, die sich spannend liest, aber am Ende keinen praktischen Nutzen für uns hat. Klar, vielleicht wird es irgendwann eine Superintelligenz geben. Und ja, es wäre bestimmt schlauer, wenn wir uns vorher darüber Gedanken machen, ob wir das überhaupt erstrebenswert finden. Doch aktuell hat das, was wir als Künstliche Intelligenz bezeichnen, wenig mit dem zu tun, was wir mit Intelligenz eigentlich meinen. Geschweige denn mit Superintelligenz. Warum also sollten wir uns in derart theoretischen Debatten ergehen, anstatt uns um reale Probleme zu kümmern?
Doch den Macherinnen und Machern der Studie ging es offenbar ebenfalls darum, uns bei unserer Faszination für Gruselgeschichten über allmächtige Maschinen zu packen, um auf aktuelle Entwicklungen hinzuweisen. „Schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass diejenigen, die sie programmiert haben, komplett verstehen, wie sie das gelernt haben“, sagt jedenfalls Manuel Cebrian vom Max-Planck-Institut für Bildungsforschung, der an der Studie beteiligt war. „Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte.“
Wichtige Feststellung. Wichtige Frage. Trotzdem befürchte ich, dass die Warnung vor der unkontrollierbaren Superintelligenz dazu beiträgt, dass wir Künstliche Intelligenz auch weiterhin viel zu oft als scheinbar magische Technologie ansehen – und nicht einfach als Werkzeug, das mal mehr und mal weniger hilfreich ist. Und über dessen Einsatz immer noch wir Menschen entscheiden. Das erschwert einen verantwortungsvollen Umgang damit.
Die Geschichte der KI beginn eigentlich mit einer Ernüchterung.
Das Missverständnis über das, was KI ist, hat seinen Ursprung vor über 60 Jahren. Ein Sommer und 13.500 Dollar sollten damals ausreichen, um eine Maschine zu konstruieren, die genau wie wir Menschen über Intelligenz verfügt. Von diesem Bedarf an Zeit und Geld ging eine Gruppe junger Wissenschaftler aus, als sie im August 1955 einen Förderantrag an die Rockefeller Foundation abschickte. Sie bekamen die Mittel und konnten sich im Folgejahr zur Konferenz von Dartmouth treffen, die heute als Geburtsstunde der Künstlichen Intelligenz gilt. Obwohl ihre Haupterkenntnis gewesen sein dürfte, dass KI nicht so einfach ist, wie man sich das anfangs vorstellte.
Nach ein paar Wochen trennten sich die Forscher, ohne ein Computersystem entwickelt zu haben, das auch nur im Ansatz intelligent war. Folgenlos blieb die Konferenz dennoch nicht. Im Gegenteil. Der Begriff der Künstlichen Intelligenz sollte nie wieder verschwinden, genauso wenig wie die damit verbundenen Vorstellungen: KI, das meint den künstlichen Nachbau menschlicher Intelligenz. Und es dürfte nicht mehr allzu lange dauern, bis uns dieser technisch gelingt.
Der Wirtschaftsnobelpreisträger Herbert Simon, zum Beispiel, schrieb 1965, dass es nur noch zwanzig Jahre dauern werde, bis Maschinen „jede Arbeit, die ein Mensch ausführen kann“, ebenfalls übernehmen können. Auch Marvin Minsky, der in Dartmouth dabei war, blieb seinem Optimismus treu. 1970 erklärte er im Magazin Life: „In drei bis acht Jahren werden wir Maschinen haben, die über die allgemeine Intelligenz eines durchschnittlichen Menschen verfügen.“ Beide lagen mit ihren Prognosen komplett daneben.
Die Science-Fiction setzte sogar noch einen drauf. Sie griff das historische Motiv des menschengemachten Golems aus Lehm wieder auf, der immer mächtiger wird und sich am Ende gegen seine Schöpfer wenden könnte. Im Science-Fiction-Klassiker 2001: Odyssee im Weltraum von 1968 mutiert der zunächst fürsorgliche Bordcomputer HAL 9000 zur digitalen Bedrohung, der das Raumschiff unter seine Kontrolle bringt. In unterschiedlichen Variationen wird diese Geschichte seitdem immer wieder erzählt. Von Neuromancer über den Terminator bis zu den Robotern aus Westworld.
Auch im Silicon Valley wird heute entweder vor unserer Vernichtung durch eine Super-KI gewarnt – etwa von Elon Musk – oder – wie von Ray Kurzweil – die Ankunft der Singularität ersehnt, der KI also, die intelligenter ist als wir und mit der wir zur nächsten Stufe der Evolution verschmelzen. Killer oder Heilsbringer. Dafür steht, etwas überspitzt, KI. Einerseits. Andererseits hat das, was Unternehmen heute als Künstliche Intelligenz verkaufen, wenig mit allmächtigen Maschinen zu tun, die die Welt beherrschen oder retten wollen.
Mustererkennung. Nicht mehr, aber auch nicht weniger.
Ja, KI wird heute mithilfe von künstlichen neuronalen Netzen entwickelt, deren Funktionsweise von den Neuronen in unserem Gehirn inspiriert wurde. Trotzdem sehen Maschinen die Welt ganz anders als Menschen. Während wir verstehen, was eine Katze ist, erkennt eine KI lediglich ein Muster, das ihr sagt, dass auf einem Bild mit hoher Wahrscheinlichkeit das zu sehen ist, was in ihren Trainingsdaten mit dem Tag „Katze“ versehen war.
KI bezeichnet vor allem Programme, die in großen Mengen von Daten durch das Ableiten aus statistischen Zusammenhängen auf Muster, Regeln oder Logiken stoßen. Die Systeme basieren auf maschinellem Lernen und werden mit Datensätzen trainiert, deren Umfang unser menschliches Gehirn meist überfordern würde. Fotos, Videos, Audiodateien, Texte, Excel-Tabellen und so weiter. Schon heute interagieren täglich Milliarden von Menschen mit Programmen, die genau darauf beruhen. Denn Mustererkennung mag trivial klingen, eröffnet aber viele Möglichkeiten, unser Leben einfacher, unterhaltsamer oder sicherer zu machen.
Alexa und Siri dechiffrieren die von uns gesprochenen Wörter. Autos parken sich selbst. Instagram verpasst uns Hundegesichter. Das Navi weist uns den schnellsten Weg. Spotify schlägt mit der Zeit immer erfolgreicher Musik vor, die unserem Geschmack entspricht. Google durchsucht das nahezu unendliche Internet nach den besten Antworten auf unsere Fragen.
KI kann Krebs frühzeitig erkennen. Sie warnt, bevor Maschinen ausfallen, optimiert das Design von Produkten oder den städtischen Verkehrsfluss und sie minimiert den Einsatz von Ressourcen in Fabriken, wodurch sie einen wichtigen Beitrag zum Klimaschutz leisten kann. Selbst Deepfakes basieren auf Mustererkennung. Und die Liste ließe sich noch lange fortsetzen.
Meldungen über neue Durchbrüche in der Entwicklung von KI bringen uns regelmäßig zum Staunen. Und weil in unseren Köpfen oft noch die in Dartmouth geprägte Vorstellung von Maschinen steckt, die über menschenähnliche Intelligenz verfügen, neigen wir dazu, voller Ehrfurcht auf KI zu blicken und ihre Fähigkeiten zu überschätzen.
Diese übertreffen zwar in vielen Bereichen längst die der Menschen, aber die Programme werden nur für ganz bestimmte Zwecke entwickelt. Eine universelle KI – oder eine Artificial General Intelligence – gibt es bisher nicht. Das heißt: Eine KI, die den Schachweltmeister besiegt, könnte ihn nach dem Spiel nicht nach Hause fahren, sein Geld maximal gewinnbringend anlegen und dann noch Energieverbrauch in seinem Haus optimieren. Sie kann eben Schach spielen.
Intelligenz macht noch kein Bewusstsein.
Der Zukunftsforscher Matthias Horx spricht auch aus einem anderen Grund von einem „KI-Irrtum“ oder eben einem „Missverständnis“. Aus seiner Sicht reden wir zwar ständig über Intelligenz , meinen aber Bewusstsein . Und das sei die eigentliche Voraussetzung dafür, dass Maschinen irgendwann nach Macht streben oder auf die Komplexität der Welt mit echter Kreativität und Gefühl antworten können. Doch ohne Fleisch und Sterblichkeit, Schmerz und Freude kein Bewusstsein, so Horx. Daher werde sich die Intelligenz von Maschinen immer von menschlicher Intelligenz unterscheiden.
Carla Hustedt, die bei der Bertelsmann Stiftung das Projekt „Ethik der Algorithmen“ leitet, hält den Begriff Künstliche Intelligenz ebenfalls für ein Problem. „Er vermittelt ein falsches Verständnis davon, was diese Systeme angeblich können“, sagt sie im Gespräch mit 1E9. „Ich habe manchmal das Gefühl, dass sogar die Warnungen vor den Risiken von KI als Verkaufsargument genutzt werden. Denn wenn wir Angst haben müssen vor der Superintelligenz, dann müssen die Produkte mit KI ja wirklich krass sein.“
Damit nicht genug. „Dieser Begriff der Künstlichen Intelligenz verschleiert außerdem die menschliche Verantwortung für derartige Systeme, weil er suggeriert, es würde sich um intelligente, autonom agierende Wesen handeln“, sagt Carla Hustedt. Tatsächlich gab es in den vergangenen Jahren genug Beispiele dafür, dass sich Menschen in Unternehmen und Behörden ihrer Verantwortung für KI-Systeme offenbar selbst nicht bewusst waren. Oder sie einfach ignorierten.
Der entscheidende Haken an Programmen, die auf maschinellem Lernen basieren, ist nämlich dieser: Oft wissen weder diejenigen, die KI nutzen, noch diejenigen, die sie entwickeln, wie genau sie funktioniert – und ob sie so funktioniert, wie sie funktionieren soll. Denn beim maschinellen Lernen bringen sich die Programme das, was sie tun, selbst bei. Sie werden of zur regelrechten Black Box. Genau darauf sollte auch die Studie über die unkontrollierbare Superintelligenz aufmerksam machen. Die Qualität von KI hängt außerdem entscheidend von der Qualität der Trainingsdaten ab. Lückenhafte, unausgewogene Datensätze führen zu schlechten Ergebnissen.
Auch Künstliche Intelligenz macht Fehler.
Obwohl das nicht neu ist, unterlaufen selbst – oder gerade? – den größten Technologie-Konzernen, denen man einen souveränen Umgang mit KI zutrauen sollte, erstaunliche Fehler, die teils erst dann auffallen, wenn Anwendungen längst im Einsatz sind. Manchmal sind sie nur lästig, zum Beispiel wenn Netflix langweilige Filme vorschlägt. Manchmal sind sie richtig bedauerlich. Zu oft haben sie sogar gravierende Folgen für das Leben einzelner Menschen oder für die ganze Gesellschaft.
Wenn ein Bilderkennungsprogramm von Google schwarze Menschen als Gorillas oder Schimpansen identifiziert, ist das für Betroffene verletzend – und ein Indiz dafür, dass weder die Trainingsdaten noch das Entwicklungsteam divers genug waren.
Auch Amazon musste diese Lektion lernen. Der Konzern wollte eine KI-basierte Software einsetzen, um aus den vielen Bewerbungen die besten Kandidatinnen und Kandidaten herauszufischen. Allerdings wurde das Programm mit Daten über die bisherige Belegschaft trainiert – und da diese vor allem aus Männern bestand, ging die KI davon aus, dass männlich zu sein ein wesentlicher Erfolgsfaktor ist. Die Bewerbungen von Frauen wurden daher systematisch schlechter eingestuft. Fällt so ein Problem nicht auf, können ganze Karrieren ruiniert werden.
Die Algorithmen von YouTube und Facebook wiederum, deren Ziel es sein dürfte, die Leute möglichst lange vor dem Bildschirm zu halten und sie zu möglichst viel Engagement zu animieren, verhalfen Hass, Hetze und Verschwörungstheorien zu gigantischen Reichweiten. Sie lernten, dass sich Menschen damit ködern lassen – und setzten ihnen immer mehr davon vor. Für demokratische Gesellschaften, die auf ein gemeinsames Fundament an Fakten und eine intakte Debattenkultur angewiesen sind, kann das gefährlich werden. Zumal ohne transparente Regeln.
Nun sind Google, Amazon und Facebook privatwirtschaftliche Unternehmen und jeder kann selbst entscheiden, ihre Dienste zu nutzen oder nicht. Theoretisch können wir uns dem unmittelbaren Einfluss ihrer Algorithmen also entziehen – eingeschränkt durch die Tatsache, dass die KI-Systeme der großen Tech-Unternehmen auch in vielen anderen Organisationen verwendet werden. Wenn allerdings der Staat auf Künstliche Intelligenz setzt, können wir gar nichts unternehmen. Leider sorgen gerade Behörden immer wieder für KI-Negativschlagzeilen.
In den USA werden immer wieder Fälle dokumentiert, in denen der Einsatz von Gesichtserkennungssoftware zur Verhaftung Unschuldiger führte. Aktivisten kritisieren außerdem, dass sich amerikanische Gerichte bei ihrer Urteilsfindung zunehmend auf KI verlassen, die mit historischen Kriminalitätsdaten trainiert wurde. Ihre Ergebnisse können daher nur auf Korrelationen, nicht auf Kausalitäten beruhen. In Großbritannien wiederum musste die Regierung nach Protesten ein Programm einstampfen, das per Algorithmus die Abschlussnoten von Schülern bestimmen sollte. Diese fielen plötzlich viel schlechter aus als die Noten durch Lehrkräfte.
KI kann keine Verantwortung übernehmen.
Noch ist der Einsatz von Künstlicher Intelligenz nicht umfassend reguliert. In Ethikkommissionen, im Bundestag oder auch im Europaparlament werden Vorschläge diskutiert und Gesetze vorbereitet. Auch Verfahren, mit denen geprüft werden kann, ob KI-Systeme überhaupt funktionieren und sicher sind, gibt es bereits. Gerade hat auch der TÜV ein entsprechendes Labor gestartet. Besserung ist also in Sicht. Bis dahin ist KI aber ein bisschen Wilder Westen. Und ich befürchte, dass unser ständiges Gerede über Superintelligenz und Singularität dazu führt, dass Programme mit dem Label „Künstliche Intelligenz“ schnell für unfehlbar gehalten werden – und für so kompliziert, dass man sie sowieso nicht durchschauen könnte und sich aus Debatten darüber fernhält. Passieren dann Fehler wird das auf „die KI“ geschoben und Menschen und Unternehmen können sich aus der Verantwortung stehlen.
Doch hätten sich Firmen und Behörden an die vielen Vorschläge zum verantwortungsbewussten Einsatz von KI gehalten, die in den vergangenen Jahren bereits erarbeitet wurden, wäre es zu den oben beschriebenen Fällen wohl nie gekommen. Ein Beispiel für so ein mögliches Regelwerk sind die vom iRights.Lab und der Bertelsmann Stiftung zusammen mit einem Fachgremium formulierten Algo.Rules.
Verstehe, was die Zukunft bringt!
Als Mitglied von 1E9 bekommst Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 2,50 Euro im Monat!
Jetzt Mitglied werden!Menschen, Behörden oder Unternehmen, die beschließen KI zu entwickeln oder einzusetzen, sollten sich demnach vorher fragen, ob sie selbst ein ausreichendes Verständnis davon haben, wie die Programme funktionieren. Sie müssen klären, was die Folgen des Einsatzes für andere Menschen sein könnten. Sie müssen kommunizieren, welcher Person oder Firma für die KI verantwortlich ist. Bevor ein Programm zum Einsatz kommt, muss außerdem dessen Sicherheit geprüft werden. Und die Nutzerinnen und Nutzer, die am Ende mit dem System interagieren, sollten darauf aufmerksam gemacht werden, dass es sich um KI handelt und auf Wunsch eine Erklärung bekommen, wie diese in etwa funktioniert. Selbst bei Programmen, die auf maschinellem Lernen basieren, lässt sich zumindest kommunizieren, auf welcher Datengrundlage sie basieren und welche Zielsetzung sie haben. Beschwerden bei möglichen Fehlern sollten ebenfalls möglich sein.
Die Superintelligenz ist längst nicht da. Wir können den Einsatz von Künstliche Intelligenz kontrollieren. Deshalb sollten wir das auch tun. Wenn wir jetzt unserer Verantwortung gerecht werden und die Gesetze, Normen, Prüfverfahren und Workflows etablieren, um Risiken zu minimieren, damit wir Chancen nutzen können, werden Wissenschaftlerinnen und Wissenschaftler auch keinen Grund mehr haben, uns vor den Gefahren der Superintelligenz zu warnen. Dann würden wir nämlich gar nicht erst auf die Idee kommen, eine Maschine zu erschaffen, die uns überlegen ist und sich nicht kontrollieren lässt. Vielleicht sollten wir außerdem darüber nachdenken, wie wir den Begriff Künstliche Intelligenz einsetzen – und ob uns nicht ein paar alternative Formulierungen einfallen.
Dieser Artikel ist Teil des 1E9-Themenspecials „KI, Verantwortung und Wir“. Darin wollen wir herausfinden, wie wir Künstliche Intelligenz so einsetzen, dass die Gesellschaft wirklich davon profitiert. Alle Inhalte des Specials findest du hier.
Titelbild: Das rote Kameraauge von HAL 9000. Bild: Getty Images