Künstliche Intelligenzen, Umbrüche und die KI-Eiszeit

Der Hype um Künstliche Intelligenz ist gewaltig. Die Technologie wird angeblich unser Leben grundlegend verändern. Aber ist das realistisch? Verwechseln wir hier allzu gerne Fiktion und Wirklichkeit? Und wenn ja, was könnten wir dagegen tun?

Von Michael Förtsch

Eine endlose Wüste aus Eis. Schnee rieselt herab und bedeckt archaische Konstruktionen unter sich. Es sind Maschinen, die einst Geräte der Hoffnung waren. Erdacht von Träumern und Visionären. Nun sind sie lediglich Artefakte futuristischer Zukunftsvisionen und fabelhafter Utopien, die nie Wirklichkeit wurden. Es sind Maschinengehirne, kybernetische Denkmaschinen und Künstliche Intelligenzen, die unter der unerbittlichen Kälte des eisigen KI-Winter erstarrten und zurückgelassen wurden.

Ja, „Winter is Coming“: So lautet auch das warnende Motto des Hauses Stark in Game of Thrones. Das erwähne ich vor allem, um Game of Thrones und Künstliche Intelligenz endlich in ein und demselben Text unterbringen zu können. Aber Skeptiker der neuen Technologie sprechen durchaus von einem „KI-Winter“, der uns bevorstehe. Sie zweifeln an den hochtrabenden Versprechen der KI-Enthusiasten. Denn was wird uns nicht alles zugesichert? Die großen Tech-Konzerne sowie unzählige Start-ups aus dem Silicon Valley, aus London, Berlin oder China wollen uns glauben machen, dass Künstliche Intelligenz unser Leben verändern wird wie nichts anderes zuvor.

Die gedanklichen Bilder, die Entwickler, Ingenieure und Visionäre zeichnen, zeigen Lagerhallen voller autonomer Drohnen, Roboter, die nicht nur Fabriken alleine managen, sondern sich auch noch um den Haushalt kümmern, Flugtaxen am Himmel am halten, digitale Ärzte, die Diagnosen stellen und Patienten therapieren. Banken, Firmen und Zeitungsredaktionen, die derzeit in Glastürmen residieren, sollen bald nur noch als Server in einem Rechenzentrum existieren. Designer sollen überflüssig werden, denn KIs können kreativ sein. Und der Mensch? Der lebt unbeschwert, kann sich auf sein Leben konzentrieren, da ihm all die lästigen Kleinigkeiten abgenommen werden.

Die Wirkmacht

Andrew Ng, einer der prominentesten KI-Forscher, glaubt: „Künstliche Intelligenz ist die neue Elektrizität.“ Der Google-Chef Sundar Pichai geht sogar noch weiter. Die Wirk- und Wandlungsmacht der KI sei nicht mit der Erfindung des Buchdrucks, des Autos oder des Internet vergleichbar. Stattdessen würde sie die Welt und unser Leben in einer Weise prägen, wie es zuvor nur die „Elektrizität oder das Feuer“ taten. Der Tech-Philosoph und Futurist Raymond Kurzweil sieht in der Künstlichen Intelligenz sogar eine Macht von quasi-religiöser Natur.

In rund zehn Jahren, glaubt Kurzweil, würden erste Künstliche Intelligenzen den Turing-Test bestehen – etwas wovon er so überzeugt ist, dass er 20.000 US-Dollar darauf wettet. Nochmal 15 Jahre darauf würden die KIs selbst ihre Fortentwicklung in die Hand nehmen, jedes menschliche Gehirn über Blutzellen-große Nanoroboter durchfluten und dadurch auf ihre Rechenkraft, ihr Wissen in der Cloud zurückgreifen lassen und damit unsere eigenen kognitiven Fähigkeiten erweitern. „Die Geschwindigkeit des Wandels“, sagt der Futurist voraus, „wird so rasant sein, dass wir nicht Schritt halten können, es sei denn, wir verschmelzen mit den Maschinen, die wir erschaffen.“ Geht es nach Kurzweil, ist das nicht unheimlich, sondern richtig gut.

Hallo, Computer!

Tatsächlich haben sich Künstliche Intelligenzen über die vergangenen Jahre bereits in unser Leben geschoben. Siri, Alexa und Cortana und weniger prominente KI-Assistenten sind dabei die hörbarsten Beispiele: Auf Kommando erledigen die teils direkten, teils geistigen Nachfahren von CALO, einem von der Militärfoschungsagentur DARPA am Forschungsinstitut SRI betriebenem KI-Experiment, heute Termineinträge, suchen im Internet nach Restaurants, stellen Timer, starten Musik und Podcasts, erledigen Bestellungen oder rufen sogar das Taxi.

Vereinzelt sind auf den Straßen auch schon autonome Fahrzeuge unterwegs. Protoypen und Forschungsfahrzeuge, ja, sicher, aber sie fahren und kommen mit uns in Kontakt. UBER, Waymo, Apple, nuTonomy, Nvidia und auch deutsche Autobauer wie Daimler, VW, Audi, BMW und über 300 weitere Firmen setzen auf Künstliche Intelligenzen, um ihren Softwareplattformen beizubringen, wie sie den Verkehr auf den Straßen handhaben. Und das funktioniert, abgesehen von einzelnen Vorfällen, ziemlich okay.

Weit weniger sichtbar aber ebenfalls da sind andere KIs. Nämlich Systeme wie das Smart Airport Operations Center, das das Gepäck von Passagieren in Flughäfen leitet und dabei blitzschnell auf Umbuchungen und abgebrochene Flüge reagiert. Viele Verkehrsleitsysteme, die Ampelschaltungen und Spursperrungen kontrollieren, werden von Künstlicher Intelligenz unterstützt – oder setzen, wie in Kuala Lumpur, bereits vollends auf KI. Investmentbanken verwenden Künstliche Intelligenzen, um Wertpapiere genau zum richtigen Zeitpunkt und Kurs zu kaufen und zu verkaufen – und das im Takt von Millisekunden. Algorithmen berechnen für Auskunfteien, wie kreditwürdig wir sind.

Auch die Übersetzungsprogramme von Google, Microsoft und DeepL bedienen sich Künstlicher Intelligenzen. Mit der KI-Technologie FBLearner Flow versucht Facebook anhand seines Datenschatzes, die Verhaltensweisen von Nutzern vorauszusagen, um Werbekunden eine zukünftige Zielgruppe verkaufen zu können. Diese Technik funktioniert ganz ähnlich wie KI-Systeme wie PreCobs, die basierend auf Verbrechenstatistiken und Polizeiberichten voraussagen sollen, wo zukünftig Verbrechen geschehen werden – das allerdings mal mehr, und öfter weniger treffsicher.

Dann sind da natürlich auch noch die über ein Jahr unglaublich gehypten Chatbots, die nicht nur als Marketingtool und Callcenter-Agent-Ersatz taugen sollen. Projekte wie Woebot therapieren bereits Depressionen und Liebeskummer – und das nicht ohne Erfolg. Ebenso sind da auch KI-Systeme, die Ärzte bei der Diagnose unterstützen. Und natürlich Deep Minds Alpha Go, das einen Menschen im komplexen Brettspiel Go schlagen konnte. Das alles ist beeindruckend und – ja, einiges wirkt bereits wie aus einem Science-Fiction-Film. Aber ist das alles wirklich Künstliche Intelligenz?

Computer, Licht!

Es ist vor allem die Science-Fiction, die unser Bild und Verständnis von Künstlicher Intelligenz geprägt hat – und auch immer noch prägt. Der legendäre Isaac Asimov zeichnete mit Ich, der Roboter die Entwicklung von Maschinendienern, die dem Menschen immer ähnlicher werden; nicht nur optisch, sondern auch geistig. Sie entwickeln ein Bewusstsein, Zweifel, Ängste und Träume, weshalb es Roboterpsychologen braucht, die die artifiziellen Verstandeswesen betreuen und die dialektischen Umwürfe von Mensch und Maschine untersuchen.

In William Gibsons Neuromancer-Saga wachsen die von Megacorps herangezüchteten Künstlichen Intelligenzen unbemerkt über die Grenzen, die ihnen gesetzt wurden, hinaus – und machen Menschen zu ihren unwissenden Marionetten. Nicht – oder nicht nur – aus finsteren Motiven, sondern auch aufgrund der tiefsitzenden Sehnsucht nach Partnerschaft und Transzendenz. Gleichsam ist da natürlich SkyNet aus der Terminator-Saga, eine zur Verteidigung der USA ans Netz gebrachte Militär-KI, die die Menschheit als universelle Bedrohung ausmacht – und mit Killerrobotern wie dem T-800 und Drohnen wie dem Hunter Killer zerstören will.

Nicht zuletzt ist da Star Trek mit dem Schiffscomputer der Enterprise und Voyager, der – so ganz anders als Siri und Alexa – nicht nur stoisch Befehle befolgt, sondern Formulierungen interpretieren, Abstraktionen verstehen (ja, nicht immer aber meistens), Aussagen koppeln und Kontexte beachten kann. Und vor allem ist da Data, der vom fiktiven Kybernetiker Noonien Soong konstruierte humanoide Androide, dessen kognitive Fähigkeiten die eines jeden Menschen übersteigen, der aber gleichzeitig damit hadert, das menschliche Tun und Empfinden zu verstehen.

Durch diese Science-Fiction-Geschichten wurde Millionen von Menschen ein romantisiertes und futuristisches Verständnis der Künstlichen Intelligenz eingepflanzt. Ebenso wie es auch der Begriff der Künstlichen Intelligenz selbst tut, der vom Mathematiker John McCarthy dereinst als Marketing-Gag geschaffen wurde. Er beschwört die Vorstellung von denkenden Maschinen herauf, die in gleicher Weise sehen, verstehen und lernen könnten wie organische Wesen. Das weckt Erwartungshaltungen, die wenig mit unserer gegenwärtigen KI-Realität oder unseren Möglichkeiten zu schaffen haben.

Lern, Maschine!

Künstliche Intelligenzen, wie sie heute existieren, sind nicht intelligent. Schon gar nicht im Sinne, wie ein Mensch oder ein Tier intelligent ist. „Derzeit sehen wir nur die Anwendung von Narrow AI, wo auf Basis von KI verschiedene Applikationen und Werkzeuge für sehr spezifische Anwendungsfälle implementiert werden“, sagt Joerg Bienert vom KI-Start-up Aiso Lab zu 1E9. Er ist auch Mitbegründer des KI Bundesverbandes in Deutschland.

Eine Narrow AI – oder Weak AI – ist eine „schwache“ Künstliche Intelligenz, die nur eine sehr eng umgrenzte Aufgabenstellung bewältigen kann. Selbst bei den fortschrittlichsten Künstlichen Intelligenzen, die es derzeit gibt, handelt es sich um solche. Sie sind im Kern lediglich komplexe Programme, die sich in Grenzen selbst verwalten, erweitern und eigene Datenressourcen generieren können. Nämlich um beispielsweise Gesichter erkennen, Sprache interpretieren, Texte übersetzen, Bewegungen kalkulieren oder Schach, Go, Q-Bert und Super Mario spielen zu können. Aber sollen sie plötzlich außerhalb dieser Bereiche agieren, werden sie prompt vollkommen hilf- und nutzlos.

Tatsächlich sind Künstliche Intelligenzen, wie Bienert sagt, heute fast ausschließlich „Mustererkennungssysteme“, die, wenn sie eine Struktur ausmachen, (meist vorprogrammierte oder zumindest in Teilen vordefinierte) Aktionen ausführen. Das liegt daran, dass Entwickler derzeit nur eine wirklich funktionale Möglichkeit kennen, Künstliche Intelligenzen zu erschaffen: das Machine Learning. Das existiert in verschiedensten Formen wie Supervised Learning und Deep Learning. Aber grundsätzlich werden die KIs hierbei mit Datensätzen aus speziell zusammengesuchten Bildern, Tabellen oder Spielzügen gefüttert. Oder, wie Google Duplex, mit unzähligen aufgezeichneten Bestell- und Buchungsgesprächen.

Das System destilliert Ursache-Folge-Zusammenhänge, Gesetzmäßigkeiten, Muster und Logiken. Beispielsweise wiederkehrende Formen, die auftreten, wenn eine Katze in einem Bild zu sehen ist; Züge, die oft auf andere Züge folgen, wenn ein Spieler bei Go oder Schach siegt, oder Phrasen, die auf „Nein, da ist leider kein Tisch mehr frei“ kommen. Derartige erlernte Erkenntnisse können spektakuläre Ergebnisse zeigen, da KIs Muster ausmachen, die Menschen vielleicht übersehen. Anstelle von Befehlen, die ein Entwickler vorgibt, entwickelt eine Künstliche Intelligenz beim Maschinellen Lernen selbst einen passenden Algorithmus, der auf die Problemstellung passt.

Daher können sie Menschen in einigen Aufgabenfeldern sogar schlagen. Aber: Wie der KI-Forscher Gary Marcus sagt, verstehen die Künstlichen Intelligenzen nicht, was sie tun und mit was sie umgehen. Echte Intelligenz und ein Verstand ist etwas, das sich auf ein selbstbewusstes Erfahren und Reflektieren von Erlebnissen in der physischen Welt stützt – eine KI nicht. Eine Künstliche Intelligenz, die eine Katze erkennt, weiß nicht, was eine Katze ist oder was Go, Schach oder die Spielfiguren eigentlich darstellen. Eine Tatsache, die als Basisgedanke des 80er-Jahre-Klassikerfilm War Games dient.

Die Fähigkeit zur Abstraktion, Korrelation und vor allem die Möglichkeit, gelernte Muster in einem Kontext zu betrachten, das lässt sich einer Künstlichen Intelligenz durch Machine Learning nicht so einfach beibringen. Davon sind Gary Marcus und immer mehr seiner Kollegen überzeugt. Diese so entstandenen Künstlichen Intelligenzen würden nicht einmal annähernd jemals „eine Menschen-gleiche Flexibilität beim Lösen von Problemen und Aufgaben“ zeigen können – und dadurch nicht das leisten können, was derzeit von Millionen Menschen von Künstlichen Intelligenzen erwartet wird. Es wäre nicht das erste Mal.

Es war schon einmal kalt

Bereits vor fast 60 Jahren schien vielen eine Zeit greifbar nahe, in der Künstliche Intelligenzen die Welt verändern. Denn schließlich begannen Rechenmaschinen wie der PDP-1, das IBM System/360 und der Honeywell 316 in immer mehr großen Unternehmen, Forschungs- und Regierungseinrichtungen Einzug zu halten. Sie entwickelten sich rasant: Was vor Jahren noch eine Lagerhalle füllte, war nun nur noch so groß wie ein Kleider- und dann ein Kühlschrank.

Zusätzlich sorgten Wissenschaftler wie Frank Rosenblatt mit Entwicklungen wie dem Perzeptron für erste elektronische Gegenstücke zu den Neuronen des menschlichen Gehirns. „Maschinen werden innerhalb von 20 Jahren alles können, was Menschen auch können“, sagte der Forscher Herbert Simon von der Universität Standford 1965. Diese Geräte würden bald in einen Koffer passen, wenn sie nicht vorher schon in humanoiden Körpern stecken würden.

Die Kybernetik und das Elektronengehirn waren die Buzzwords dieser Ära, die mit Bildern einhergingen, die den heutigen nicht mal so unähnlich sind. Forscher und Institute an großen Universitäten zeichneten futuristische Visionen von Robotern, die die Wäsche machen, die Kinder im Auto zur Schule fahren, Arbeitern in der Metall- und Bergbauindustrie die gefährlichsten Aufgaben abnehmen, Cocktails mischen oder Städte auf dem Mond und Mars bauen, um dann die ankommenden Menschen mit grünen Vorstadtidyllen unter Glaskuppeln zu begrüßen. Dafür wurden sie mit immensen Fördermitteln der Regierung, des US-Militärs aber auch von privaten Geldgebern wie der Rockefeller Institution zugeschüttet, die in verschiedenste Forschungsprojekte flossen.

Aber Jahr für Jahr blieben die angekündigten Revolutionen und intelligenten Helfer aus. Vor allem weil es, wie Joerg Bienert sagt, „an Computer-Performance und großen Mengen von Daten fehlte“. Die Skepsis wuchs und die gebrochenen Versprechen häuften sich obschon die Forscher durchaus große Fortschritte machten – allerdings in der Grundlagenforschung, die die Technik besser zu verstehen und im Detail weiter zu entwickeln half. Das war für die Öffentlichkeit und Finanziers nicht sexy und futuristisch genug, sondern enttäuschend und langweilig. Das ließ sich nicht einsetzen, verkaufen und bewerben.

Die Magie der Künstlichen Intelligenz und der Glaube an die cleveren Maschinen verflogen und damit auch das Geld. Selbst die sonst sehr freigiebige US-Militärforschungsbehörde DARPA brach zwischen 1975 und 1980 mehrere KI-Projekte ab. Darunter war der Auftrag, ein KI-Spracherkennungssystem zu entwickeln, der sowohl an IBM als auch an mehrere US-Universitäten vergeben worden war. Für die KI-Forschung wurde es sehr schnell kühl und frostig. Es kam der sogenannte KI-Winter, eine Zeit, da durch fehlende Gelder und Begeisterung auch die Forschung erlahmte – und selbst aussichtsreiche Projekte kaum mehr Unterstützung fanden.

Es wird vielleicht wieder kalt

Wie schon vor Jahrzehnten sind wir auch jetzt auf dem Weg dahin, dass unsere hohen Erwartungen an Künstliche Intelligenzen enttäuscht werden. Das zeigt sich etwa darin, dass über viele Jahre nicht wenige Start-ups, die versprachen, dem Menschen durch Künstliche Intelligenz nervige Alltagsaufgaben abzunehmen, glorios scheiterten. Bereits vor zehn Jahren warb das Start-up Spinvox mit wohligen Worten, Audio- zu Textnachrichten konvertieren zu können. Alles dank einer hochentwickelten Künstlichen Intelligenz. Doch die war dazu einfach nicht fähig. Stattdessen übernahmen Teams von Billiglöhnern die stupide Arbeit.

Das gleiche traf auf Expensify zu, das 2017 seine SmartScan-Dienstleistung anpries: Eine Text- und Zahlen-Erkennungs-KI, die ruck zuck gescannte Rechnungen einlesen und in saubere Tabellen einschreiben könne. Das funktionierte aber nur mäßig. Letztlich landeten etliche Scans bei Klickarbeitern von Amazons Mechanical Turk, die diese für wenig Geld händisch abarbeiteten. Eine Arbeitsumlegung, die den Nutzern trotz erheblicher Datenschutzbedenken nicht mitgeteilt worden war.

Das sind Extrembeispiele, natürlich – und zwischenzeitlich gab es so einige bemerkenswerte Sprünge nach vorne. Aber mit nüchternem Blick betrachtet, sind viele weit entwickelte Künstliche-Intelligenz-Systeme einfach dumm. Seien es Siri, der Google Assistent oder Cortana: Sie können auf einfach Fragen antworten und konkrete Befehle ausführen. Aber schon, wenn sich eine Nachfrage auf den Inhalt des vorherigen Satzes bezieht oder eine ungewöhnliche aber für Menschen trotzdem verständliche Formulierung gebraucht wird, sind sie verwirrt, können das Gesagte nicht parsen und interpretieren – und wissen eben nichts damit anzufangen. Das hatten uns Star Trek und 2001 anderes versprochen.

Ebenso hadern Gesichts-, Muster- und Spracherkennungssysteme mit Rassismus; erkennen offene Augen von asiatischen Menschen als geschlossen, klassifizieren Menschen dunkler Hautfarbe als Gorillas, verstehen die Stimmen von Frauen und nicht-weißen Menschen tendenziell schlechter, oder verstärken bei der Arbeit mit Polizeidatenbanken rassistische und klassizistische Tendenzen, die die Polizisten bei ihrer Arbeit zeigten. Und bei ihrem Einsatz in China können Überwachungssysteme, die „auffälliges Verhalten“ und kriminelle Akte feststellen sollen, nicht zwischen einer freudigen Umarmung bei einem Wiedersehen und einer Schlägerei unterscheiden.

Gleichsam stellen auch die Entwickler von selbstfahrenden Fahrzeugen allmählich fest, dass ihr Ziel nicht ganz so einfach zu erreichen ist, wie noch vor Jahren gedacht. Vor fast fünf Jahren waren viele Ingenieure überzeugt, dass 2020 das Jahr sei, in dem wir die Hand dauerhaft vom Lenkrad lassen können. Die Annahme schien auch logisch. Den Fahrmaschinen beizubringen, Straßen, Wegbegrenzungen, Verkehrsschilder und andere Fahrzeuge zu identifizieren, war kein großes Hindernis. Ebenso wie das vorausschauende Berechnen des Verkehrsflusses. Doch ein Problem stellt nun, wie sich zeigt, die Unvorhersehbarkeit und Zweideutigkeit des urbanen Straßenverkehrs dar.

Autonomie für Autos kann, wie Jack Stilgoe vom Projekt Driverless Futures am University College London sagt, nur „in einem stabilen System“ funktionieren, also in einem berechenbaren Umfeld, das ohne große Störungen läuft. Das können geradlinige Autobahnen sein oder Werksgelände. Aber Landstraßen und vor allem Städte sind hochkomplexe Systeme mit großer Störanfälligkeit: Da gibt es Fußgänger, Tiere, Radfahrer, die sich irrational verhalten oder auch Unfälle und Ampelsysteme, die ausfallen können. Menschen navigieren hier nicht fehlerfrei, aber vergleichsweise souverän und bedacht.

Steuersysteme können aufgrund solcher Einflüsse jedoch irritiert sein und Objekte falsch identifizieren und daraufhin fatale Entscheidungen fällen. Stellenweise auch auf eine Art, die für die Entwickler nicht sofort extrahierbar oder nachvollziehbar wird. Immer noch unsicher ist etwa, was die skurrilen Kollisionen mehrerer Tesla-Modelle mit Feuerwehrfahrzeugen ausgelöst hat.

Ebenso kann zum Problem werden, was nicht exzessiv von der Künstlichen Intelligenz trainiert wurde. Ein für Menschen einfach zu identifizierendes Objekt kann für einen Computer alleine dadurch unerkennbar werden, dass es in einer „unnatürlichen Pose“ auftrittt – beispielsweise als Mensch, der sich den Schuh zubindet. „Es wird immer wieder Dinge geben, die uns überraschen“, sagt Stilgoe. Die Vision vom vollends autonomen Level-5-Fahrzeug, einem Auto, das ganz ohne menschliches Zutun sicher durch die Straße rollt, scheint zumindest in absehbarer Zukunft eher schwierig umsetzbar. Selbst der Chef von Waymo gestand ein, dass Autonomie bei Fahrzeugen wohl immer nur mit „ein paar Einschränkungen“ machbar sein wird.

Was kommt?

Viele Versprechungen, die an die Künstliche Intelligenz geknüpft sind, werden sich also nicht einfach so einlösen lassen – und manche vielleicht vorerst gar nicht. In all diesen Fällen zeigt sich allmählich die Grenze des Machine und Depp Learning; und damit unserer derzeitigen Methodik, Künstliche Intelligenzen zu schaffen. Wie der Autor und Journalist Zayan Guedim schreibt, bräuchte es den nächsten Sprung. Nämlich den hin zum Machine Reasoning; einem Technikkonzept, um digitalen Denkapparaten nicht nur das Lernen, sondern auch „Überlegen“ beizubringen. Die Fähigkeit also, ihre eigenen Daten und Methoden neu klassifizieren und umzuorganisieren zu können, um letztlich neue Schlussfolgerungen zu ziehen und abstrakte Konzepte zu entwickeln.

Dadurch eröffne sich die Möglichkeit für sie, nicht nur eine Katze oder ein Radfahrer zu erkennen, sondern zumindest im Ansatz zu wissen, was eine Katze oder ein Radfahrer eigentlich sind. Das würde Künstlichen Intelligenzen die Werkzeuge an die Hand geben, „neue Probleme mit deduktiven und induktiven Urteilsvermögen anzugehen“. Oder anders gesagt: „Wir wollen eine Machine-Reasoning-KI, die Probleme löst aber davor weiß, was das Problem eigentlich ist“, so Zayan Guedim. Dass das kommen könnte und wird, das scheint realistisch. Die Frage ist nur: wann? Und darauf lässt sich momentan keine Antwort geben.

Denn hier ist erneut Grundlagenforschung angesagt, wie sie am College for Artificial Intelligence des MIT stattfinden soll und an anderen Technischen Universitäten und Forschungsinstituten weltweit schon stattfindet. Aber das heißt natürlich nicht, dass sich die Künstliche Intelligenz in der Zwischenzeit nicht weiterentwickelt. Schon jetzt erfüllt KI vielfältige Aufgaben, ist aus Teilen der Gesellschaft nicht mehr wegzudenken – und sollte es auch nicht sein: Es kommen für die Künstliche Intelligenz auch weiterhin immer neue Aufgabengebiete dazu, allein schon deshalb, weil täglich inzwischen derart große Datenmengen generiert werden, dass wir diese ohne KI überhaupt nicht nutzen könnten.

Und auch wenn selbstfahrende Autos noch nicht fehlerfrei unterwegs sind und es lange auch nicht sein werden, werden sie langfristig doch wohl sicherer fahren als mancher Mensch. Künstliche Intelligenzen werden in Arztpraxen und Krankenhäusern so manch Krankheit feststellen, die ein erfahrener Arzt übersehen hätte. Und sie werden uns dabei helfen, das Wetter und damit Katastrophen vorherzusagen, und damit Menschenleben zu retten. Und selbst wenn Siri und Co. jetzt noch nicht alles können, werden sie besser werden und uns immer mehr unnötige Arbeit abnehmen.

Dennoch wird die Begeisterung für die Künstliche Intelligenz wohl in den nächsten Jahren abflauen, wenn die Entwicklungsschritte kleiner, langsamer und eben weniger augenfällig werden; einfach auch, weil wir Künstliche Intelligenz langsam als Selbstverständlichkeit akzeptieren und dadurch ihren Einfluss übersehen. Dann wird der KI-Wintern seine frostigen Finger ausstrecken und erste Flocken werden fallen. Aber unausweichlich ist die frostige Gewitterfront nicht. Sie ließe sich aufhalten oder zumindest abmildern.

Jedenfalls wenn wir einen realistischeren und glaubwürdigeren Umgang mit Künstlicher Intelligenz finden. Wir sollten lernen, die großartigen und inspirierenden, aber dennoch fiktiven Science-Fiction-Visionen nicht blauäugig auf die Realität zu übertragen und die Grenzen unserer derzeitigen technischen Möglichkeiten zu erkennen. Die Visionen eines HAL-9000, Skynet, Neuromancer und Data sind hilfreiche Werkzeuge in der Debatte um Philosophie und Ethik der Künstlichen Intelligenz – aber eben nicht die Wirklichkeit. Jedenfalls nicht immer.

Gleichzeitig liegt es aber auch in der Verantwortung der Entwickler, Unternehmen und Forschungseinrichtungen bodenständiger und verständlicher zu kommunizieren, zu erklären, was Künstliche Intelligenz ist, wie sie funktioniert und was sie kann – und können wird. Denn auch wenn Künstliche Intelligenz ein komplexes Themenfeld darstellt: Sie ist keine Magie oder Zauberei, sondern immer noch eine Technologie, die verstanden und erfasst werden kann. Gelingt das, bleibt der Winter aus und es kommt vielleicht ein zweiter Frühling.

Teaser-Bild: NegMarDesign / GettyImages

6 Like