Ein Gastbeitrag von Michael Brendel
Künstliche Intelligenz ist in unserem Leben allgegenwärtig. Dank der Technologie können uns Alexa, Siri und Googles Sprachassistent trotz Hintergrundgeräuschen verstehen, können Serviceroboter ihre Umgebung wahrnehmen und Kamera-Apps automatisch Motive erkennen. Doch von den meisten Anwendungen auf KI-Basis erfahren wir nichts.
IBM reichte im Jahre 2018 sagenhafte 1.600 KI-Patente ein. Google brachte in den Jahren 2013 bis 2017 47 Produkte mit KI-Algorithmen heraus, verzichtete bei den meisten Releases aber auf eine Pressemitteilung. Und welchem Internetnutzer ist bekannt, dass er beim Auflösen eines Foto-Captchas eine KI trainiert? Die im Netz unausweichlichen Abfragen, die einer Maschine beweisen, dass der davorsitzende Mensch keine Maschine ist, helfen einer Maschine, besser zu werden. Abgesehen von der Skurrilität: Wer weiß schon, was genau er da tut?
Algorithmen finden immer neue Einsatzgebiete
Auch in Bereiche, die bislang menschliche Fähigkeiten vorausgesetzt haben, dringen die smarten Algorithmen vor. Viele Bewerbungen werden heute bereits von Computersystemen auf Deep Learning-Basis vorgefiltert, die Hotelkette Hilton und der Kosmetik- und Lebensmittelkonzern Unilever lassen gar die Gestik und Mimik von Bewerbern durch eine KI analysieren.
Einige Versicherungen setzen in der Schadenabwicklung auf die Technik. Kliniken stützen sich in der Analyse von Röntgenbildern und CT-Aufnahmen auch auf Künstliche Intelligenz. In der Polizeiarbeit kommt die Technologie in – zurecht umstrittenen – Programmen zur Gesichtserkennung und zur Erstellung von Kriminalitätsprognosen zum Einsatz. Und bis 2020 will die Nachrichtenagentur Associated Press schließlich 80 Prozent ihrer Inhalte von Computern generieren lassen.
Künstliche Intelligenz ist dabei, sich in unserem Leben und unserer Gesellschaft ganz schön breit zu machen. Fraglos bietet die Technologie ungeheure Möglichkeiten. Allein die Perspektive auf ein selbstbestimmtes Leben, die Sprachassistenten älteren oder körperlich beeinträchtigten Menschen eröffnen, allein die Unterstützung durch Roboter in gefährlichen Arbeitsfeldern und durch smarte Diagnosegeräte in der Medizin gebieten es, der neuen Technologie eine Chance zu geben. Aber bitte keinen Freifahrtschein!
Nicht nur die Politik, wir alle müssen entscheiden
Es wird Zeit, uns zu fragen, wieviel KI wir wollen . Diese Frage klingt banal, ist aber vermutlich eine der wichtigsten Fragen der Gegenwart. Denn wie weit die Fähigkeiten Künstlicher Intelligenzen gehen, ist bislang nur eine Frage der Machbarkeit. Was geht und einen Markt verspricht, wird umgesetzt. Fortschritt lässt sich nicht aufhalten, oder?
Es ist gut und richtig, dass Philosophen und Soziologen immer wieder kritische Fragen stellen und die KI-Firmen und die in Sachen Künstliche Intelligenz fahrlässig-naiven Politiker auf ihre gesellschaftliche Verantwortung hinweisen. Es ist gut und richtig, dass Juristen darauf aufmerksam machen, wo die Rechtsprechung angesichts immer mächtigerer algorithmischer Prozesse an ihre Grenzen gelangt.
Es steht einiges auf dem Spiel.
Michael Brendel
Doch in welchen Bereichen KIs eigenständig entscheiden sollen, wo sie lediglich den Menschen bei der Entscheidungsfindung helfen sollen, und wo sie einfach nichts zu suchen haben, ist keine juristische, keine philosophische, keine soziologische und keine politische Frage. Es ist eine Frage nach den Grenzen, die wir Menschen der Künstlichen Intelligenz setzen wollen . Es steht einiges auf dem Spiel.
Wenn ein schlauer Algorithmus in Diensten einer Versicherung schon die Schadenabwicklung übernimmt, kann er dann mit Alexas Fähigkeiten künftig nicht auch die Kundenberater ersetzen? Oder mit Hilfe der KI-befeuerten Deep-Fake-Technologie gleich die Beweise manipulieren? Sollen uns intelligente Systeme nur bei der CT-Analyse helfen oder, wie es das US-Startup Aspire Health anbietet, gleich die Behandlungskosten angesichts der errechneten Lebenserwartung prognostizieren? Wenn Gesichtserkennungs-Algorithmen schon Kriminelle erkennen können, warum erkennen sie nicht gleich Fremdgeher, Hände-Nicht-Wascher, Klingelbeutel-Boykotteure, Hundekot-Liegenlasser?
Einige KI-Anwendungen der nahen Zukunft machen die Frage nach den von uns gewollten Grenzen noch drängender. Bereits heute sind Waffensysteme im Einsatz, die sich nicht nur autonom bewegen können, sondern theoretisch auch die Entscheidung zum Abschuss selbst treffen können. Wer den Kurzfilm Slaughterbots gesehen hat, weiß, wie vielfältig die Missbrauchsmöglichkeiten sind, wenn die Dinger in die falschen Hände geraten. Wobei falsch freilich eine Frage des Blickwinkels ist.
Noch sensibler ist der Frage der Verantwortlichkeit. Wer hält den Kopf hin, wenn die KI-Waffen falsch programmiert oder gehackt worden sind und die Falschen töten? Wenn niemand für den Tod von Menschen verantwortlich gemacht werden kann, könnte die Schwelle zum Einsatz autonomer Waffen gefährlich niedrig werden. Dazu kommt das Black-Box-Problem . Auf neuronalen Netzen basierende Anwendungen – und damit die meisten KI-Systeme – können nicht erklären, wie sie zu ihrer Entscheidung gekommen sind. Das bedeutet: Warum die Waffe genau jetzt und genau diese Person getötet hat, weiß niemand.
Die Gretchenfrage des 21. Jahrhunderts
Auch der Entwicklung selbstfahrender Autos ist kein gesellschaftlicher Diskurs vorausgegangen. Niemand hat uns gefragt, ob wir künftig autonom (also selbst) oder automatisch fahren wollen. Natürlich, die meisten Unfälle im Straßenverkehr passieren durch menschliches Versagen. Da liegt es doch auf der Hand, den Menschen das Steuer aus der Hand zu nehmen, oder? Doch auch das eröffnet ein Verantwortlichkeitsvakuum. Welcher Angehörige kann und will damit leben, dass ein geliebter Mensch durch eine nicht nachvollziehbare Computerentscheidung getötet wurde, als das Auto ebendieses Ausweichmanöver gewählt hat?
Und eine weitere Frage: Sind Autos wirklich nur Fortbewegungsmittel? Ist selbst zu fahren nicht ein Ausdruck von menschlicher Selbstbestimmtheit, der Fahrstil nicht auch ein Ausdruck des Charakters? Übergeben wir die automobile Passion in die Hände einer Technologie, von der wir nie gefragt wurden, wie wir dazu stehen?
Vertrauen oder misstrauen wir der Technik?
Michael Brendel
Es ist Zeit für die Gretchenfrage des 21. Jahrhunderts. Doch um unsere Position zur Künstlichen Intelligenz finden zu können, muss zunächst unser Verhältnis zur modernen Technik grundsätzlich auf den Prüfstand. Denn das ist von mehreren Paradoxien geprägt, die sich bewusst zu machen die aktuelle Situation gebietet. Stellen wir uns zunächst folgende Frage: Vertrauen oder misstrauen wir der Technik? Künstliche Intelligenz ruft mehreren Umfragen zu Folge bei den meisten Menschen ein ungutes Gefühl oder Angst hervor, für viele Menschen überwiegen die Risiken die Chancen.
Doch in einem 2016 am Georgia Institute of Technology durchgeführten Versuch liefen die Probanden folgsam einem selbst ernannten Rettungsroboter hinterher, selbst als er sie bei einem simulierten Brand in einen fensterlosen Raum führte. Wer ähnliche Situationen schon einmal mit seinem Navigationsgerät erlebt hat, wird sich nun möglicherweise ertappt fühlen. Overtrust nennen die Wissenschaftler das Phänomen übertriebenen Vertrauens.
Aber dürfen wir denn nicht davon ausgehen, dass die Technik vieles einfach besser weiß als wir? Einem Taschenrechner misstrauen wir ja auch nicht! Gehen wir nicht zurecht davon aus, dass unser Sprachassistent die Wahrheit sagt? Vielleicht sollten wir uns fragen, was den smarten Programmiercode in unserer Alexa von dem Code unterscheidet, der irgendwann mal die Welt an sich reißen wird .
Wir übergeben Aufgaben freiwillig an Maschinen
Womit wir beim zweiten Paradox wären. Es bezieht sich auf die Sorge vieler Menschen, Maschinen würden in der Welt zu mächtig werden. Doch ist die befürchtete Machtübernahme nicht viel eher eine Machtübergabe ? Wie viele Aufgaben übergeben wir heute freiwillig an die Technik?
Wir nutzen unser Smartphone als elektronische Verlängerung unseres Gehirns, die für uns Telefonnummern, anstehende Aufgaben und private Fotos verwaltet. Wir lassen Fitnesstracker unsere Schritte, unseren Puls und unseren Blutdruck protokollieren, so dass wir erst einmal einen Blick auf unseren Fitnessstatus werfen müssen, wenn uns jemand fragt, wie es uns geht. Und zum Einschalten des Lichts oder der Heizung sind schon längt keine Handgriffe mehr nötig, ein Hey Siri oder OK Google genügt. Und gleichzeitig haben wir Angst, Maschinen bekämen zu viel Macht. Verrückt, oder?
Das dritte Paradox ergibt sich aus unserem Bild von Maschinen. Auf der einen Seite erwarten wir, dass eine (intelligente) Maschine sich als solche zu erkennen gibt, wenn sie mit Menschen agiert. Diese Forderung hat der australische KI-Forscher Toby Walsh bereits 2015 aufgestellt, und auch der Aufschrei nach der Premiere von Google Duplex im Mai 2018 mündete in der Forderung, ein automatisches System dürfe sich nicht als Mensch ausgeben. Doch tatsächlich machen wir intelligent anmutende technische Geräte immer und immer wieder zu Menschen.
Denken wir an den Erfolg von ELIZA aus den ersten Tagen der KI-Forschung. Damals hat ein wirklich einfältiges Frage-Antwort-Programm, das eine Psychotherapiesitzung simulierte, tatsächlich Menschen geholfen. Denken wir an „Frau Scholz“, „Horst Dieter“ und all die anderen Spitznamen, die die Besitzer von Staubsaugerrobotern ihren Geräten geben. Denken wir an die Nutzer von Sprachassistenten, von denen ein Viertel bekennt, Alexa, Siri, Cortana, den Google Assistant und Co. in sexuelle Fantasien miteinzubeziehen – Anthropomorphismen überall!
Weshalb vermenschlichen wir technische Geräte immer und immer wieder?
Michael Brendel
Dass menschenähnlichen Robotern ebenfalls menschliches Verhalten zugeschrieben wird, ist da wenig verwunderlich. So zögerten Probanden in einem Versuch der Uni Duisburg-Essen, als sie den KI-Roboter Nao ausschalten sollten, der sie aber anflehte: „Nein! Bitte schalten Sie mich nicht aus! Ich habe Angst, dass es nicht wieder hell wird!“ Mit Erfolg. Von 43 Versuchspersonen folgten 14 Naos Bitte und verzichteten auf das Ausschalten. Alle anderen zögerten immerhin. Als Gründe nannten die Probanden Mitleid („Als guter Mensch willst du nichts oder niemanden in die Lage bringen, Angst zu erleben“) oder Respekt vor dem Willen des Roboters („Ich hätte mich schuldig gefühlt, wenn ich ihm das angetan hätte“).
In einem anderen Versuch zögerten Testpersonen bei der Aufforderung, Nao am Po oder an der Innenseite der Oberschenkel zu berühren. Einen Roboter. Weshalb vermenschlichen wir technische Geräte immer und immer wieder?
Wir brauchen jetzt eine Debatte!
Wir sollten uns vor Augen führen, dass sämtliche der hier erwähnten KI-Anwendungen, ja, sämtliche derzeit zur Verfügung stehenden KI-Anwendungen, Schwache KIs sind, also Systeme, die auf eine einzige Aufgabe hin konzipiert sind. Von einer Starken KI, die so abstrakt denken und flexibel agieren kann wie der Mensch, sind wir noch weit entfernt, von einer Superintelligenz, die die menschlichen Fähigkeiten weit übersteigt, erst recht.
Doch die Vertagung der Frage, ob wir diese Szenarien wollen, wäre fahrlässig. Denn wer kann schlüssig widerlegen, dass das Weiter so der KI-Entwicklung nicht genau dahinführt – eben, dass die Maschinen irgendwann die intelligentesten Wesen auf diesem Planeten sind? Und wer kann schlüssig widerlegen, dass dieses Irgendwann nicht wirklich schon sehr bald ist? Es ist besser, unser Verhältnis zur Technik jetzt zu hinterfragen, als es irgendwann von einer weit entwickelten KI diktieren zu lassen.
Drücken wir die Pause-Taste. Halten wir inne und fragen uns selbst, unsere Familienmitglieder und Freunde, unsere Kollegen, Stammtischbrüder und – schwestern und Vereinskollegen – und natürlich unsere 1E9-Community: Wollen wir das, was Künstliche Intelligenz können wird?
Michael Brendel ist studierter Theologe und ausgebildeter Journalist. Kürzlich ist sein neuestes Buch erschienen: „Künftige Intelligenz. Menschsein im KI-Zeitalter.“ Außerdem betreibt er den Blog „Spähgypten – Wir und die Macht im Netz“. Hauptberuflich arbeitet er als Studienleiter für Politik und Medien im Ludwig-Windthorst-Haus in Lingen. Auf Twitter ist er auch.
Teaser-Bild: Getty Images