Dr. Strangelove oder: Wie ich lernte, die Superintelligenz zu lieben

Bei der Kalifornischen Asilomar Conference 2017 fand ein einzigartiges Panel zu ethischen Prinzipien in der Künstlichen Intellgienz statt. Absurd hochkarätige Experten wie Ray Kurzweil, Nick Bostrom, Elon Musk und Stuart Russel diskutierten darüber, wie man den ethischen Einsatz von KI fördern und den Missbrauch dieser immer mächtiger werdenden Technologie verhindern könne. Vermutlich war weder vorher noch nachher jemals so viel Kompetenz zu dieser Frage auf einer Bühne versammelt, aber eine Antwort fanden sie nicht. Stattdessen wurden neue Horrorszenarien ausgemalt: Stuart Russel warnte eindringlich vor den Bestrebungen zur Schaffung einer Superintelligenz. Für Ihn sei das, als würden wir eine Atombombe bauen, die wir zur freien Verfügung an die ganze Welt per Email verschicken.

Video: Superintelligence: Science or Fiction? | Elon Musk & Other Great Minds

Wahrscheinlich ist es noch weit hin bis zur Atombombe der Künstlichen Superintelligenz, aber wir scheinen aktuell – um bei der Nuklear-Metapher zu bleiben - den Manhattan-Project-Moment der KI zu erleben. Dieser Moment war damals wie heute gekennzeichnet durch eine massive Aufstockung der Forschungs- und Entwicklungsressourcen, die weitreichende Einbindung privater Industriepartner, sowie die großflächige Anwendung der Technologie auf die Gesellschaft. Bemerkenswert war, dass es überhaupt keinen gesellschaftlichen Wunsch danach gab. Es gab keine Demonstrationen, in denen das Volk mehr Nuklear-Technologie forderte und erst recht nicht den Bau von Atombomben– welche klar denkende Gesellschaft würde Billionen von Steuergeldern in Mordwaffen stecken? (Davon hätte man vermutlich die ganze Weltbevölkerung zum friedenssichernden Schüleraustausch von links nach rechts schicken können.) Die Nuklearwaffen waren in erster Linie politisch gewollt, um einen Vorteil gegenüber anderen Staaten zu erlangen. Zwar behauptete man Anfangs in Amerika, dass man die amerikanische Atombombe nur zum Schutz des Volkes vor der geplanten Atombombe der Deutschen bräuchte, aber selbst nachdem Deutschland 1942 sein Nuklearwaffenprogramm weitestgehend eingestellt hat, wurde die Entwicklung in den USA uneingeschränkt fortgesetzt.

Im Bereich Künstliche Intelligenz scheint dasselbe hetzerische Arms-Race-Narrativ genutzt zu werden und es klingt ungefähr so: USA und Europa müssen unbedingt Vollgas geben, um nicht von der KI-Macht China kolonialisiert zu werden – ein Narrativ, dem sich deutsche PolitikerInnen teilweise ebenfalls anzuschließen scheinen, wie @Wolfgang berichtet. Tatsächlich muss man aber weniger von konkurrierenden Staaten ausgehen, sondern eher von einer Industrie, die jeweils die Staaten zu ihrem Profit gegeineinander ausspielt. Wenn z.B. Angst damit geschürt wird, dass in China KI schon im Kindergarten gelehrt wird, muss man nur etwas weiter scrollen, um zu lesen, dass ein amerikanischer Konzern hierfür die Materialien bereitstellt. Was diese Konzerne da treiben ist ungefähr so, als würde ich Deinem Nachbarn eine Knarre verkaufen. Und dann würde ich zu dir kommen und sagen: „Du wirst es nicht glauben, aber Dein Nachbar hat sich bewaffnet um Dich zu killen. Doch weil ich dich so sehr liebe, verkaufe ich Dir auch eine Knarre um Dich zu schützen.“ Geschützt wird dadurch niemand, aber der Absatz steigt.

Auch bei der aktuellen KI-Penetration der Gesellschaft scheint es egal zu sein, wie KI überhaupt eingesetzt wird, Hauptsache sie wird viel eingesetzt. Oder wie ließe sich sonst die Entwicklung einer 220-$-Zahnbürsten mit KI erklären? Vielleicht werden uns diese Zahnbürsten irgendwann so absurd erscheinen wie die 1940 noch so fortschrittlich wirkende radioaktive Zahnpasta Doramand. Die Produktion dieser Thorium-haltigen Zahnpasta wurde erst mit dem Abwurf der Atombombe über Hiroshima eingestellt. Hoffentlich braucht es nicht erst einen Hiroshima-Moment der KI um zu merken, wenn wir es mit KI übertreiben.


Anzeige für die radioaktive Zahncreme Doramad. Bild: Wikipedia

Vor diesem Hintergrund scheint die Asilomar-Conference dann auch ein wenig heuchlerisch. Zwar hat sie dem Thema KI-Ethik einen Boost gegeben und hat zu wegweisenden Publikationen geführt wie eben den Asilmar-Prinzipien und vor allem Paula Boddingtons Buch „Towards a Code of Ethics for Artificial Intelligence“. Aber auf der anderen Seite, muss man sich noch einmal vor Augen führen, was da passiert war: da saßen ein paar der krassesten KI-Experten der Welt und debattieren darüber, wie man die böse Superintelligenz vermeiden könnte, während genau sie es sind, die diese erschaffen wollen. Passend dazu wurde kürzlich bei Reddit die Frage aufgeworfen “Who should stop unethical AI?” Der meistbeachtete Kommentar lautet bisher: “Right now absolutely no one stops unethical human CEOs, billionaires, and politicians. :-(“

Welchen Ausweg gibt es aus diesem Teufelskreis? Der 160-IQ-Punkte Mathematik-Professor Ted Kaczynski formulierte in seinem „UNA Bomber Manifest“ eine klare aber geisteskranke Antwort auf übermächtige Tech-CEOs: alle killen, mit samt ihrer Technologie. Rein mathematisch betrachtet macht das Sinn. Laut Mengenlehre schließt die Vernichtung sämtlicher Technologie natürlich auch die Vernichtung gesellschaftschädlicher Technologie ein - aber zu welchem Preis? Wir können ja aus Angst vor dem Missbrauch von KI nicht in die Steinzeit flüchten. Unser technologischer Fortschritt hat uns unermessliche Sicherheit, Gesundheit und Komfort gebracht.

Tk_arrest
„UNA Bomber“ Ted Kaczynski bei der Festnahme in seiner technologie-freien Holzhütte. Bild: Wikipedia

Es muss uns irgendwie gelingen, dem Dual-Use-Dilemma zu entkommen, wonach jede noch so gute Technologie irgendwann doch für böse Zwecke missbraucht werden kann. Und vielleicht versteckt sich ja doch die Lösung aller ethischen KI-Probleme in einer etwas hilflos wirkenden Aussage von Stuart Russel auf besagtem Panel in Bezug auf den Missbrauch von Superintelligenz: „We have to somehow make it unthinkable“. Was man hier hinein interpretieren kann, ist dass die Lösung nicht in besonders raffinierten technischen Vorkehrungen besteht, sondern der ethischen Einstellung jedeR einzelnen. Wir müssen den inneren Kompass wieder aktivieren, der jedem gesunden Menschen klarmacht, dass man über die Konsequenzen seines Handelns gründlich nachdenken muss. Und wenn man dann zu dem Schluss kommt, dass die Konsequenzen zu gefährlich oder auch nur zu unabsehbar sind, dann muss es einfach selbstverständlich sein, dass man den mahnenden Worten des deutschen KI-Pioniers Joseph Weizenbaum folgt: niemand wird zur Entwicklung einer bestimmten KI-Anwendung gezwungen, in manchen Fällen darf man es auch einfach lassen.

3 „Gefällt mir“

Sehr coole Beispiele aus der Technikgeschichte :slight_smile:
Und interessante Parallele zur Atom-Technologisierungs- und Kommerzialisierungsdynamik im letzten Jahrhundert.

Wäre schön wenn es so einfach wäre. Sobald man damit „Geld“ verdienen kann wird das passieren. Denn das ökonomische Prinzip und sowas wie Gier, aber auch letztlich die Tatsache, dass man arbeiten muss, um eine Existenz zu haben - und dann tut man halt was man kann - fördern eher ein solches Tun, als ein aus moralischen Gründen Nichttun.

2 „Gefällt mir“

Danke! Ich bin da natürlich wieder der gemäßigte Zweckoptimist: zum einen will ich einfach glauben, dass es so einfach wäre, aber manchmal halte ich fast schon das Lenin zugeschriebene Zitat für zutreffend: „The Capitalists Will Sell You the Rope with Which You Will Hang Them“. Insbesondere wenn man sich as business-as-usual angesichts des Klimawandels anschaut.

2 „Gefällt mir“

Schöner Text! Leider habe ich anhand der Kommentare das Gefühl, dass etwas zu kurz gegriffen wird: Nicht das liebe Geld (und damit, wenn man das weiterdenkt, die böse Wirtschaft/Kapitalismus/Gewinnstreben/…) ist allein schuld an der Entwicklung und Umwidmung mächtiger neuer Technologien. Das Dilemma offenbart sich doch mit einem ganz einfachen Gedankenexperiment: Hätte man von Anfang an Schusswaffen geächtet, und einer hätte sich nicht dran gehalten, dann hätte er alle anderen beliebig ausrauben und knechten können. Das wäre ebenfalls unangenehm gewesen, da hätte er keine Schusswaffenfabrik aufbauen müssen, um damit Geld zu verdienen.

Darin steckt meiner Ansicht nach der Kern der Problematik: Um verhindern zu können, dass machbare Technologien von anderen zu unangenehmen Zwecken genutzt werden, muss man sie selbst entwickeln, um sich anderen entgegenstellen zu können. Bestes Beispiel: Atomwaffen. Und aus diesem Dilemma sehe ich kein Entkommen.

2 „Gefällt mir“

Da stimme ich Dir zu hundert Prozent zu! Und das macht mich auch fertig. Es kann ja nicht sein, dass wir Menschen uns überhaupt keine andere Lösung vorstellen können, als uns allen gegenseitig mit Massenmord zu drohen. Wenn wir denken, dass das die Lösung ist, dann ist vielleicht mit unserem Denken etwas verkehrt. In ein paar Tagen erscheint ein Buch dazu, dass ich mit dem Außenminister der Republik Užupis herausgebe. Darin überlegen wir, ob man dem logischen Denken (alles, was Du in Deinem Kommentar sagst, ist vollkommen logisch!) ein paradoxes Denken gegenüberstellen kann, in dem sich diese Dilemmata auflösen lassen.

2 „Gefällt mir“