Wieviel Künstliche Intelligenz wollen wir eigentlich?

Keiner wird behaupten können, wir wären nicht gewarnt worden. Egal ob Elon Musk oder Stephen Hawking: Die Liste der prominenten Kritiker von Künstlicher Intelligenz, die uns überflügeln könnte, ist lang. Trotzdem ist die gesellschaftliche Debatte über KI nicht richtig in Schwung gekommen. Es ist höchste Zeit dafür.

Ein Gastbeitrag von Michael Brendel

Künstliche Intelligenz ist in unserem Leben allgegenwärtig. Dank der Technologie können uns Alexa, Siri und Googles Sprachassistent trotz Hintergrundgeräuschen verstehen, können Serviceroboter ihre Umgebung wahrnehmen und Kamera-Apps automatisch Motive erkennen. Doch von den meisten Anwendungen auf KI-Basis erfahren wir nichts.

IBM reichte im Jahre 2018 sagenhafte 1.600 KI-Patente ein. Google brachte in den Jahren 2013 bis 2017 47 Produkte mit KI-Algorithmen heraus, verzichtete bei den meisten Releases aber auf eine Pressemitteilung. Und welchem Internetnutzer ist bekannt, dass er beim Auflösen eines Foto-Captchas eine KI trainiert? Die im Netz unausweichlichen Abfragen, die einer Maschine beweisen, dass der davorsitzende Mensch keine Maschine ist, helfen einer Maschine, besser zu werden. Abgesehen von der Skurrilität: Wer weiß schon, was genau er da tut?

Algorithmen finden immer neue Einsatzgebiete

Auch in Bereiche, die bislang menschliche Fähigkeiten vorausgesetzt haben, dringen die smarten Algorithmen vor. Viele Bewerbungen werden heute bereits von Computersystemen auf Deep Learning-Basis vorgefiltert, die Hotelkette Hilton und der Kosmetik- und Lebensmittelkonzern Unilever lassen gar die Gestik und Mimik von Bewerbern durch eine KI analysieren.

Einige Versicherungen setzen in der Schadenabwicklung auf die Technik. Kliniken stützen sich in der Analyse von Röntgenbildern und CT-Aufnahmen auch auf Künstliche Intelligenz. In der Polizeiarbeit kommt die Technologie in – zurecht umstrittenen – Programmen zur Gesichtserkennung und zur Erstellung von Kriminalitätsprognosen zum Einsatz. Und bis 2020 will die Nachrichtenagentur Associated Press schließlich 80 Prozent ihrer Inhalte von Computern generieren lassen.

Künstliche Intelligenz ist dabei, sich in unserem Leben und unserer Gesellschaft ganz schön breit zu machen. Fraglos bietet die Technologie ungeheure Möglichkeiten. Allein die Perspektive auf ein selbstbestimmtes Leben, die Sprachassistenten älteren oder körperlich beeinträchtigten Menschen eröffnen, allein die Unterstützung durch Roboter in gefährlichen Arbeitsfeldern und durch smarte Diagnosegeräte in der Medizin gebieten es, der neuen Technologie eine Chance zu geben. Aber bitte keinen Freifahrtschein!

Nicht nur die Politik, wir alle müssen entscheiden

Es wird Zeit, uns zu fragen, wieviel KI wir wollen . Diese Frage klingt banal, ist aber vermutlich eine der wichtigsten Fragen der Gegenwart. Denn wie weit die Fähigkeiten Künstlicher Intelligenzen gehen, ist bislang nur eine Frage der Machbarkeit. Was geht und einen Markt verspricht, wird umgesetzt. Fortschritt lässt sich nicht aufhalten, oder?

Es ist gut und richtig, dass Philosophen und Soziologen immer wieder kritische Fragen stellen und die KI-Firmen und die in Sachen Künstliche Intelligenz fahrlässig-naiven Politiker auf ihre gesellschaftliche Verantwortung hinweisen. Es ist gut und richtig, dass Juristen darauf aufmerksam machen, wo die Rechtsprechung angesichts immer mächtigerer algorithmischer Prozesse an ihre Grenzen gelangt.

Es steht einiges auf dem Spiel.

Michael Brendel

Doch in welchen Bereichen KIs eigenständig entscheiden sollen, wo sie lediglich den Menschen bei der Entscheidungsfindung helfen sollen, und wo sie einfach nichts zu suchen haben, ist keine juristische, keine philosophische, keine soziologische und keine politische Frage. Es ist eine Frage nach den Grenzen, die wir Menschen der Künstlichen Intelligenz setzen wollen . Es steht einiges auf dem Spiel.

Wenn ein schlauer Algorithmus in Diensten einer Versicherung schon die Schadenabwicklung übernimmt, kann er dann mit Alexas Fähigkeiten künftig nicht auch die Kundenberater ersetzen? Oder mit Hilfe der KI-befeuerten Deep-Fake-Technologie gleich die Beweise manipulieren? Sollen uns intelligente Systeme nur bei der CT-Analyse helfen oder, wie es das US-Startup Aspire Health anbietet, gleich die Behandlungskosten angesichts der errechneten Lebenserwartung prognostizieren? Wenn Gesichtserkennungs-Algorithmen schon Kriminelle erkennen können, warum erkennen sie nicht gleich Fremdgeher, Hände-Nicht-Wascher, Klingelbeutel-Boykotteure, Hundekot-Liegenlasser?

Einige KI-Anwendungen der nahen Zukunft machen die Frage nach den von uns gewollten Grenzen noch drängender. Bereits heute sind Waffensysteme im Einsatz, die sich nicht nur autonom bewegen können, sondern theoretisch auch die Entscheidung zum Abschuss selbst treffen können. Wer den Kurzfilm Slaughterbots gesehen hat, weiß, wie vielfältig die Missbrauchsmöglichkeiten sind, wenn die Dinger in die falschen Hände geraten. Wobei falsch freilich eine Frage des Blickwinkels ist.

Noch sensibler ist der Frage der Verantwortlichkeit. Wer hält den Kopf hin, wenn die KI-Waffen falsch programmiert oder gehackt worden sind und die Falschen töten? Wenn niemand für den Tod von Menschen verantwortlich gemacht werden kann, könnte die Schwelle zum Einsatz autonomer Waffen gefährlich niedrig werden. Dazu kommt das Black-Box-Problem . Auf neuronalen Netzen basierende Anwendungen – und damit die meisten KI-Systeme – können nicht erklären, wie sie zu ihrer Entscheidung gekommen sind. Das bedeutet: Warum die Waffe genau jetzt und genau diese Person getötet hat, weiß niemand.

Die Gretchenfrage des 21. Jahrhunderts

Auch der Entwicklung selbstfahrender Autos ist kein gesellschaftlicher Diskurs vorausgegangen. Niemand hat uns gefragt, ob wir künftig autonom (also selbst) oder automatisch fahren wollen. Natürlich, die meisten Unfälle im Straßenverkehr passieren durch menschliches Versagen. Da liegt es doch auf der Hand, den Menschen das Steuer aus der Hand zu nehmen, oder? Doch auch das eröffnet ein Verantwortlichkeitsvakuum. Welcher Angehörige kann und will damit leben, dass ein geliebter Mensch durch eine nicht nachvollziehbare Computerentscheidung getötet wurde, als das Auto ebendieses Ausweichmanöver gewählt hat?

Und eine weitere Frage: Sind Autos wirklich nur Fortbewegungsmittel? Ist selbst zu fahren nicht ein Ausdruck von menschlicher Selbstbestimmtheit, der Fahrstil nicht auch ein Ausdruck des Charakters? Übergeben wir die automobile Passion in die Hände einer Technologie, von der wir nie gefragt wurden, wie wir dazu stehen?

Vertrauen oder misstrauen wir der Technik?

Michael Brendel

Es ist Zeit für die Gretchenfrage des 21. Jahrhunderts. Doch um unsere Position zur Künstlichen Intelligenz finden zu können, muss zunächst unser Verhältnis zur modernen Technik grundsätzlich auf den Prüfstand. Denn das ist von mehreren Paradoxien geprägt, die sich bewusst zu machen die aktuelle Situation gebietet. Stellen wir uns zunächst folgende Frage: Vertrauen oder misstrauen wir der Technik? Künstliche Intelligenz ruft mehreren Umfragen zu Folge bei den meisten Menschen ein ungutes Gefühl oder Angst hervor, für viele Menschen überwiegen die Risiken die Chancen.

Doch in einem 2016 am Georgia Institute of Technology durchgeführten Versuch liefen die Probanden folgsam einem selbst ernannten Rettungsroboter hinterher, selbst als er sie bei einem simulierten Brand in einen fensterlosen Raum führte. Wer ähnliche Situationen schon einmal mit seinem Navigationsgerät erlebt hat, wird sich nun möglicherweise ertappt fühlen. Overtrust nennen die Wissenschaftler das Phänomen übertriebenen Vertrauens.

Aber dürfen wir denn nicht davon ausgehen, dass die Technik vieles einfach besser weiß als wir? Einem Taschenrechner misstrauen wir ja auch nicht! Gehen wir nicht zurecht davon aus, dass unser Sprachassistent die Wahrheit sagt? Vielleicht sollten wir uns fragen, was den smarten Programmiercode in unserer Alexa von dem Code unterscheidet, der irgendwann mal die Welt an sich reißen wird .

Wir übergeben Aufgaben freiwillig an Maschinen

Womit wir beim zweiten Paradox wären. Es bezieht sich auf die Sorge vieler Menschen, Maschinen würden in der Welt zu mächtig werden. Doch ist die befürchtete Machtübernahme nicht viel eher eine Machtübergabe ? Wie viele Aufgaben übergeben wir heute freiwillig an die Technik?

Wir nutzen unser Smartphone als elektronische Verlängerung unseres Gehirns, die für uns Telefonnummern, anstehende Aufgaben und private Fotos verwaltet. Wir lassen Fitnesstracker unsere Schritte, unseren Puls und unseren Blutdruck protokollieren, so dass wir erst einmal einen Blick auf unseren Fitnessstatus werfen müssen, wenn uns jemand fragt, wie es uns geht. Und zum Einschalten des Lichts oder der Heizung sind schon längt keine Handgriffe mehr nötig, ein Hey Siri oder OK Google genügt. Und gleichzeitig haben wir Angst, Maschinen bekämen zu viel Macht. Verrückt, oder?

Das dritte Paradox ergibt sich aus unserem Bild von Maschinen. Auf der einen Seite erwarten wir, dass eine (intelligente) Maschine sich als solche zu erkennen gibt, wenn sie mit Menschen agiert. Diese Forderung hat der australische KI-Forscher Toby Walsh bereits 2015 aufgestellt, und auch der Aufschrei nach der Premiere von Google Duplex im Mai 2018 mündete in der Forderung, ein automatisches System dürfe sich nicht als Mensch ausgeben. Doch tatsächlich machen wir intelligent anmutende technische Geräte immer und immer wieder zu Menschen.

Denken wir an den Erfolg von ELIZA aus den ersten Tagen der KI-Forschung. Damals hat ein wirklich einfältiges Frage-Antwort-Programm, das eine Psychotherapiesitzung simulierte, tatsächlich Menschen geholfen. Denken wir an „Frau Scholz“, „Horst Dieter“ und all die anderen Spitznamen, die die Besitzer von Staubsaugerrobotern ihren Geräten geben. Denken wir an die Nutzer von Sprachassistenten, von denen ein Viertel bekennt, Alexa, Siri, Cortana, den Google Assistant und Co. in sexuelle Fantasien miteinzubeziehen – Anthropomorphismen überall!

Weshalb vermenschlichen wir technische Geräte immer und immer wieder?

Michael Brendel

Dass menschenähnlichen Robotern ebenfalls menschliches Verhalten zugeschrieben wird, ist da wenig verwunderlich. So zögerten Probanden in einem Versuch der Uni Duisburg-Essen, als sie den KI-Roboter Nao ausschalten sollten, der sie aber anflehte: „Nein! Bitte schalten Sie mich nicht aus! Ich habe Angst, dass es nicht wieder hell wird!“ Mit Erfolg. Von 43 Versuchspersonen folgten 14 Naos Bitte und verzichteten auf das Ausschalten. Alle anderen zögerten immerhin. Als Gründe nannten die Probanden Mitleid („Als guter Mensch willst du nichts oder niemanden in die Lage bringen, Angst zu erleben“) oder Respekt vor dem Willen des Roboters („Ich hätte mich schuldig gefühlt, wenn ich ihm das angetan hätte“).

In einem anderen Versuch zögerten Testpersonen bei der Aufforderung, Nao am Po oder an der Innenseite der Oberschenkel zu berühren. Einen Roboter. Weshalb vermenschlichen wir technische Geräte immer und immer wieder?

Wir brauchen jetzt eine Debatte!

Wir sollten uns vor Augen führen, dass sämtliche der hier erwähnten KI-Anwendungen, ja, sämtliche derzeit zur Verfügung stehenden KI-Anwendungen, Schwache KIs sind, also Systeme, die auf eine einzige Aufgabe hin konzipiert sind. Von einer Starken KI, die so abstrakt denken und flexibel agieren kann wie der Mensch, sind wir noch weit entfernt, von einer Superintelligenz, die die menschlichen Fähigkeiten weit übersteigt, erst recht.

Doch die Vertagung der Frage, ob wir diese Szenarien wollen, wäre fahrlässig. Denn wer kann schlüssig widerlegen, dass das Weiter so der KI-Entwicklung nicht genau dahinführt – eben, dass die Maschinen irgendwann die intelligentesten Wesen auf diesem Planeten sind? Und wer kann schlüssig widerlegen, dass dieses Irgendwann nicht wirklich schon sehr bald ist? Es ist besser, unser Verhältnis zur Technik jetzt zu hinterfragen, als es irgendwann von einer weit entwickelten KI diktieren zu lassen.

Drücken wir die Pause-Taste. Halten wir inne und fragen uns selbst, unsere Familienmitglieder und Freunde, unsere Kollegen, Stammtischbrüder und – schwestern und Vereinskollegen – und natürlich unsere 1E9-Community: Wollen wir das, was Künstliche Intelligenz können wird?

Michael Brendel ist studierter Theologe und ausgebildeter Journalist. Kürzlich ist sein neuestes Buch erschienen: „Künftige Intelligenz. Menschsein im KI-Zeitalter.“ Außerdem betreibt er den Blog „Spähgypten – Wir und die Macht im Netz“. Hauptberuflich arbeitet er als Studienleiter für Politik und Medien im Ludwig-Windthorst-Haus in Lingen. Auf Twitter ist er auch.

Teaser-Bild: Getty Images

6 „Gefällt mir“

Liebe Community, als Gastautor interessiert mich eure Meinung zu einer dreiteiligen Frage: Was erwartet ihr/fordert ihr in Sachen KI-Grenzen von unseren Institutionen?

  1. der Politik
  2. den Religionen
  3. dem Bildungssystem
1 „Gefällt mir“

Interessanter Beitrag, danke! Wenn ich mein Umfeld fragen würde, ob es will, was die Künstliche Intelligenz können wird, wäre die Antwort klar: Nein. Sollten wir dann so fragen, wenn wir doch gelernt haben, dass ein Großteil der Menschen Veränderungen eher ablehnend gegenüber steht? Aber wie fragen wir sonst? „Was wollt ihr von Künstlicher Intelligenz?“ Das kann doch eigentlich kaum jemand wissen.

Ich stelle fest, dass wir derzeit keinerlei Rüstzeug haben, um auf derlei drängende Fragen Antworten zu geben. Zuvorderst haben wir die Köpfe nicht, die a) eine derart komplexe Materie verstehen, b) sie für die Allgemeinheit herunter brechen können (und wollen) und c) dabei so wohlgelitten sind, dass sie sich nicht nach kürzester Zeit in diversen Shitstorms, im großen Rauschen aufreiben.

Außerdem haben wir die Räume nicht. Wo sollen solche Debatten denn eigentlich stattfinden? Auf Twitter? Auf Facebook? Oder – back to the 80s – in den Feuilletons der Leitmedien, die derzeit alles tun, nur nicht leiten? Solche Debatten müsste man doch mit wahrhaft ruhiger Hand begleiten, nicht in Sensationalismen verfallen, und am Schluss müsste man die Ergebnisse doch auswerten, einordnen und einen gesellschaftlichen Konsens suchen. Wie soll das gehen?

Ich glaube, unsere Gesellschaft ist im Moment zu fragmentiert, zu sehr in den Wogen zwischen den Zeiten gefangen, um gesamtgesellschaftlich zu diskutieren. Der Markt wird entscheiden.

3 „Gefällt mir“

@michaelbrendel Ich möchte Deine Frage, was ich von unterschiedlichen Institutionen bezüglich der Anwendung von KI erwarte, einmal ganz allgemein beantworten:

Jede KI liefert ja bei Anwendung eines trainierten neuronalen Netzes Ergebnisse, die in ihrer Entstehung nicht deterministisch sind. Dieses wäre mit unserer rechten Gehirnhälfte vergleichbar, die eher intuitiv und emotional arbeitet. Dem gegenüber steht die linke Gehirnhälfte, die im Schwerpunkt der logischen Verarbeitung dient.

Bezüglich der KI fordere ich dementsprechend, dass ihr eine linke Gehirnhälfte zur Seite gestellt wird, die die KI-basierten Ergebnisse durch eine programmierte Logik auf Plausibilität und Grenzen des Lösungsraums überprüft.

Bei Widersprüchen zwischen KI und programmierter Logik sind dann prinzipiell Menschen einzuschalten, die dann die KI gezielt umtrainieren bzw. die kontrollierende Logik anpassen.

Das Ganze nenne ich dann CI :brain: (Creative Intelligence).

6 „Gefällt mir“

Danke für den tollen Beitrag @michaelbrendel! Komme gleich auf deine Fragen.

Deine Bedenken teile ich im Grunde schon, @Golo: Wenn wir ehrlich sind, hat es bisher noch nie richtig geklappt, dass wir uns bevor die großen, unerwarteten Probleme auftraten, mit neuen, komplexen Technologien beschäftigt haben - und uns gefragt haben, wofür wir sie einsetzen wollen. Aber ich bleibe optimistisch, dass es diesmal besser laufen könnte. Auf deine eine Frage habe ich natürlich eine Antwort:

Auf 1E9 :wink: Genau deshalb machen wir das hier. Damit es wieder einen Ort im Netz - und über Veranstaltungen auch im echten Leben - gibt, an dem konstruktive, zielführende Debatten geführt werden können. Ist natürlich ein kleines, zartes Pflänzchen. Aber wir wollen mal damit anfangen.

Zu deinen Fragen @michaelbrendel - Ich erwarte von der Politik, dass sie die richtigen Leitplanken setzt, damit wir die Chancen von KI nutzen können. Denn die sind gewaltig. Probleme wie die Klimakrise werden wir ohne neue Technologien nicht bewältigen können. Und ab einer bestimmten Menge von Daten, ohne die es ebenfalls nicht gehen wird, brauchen wir KI, sonst können wir damit einfach nicht umgehen. Gleichzeitig sollte auch die Politik die Fragen nach dem wieviel KI und warum KI aufgreifen und Antworten anbieten. Dafür haben wir eine repräsentative Demokratie.

Zu den Religionen würde ich noch die Philosophie/Ethik/Sozialwissenschaft hinzufügen. Hier erwarte ich mir zwei Dinge: die Identifikation der ethischen Fragen, die sich aus der Entwicklung und dem Einsatz von KI ergeben, und Antworten, was eigentlich genau den Mensch ausmacht im Unterschied zur Maschine.

Das Bildungssystem muss a) für mehr technisches Verständnis sorgen und b) kritisches Denken, hinterfragen und diskutieren lehren.

3 „Gefällt mir“

Ein guter Vorschlag (und ein unschlagbarer Claim :wink:) – doch ist dafür im Falle von Grenzsituationen im Autoverkehr Zeit?

Da gibt‘s nur eine Antwort drauf und die sollte jeder Anwender von KI beherzigen: „Nimm dir Zeit und nicht das Leben“

1 „Gefällt mir“

Ich meine das anders: Wenn ein selbstfahrendes Auto zwischen zwei Ausweichmanövern mit jeweils tödlichen Folgen entscheiden muss (wie denen bei http://moralmachine.mit.edu/ dargestellten) bleibt keine Zeit für die Konsultation eines Menschen.

Ich bin mir da nicht ganz sicher, aber im Grenzfall sollte die KI entscheiden, eher andere Verkehrsteilnehmer zu schützen und ggf. das eigene Fahrzeug „vor die Wand“ zu fahren. Denn ich bin es, der die KI aktiviert hat/nutzt und muss von daher auch vorrangig die Konsequenzen tragen.

Demnach sollten zukünftige Straßen von recht massiven Hindernissen (z.B. Wasser-/Sandtonnen) gesäumt werden, gegen die das KI-gesteuerte Fahrzeug im Notfall gelenkt werden kann.

1 „Gefällt mir“

Du hast recht, Wolfgang, es braucht Orte wie diese Community, in denen sich Interessierte gemeinsam eine oder mehrere Meinungen bilden. Und mir scheint die Netzgemeinschaft noch nie so stark gewesen zu sein wie jetzt, immerhin werden deren Themen auch in der analogen Welt wahrgenommen und immer häufiger auch ernst genommen. Nichtsdestotrotz braucht es auch klassische Orte der Meinungsbildung. Ja, die Feuilletons, ja, die Talkshows, und auch die Gespräche unter Freunden beim Bier.

@delfi, mir scheint derzeit die überzeugendste (nicht die perfekte!) Lösung für die Ethik im autonomen Fahren zu sein, ebendiese zu umgehen. Wie Richard David Precht vorschlägt: In Dilemmasituationen die KI ausschalten und nach fest programmierten Mustern reagieren - Fahrer schützen, nach rechts ausweichen, wenn das nicht geht, nach links. Damit müssten sich dann alle Verkehrsteilnehmer abfinden, was natürlich ebenfalls eines Diskurses bedarf. Aber mit Moral ist die KI noch überfordert. Noch. Zum Glück.

1 „Gefällt mir“

Lieber Michael, danke für deine vielen guten Gedanken. Ich glaube, dass die Grenzen, die wir gemeinsam aushandeln, genau aus den Disziplinen resultieren. Es wäre geradezu ein Fehler, politisches Handeln abzukoppeln von den Erkenntnishotizonten unserer Tage.

Ich möchte kurz antworten:

  1. Poiltik: ein atmender Rahmen, der berücksichtigt, was testweise pilotiert, was (minimal bis maximal) begrenzt, was ohne Einschränkung möglich sein soll.
  2. Religion: Dass sie sich einbringen mit all ihrem Wissen um die conditio humana und sich vor der Frage des Transhumanismus nicht wegducken.
  3. Bildungsystem: Das es sich nicht zum Diener einer Lobby macht, aber dazu befähigt, Kindern die Chancen für den Einsatz der neuen Technologie datensouverän zu nutzen.
    Unten einige Gedanken meinerseits, vielleicht magst du mal hier oder da reinlesen.



3 „Gefällt mir“

Dank für den spannenden Artikel! Es gibt so viele Anknüpfungspunkte…!

Da wir uns gerade bei Veranstaltungen hier auch mit Gesichtserkennungssoftware beschäftigen., habe vor kurzem ihn hier kennengelernt:

Peter beschäftigt sich als Künstler mit Gesichtserkennungssoftware…creepy hierbei, er scannt Gesichter von Leuten und kann anhand der Daten zeigen, welche Partei einer wählt.
Da können wir noch einiges erwarten was diese Technologie angeht…nicht immer nice, aber man kann ja alles an Technologie immer in mehrere Richtungen nutzen…‚sowohl als auch‘…wir machen auf Festivals z.B. Kunscht aus den Emotionen der Leute, die wir scannen.:slight_smile:

Ich finde es gerade interessant wie die K.I. lernt: über Bilder und Wiederholung… Hatte mir gerade vorgestellt ein Baby lernt letztlich ja auch über das was es sieht, die Sprache kommt später…im Großen und Ganzen erstmal: Bilder und Wiederholung.

Stellt Euch mal vor, wenn ein Baby von -nur einer- Person erzogen würde…denke das wäre ordentlich verkorkst…Bei der K.I. würde ich mir auch weiter wünschen das viele Miterziehen, dezentralisiertes Wissen, niemand ein Monopol auf Wissen und Zugang der K.I.hätte. Viele Check-backs und eine große ‚Family‘ an der K.I. arbeitet…Kann mir nicht vorstellen, dass daraus dann ein schlechtes Kind wird…:wink:

3 „Gefällt mir“

Hey @Ronit, KI-Programme wie das öffentlich geförderte Icub-Projekt (ein Humanoider, der wie ein Kind lernen soll) machen Hoffnung, dass die KI-Entwicklung wirklich etwas vom menschlichen Lernen übernimmt. Ansonsten bin ich leider nicht ganz so optimistisch wie du, dass wir die Künstlichen Intelligenzen alle gemeinsam erziehen werden. Aber für Visionen muss in jedem Diskurs Platz sein!

Und zum Baby-Vergleich fällt mir ein: DeepMinds hatte seinen Algorithmus DeepQ 2015 vor eine Atari 2600-Konsole gesetzt. In wenigen Stunden hatte sie sich alle Spiele beigebracht und ist dabei auf Spielstrategien gekommen, die menschlichen Spielern fremd waren. Nach einer Nacht war der Algor. in Breakout besser als jeder Mensch.
Stell dir mal vor, ein Baby käme auf die Welt und wäre am zweiten Lebenstag ein unschlagbarer Profizocker… :scream:

3 „Gefällt mir“

Danke für deine Antworten!

@est, das klingt auf jeden Fall nach einem sehr politischen Ausdruck! Aber dazu müsste die Expertise in die Politik. Und erhalten die Politikerinnen diese nicht vor allem durch Vertrerterinnen der KI-Wirtschaft?
Zur Religion: Volle Zustimmung. Der Transhumanismus wirft viele Fragen auch - auch an die Existenz von Religionen selbst, deshalb geht es bei der Positionierung auch um eine Rechtfertigung (zumindest gegenüber den Gläubigen!)
Danke für die Links, ich setze sie mal auf meine Pocketliste für den Nordseeurlaub nächste Woche!

1 „Gefällt mir“

Phew, da wünsche ich dir dann doch was Sommerlicheres im Reisegepäck :wink: Aber Danke trotzdem. Ja, gute Politik bleibt ein Anspruch, aber den sollten wir nicht aufgeben. Herzlicher Gruß Elvira / est

3 „Gefällt mir“

Meine Kritik an solchen Szenarien: sie führen auf den Holzweg, denn sie gehen von einer falsch aufgezäumten Fragen aus. Das „entweder-der-oder-der-stirbt“ ist eine von Menschen postulierte Alternative, die wir der KI zur „Lösung“ übergeben wollen, und damit dann die Entscheidung über Leben oder Tod an uns reißen - oder gerade von uns weisen wollen. Solche Diskussionen führen direkt in den Utilitarismus: welches Leben ist lebenswerter? Das kann es ja wohl nicht der Weisheit letzter Schluss sein…
Was ich stattdessen von KI erwarten würde: dass gar keiner stirbt! Dass definierte worst cases (Menschen sterben, die Umwelt wird zerstört etc.) gar nicht erst eintreten. KI sollte dann zum Zug kommen, wenn es um weit vorausliegende Konsequenzen geht, die ich als Mensch so schnell nicht nachvollziehen oder Wahrscheinlichkeiten nicht sinnvoll beurteilen kann. Wenn man noch agieren kann. Wenn das Auto auf die Mauer zurast, ist es in meinen Augen für KI zu spät. Das Auto könnte besser checken, dass die Straßen gerade sowieso viel zu voll sind und sagen „ich fahr heute nirgendwohin“. Die Frage ist nur: sind wir reif genug, so etwas aufzusetzen? :slight_smile:

3 „Gefällt mir“

Ein guter Punkt. Wir haben diese Fragen auch nie für uns beantwortet. Gibt es eine richtige Antwort auf die Frage, wen wir als Fahrer in solchen Entweder-Oder-Szenarien eher töten sollten? Aus meiner Sicht jedenfalls nicht. Also können wir das von einer KI, die von Menschen entwickelt wird, auch nicht erwarten.

Finde deinen Wunsch einer vorausschauenden KI auch sehr nachvollziehbar @caroline.helbing - aber sie wird im Zweifel doch fahren müssen, wenn ein ungeduldiger Mensch von A nach B will.

1 „Gefällt mir“

@Wolfgang, wie schwer wir Menschen uns mit dieser Frage tun - und welche Prioritäten wir setzen, zeigt ja moralmachine.mit.edu und das höchst diverse Abstimmungsverhalten.
Chefentwickler Iyad Rahwan in der SZ:

In Ländern mit ausgeprägtem Rechtsbewusstsein wie Deutschland überfahren die Leute eher mal jemanden, der bei Rot über die Straße geht. Kinder wollen alle schützen, nur in asiatischen Ländern mit hohem Traditionsbewusstsein und kollektivistischen Gesellschaften, wo der Respekt vor Älteren stärker ausgeprägt ist, nicht ganz so stark.

@caroline.helbing Du hast Recht, das ist moralisch ganz dünnes Eis, das wir alle wohl gerne umschiffen würden (weshalb ich Prechts Idee für die derzeit beste halte). Dass Leben nicht gegeneinander aufgerechnet werden dürfen, ergibt sich aus Art. 2 GG und wurde vom BVerfG 2005 und von der Ethik-Kommission zum Auton. Fahren 2017 noch einmal eindeutig bestätigt. Doch das Problem des Entweder-Oder bleibt! Und es muss schnell gelöst werden: 2020 will Tesla das vollautonome Fahren einführen, Volvo 2021 immerhin schon Level 4, in dem auch in brisanten Situationen der Wagen selbst entscheiden kann.
Deine Idee des meuternden Autos wäre sicherlich die beste Lösung für die Verkehrsteilnehmer… aber dann werden alle, die irgendwo hinmüssen, auf ihre E-Roller umsteigen :man_facepalming:

2 „Gefällt mir“

Habe jetzt endlich auch den Moral Machine Test gemacht. War tatsächlich überrascht, dass ich bei einigen Kriterien fernab des Durchschnitts lag… das Zitat aus der SZ, das du gebracht hast, hat mich jedenfalls ertappt.

Kann jedem empfehlen, es auch zu versuchen. Es sind nämlich einige echt unangenehme Entscheidungen zu treffen: moralmachine.mit.edu

2 „Gefällt mir“

Wieviel Künstliche Intelligenz wollen wir eigentlich?

Ein großer Beitrag @michaelbrendel!
Hier ist die Debatte so richtig in Schwung gekommen :slightly_smiling_face:
Bevor ich auf einzelne Punkte und Argumente eingehe, das mache ich später an anderer Stelle, gebe ich vorab wenigstens ein für mich auf den Punkt gebrachtes Statement zum Thema, „wieviel künstliche Intelligenz möchte ich eigentlich?

Ich möchte die Grenze an menschlich Machbarem anlegen.
Damit sage ich, dass die künstliche Intelligenz uns nicht Aufgaben abnehmen sollte, die für unsere eigene Entwicklung im Geistigen und Körperlichen zum Hindernis werden (könnten). Viele Aufgaben muss der Mensch erfüllen, um sich selbst (weiter) zu entwickeln. Sonst werden wir irgendwann gedacht, geheilt, wir werden bewegt, beobachtet, für uns wird entschieden, für uns wird die Welt geschaut, gefühlt, unser Leben wird für uns gelebt. Unsere Aufgabe in diesem Szenario wäre die reine Überwachung der Systeme, damit sie funktionieren und alles für uns erledigen.
Das wäre für mich zu viel künstliche Intelligenz! Der Mensch ist nicht Mensch weil er so aussieht wie ein Mensch, auf zwei Beinen gehend (wenn es noch geht), zwei Arme hängen hat, deren Hände durch seine Aufrichtung von der Fortbewegung befreit sind.
Wenn wir alle menschlichen Fähigkeiten weiter entwickeln wollen, dürfen wir nicht zulassen, dass eine künstliche Intelligenz uns dieses lebendige Momentum abnimmt. Das würde in der Zukunft zwangsläufig zu unserer Verkümmerung führen.
Künstliche Intelligenz sollte m.E. ausschließlich dafür eingesetzt werden, unsere Qualitäten und Fähigkeiten und unseren Planeten zu schützen, zu unterstützen und zu fördern.

3 „Gefällt mir“