Die Ethik der Roboterautos: Wer autonome Fahrzeuge will, muss eigene Autonomie abgeben

Freiheit oder Sicherheit? Diese Abwägung verbinden die meisten wahrscheinlich eher mit ethischen Fragen rund um Internetdienste oder Ansprachen von Innenministern. Doch auch wenn es ums autonome Fahren geht, dürfte es eine der größten Herausforderungen sein, die richtige Balance zwischen menschlicher und maschineller Autonomie zu finden. Wir stellen euch einige der ethischen Debatten vor – von der Definition von „Sicherheit“ über Paternalismus bis zur Überwachung – und wollen dann mit euch diskutieren.

Von Wolfgang Kerler

Autonomie, das steht für Unabhängigkeit, für Selbstbestimmung – und für die Freiheit, eigene Entscheidungen zu treffen. Wenn ich heute auf der Autobahn unterwegs bin, kann ich auf das Tempolimit pfeifen und 138 statt 120 fahren. Warum? Weil ich spät dran bin. Weil kaum Verkehr ist. Oder einfach, weil ich Lust darauf habe. Das Risiko, erwischt zu werden oder einen Unfall zu bauen, nehme ich in Kauf.

In einem Roboterauto der Zukunft, das möglicherweise gar kein Lenkrad mehr hat, muss ich – ob ich will oder nicht – mit einer Geschwindigkeit von 120 Stundenkilometer leben. Denn nicht mehr ich bin autonom, sondern das Fahrzeug. Und dessen Code sagt ihm: An die Geschwindigkeitsbegrenzung muss man sich halten.

Nun klingt das gar nicht schlecht: eine Zukunft, in der sich alle Autos an die Regeln halten. Der Straßenverkehr würde dadurch um einiges sicherer werden. Doch der Preis, den wir dafür bezahlen, ist die Aufgabe menschlicher Entscheidungsfreiheit. Oder mit anderen Worten: Die Autonomie der Maschinen – und mit ihr viele gerettete Menschenleben – bekommen wir nur, wenn wir die Autonomie der Menschen, die in den Autos fahren, einschränken oder aufgeben.

Die Ethik-Kommission setzt auf Freiheit und Sicherheit

Ohne ein Mehr an Sicherheit machen autonome Fahrzeuge nicht viel Sinn. Zu diesem Ergebnis kam die 14-köpfige Ethik-Kommission, die das Bundesverkehrsministerium 2016 einberief und die im Juni 2017 ihren Bericht vorlegte. Im Kern besteht dieser aus 20 ethische Regeln für den automatisierten und vernetzten Fahrzeugverkehr. Sie beginnen, na klar, mit Sicherheit.

Teil- und vollautomatisierte Verkehrssysteme dienen zuerst der Verbesserung der Sicherheit aller Beteiligten im Straßenverkehr.

So lautet der ersten Satz der ersten Regel. Und auch in den folgenden Punkten geht es immer wieder um Sicherheit. Hier ein paar Beispiele: Die Zulassung von automatisierten Systemen sei nur vertretbar, wenn sie „zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht“. Die Technik „sollte Unfälle so gut wie praktisch möglich vermeiden“. Der „Schutz menschlichen Lebens“ habe höchste Priorität. Die Einführung „höher automatisierter Fahrsysteme“ könne sogar „ethisch geboten“ sein, wenn dadurch Schaden gemindert werden kann.

Doch die Vorschläge der Ethik-Kommission blenden die Frage nach der persönlichen Freiheit, nach der menschlichen Autonomie trotz dieser Forderungen nicht aus. Im Gegenteil. Denn die erste Regel, die mit Sicherheit begann, endet so:

Die technische Entwicklung gehorcht dem Prinzip der Privatautonomie im Sinne eigenverantwortlicher Handlungsfreiheit.

Mit mehr Sicherheit alleine ließe sich aus Sicht der Kommission auch keine verpflichtende Einführung autonomer Autos rechtfertigen, die es Menschen letztlich verbietet, selbst zu fahren.

Der für die Abwägung zwischen Freiheit und Sicherheit vielleicht wichtigste Satz steht dann in Regel 4. Dort heißt es: „In einer freien Gesellschaft erfolgt die gesetzliche Gestaltung von Technik so, dass ein Maximum persönlicher Entscheidungsfreiheit in einer allgemeinen Entfaltungsordnung mit der Freiheit anderer und ihrer Sicherheit zum Ausgleich gelangt.“

Das bedeutet, der Gesetzgeber handelt dann ethisch richtig, wenn er dem Einzelnen so viel persönliche Freiheit wie möglich gibt, ohne dabei die Freiheit von anderen oder ihre Sicherheit einzuschränken.

Das alles klingt schlüssig, bleibt aber in der praktischen Umsetzung verdammt kompliziert.

Wie sicher ist sicher genug?

Die schwierigen ethischen Entscheidungen fangen schon bei der Definition von Sicherheit an. Wann können wir davon ausgehen, dass selbstfahrende Autos wirklich sicherer unterwegs sind als Menschen? Und um wie viel sicherer müssen sie sein, damit es „ethisch geboten“ ist, sie zuzulassen?

Die RAND Corporation, ein amerikanischer Think Tank, hat für eine Studie berechnet, wie viele Testkilometer selbstfahrende Autos zurücklegen müssten, um ihre Sicherheit und Verlässlichkeit statistisch zu beweisen. Schließlich könnte es in der Praxis durchaus sein, dass Roboterautos – obwohl sie nie müde, nie betrunken und nie abgelenkt sind – bei bestimmten Wetter- oder Verkehrslagen signifikant schlechter zurechtkommen als Menschen. Oder dass Cyberattacken eine reale Bedrohung sind.

Das Problem: Laut RAND müssten die autonomen Flotten hunderte Millionen, bei einigen gängigen Benchmarks sogar Milliarden von Kilometern absolvieren, um unter Realbedingungen zu demonstrieren, dass sie tatsächlich funktionieren und zu weniger Unfällen führen. Selbst bei riesigen Testreihen würde das Jahrzehnte oder Jahrhunderte dauern.

Das heißt, es müssen neue Testverfahren entwickelt werden, mit denen sich die Gesetzgeber überzeugen lassen, dass technische Systeme Menschenleben retten werden. Sonst würde die Einführung autonomer Autos schon an der ersten Regel der Ethik-Kommission scheitern. Die besagt schließlich, dass sie die Sicherheit im Straßenverkehr verbessern müssen.

Gelingt dieser Nachweis, kommt die nächste komplexe Frage: Gibt sich die Gesellschaft mit Roboterautos zufrieden, die 10 Prozent sicherer sind? Oder will sie mit der Einführung warten, bis sie 75 oder 90 Prozent besser abschneiden als die Menschen am Steuer? Auch damit hat sich die RAND Corporation beschäftigt – und gibt, anders als bei der Problematik der unendlichen Testfahrten eine ziemlich eindeutige Antwort: Es rettet deutlich mehr Menschenleben, wenn die Systeme schon dann zugelassen werden, wenn sie „nur“ eine Verbesserung von 10 Prozent darstellen.

Staat und Programmierer nehmen uns Entscheidungen ab

Nehmen wir an, dass Testproblem ist gelöst und autonome Autos, die keine menschliche Kontrolle brauchen (oder sie gar nicht mehr erlauben), sind auf der Straße. Dann sind wir wieder beim Beispiel, mit dem der Artikel begann: Auf der Autobahn hält sich das Fahrzeug strikt an die Höchstgeschwindigkeit von 120 – obwohl es den Insassen vielleicht mehr Spaß machen würde, wenn es mit 138 auf der Überholspur unterwegs wäre.

Doch der Fahrspaß der Insassen spielt keine Rolle mehr. Es ist auch kaum anzunehmen, dass man beim Einsteigen ins Robotaxi entscheiden darf, ob es sich an die Straßenverkehrsordnung halten soll oder nicht. Denn höchstwahrscheinlich werden die Programmierer – wegen der Vorgabe des Gesetzgebers – im Code verankert haben, dass sich das Auto an die Geschwindigkeitsbegrenzung halten muss. Zum Wohle der Insassen und aller anderen Verkehrsteilnehmer.

Der fürsorgliche Staat nimmt seinen Bürgern also zusammen mit den Herstellern die Entscheidung ab. Ein Fall von Paternalismus, könnte man sagen. Angesichts des konkreten Falls allerdings ein recht schlüssig zu rechtfertigender. Schließlich sorgt das System nur dafür, dass geltende Regeln eingehalten werden. Komplizierter wird es in den oft diskutierten Dilemma-Situationen, für die es keine Regeln gibt – und für die es auch keine Lösungen gibt, die aus ethischer Sicht objektiv richtig sind.

In Dilemma-Situationen droht Paternalismus

Stellt euch vor, ihr werdet von eurem Roboterauto über eine Brücke gefahren – völlig regelkonform mit 100 km/h. Plötzlich steuert eine Mutter auf ihrem Fahrrad, die im Anhänger ihr Kind dabei hat, quer über die Straße, obwohl sie das eigentlich nicht dürfte. Euer Auto hat jetzt nur zwei Möglichkeiten: Entweder es weicht aus, stürzt die Brücke herunter und reißt euch mit in den Tod. Oder es überfährt Mutter und Kind.

Das Beispiel stammt sinngemäß aus dem Aufsatz Technology as Moral Proxy: Autonomy and Paternalism by Design von Jason Millar, der an der Universität von Ottawa zur ethischen Entwicklung von Robotern und KI forscht. Er nutzt dieses in der Realität unwahrscheinliche Szenario, um auf ein ethisches Problem hinzuweisen: Sollte das Auto nur auf Basis der Algorithmen entscheiden, die ihm sein Hersteller verpasst hat, nimmt es den Insassen die Möglichkeit, eine Wahl zu treffen, die für sie richtig erscheint.

Das Auto könnte darauf zum Beispiel darauf programmiert sein, um jeden Preis seine Fahrgäste zu schützen. Dann würde es die Mutter und ihr Kind überfahren. Das kann aus Millars Sicht „moralisch problematisch“ sein – und er erklärt auch, warum: „Es kann vorkommen, dass sich der Autobesitzer moralisch verpflichtet fühlt, in so einem Fall sein eigenes Leben zu riskieren – insbesondere, wenn unschuldige Kinder beteiligt sind. Fährt sein selbstfahrendes Auto trotzdem weiter geradeaus, fände er sich in einer paternalistischen Beziehung wieder.“

Die Maschine würde als moralischer Stellvertreter des Herstellers die moralischen Vorstellungen des Insassen durchkreuzen. Millar schlägt deshalb vor, die Roboterautos so zu designen, dass ihre menschlichen Fahrer wählen können, wie sie sich die Maschinen in solchen Situationen entscheiden sollen.

Vollautomatisierung bedeutet den Verlust menschlicher Fähigkeiten

Mit einem ganz ähnlichen Beispiel veranschaulichte auch die deutsche Ethik-Kommission die „Gefahr eines starken Paternalismus des Staates“, sofern dieser die Regeln für die Programmierung von autonomen Systemen vorgibt:

„Letztendlich würde also im Extremfall der Programmierer oder die Maschine die richtigen ethischen Entscheidungen über das Ableben des einzelnen Menschen treffen können. Konsequent weitergedacht, wäre der Mensch in existentiellen Lebenssituationen nicht mehr selbst-, sondern vielmehr fremdbestimmt“, heißt es im Abschnitt Diskussionsergebnisse und offene Fragen des Gutachtens.

Keine irreversible Unterwerfung unter technische Systeme

Eine derartige Entwicklung sieht das Gremium kritisch. An anderer Stelle fragt es, ob uns ein „gesellschaftliche Paternalisierungsschub“ droht, „wenn den automatisiert-vernetzten Verkehrssystemen nicht mehr durch individuelle Entscheidung ausgewichen werden kann und Verkehrsströme umfassend gelenkt werden“. Unter der Zwischenüberschrift „Keine irreversible Unterwerfung unter technische Systeme“ merkt die Kommission außerdem noch an, dass wir durch eine Vollautomatisierung schon deshalb die Möglichkeit verlieren könnten, autonom zu handeln, weil uns die dafür notwendigen Fähigkeiten abhandenkämen – mangels regelmäßigen Trainings.

Ein Fest für den Überwachungsstaat

Würde der Artikel über die ethischen Fragen rund ums Roboterauto hier enden, würde uns Neil McBride vom Centre for Computing and Social Responsibility der britischen De Montfort University vermutlich vorwerfen, dass auch wir auf ein Ablenkungsmanöver reingefallen sind – auf den sprichwörtlichen red herring, den man uns hingeworfen hat.

Genau so bezeichnete er vergangenes Jahr in einem Artikel für The Conversation die Debatten um die theoretisch möglichen Dilemma-Situationen – also: Renterin oder Kind? Sie lenken aus seiner Sicht nur von den „echten ethischen Fragen“ ab, bei denen es um Politik und Macht geht. Er ist überzeugt, dass sich Regierungen nicht nur wegen ihres wirtschaftlichen Potentials für selbstfahrende Autos interessieren – sondern weil diese „die Chance auf eine noch umfassendere Überwachung und Kontrolle jeder Bewegung der Bürger“ böten. Anstatt uns zu befreien, können Roboterautos, die permanent Daten sammeln und weiterleiten, zu neuen Formen der Unterdrückung führen, warnt der Wissenschaftler.

„Seit mehr als 130 Jahren stehen Autos für das Höchstmaß an Autonomie, Individualität und demokratischer Freiheit“, schreibt McBride. Ausflüge mit dem Auto seien privat und autonom gewesen. „Jetzt werden Hersteller, Regierungen und Stadtverwaltungen wissen, wohin wir fahren, was wir tun und wann.“

Eine düstere Vorstellung, für die auch die von der Regierung eingesetzte Ethik-Kommission vorsorgen will. Sie lässt keinen Zweifel daran, dass die Unmengen an personenbezogenen Daten, die beim automatisierten und vernetzten Fahren anfallen, nur für neue Geschäftsmodelle genutzt werden können, solange die „Autonomie und Datenhoheit der Verkehrsteilnehmer“ gewahrt bleiben. Dem in der Praxis gerecht zu werden, dürfte – wie die Lösung aller anderen ethischen Fragen – echt komplex werden.

Das war mein Versuch, euch einige der ethischen Fragen, die sich zum Roboterauto stellen, näherzubringen. Jetzt würde mich interessieren, wie ihr dazu steht: Seht ihr die angesprochenen Themen überhaupt so kritisch? Seid ihr bereit, persönliche Autonomie abzugeben, wenn ihr in ein autonomes Fahrzeug steigt? Welche Entscheidungen würdet ihr ungern an Maschinen, Programmierer, den Staat abgeben? Wie sollte der Datenschutz gehandelt werden? Und welche ethischen Fragen habe ich vielleicht vergessen?

Achtung: 1E9 soll die neue Community für Zukunftsoptimisten werden. Wir sind derzeit noch in der Closed Beta, aber du kannst dich hier auf die Warteliste setzen lassen. Dann melden wir uns schon bald!

Titelbild: mathisworks / Getty Images

Dieser Artikel ist Teil des 1E9-Themenspecials: Fahren 2035. Wir und die Roboterautos. Alle Texte und Diskussionen und Mobilitäts-Expertinnen und -Experten aus unserer Community findest du hier!

5 „Gefällt mir“

Danke, @Wolfgang, dass du die wesentlichen ethischen Fragen auf den Punkt gebracht hast!

Das wäre eine Lösung; wenn ich meine Kinder im Auto hätte, würde ich die Präferenzen vermutlich anders setzen als wenn ich alleine unterwegs wär. Fraglich jedoch, ob nicht alleine diese Entscheidung ein illegitimes „Aufrechnen“ von Leben gegen Leben ist, das der Menschenwürde möglicher Opfer zuwider liefe.
Ich würde gerne noch einmal die u. a. von R. D. Precht favorisierte Möglichkeit ansprechen, in Dilemmasituationen den Autopiloten auszuschalten und nach einem fest einprogrammierten Code zu agieren, auf den wir uns als Gesellschaft einigen - z. B.: erst Insassen schützen, dann rechts ausweichen, wenn das nicht geht, links. Damit wäre das Risiko für alle Verkehrsteilnehmer*innen gleich hoch und das Dilemma wäre umgangen.

Hier halte ich Waymos Vorgehen für ebenso klug wie CO²-sparend: Der Konzern lässt die Wagen in einer Simulation üben.
Waymo hat seine Autos nicht nur auf über 8 Mio. Straßenkilometern auf das richtige Verhalten in allen möglichen Situationen trainiert, sondern das eigentliche Training geschieht im Computer. Denn aus den in der „echten Welt“ gesammelten Daten hat Waymo 3D-Modelle real existierender Städte nachgebaut, in denen die Autopiloten der Waymo-Fahrzeuge ihre Fähigkeiten verbessern können. Bis heute sind die Computer-Fahrer auf virtuellen Abbildern echter Straßen unterwegs und spielen diverse weitere Situationen durch, die im Straßenverkehr auftreten können. Sollte Waymo irgendwann eine unbeschränkte Taxilizenz erhalten, steckt in jedem selbstfahrenden Wagen die Fahrerfahrung aus 8 Mrd. Kilometer Straßen. Das entspricht einer 200.000fachen Erdumrundung…

3 „Gefällt mir“

Technischer und „gesellschaftlicher“ Fortschritt ist sehr stark mit Abgabe von persönlicher Autonomie verbunden. Daher denke ich sollte man das gar nicht als Problem sehen.

Beeindruckend finde ich, dass man

deutlich mehr Menschenleben [rettet], wenn die Systeme schon dann zugelassen werden, wenn sie „nur“ eine Verbesserung von 10 Prozent darstellen.

Das Hauptargument der Sicherheit denke ich gebietet sogar die zügige Einführung hoch-automatisierter Systeme. (Ähnlich denke ich im Übrigen auch über die Einführung von medizinischen Datensammel- und Sharingsystemen)

Die persönliche Handlungsfreiheit im Rahmen des sich von festgelegten A nach festgelegten B Bewegens als ein besonderes Menschen-eigenes Gut zu betrachten finde ich als Mensch schon fast beleidigend.

2 „Gefällt mir“

Zur Dilemma-Situation:

Ich lasse jetzt mal Mutter und Kind außen vor und denke nur Mensch, weil zwei zu eins eigentlich objektiv moralisch eindeutig sind. Solange…

…man nicht einbezieht welcher Verkehr da über die Brücke läuft, oder?

Ist es eine idyllische Brücke unweit eines Naherholungsgebiets? Befindet sie sich sogar in einer Stadt? Oder ist es eine Autobahnbrücke? Oder sogar eine Brücke mit Fahrbahn speziell ausgelegt für den autonomen Verkehr?

Wenn man das mitdenkt, verschieben sich die Parameter - das Dilemma wird dadurch nicht geringer. Aber festgelegte Algorithmen würden dann vielleicht veranschaulichen, „du hast nichts zu suchen auf einer Autobahn“. Bei 100km/h ist das auch noch einfach festzulegen, aber dort wo 50km/h, die ebenso verheerend sein können, regelkonform sind, finde ich das weitaus schwieriger, oder auch nicht?

Weiter gedacht: Wenn man sich dem aber mit speziellen Spuren für autonomes Fahren ein wenig entziehen will und kann, wie sehen dann die Städte der Zukunft aus? Mischverkehr aktuell, mit den bekannten Gefahren, soll vermehrt Auto-frei werden. Das ist ein Ideal (und trägt wahrscheinlich auch zur Sicherheit bei). Ein weiteres, autonomer Verkehr für besseren Fluss und erhöhte Sicherheit. Das dürften dann aber nur abgeschottete Schneisen im Stadtgebilde sein. Da fühle ich mich dann mehr in meiner Autonomie des (nicht festgelegten) A nach B nach C nach … Bewegens eingeschränkt. Und ob eine Hochbahn oder eine Untergrundbahn so fortschrittsträchtig sind, wage ich zu bezweifeln.

3 „Gefällt mir“

Ich halte diese Einengung auf Dilemma-Situationen in der Ethik-Debatte ähnlich wie Neil McBride für problematisch. Ob dies gesteuert passiert oder eher aus dem Grund gesellschaftlicher Anschlussfähigkeit, würde ich offen lassen. Für mich verlaufen die ethisch relevanten Fronten auch eher zum einen zwischen der Datensouveränität der Bürger*innen versus den Geschäftsinteressen der Hersteller von automatisierten Fahrzeugen bzw. der Mobilitätsdienstleister. Zum anderen zwischen der Gewährleistung von Verkehrssicherheit und der Wahrung von Geschäftsgeheimnissen. Für die Gewährleistung von Sicherheit und kontinuierlicher Verbesserung der algorithmischen Systeme müssen die Hersteller und Entwickler geeigneten Instanzen vollen Zugriff auf ihre Systeme und die erhobenen Daten gewähren und die Erkenntnisse z.B. zu Fehlfunktionen müssten entsprechend geteilt werden, damit alle Hersteller und Entwickler daraus lernen können.

4 „Gefällt mir“

spot on. Danke!

Gibt es hierzu schon erste Ansätze, wie das zu machen ist? Findet bereits ein Austausch von Daten / „Erfahrungen“ zwischen unterschiedlichen OEMs / Zulieferer, und/oder gar über die Zulieferkette statt?

2 „Gefällt mir“

Ja, ich frag mich, wie trainiert Google seine 8 Mio. Straßenkilometer? Und wie machen das andere? In einem Fahrzeugleben kommt da zwar selten eine Dilemmasituation vor, aber die muss transparent sein. Mich interessiert dann eigentlich weniger, ob die eine oder andere KI aggressiver oder defensiver trainiert wurde, was wahrscheinlich auch Geschäftsgeheimnis bleiben wird. Aber in solchen Dilemmasituationen sollten sie nach einem transparenten, allgemeingültigem Schema operieren.

1 „Gefällt mir“