Von Wolfgang Kerler
Autonomie, das steht für Unabhängigkeit, für Selbstbestimmung – und für die Freiheit, eigene Entscheidungen zu treffen. Wenn ich heute auf der Autobahn unterwegs bin, kann ich auf das Tempolimit pfeifen und 138 statt 120 fahren. Warum? Weil ich spät dran bin. Weil kaum Verkehr ist. Oder einfach, weil ich Lust darauf habe. Das Risiko, erwischt zu werden oder einen Unfall zu bauen, nehme ich in Kauf.
In einem Roboterauto der Zukunft, das möglicherweise gar kein Lenkrad mehr hat, muss ich – ob ich will oder nicht – mit einer Geschwindigkeit von 120 Stundenkilometer leben. Denn nicht mehr ich bin autonom, sondern das Fahrzeug. Und dessen Code sagt ihm: An die Geschwindigkeitsbegrenzung muss man sich halten.
Nun klingt das gar nicht schlecht: eine Zukunft, in der sich alle Autos an die Regeln halten. Der Straßenverkehr würde dadurch um einiges sicherer werden. Doch der Preis, den wir dafür bezahlen, ist die Aufgabe menschlicher Entscheidungsfreiheit. Oder mit anderen Worten: Die Autonomie der Maschinen – und mit ihr viele gerettete Menschenleben – bekommen wir nur, wenn wir die Autonomie der Menschen, die in den Autos fahren, einschränken oder aufgeben.
Die Ethik-Kommission setzt auf Freiheit und Sicherheit
Ohne ein Mehr an Sicherheit machen autonome Fahrzeuge nicht viel Sinn. Zu diesem Ergebnis kam die 14-köpfige Ethik-Kommission, die das Bundesverkehrsministerium 2016 einberief und die im Juni 2017 ihren Bericht vorlegte. Im Kern besteht dieser aus 20 ethische Regeln für den automatisierten und vernetzten Fahrzeugverkehr. Sie beginnen, na klar, mit Sicherheit.
Teil- und vollautomatisierte Verkehrssysteme dienen zuerst der Verbesserung der Sicherheit aller Beteiligten im Straßenverkehr.
So lautet der ersten Satz der ersten Regel. Und auch in den folgenden Punkten geht es immer wieder um Sicherheit. Hier ein paar Beispiele: Die Zulassung von automatisierten Systemen sei nur vertretbar, wenn sie „zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht“. Die Technik „sollte Unfälle so gut wie praktisch möglich vermeiden“. Der „Schutz menschlichen Lebens“ habe höchste Priorität. Die Einführung „höher automatisierter Fahrsysteme“ könne sogar „ethisch geboten“ sein, wenn dadurch Schaden gemindert werden kann.
Doch die Vorschläge der Ethik-Kommission blenden die Frage nach der persönlichen Freiheit, nach der menschlichen Autonomie trotz dieser Forderungen nicht aus. Im Gegenteil. Denn die erste Regel, die mit Sicherheit begann, endet so:
Die technische Entwicklung gehorcht dem Prinzip der Privatautonomie im Sinne eigenverantwortlicher Handlungsfreiheit.
Mit mehr Sicherheit alleine ließe sich aus Sicht der Kommission auch keine verpflichtende Einführung autonomer Autos rechtfertigen, die es Menschen letztlich verbietet, selbst zu fahren.
Der für die Abwägung zwischen Freiheit und Sicherheit vielleicht wichtigste Satz steht dann in Regel 4. Dort heißt es: „In einer freien Gesellschaft erfolgt die gesetzliche Gestaltung von Technik so, dass ein Maximum persönlicher Entscheidungsfreiheit in einer allgemeinen Entfaltungsordnung mit der Freiheit anderer und ihrer Sicherheit zum Ausgleich gelangt.“
Das bedeutet, der Gesetzgeber handelt dann ethisch richtig, wenn er dem Einzelnen so viel persönliche Freiheit wie möglich gibt, ohne dabei die Freiheit von anderen oder ihre Sicherheit einzuschränken.
Das alles klingt schlüssig, bleibt aber in der praktischen Umsetzung verdammt kompliziert.
Wie sicher ist sicher genug?
Die schwierigen ethischen Entscheidungen fangen schon bei der Definition von Sicherheit an. Wann können wir davon ausgehen, dass selbstfahrende Autos wirklich sicherer unterwegs sind als Menschen? Und um wie viel sicherer müssen sie sein, damit es „ethisch geboten“ ist, sie zuzulassen?
Die RAND Corporation, ein amerikanischer Think Tank, hat für eine Studie berechnet, wie viele Testkilometer selbstfahrende Autos zurücklegen müssten, um ihre Sicherheit und Verlässlichkeit statistisch zu beweisen. Schließlich könnte es in der Praxis durchaus sein, dass Roboterautos – obwohl sie nie müde, nie betrunken und nie abgelenkt sind – bei bestimmten Wetter- oder Verkehrslagen signifikant schlechter zurechtkommen als Menschen. Oder dass Cyberattacken eine reale Bedrohung sind.
Das Problem: Laut RAND müssten die autonomen Flotten hunderte Millionen, bei einigen gängigen Benchmarks sogar Milliarden von Kilometern absolvieren, um unter Realbedingungen zu demonstrieren, dass sie tatsächlich funktionieren und zu weniger Unfällen führen. Selbst bei riesigen Testreihen würde das Jahrzehnte oder Jahrhunderte dauern.
Das heißt, es müssen neue Testverfahren entwickelt werden, mit denen sich die Gesetzgeber überzeugen lassen, dass technische Systeme Menschenleben retten werden. Sonst würde die Einführung autonomer Autos schon an der ersten Regel der Ethik-Kommission scheitern. Die besagt schließlich, dass sie die Sicherheit im Straßenverkehr verbessern müssen.
Gelingt dieser Nachweis, kommt die nächste komplexe Frage: Gibt sich die Gesellschaft mit Roboterautos zufrieden, die 10 Prozent sicherer sind? Oder will sie mit der Einführung warten, bis sie 75 oder 90 Prozent besser abschneiden als die Menschen am Steuer? Auch damit hat sich die RAND Corporation beschäftigt – und gibt, anders als bei der Problematik der unendlichen Testfahrten eine ziemlich eindeutige Antwort: Es rettet deutlich mehr Menschenleben, wenn die Systeme schon dann zugelassen werden, wenn sie „nur“ eine Verbesserung von 10 Prozent darstellen.
Staat und Programmierer nehmen uns Entscheidungen ab
Nehmen wir an, dass Testproblem ist gelöst und autonome Autos, die keine menschliche Kontrolle brauchen (oder sie gar nicht mehr erlauben), sind auf der Straße. Dann sind wir wieder beim Beispiel, mit dem der Artikel begann: Auf der Autobahn hält sich das Fahrzeug strikt an die Höchstgeschwindigkeit von 120 – obwohl es den Insassen vielleicht mehr Spaß machen würde, wenn es mit 138 auf der Überholspur unterwegs wäre.
Doch der Fahrspaß der Insassen spielt keine Rolle mehr. Es ist auch kaum anzunehmen, dass man beim Einsteigen ins Robotaxi entscheiden darf, ob es sich an die Straßenverkehrsordnung halten soll oder nicht. Denn höchstwahrscheinlich werden die Programmierer – wegen der Vorgabe des Gesetzgebers – im Code verankert haben, dass sich das Auto an die Geschwindigkeitsbegrenzung halten muss. Zum Wohle der Insassen und aller anderen Verkehrsteilnehmer.
Der fürsorgliche Staat nimmt seinen Bürgern also zusammen mit den Herstellern die Entscheidung ab. Ein Fall von Paternalismus, könnte man sagen. Angesichts des konkreten Falls allerdings ein recht schlüssig zu rechtfertigender. Schließlich sorgt das System nur dafür, dass geltende Regeln eingehalten werden. Komplizierter wird es in den oft diskutierten Dilemma-Situationen, für die es keine Regeln gibt – und für die es auch keine Lösungen gibt, die aus ethischer Sicht objektiv richtig sind.
In Dilemma-Situationen droht Paternalismus
Stellt euch vor, ihr werdet von eurem Roboterauto über eine Brücke gefahren – völlig regelkonform mit 100 km/h. Plötzlich steuert eine Mutter auf ihrem Fahrrad, die im Anhänger ihr Kind dabei hat, quer über die Straße, obwohl sie das eigentlich nicht dürfte. Euer Auto hat jetzt nur zwei Möglichkeiten: Entweder es weicht aus, stürzt die Brücke herunter und reißt euch mit in den Tod. Oder es überfährt Mutter und Kind.
Das Beispiel stammt sinngemäß aus dem Aufsatz Technology as Moral Proxy: Autonomy and Paternalism by Design von Jason Millar, der an der Universität von Ottawa zur ethischen Entwicklung von Robotern und KI forscht. Er nutzt dieses in der Realität unwahrscheinliche Szenario, um auf ein ethisches Problem hinzuweisen: Sollte das Auto nur auf Basis der Algorithmen entscheiden, die ihm sein Hersteller verpasst hat, nimmt es den Insassen die Möglichkeit, eine Wahl zu treffen, die für sie richtig erscheint.
Das Auto könnte darauf zum Beispiel darauf programmiert sein, um jeden Preis seine Fahrgäste zu schützen. Dann würde es die Mutter und ihr Kind überfahren. Das kann aus Millars Sicht „moralisch problematisch“ sein – und er erklärt auch, warum: „Es kann vorkommen, dass sich der Autobesitzer moralisch verpflichtet fühlt, in so einem Fall sein eigenes Leben zu riskieren – insbesondere, wenn unschuldige Kinder beteiligt sind. Fährt sein selbstfahrendes Auto trotzdem weiter geradeaus, fände er sich in einer paternalistischen Beziehung wieder.“
Die Maschine würde als moralischer Stellvertreter des Herstellers die moralischen Vorstellungen des Insassen durchkreuzen. Millar schlägt deshalb vor, die Roboterautos so zu designen, dass ihre menschlichen Fahrer wählen können, wie sie sich die Maschinen in solchen Situationen entscheiden sollen.
Vollautomatisierung bedeutet den Verlust menschlicher Fähigkeiten
Mit einem ganz ähnlichen Beispiel veranschaulichte auch die deutsche Ethik-Kommission die „Gefahr eines starken Paternalismus des Staates“, sofern dieser die Regeln für die Programmierung von autonomen Systemen vorgibt:
„Letztendlich würde also im Extremfall der Programmierer oder die Maschine die richtigen ethischen Entscheidungen über das Ableben des einzelnen Menschen treffen können. Konsequent weitergedacht, wäre der Mensch in existentiellen Lebenssituationen nicht mehr selbst-, sondern vielmehr fremdbestimmt“, heißt es im Abschnitt Diskussionsergebnisse und offene Fragen des Gutachtens.
Keine irreversible Unterwerfung unter technische Systeme
Eine derartige Entwicklung sieht das Gremium kritisch. An anderer Stelle fragt es, ob uns ein „gesellschaftliche Paternalisierungsschub“ droht, „wenn den automatisiert-vernetzten Verkehrssystemen nicht mehr durch individuelle Entscheidung ausgewichen werden kann und Verkehrsströme umfassend gelenkt werden“. Unter der Zwischenüberschrift „Keine irreversible Unterwerfung unter technische Systeme“ merkt die Kommission außerdem noch an, dass wir durch eine Vollautomatisierung schon deshalb die Möglichkeit verlieren könnten, autonom zu handeln, weil uns die dafür notwendigen Fähigkeiten abhandenkämen – mangels regelmäßigen Trainings.
Ein Fest für den Überwachungsstaat
Würde der Artikel über die ethischen Fragen rund ums Roboterauto hier enden, würde uns Neil McBride vom Centre for Computing and Social Responsibility der britischen De Montfort University vermutlich vorwerfen, dass auch wir auf ein Ablenkungsmanöver reingefallen sind – auf den sprichwörtlichen red herring, den man uns hingeworfen hat.
Genau so bezeichnete er vergangenes Jahr in einem Artikel für The Conversation die Debatten um die theoretisch möglichen Dilemma-Situationen – also: Renterin oder Kind? Sie lenken aus seiner Sicht nur von den „echten ethischen Fragen“ ab, bei denen es um Politik und Macht geht. Er ist überzeugt, dass sich Regierungen nicht nur wegen ihres wirtschaftlichen Potentials für selbstfahrende Autos interessieren – sondern weil diese „die Chance auf eine noch umfassendere Überwachung und Kontrolle jeder Bewegung der Bürger“ böten. Anstatt uns zu befreien, können Roboterautos, die permanent Daten sammeln und weiterleiten, zu neuen Formen der Unterdrückung führen, warnt der Wissenschaftler.
„Seit mehr als 130 Jahren stehen Autos für das Höchstmaß an Autonomie, Individualität und demokratischer Freiheit“, schreibt McBride. Ausflüge mit dem Auto seien privat und autonom gewesen. „Jetzt werden Hersteller, Regierungen und Stadtverwaltungen wissen, wohin wir fahren, was wir tun und wann.“
Eine düstere Vorstellung, für die auch die von der Regierung eingesetzte Ethik-Kommission vorsorgen will. Sie lässt keinen Zweifel daran, dass die Unmengen an personenbezogenen Daten, die beim automatisierten und vernetzten Fahren anfallen, nur für neue Geschäftsmodelle genutzt werden können, solange die „Autonomie und Datenhoheit der Verkehrsteilnehmer“ gewahrt bleiben. Dem in der Praxis gerecht zu werden, dürfte – wie die Lösung aller anderen ethischen Fragen – echt komplex werden.
Das war mein Versuch, euch einige der ethischen Fragen, die sich zum Roboterauto stellen, näherzubringen. Jetzt würde mich interessieren, wie ihr dazu steht: Seht ihr die angesprochenen Themen überhaupt so kritisch? Seid ihr bereit, persönliche Autonomie abzugeben, wenn ihr in ein autonomes Fahrzeug steigt? Welche Entscheidungen würdet ihr ungern an Maschinen, Programmierer, den Staat abgeben? Wie sollte der Datenschutz gehandelt werden? Und welche ethischen Fragen habe ich vielleicht vergessen?
Achtung: 1E9 soll die neue Community für Zukunftsoptimisten werden. Wir sind derzeit noch in der Closed Beta, aber du kannst dich hier auf die Warteliste setzen lassen. Dann melden wir uns schon bald!
Titelbild: mathisworks / Getty Images
Dieser Artikel ist Teil des 1E9-Themenspecials: Fahren 2035. Wir und die Roboterautos. Alle Texte und Diskussionen und Mobilitäts-Expertinnen und -Experten aus unserer Community findest du hier!