Auf die Regeln kommt es an: Ein Interview über die rechtlichen Fragen zu selbstfahrenden Autos

Wann, ob und wie viele Roboterautos über unsere Straßen fahren werden, hängt nicht nur von der Technik ab. Sondern auch von Gesetzen. In Deutschland sehen die zwar noch keine autonomen Fahrzeuge vor. Einige „historische“ Rechtsbestimmungen sind aber erstaunlich zukunftsfest. Über noch fehlende Regulierung, Schlafen auf der Autobahn, Dilemma-Situationen und Datenschutz haben wir mit dem Juristen Lennart Lutz gesprochen.

Ein Interview von Wolfgang Kerler

Lennart Lutz gehört zu den Fachleuten, wenn es um die vielen und oft komplexen rechtlichen Fragen rund um selbstfahrende Autos geht. Zum einen versteht er auch was von Technik, weil er nicht nur Jura, sondern auch Maschinenbau studiert hat. Zum anderen hat er seine Doktorarbeit über „automatisierte Straßenfahrzeuge“ geschrieben und arbeitet seit 2018 als Senior Legal Counsel für Autonomous Intelligent Driving, kurz: AID. Das Münchner Start-up gehört zu Audi und arbeitet für die gesamte Volkswagen Group an Technologie für automatisierte Autos.

1E9: Stellen wir uns vor, ab morgen gäbe es selbstfahrende Robotaxis. Welche Gesetze und Regeln würden mich davon abhalten, mir per App eines zu bestellen und mich durch die Stadt fahren zu lassen? Oder besser gesagt: Welche Vorschriften würden das Taxi davon abhalten, mich einzusammeln?

Lennart Lutz: Wir haben vor allem in zwei Rechtsgebieten noch Hürden. Da ist einerseits das Zertifizierungs- bzw. Zulassungsrecht, das adressiert, ob ein Fahrzeug nach seiner technischen Bauart im öffentlichen Straßenverkehr eingesetzt werden darf. Und da ist andererseits das Verkehrsverhaltensrecht, das die Frage regelt, wie der menschliche Fahrer das Fahrzeug benutzen darf.

Bisher sind Robotaxis sowohl nach dem Zulassungsrecht nicht genehmigungsfähig, weil wir keine automatisierte Lenkanlage in Großserienfahrzeuge einbauen dürfen, jedenfalls nicht für Geschwindigkeiten über 10 km/h. Und im Verkehrsverhaltensrecht findet sich immer noch die Anforderung, dass ein Fahrer tatsächlich im Fahrzeug sitzen muss. Morgen könnten Robotaxis also noch nicht starten.

Wie könnte man das schnell ändern?

Lennart Lutz: Vieles, was geändert werden muss, kann gar nicht im deutschen Recht allein adressiert werden. Das ist die große Herausforderung.

Das Zulassungsrecht ist auf europäischer Ebene harmonisiert und das europäische Recht verweist dann noch eine Stufe höher – auf Regeln, die von einer Arbeitsgruppe der Vereinten Nationen festgelegt werden: die sogenannten UNECE-Regelungen. Hier müsste die UNECE-Regel 79 für Lenkanlagen angepasst werden, nach der automatisierte Lenkanlagen für Geschwindigkeiten über 10 km/h nicht in Großserien zulässig sind.

Und wie ist das mit dem menschlichen Fahrer, der noch gebraucht wird?

Lennart Lutz: Dazu gibt’s auch ein internationales Abkommen: das Wiener Übereinkommen über den Straßenverkehr, welches den Rahmen für das nationale Straßenverkehrsrecht der Vertragsstaaten vorgibt. Nach Art. 8 Abs. 1 und Abs. 5 des Wiener Übereinkommens muss jedes Fahrzeug über einen Fahrer verfügen, der sein Fahrzeug jederzeit beherrscht. Dies wurde teilweise so interpretiert, dass automatisiertes Fahren ohne konventionellen Fahrer nicht mit dem Wiener Übereinkommen vereinbar ist. Inzwischen gab es aber eine Anpassung – und die Vertragsstaaten haben sich mehrheitlich eine breitere Interpretation zu eigen gemacht. Der Weg wäre also frei, national Vorschriften entsprechend anzupassen um komplett fahrerloses Fahren zu ermöglich. In Deutschland müsste es zu Änderungen im Straßenverkehrsgesetz und in der Straßenverkehrsordnung kommen.

Ich dachte, es gab bereits Gesetzesänderungen . Was müsste denn noch geändert werden?

Lennart Lutz: Die Rechtsanpassungen, die wir bisher hatten, adressieren Fahrzeuge, die immer noch über einen Fahrer verfügen müssen. Das Fahrzeug dürfte zwar inzwischen, automatisiert fahren. Es müsste aber noch ein Mensch vorhanden sein, der dann übernehmen kann, wenn das Fahrzeug eine Übernahmeaufforderung ausgibt.

Schlafen auf der Autobahn, während das Auto selbst fährt, geht also schon?

Lennart Lutz: Schlafen ist nach aktuell gültigem Recht ausgeschlossen, weil der Fahrer sich immer für eine „Rückübernahmeaufforderung“ bereithalten muss. Er würde nämlich mit einer angemessenen Vorlaufzeit vom Auto dazu aufgefordert, die Steuerung wieder zu übernehmen – zum Beispiel, wenn die Autobahnausfahrt erreicht ist. Es sind also nur Tätigkeiten möglich, bei denen der Fahrer innerhalb kürzerer Zeit wieder einsatzbereit ist.

Das Robotaxi müsste natürlich Leerfahrten, also Fahrten ohne Menschen an Bord, übernehmen – und würde momentan also noch an internationalen Regeln scheitern. Selbst wenn es technisch möglich wäre. Heißt das, kein Land könnte hier eine Vorreiterrolle übernehmen?

Lennart Lutz: Es gibt schon einen gewissen nationalen Spielraum, die verschiedenen Mechanismen sind allerdings hinsichtlich der Stückzahlen begrenzt. Zum Beispiel könnten in Deutschland sog. nationale Kleinserien zugelassen werden – mit 250 Fahrzeugen pro Modell und Jahr. Über Pilotprojekte hinaus und insbesondere für deutschlandweite Geschäftsmodelle ist das natürlich nicht ausreichend.

Im europäischen Vergleich sind wir durchaus vorne mit dabei.

Wenn wir schon bei nationalen Spielräumen sind. Wie schlägt sich denn die deutsche Politik? Ist die vorne mit dabei oder eher hinten?

Lennart Lutz: Ich würde sagen, man bemüht sich in Deutschland nach Kräften. Im europäischen Vergleich sind wir durchaus vorne mit dabei.

Na immerhin. Dann lassen wir damit mal den Block „Welche Regeln fehlen eigentlich noch?“ hinter uns und kommen zu ganz konkreten juristischen Fragen, die immer wieder gestellt werden. Wenn ein selbstfahrendes Fahrzeug einen Unfall baut, wer haftet dann nach derzeitiger Rechtslage?

Lennart Lutz: Hierzulande haftet immer der Fahrzeughalter bzw. seine Pflichtversicherung, auch wenn der Halter nicht selbst gefahren ist – und zwar für jegliche Schäden, die durch das Fahrzeug verursacht werden. Dabei spielt der Automatisierungsgrad keine Rolle, sodass sich im Hinblick auf die Einführung automatisierter Fahrzeuge keine wesentlichen Änderungen ergeben.

Das wäre dann bei einem Robotaxi der Flottenbetreiber?

Genau, in aller Regel. Und wie heute kann sich der Geschädigte dann auch an die Versicherung des Halters wenden. In anderen europäischen Ländern, zum Beispiel in Großbritannien, ist das anders geregelt. Dort ist der Fahrer der zentrale Dreh- und Angelpunkt der Haftung. Dort steht man also noch vor großen Herausforderungen, wenn kein Fahrer mehr für die Fahrzeugsteuerung verantwortlich ist.

Der nächste „heikle“ Punkt: der Datenschutz. Was passiert mit den Unmengen an Daten, die ein selbstfahrendes Auto sammelt? Wem gehören sie? Was darf damit gemacht werden?

Lennart Lutz: Vorausschicken muss man, dass viele der beim automatisierten Fahren erfassten Daten sofort im Fahrzeug verarbeitet und dann gelöscht werden. Die von einem Radar festgestellte Abstandsmessung zum vorderen Fahrzeug, zum Beispiel, würde sofort nachdem dieser Abstand nicht mehr benötigt wird, unmittelbar im Fahrzeug gelöscht.

Was die Daten angeht, die zusätzlich anfallen könnten, haben wir in ganz Europa und damit auch in Deutschland schon sehr strenge und auch sehr weitgehende Datenschutzanforderungen für den Umgang mit personenbezogenen Daten. Durch die Datenschutzgrundverordnung gibt es ein sehr straffes Regelungsregime, das stark eingrenzt, inwieweit Dritte auf personenbezogene Daten zugreifen und diese Daten verwenden können. In der Regel ist das nur unter sehr engen Voraussetzungen und mit der Einwilligung des jeweilig Betroffenen möglich.

Gibt’s dann überhaupt noch Lücken in Deutschland und Europa?

Lennart Lutz: Aus meiner Sicht nicht, die DSGVO regelt sämtliche Schutzanforderungen sehr umfassend.

Wir sind in Deutschland also gar nicht so schlecht aufgestellt, was die konkreten Fragen angeht, die man sich als Nutzer stellt. Die Haftung ist geklärt. Der Datenschutz auch. Zwei große Themen sind schon abgehakt.

Lennart Lutz: Genau. Das Unfallopfer kann sich bei Schäden immer an den Halter bzw. dessen Pflichtversicherung wenden und befindet sich daher in einer komfortablen Ausgangslage. Auch aus Sicht derjenigen, deren personenbezogene Daten verarbeitet werden, bietet die DSGVO einen sehr weitreichenden Schutz.

Dies ist beispielsweise in den USA anders. Datenschutz ist dort in vielen Bundesstaaten nur rudimentär vorhanden und ein Fahrzeughalter ist in der dortigen Rechtsordnung auch nicht vorgesehen. Das Konzept der Halterhaftung in Verbindung mit einer Pflichtversicherung gibt es dort in dieser Form nicht.

Soweit mir bekannt gibt es in der Geschichte des Verkehrsrechts bisher keinen einzigen dokumentierten Fall, in dem ein Unfall aufgrund einer Dilemma-Situation entstanden wäre.

Wie werden eigentlich die ethischen Dilemmata, die immer wieder diskutiert werden, vom Gesetz gelöst – ganz konkret erklärt an der theoretischen Situation, dass sich ein autonomes Fahrzeug „entscheiden“ muss, ob es ein Kind oder eine Seniorin tötet?

Lennart Lutz: Aus meiner Sicht sind derartige Dilemma-Situationen in erster Linie theoretischer Natur. Soweit mir bekannt gibt es in der Geschichte des Verkehrsrechts bisher keinen einzigen dokumentierten Fall, in dem ein Unfall aufgrund einer Dilemma-Situation entstanden wäre. Das heißt, derartige Fälle eignen sich zwar sehr gut, um rechtstheoretische Grundsätze darzulegen, sind aber praktisch von geringerer Bedeutung. Tatsächlich trifft das Recht auch keine Aussage, dass nach derartigen Merkmalen aufgelöst werden darf, dass also beispielsweise immer der ältere Mensch getötet werden müsste.

Die Straßenverkehrsordnung geht aus meiner Sicht eher davon aus, dass derartige Situationen möglichst durch vorausschauendes Fahren und rechtzeitiges Bremsen vermieden werden müssen. Wir arbeiten natürlich darauf hin, dass unsere Fahrzeuge in vielen derartiger Situationen im Zweifel noch schneller reagieren können als der Mensch…

…der in der Fahrschule auch nicht gefragt wird, wen er töten würde: Seniorin oder Kind.

Lennart Lutz: Ganz genau. Der menschliche Fahrer kann diese Situation nicht auflösen, schon gar nicht in Sekundenbruchteilen. Genauso wenig wird es voraussichtlich ein automatisiertes Fahrzeug leisten können. Man wird sich eher daran orientieren, wie man derartige Dilemma-Situationen von vornherein entschärfen kann: durch vorausschauendes Fahren und rechtzeitiges Bremsen.

Weniger theoretisch könnte ein anderes Problem sein, vor das uns selbstfahrende Autos stellen. Denn Prognosen gehen davon aus, dass Robotaxis zu deutlich mehr Verkehr in den Städten führen könnten. Inwiefern könnte der Gesetzgeber oder könnten einzelne Städte und Kommunen deswegen einfach sagen: Wir erlauben keine Robotaxis, denn wir haben schon genug Stau?

Wir gehen eher davon aus, dass aufgrund des Pooling-Effekts der Verkehr durch den Einsatz automatisierter Fahrzeuge eher abnehmen wird. Aber unabhängig davon brauchen wir für jede Art der kommerziell betriebenen Personenbeförderung eine Genehmigung nach dem Personenbeförderungsgesetz. Hierfür sind die lokalen Behörden, also in der Regel die Kommunen, zuständig. Beim Taxi kennt man das Ganze als Taxischein. Theoretisch wäre es dann also möglich durch eine restriktive Vergabe dieser Lizenzen das Aufkommen von automatisierten Fahrdiensten zu begrenzen.

Das heißt, es könnte nicht passieren – wie bei E-Scootern –, dass eine Stadt quasi über Nacht „überschwemmt“ wird mit selbstfahrenden Taxis.

Nein, zumindest nicht wenn wir über Robotaxis reden. Denn dann bräuchten alle eine Genehmigung nach dem Personenbeförderungsrecht, zum Beispiel einen Taxischein. Die jeweilige Stadt oder lokale Behörde hätte es also in der Hand, wie viele solche Genehmigungen vergeben werden.

Die Stadt könnte also eine Obergrenze festlegen?

Genau, das wäre denkbar.

Titelbild: Chesky_W / Getty Images

Dieser Artikel ist Teil des 1E9-Themenspecials: Fahren 2035. Wir und die Roboterautos. Alle Texte und Diskussionen und Mobilitäts-Expertinnen und -Experten aus unserer Community findest du hier!

4 „Gefällt mir“

Obwohl Dilemma-Situationen im Alltag nur eine sehr kleine Rolle spielen dürften, wie im Interview erwähnt, so müssen sie doch vor dem Programmieren der Autos irgendwie „gelöst“ werden… auch dabei kann die juristische Perspektive helfen, oder @wessely.moritz ? Vielleicht könntest du uns noch einen ergänzenden Einblick geben :slight_smile:

Hinsichtlich der praktischen Relevanz ist eine Dilemma-Situation vermutlich, wie im Interview erwähnt, extrem unwahrscheinlich. In leichter Abwandlung wird sie möglicherweise relevanter. Man stelle sich zum Beispiel vor, dass ein Kind plötzlich hinter einem Auto hervorläuft und die einzige Möglichkeit das Umfahren des Kindes noch zu verhindern, ist ein riskantes Ausweichmanöver, dass die Gesundheit des Nutzers gefährdet. Auch hier müsste das System sich für eine der möglichen Optionen entscheiden. Hier muss vorweg gestellt werden, dass im dt. Strafrecht eine „Rechtfertigung für die Tötung eines Menschen“, die Straffreiheit zur Folge haben könnte, nicht möglich ist, mit der Begründung, dass das Gesetz niemals den Tod als Verletzung des höchsten Gut des Lebens, auf einen rechtmäßigen Boden hieven könnte.

Allerdings gibt es die Möglichkeit, ein solches Verhalten, die Tötung eines anderen, unter bestimmten Umständen zu entschuldigen. Damit bleibt die Tat zwar immer noch rechtswidrig, der Täter wird deswegen jedoch nicht mehr bestraft, da ihn subjektiv keine Schuld trifft. Dieser sog. „Entschuldigende Notstand“ ist in § 35 StGB kodifiziert.

Der Nutzer wird die Entscheidung, zu wessen Gunsten das System entscheiden soll, wohl kaum selbst treffen. Stattdessen wird sie im Rahmen der Programmierung festgelegt. Der Nutzer handelt somit nicht aktiv im Moment des Dilemmas. Wohl aber entscheidet er sich durch die Nutzung des Autos zumindest billigend dafür, dass beim Eintreten einer solchen Situation sich das System so verhält.
Das relevante Verhalten auf Nutzerseite ist somit das In Gang-Setzen des Fahrzeugs.
Der Nutzer kann auch mehr oder weniger problemlos durch die Regelung des § 35 StGB entschuldigt werden.

Beim Programmierer gestaltet sich die Entschuldigung nicht so leicht.
Denn § 35 StGB setzt voraus, dass das schadenabwendende Verhalten getätigt wird, um „eine nicht anders abwendbare Gefahr für Leben, Leib […] von sich oder einer anderen ihm nahestehenden Person abzuwenden.“
Diese Nähebeziehung wird beim Programmierer wohl kaum vorliegen.
Damit könnte er sich durch das Einprogrammieren des Systemverhaltens in solchen Situationen durchaus der Beihilfe strafbar machen.
Hier gibt es in der Literatur diverse Meinungen, die sich gegen eine Beihilfe aussprechen, wenn die Beihilfe im Rahmen von „berufstypischem“ Verhalten stattfand. Insbesondere die Rechtsprechung vertritt jedoch eine modifizierte Variante, nach der sich der Programmierer durchaus strafbar gemacht haben könnte.

Zudem hätte er als weitere Voraussetzung der Beihilfe durch seine Handlung ein sog. „rechtlich missbilligtes Risiko“ gesetzt haben.
Hier sind wir jedoch wieder bei dem Problem, dass die Rechtsordnung wohl kaum ein Verhalten legitimieren kann, welches die Ursache für den Tod anderer Menschen legt, das Verhalten des Programmiers somit stets rechtlich missbilligt sein wird.
Das mag ungerechtfertigt erscheinen, da der Programmierer ja tatsächlich nur seiner „beruflichen Tätigkeit“ nachgeht und die Frage, wie sich das Fahrzeug zu verhalten hat, vermutlich auch nicht einfach offen gelassen werden kann.

Aus persönlicher Sicht ist für den praktischen Kontext solcher Dilemma-Situationen (abgesehen von der schlussendlichen Bewertung aus rechtlicher Sicht) eine Betrachtung im Sinne eines „negativen Handlungsutilitarismus“ am zielführendsten. Um die Minimierung des Leids der größtmöglichen Anzahl an Personen zu garantieren, müsste das Fahrzeug immer die Option wählen, bei der am wenigsten Menschen zu Schaden oder Tode kommen. Dies ließe sich noch durch eine präferenzutilitaristische Herangehensweise verfeinern. Demnach müssten ebenfalls die Präferenzen der Person, insb. der „Präferenz am Leben zu bleiben“ mitbewertet werden. In diesem Fall würde dies gleichfalls eine Reform (straf-) rechtlicher Prinzipien erfordern, welche jedoch auch nicht ohne Folge für weitere Rechtsgebiete bleiben würde. Aus ethischer Sicht und menschlichem Selbstverständnis mag die Abwägung, dass das Interesse z.B. einer alten Person am Weiterleben aufgrund der geringeren verbleibenden Lebenszeit im Vergleich zu einem Heranwachsenden weniger gewichtig sein könnte, jedoch auch scharf verurteilt werden.

Hier bleibt meiner Ansicht nach abzuwarten, inwiefern sich das Streben nach Innovation und die tatsächlichen Vorteile sich gegen ethische Bedenken und gesellschaftlichen Vorbehalt durchsetzen können.

Ebenso muss bedacht werden, dass wir von Autos der SAE-Klassifizierung 5, also wirklich autonome Fahrzeuge bei denen der Nutzer nur mehr Passagier ist, vermutlich noch eine gute Zeit entfernt sind. Dementsprechend werden wahrscheinlich noch viele theoretische Debatten über diese Thematik geführt werden, bevor eine Regelung tatsächlich notwendig wird.

4 „Gefällt mir“

Wie ist das im Kontext Autopilot bei Tesla zu verstehen? Der greift doch in die Lenkanlage ein, oder? Und das bei Geschwindigkeiten von über 10km/h.

Spannende Einblicke ins Recht.

Wie ist denn Europa (oder Deutschland, die im Euro Kontext vorne dabei sind) im Vergleich zu China / USA rechtl einzuordnen? Ist das Regulatorische ein Wettbewerbsnachteil?

1 „Gefällt mir“

Die UN Bestimmungen gelten auch dort. Was Haftung und Datenschutz angeht, ist D/EU besser gerüstet - zumindest aus Verbrauchersicht. Der Datenschutz könnte aber evtl. Tests/Entwicklung erschweren…

Insgesamt liegen wir hier international im Mittelfeld, hat er gemeint.

Zu Tesla/Autopilot: der Tesla hat ja noch ein normales Lenkrad, das man jederzeit übernehmen muss, wenn es die Situation erfordert :slight_smile:

1 „Gefällt mir“

Das Lenkrad, bzw die Lenkanlage ist aber im Autopilot mode automatisiert. Und das Auto wird in Serie produziert.

Wenn man nun sagt, diese Regel gilt nicht, wenn ein Mensch theoretisch eingreifen könnte, dann ist das praktisch Augenwischerei → Der Mensch gewöhnt sich schnell an dieses Automatisierungsfeature und ist praktisch nicht mehr in der Lage eben so mal einzugreifen. Er akzeptiert es als automatisierte Anlage. Oder nicht?

Nicht-geregelt ist das wohl im Wiener Übereinkommen:

Und jetzt eine noch schwammige Beschränkung:

Was ist eine angemessene Vorlaufzeit? Das trifft wieder den Punkt der „Gewöhnung“ an solche evtl unausgereifte Systeme. Diese funktionieren jetzt gut genug, d.h. lange genug fehlerfrei. Angemessene Vorlaufzeit hat ganz individuelle Maßstäbe hinsichtl. der Aktion der Kontroll-Rückübernahme durch den Fahrer.

Gegeben dieser rechtl. Unsicherheit aber auch Möglichkeit automatisiertes Fahren einfach umzusetzen, und in Anbetracht der Tatsache, dass durch Einsatz solcher Systeme die Qualität und Sicherheit stetig besser wird, denke ich sollte sich schnell ein sehr positives Mindset bzgl Autopilot-Funktionen auch hier entwickeln.

1 „Gefällt mir“

Da muss man sich gar nicht mal mehr auf das Wiener Abkommen beziehen, da das Ganze im März 2017 auch hierzulande in Gesetzesform gegossen wurde.
In der Abänderung des StVG heißt es im § 1a, dass solche Fahrzeuge zugelassen sind, welche über teil- oder vollautomatisierte Fahrsysteme verfügen. In der Begründung sind damit Fahrzeuge gemeint, welche für bestimmte Szenarien (e.g. Autobahn, Einparken etc.) die Längs- und Quersteuerung teilweise oder vollständig übernehmen können. Da fällt dann auch ein Tesla darunter.
Ferner werden in § 1 b StVG die Rechte und Pflichten des Fahrzeugführers bei der Nutzung solcher Fahrfunktionen definiert. So ist es dem Fahrer erlaubt, sich vom Verkehrsgeschehen und der Fahrzeugsteuerung abzuwenden, dabei jedoch, wie von Wolfgang erwähnt, in der Lage sein, seiner Pflicht nach § 1 b Abs. 2 jederzeit nachzukommen. Diese Pflichten gliedern sich einmal darin, die Steuerung wieder zu übernehmen, wenn das Fahrzeug ihn dazu auffordert (auf einen zeitlichen Rahmen wurde hier verzichtet). In der Begründung wird es so definiert, dass das System zu erkennen hat, dass es in dieser Situation seine Grenzen erreicht und deswegen, die Kontrolle zurück an den Fahrer übertragen muss. Allerdings wird auch in der Gesetzesbegründung nicht darauf eingegangen, wie weit im Vorhinein dies zu geschehen hat. Je nach gefahrener Geschwindigkeit wird vmtl. auf die durchschnittliche Reaktionszeit von 180ms abzustellen sein, in Relation zum verbleibenden Abstand zum entsprechenden Hindernis. Ein zusätzlicher Puffer, da der Fahrer ja auch seine Aufmerksamkeit wieder wechseln muss, könnte diese Zeit natürlich verlängern.
Interessanterweise heißt es jedoch in § 1b Abs. 2 Nr. 2, dass der Fahrer auch dann die Kontrolle übernehmen muss, wenn er „erkennt oder auf Grund offensichtlicher Umstände erkennen muss, dass die Voraussetzungen für eine bestimmungsgemäße Verwendung der hoch- oder vollautomatisierten Fahrfunktion nicht mehr vorliegen“. Hierzu macht die Begründung keine weiteren Angaben und es mag etwas paradox anmuten, dem Fahrer zuzugestehen, sich einerseits vom Verkehrsgeschehen abzuwenden, andererseits jedoch auch auf eben beschriebene Situationen zu reagieren. Hier ist es fraglich, inwiefern sich die „bestimmungsgemäße Verwendung“ zB auf die entsprechende Fahrumgebung (wie zB die Autobahn) bezieht. In einem solchen Fall wäre es vlt noch vom Fahrer zu erwarten, dies zu bemerken und wieder die Kontrolle zu übernehmen. Oftmals können jedoch auch andere Hindernisse auftreten, mit denen das System nicht umgehen kann zB eine Baustelle, plötzlicher starker Regen oder ein vorausgehender Unfall. Hier wird es, je nach Geschwindigkeit für den Fahrer schwer bis unmöglich sein, dies rechtzeitig zu erkennen, sobald er sich denn einmal mit der Aufmerksamkeit von der Fahrzeugführung abgewendet hat.
Es bleibt also offen, wie dieser Punkt in der Praxis zu bewerten ist.

2 „Gefällt mir“