Tödlicher Tesla-Crash: Der Autopilot hat versagt – aber ist nicht alleine schuld

Vor zwei Jahren wurde ein Apple-Entwickler getötet als sein Tesla Model X im Autopilot-Modus in eine Beton-Barriere fuhr. Neben dem tödlichen Unfall eines Uber-Testfahrzeugs war es der zweite Vorfall, der in Frage stellte, ob selbstfahrende Autos schon bereit für die Straße sind. Nun hat eine US-Verkehrsbehörde ihren Bericht über die Unfallursachen vorgestellt.

Von Michael Förtsch

Der Tod von Walter Huang sorgte 2018 weltweit für Schlagzeilen. Denn der bei Apple angestellte Software-Entwickler starb am 23. März 2018, als sein Tesla Model X im Autopilot-Modus beschleunigte und in eine Betonbarriere auf dem Highway 101 in Mountain View, Kalifornien, fuhr. Er konnte zwar noch ins Krankenhaus gebracht werden, aber erlag dort seinen Verletzungen. Die Kollision ereignete sich nur wenige Tage nach dem in Phoenix, Arizona, ein automatisiertes Test-Fahrzeug des Fahrdienstes Uber auf einer Schnellstraße eine Frau erfasste und tötete – und damit für den ersten Verkehrstoten durch ein Roboterauto sorgte. Der Unfall von Huang stieß heftige Debatten rund um selbstfahrende Autos auf den Straßen und Kritik an Tesla und dessen Autopilot-Software an.

Unter anderem wurde Tesla vorgeworfen, nicht nachdrücklich darauf hinzuweisen, dass der Fahrer bereit sein muss, jederzeit die Kontrolle zu übernehmen. Auch zu wenige Sicherheitsmechanismen sollen aus Sicht der Kritiker implementiert gewesen sein… Laut einer Analyse von Tesla soll Walter Huang jedoch vor dem Crash mehrere „visuelle und akustische Hinweise“ erhalten haben, die ihn aufforderten, wieder das Steuer zu übernehmen – was er aber nicht tat. Nun hat die US-Verkehrssicherheitsbehörde National Transport and Safety Board nach langer Untersuchung ihre Befunde über die Ursache und den Hergang des Unfalls veröffentlicht. Der Bericht zufolge hat der Tesla-Autopilot zeitweise versagt aber ist alleinig verantwortlich zu machen.

Wie die Ermittler des National Transport and Safety Board herausfanden, fuhr das Tesla Model X im Autopilot-Modus und Walter Huang war während der Fahrt abgelenkt – höchstwahrscheinlich von einem Game, das er auf seinem Smartphone spielte. Das habe dafür gesorgt, dass er nicht wahrnahm als sein Wagen von der Spur abkam. Der Grund hierfür war wohl, dass der Autopilot durch nur noch schwer sichtbare Fahrbahnmarkierungen und „Limitationen der optischen Verarbeitungssoftware des Systems“ kurzzeitig die Orientierung verlor und begann, nicht mehr der Fahrspur, sondern mit rund 114 Kilometern pro Stunde der Außenmarkierung einer Ausfahrt zu folgen.

Die Markierung führte in den Seitenstreifenbereich und direkt auf die Betonbarriere und einen zu dieser Zeit defekten Anpralldämpfer, den die Software nicht korrekt erkannte. Eine Sekunde später kam es zum Crash. Huang hatte laut dem National Transport and Safety Board zu viel Vertrauen in die noch sehr begrenzten Fähigkeiten der Tesla-Software. Das System habe zudem „keine effektiven Maßnahmen getroffen, die Aufmerksamkeit des Fahrers“ zu überwachen. Das Model X registrierte nur über ein Halten des Lenkrads die Aufmerksamkeit des Fahrers und nicht beispielsweise über eine Innenraumkamera, die Augenbewegungen verfolgt. Ebenso seien Warnhinweise, die bei Orientierungsverlust der Software erfolgten, unzureichend gewesen, um „eine Reaktion des Fahrers zu provozieren, die den Aufprall hätte verhindern oder die Schwere vermindern“ können.

Kein autonomes Auto

Der tödliche Ausgang war aber nicht nur auf die Ablenkung von Walter Huang und die Tesla-Software zurückzuführen, sondern auch auf den beschädigten Anpralldämpfer der Betonbegrenzung. Wäre dieser rechtzeitig von der kalifornischen Straßenbehörde Caltrans ersetzt oder repariert worden, hätte Huang den Unfall möglicherweise überlebt, schätzt die Behörde. Allerdings war, wie sich zeigte, deren Beschädigung durch einen anderen Unfall zustande gekommen, der nicht von der örtlichen Polizei gemeldet wurde. Der tödliche Unfall war also ein Zusammenspiel von verschiedensten Fehlern.

Dennoch fordert das National Transport and Safety Board den E-Autobauer Telsa dringend auf, „an seiner Autopilot-Technologie zu arbeiten“. Ebenso sollten US-Behörden ihrer Aufgabe nachkommen, die Sicherheit dieser Systeme zu überwachen und „korrektive Maßnahmen zu ergreifen“, wenn nötig. Auch sollten Smartphone-Hersteller mehr in die Pflicht genommen werden – und beispielsweise als Standard eine Option setzen, die darauf hinweist oder verhindert, dass Fahrer während der Fahrt durch ihr Smartphone abgelenkt werden. Zahlreiche Smartphones besitzen eine solche Option. Jedoch muss sie willentlich aktiviert werden. Nicht zuletzt sei aber auch Aufklärung über die Fähigkeiten derzeitiger Systeme wie dem Autopilot-Modus von Tesla gefragt.

„Wenn Sie ein Auto mit Teilautomatisierung besitzen, besitzen Sie kein selbstfahrendes Auto“, stellte Robert Sumwalt auf der Präsentation der Ergebnisse klar. „Das bedeutet, dass sie nicht schlafen können, wenn Sie im vermeintlichen Selbstfahrermodus fahren. Sie können kein Buch lesen. Sie können keinen Film oder eine Fernsehsendung schauen. Sie können keine Textnachrichten schreiben. Und Sie können keine Videospiele spielen. Und doch haben wir festgestellt, dass dieser Fahrer genau das getan hat.“

Teaser-Bild: Dylan Calluy on Unsplash

1 Like