Was bleibt vom tödlichen Uber-Crash?

Im vergangenen Jahr hatte ein autonomer Uber-Wagen eine Passantin überfahren, die ihr Fahrrad über eine mehrspurige Straße schob. Sie starb an den Folgen des Unfalls. Wie es dazu kommen konnte, darüber wurde lange spekuliert. Nun hat die Behörde für Verkehrs- und Transportsicherheit ihren Bericht veröffentlicht. Die Software war Schuld – sie hat die mehrfach Frau erkannt aber immer wieder vergessen.

Es ist mittlerweile über ein Jahr her. Am 18. März 2018 hatte ein selbstfahrender Volvo XC90 von UBER in Tempe, Arizona einen tödlichen Unfall verursacht. Er passierte sehr schnell, wie das Video zeigt, das die Polizei veröffentlicht hat. Zu sehen ist eine lange und dunkle Straße. Die Scheinwerfer leuchten nur einige Meter gut aus. Dann ist plötzlich der Umriss eines Menschen zu sehen, der mit einem Fahrrad an seiner Seite aus dem Dunkel vor den Wagen steigt und unmittelbar erfasst wird. Es war die 49jährige Elaine Herzberg. Sie wurde schwer verletzt und starb wenig später im Krankenhaus.

In den Tagen und Wochen danach kursierten viele Theorien und Fragen darüber, wie und warum dieser Vorfall hatte passieren können. Hätte das Lidar die Frau nicht schon weit vor der Kollision erfassen und das Selbstfahrsystem den Wagen sofort zum Stillstand bringen müssen? Warum griff der von Werk aus in den Volvo integrierte Notbremsassistent mit Nahbereichsradar nicht? Spätestens der hätte eine Reaktion zeigen müssen. Immer wieder wurden Experten im Fernsehen befragt. Sie spekulierten in Technologiemagazinen, was passiert oder nicht passiert sein könnte und ob so ein Unfall auch bei den selbstfahrenden Wagen von Waymo oder Apple denkbar sei.

Ebenso kam aber auch eine viel generellere Debatte auf. Nämlich die darum, ob diese selbstfahrenden Wagen eigentlich schon sicher genug unterwegs sind, um überhaupt auf die öffentlichen Straßen gelassen zu werden; ob es sinnig ist, sie auf Straßen zu testen, wo echte Menschen fahren und laufen. Und vor allem: Wer ist haftbar zu machen, wenn ein Computer auf Rädern einen Unfall verursacht? Und was, wenn ein Mensch hinter dem Lenkrad ihn noch hätte verhindern können? Zumindest einige wenige dieser Fragen sollte eine ausführliche Untersuchung der US-Behörde für Verkehrs- und Transportsicherheit NTSB beantworten.

Uber hat vor dem tödlichen Crash schon Dutzende Unfälle

Noch vor Abschluss der Experten- und Gutachteruntersuchung waren viele Details zu dem Vorfall und Ubers Test-Prozedere bekannt worden. So hatte Herzberg die Straße dort wo sie entlang ging, eigentlich gar nicht überqueren dürfen. Die von Uber eingesetzte Sicherheitsfahrerin hatte wiederum die Straße nicht im Blick. Sie war abgelenkt, schaute die Sendung The Voice auf dem Streaming-Dienst Hulu und griff erst ein, als es bereits zu spät war. Wenn sie aufmerksam gewesen wäre, so urteilten Polizei und Analysten des Videomaterials, hätte sie den tödlichen Crash nicht unbedingt abwenden aber mit einer Notbremsung seinen tödlichen Ausgang verhindern können. Auch der ab Werk im XC90 verbaute und vom Selbstfahrsystem unabhängige Notbremsassistent hätte dies tun können. Laut den Entwicklern hätte er die Frau eine Sekunde vor dem Aufprall registrieren müssen. Jedoch hatte Uber den Notbremsassistent zugunsten des eigenen Systems deaktiviert.

Dass Uber mit seinen selbstfahrenden Prototypen auf den Straßen von Arizona unterwegs war, war Teilen der Bevölkerung und Regierung nicht wirklich klar. Wie Recherchen des The Gaurdian aufdeckten, war das Testprogramm zumindest teilweise geheim gehalten worden und nur zustande gekommen, da das Milliarden-Start-up eine „lauschige Beziehung“ zum Gouverneur Doug Ducey führte. Auch mit der Staatsanwaltschaft des Bundesstaates soll Uber allzu engen Kontakt gepflegt haben – unter anderem aufgrund einer Partnerschaft für eine Werbekampagne gegen Alkohol am Steuer. Beide sollen auch erste öffentliche Beurteilungen des Unfalls wohl zugunsten von Uber beeinflusst haben, dessen Fahrzeuge, wie jetzt öffentlich wurde, schon vor dem tödlichen Crash in 37 Unfälle verwickelt waren.

Das Ridesaring-Unternehmen hatte sein Testprogramm für selbstfahrende Autos nach dem Unfall vorerst ausgesetzt. Ebenso verbot Arizona Uber weitere Testläufe, um „die öffentliche Sicherheit“ im Bundesstaat zu fördern. Aber noch während die Ermittlungen liefen, schaffte Uber es, sich mit der Familie der Toten zu einigen und kündigte Ende 2018 in einem 70 Seiten langen Sicherheitsbericht an, seine Selbstfahrtests in einem eingeschränkten Umfang fortzusetzen.

Die Software kannte keine unvorsichtigen Fußgänger

Nach über einem Jahr hat die US-Behörde für Verkehrs- und Transportsicherheit NTSB ihren abschließenden Bericht veröffentlicht, der später im Monat noch offiziell vorgestellt werden soll. In dem wird festgestellt, dass die Software von Uber eindeutig Fehler gemacht hatte – welche, die nicht hätten sein müssen. Der Wagen sei mit 70 Kilometern pro Stunde unterwegs gewesen und hatte Elaine Herzberg mit ihrem Fahrrad ganze 5,6 Sekunden vor dem Unfall erstmals ausgemacht. Aber das Selbstfahrsystem erkannte sie nicht als Fußgängerin, sondern als stillstehendes Vehikel. Mit dem Näherkommen des Wagens wurde die Fußgängerin in Sekundenbruchteilen erneut entdeckt und neu klassifiziert. Etwa als Fahrrad , unbekanntes Objekt oder wieder als Vehikel.

Erst 1,5 Sekunden vor dem Unfall wurde registriert, dass sich ein unbekanntes Objekt „teilweise in der Spur“ und einen Sekundenbruchteil später ein Fahrrad „voll auf der Spur“ des selbstfahrenden Wagens befand.

Was das Uber-Auto dabei nicht feststellte, war dass sich die Frau mit ihrem Fahrrad zwar langsam aber stetig auf die Fahrtspur des Fahrzeugs zubewegte. Denn da Herzberg für das System jedes mal ein neues Objekt darstellte, wurde auch eine neue Ortsangabe gesetzt und damit keine Bewegung berechnet. Die Frau mit dem Fahrrad war für das Uber-Selbstfahrsystem ein unbewegliches Hindernis, das keine Gefahr für eine Kollision darstellte. Erst 1,5 Sekunden vor dem Unfall wurde registriert, dass sich ein unbekanntes Objekt „teilweise in der Spur“ und einen Sekundenbruchteil später ein Fahrrad „voll auf der Spur“ des selbstfahrenden Wagens befand.

Das Fahrsystem hatte noch ein Ausweichmanöver kalkuliert, das mit der neuen Position des Fahrrads aber nicht mehr ausführbar war. Daraufhin sollte eine Vollbremsung ausgelöst werden. Jedoch hatte da schon die Sicherheitsfahrerin das Lenkrad in der Hand. Die fehlerhaften und fahrlässigen Programmierungen, die zu dem Unfall geführt haben, sollen mittlerweile behoben sein. Die neue Software von Uber würde, das hätten Simulationen ergeben, die Bewegungen der Frau prognostizieren und sie 4,5 Sekunden vor einem möglichen Crash ausmachen und damit einen Unfall verhindern. Zur Zeit des Unfalls, so die Schlussfolgerung der NTSB, hätten die Entwickler von Uber aber offenbar nicht bedacht, dass Menschen achtlos eine Straße überqueren könnten.

Der Unfall im März 2018 war nicht das erste Unglück mit einem selbstfahrenden Auto bei dem ein Mensch starb – das war ein Crash in einem Tesla im Autopilot-Modus. Aber es war der erste Unfall bei dem ein unbeteiligter Verkehrsteilnehmer ums Leben gekommen war. Einige Medien vergleichen Elaine Herzberg daher mit Bridget Driscoll, dem ersten Menschen, der von einem Auto überfahren und getötet wurde. Firmenleiter wie Jen-Hsun Huang von Nvidia plädierten im Nachgang des Unfalls, dass „dies ein wichtiger Moment“ sei und die Industrie „eine Pause einlegen und davon lernen sollte.“ Andere Entwickler und Ingenieure hatten Vergleichbares gefordert.

Ob es dazu kam? Eine echte Pause haben Waymo, Zoox, Drive.ai, Cruise und viele andere Start-ups und Autobauer wie Tesla und Daimler jedenfalls nicht eingelegt. Gelernt haben dürften sie aber schon einiges. Nämlich dass fehlerhafte Software in einem Fahrzeug durchaus nicht nur Blech verbeulen, sondern auch Menschenleben kosten kann.

Was glaubt ihr, was bleibt vom tödlichen Uber-Crash?

Update: Mittlerweile hat die Verkehrssicherheitsbehörde NTSB den vorab schon online veröffentlichten Bericht auch offiziell vorgestellt – und damit auch einige Schlussfolgerungen zu denen die Ermittler kamen.

Nach deren Einschätzung trifft die unaufmerksame Testfahrerin die Hauptschuld am Crash. Sie habe weder das Verkehrsgeschehen noch die automatisierten Systeme im Blick gehabt. Ebenso sei aber auch Uber selbst zu belasten. Das Unternehmen habe eine „unzureichende Sicherheitskultur“ zur Schau gestellt. „Die Kollision war das letzte Glied einer langen Kette von Handlungen und Entscheidungen einer Organisation, die die Sicherheit leider nicht zur obersten Priorität gemacht hat“, sagte NTSB-Chef Robert L. Sumwalt.

Die Ermittler regen nun schärfere Regeln für Tests mit selbstfahrenden Fahrzeugen an. Bislang freiwillige Sicherheitsberichte der Unternehmen sollen beispielsweise zur verbindlichen Voraussetzung für Testfahrten werden.

Dieser Artikel ist Teil des 1E9-Themenspecials: Fahren 2035. Wir und die Roboterautos. Alle Texte und Diskussionen und Mobilitäts-Expertinnen und -Experten aus unserer Community findest du hier!

6 „Gefällt mir“

spannender Artikel und wirklich eine schwere Frage.
Eher gefühlt als mit echtem Fachwissen belegt würd ich aber vermuten, dass insgesamt WENIGER und weniger tödliche Unfälle passieren, wenn mal irgendwann alle Autos autonom fahren.
Ich gehe davon aus, wie gesagt ist das aber eher ein Gefühl als Wissen, dass die Autos dann auch untereinander besser sprechen. Vllt gibt es auch Tokens für Fahrräder oder Fußgänger, um hier noch sicherer unterwegs zu sein.
Bei all der Tragik, die so ein Unfall mit sich bringt, bin ich der Meinung dass es langfristig besser wird.
Gibt es denn Statistiken oder mit Fachwissen fundierte Belege, wie Unfälle mit vs. ohne autonome Autos aussehen?

Ist ja ähnlich wie die E-Scooter Themen. Klar, da gibt es ein paar Unfälle und auch verletzte, aber man sollte das immer vergleichen mit den Unfällen die auch so passieren oder passiert wären.

2 „Gefällt mir“

Nun, das ist ja auch das nicht ganz explizite Ziel aber die Versprechung, die viele der Start-ups und Autokonzerne mit der Technik verbinden. Von Daimler kam auch direkt die Ansage, dass die Zahl der Verkehrstoten sinken muss – ansonsten sei die Technik nicht zu rechtfertigen.

Und natürlich war ein Todesfall eigentlich unvermeidlich. Es war nicht die Frage, ob er passiert, sondern wann.

2 „Gefällt mir“

Ein schrecklicher Unfall, der wiedereinmal die Gefahren von neuen Technologien zeigt. Zweifelsohne ist das Ziel den Verkehr durch autonomes Fahren sicherer zu machen, lohnenswert. Leider ist dieser Unfall, für mich, ein weiteres Beispiel für die sorglose Erprobung einer neuen Technologie. Das kollektive versagen mehrerer Sicherheitssysteme gepaart mit einer sorglosen Einstellung der Verantwortlichen, zeigt die Wichtigkeit der Erprobungsphase von neuen Systemen.

Leider befürchte ich, dass keine Erkenntnis durch dieses Unfall bleibt. Hoffe aber dass es ein weiteres Zeichen ist neue Technologien besser zu hinterfragen und diese im Zweifelsfall nicht unausgereift auf die Menschheit loszulassen.

2 „Gefällt mir“

Da bin ich mittlerweile nicht mehr so sicher. Denn, ich glaube, dass der Unfall eventuell dafür gesorgt haben könnte, dass die Bevölkerung für das Thema sensibilisiert wurde; dass der Technologie und ihren möglichen Gefahren mehr Aufmerksamkeit von Menschen zu teil wird, die sie vorher ignoriert oder nicht wahrgenommen haben.

1 „Gefällt mir“

Das wäre wirklich schön, wenn dann zur Bevölkerung auch noch die Verantwortungsträger Ihrer Fokus darauf legen stehen uns goldene Zeiten bevor. Das Potenzial viele Unfälle, und somit viel Leid zu vermeiden, birgt die Technik auf jedenfall. Also lasst Sie uns gestalten.

Weiß jemand welche Arten von Sensorik in selbstfahrenden Autos alles verbaut werden? Theoretisch hätte ein auf Körperwärme basierendes Sicherheitssystem trotz schwieriger Sicht und Achtlosigkeit des Opfers, eine Früherkennung ermöglichen können oder?

1 „Gefällt mir“

@theBman zur Sensor-Ausstattung müsstest du was sagen können :slight_smile: @nicolaskillian denke ich ebenso :slight_smile:

Also meines Wissens nach wurde von Uber das Notbremssystem von Volvo, welches radarbasiert ist, bewusst umgangen, um die autonomem Fahreigenschaften besser evaluieren zu können. Dies war „notwendig“, weil das System von Volvo sonst dauernd interveniert hätte. Ein unaufmerksamer Sicherheitsfahrer ist in meinen Augen das wirkliche Problem, da die Autos ja noch getestet werden.
Wer bei modernen Autos die Hände vom Steuer nimmt und mit eingeschalteten Assistenzsystemen einen Unfall baut, ist meines Wissens auch noch selbst Schuld.

Das typische Sensor-setup der meisten Firmen umfasst mehrere LiDAR Systeme, mindestens 1 Radar, eher aber deutlich mehr, und dazu mehrere Kameras. Ein hohes Redundanz Level ist notwendig, damit wenn ein System versagt, das andere immer noch etwas sieht. Bspw. Licht vs. Radar-Wellen.

Es sterben aktuell noch über 1m Menschen jedes Jahr weltweit im Straßenverkehr. Über 90% aufgrund von menschlichem Versagen. Roboterautos werden noch sehr sehr viele Menschenleben retten, ist nur die Frage, wann sie genügend schwierige Situationen handeln können. Ich freue mich schon drauf!

4 „Gefällt mir“

Welche Rolle würdest du sagen können neue Ultraschall-Sensoren spielen? Du hast Lidar, Radar und Kameras erwähnt. Hätten Ultraschall-Sensoren im Nahbereich Sicherheitsvorteile?

Bin da kein Experte, daher gerne berichtigen. Aber Ultraschallsensoren wie sie derzeit verbaut werden haben nur eine vergleichsweise begrenzte Reichweite von ~10 vielleicht 15 Metern und sind nur auf nahe Entfernungen akkurat. Wirklich abgedeckt wird von ihnen meist ein Beobachtungsfeld von einige Dezimetern (in älteren Autos) bis zu 2,5 Metern (bei aktuelleren) Modellen. Daher werden sie vor allem für Parkassistenten eingesetzt.

Ab Geschwindigkeiten von über 25 km/h hätte ein Ultraschallsensor die Frau also erst erfasst, als es schon zu spät war. Sinnig wäre eher ein unabhängiges Kolissionsschutzsystem aus Lang- und Nahbereichsradar gewesen. Damit hätte die Frau so rechtzeitig erkannt werden können, das ein tödlicher Ausgang hätte abgewendet werden können.

3 „Gefällt mir“

Dem ist nichts hinzuzufügen ;).

Zwar passieren immer noch über 30% aller Schäden und Unfälle im langsamen Geschwindigkeitsbereich, aber in dieser Situation hätte ein US Sensoren keinen Mehrwert geliefert.

3 „Gefällt mir“