Im vergangenen Jahr hatte ein autonomer Uber-Wagen eine Passantin überfahren, die ihr Fahrrad über eine mehrspurige Straße schob. Sie starb an den Folgen des Unfalls. Wie es dazu kommen konnte, darüber wurde lange spekuliert. Nun hat die Behörde für Verkehrs- und Transportsicherheit ihren Bericht veröffentlicht. Die Software war Schuld – sie hat die mehrfach Frau erkannt aber immer wieder vergessen.
Es ist mittlerweile über ein Jahr her. Am 18. März 2018 hatte ein selbstfahrender Volvo XC90 von UBER in Tempe, Arizona einen tödlichen Unfall verursacht. Er passierte sehr schnell, wie das Video zeigt, das die Polizei veröffentlicht hat. Zu sehen ist eine lange und dunkle Straße. Die Scheinwerfer leuchten nur einige Meter gut aus. Dann ist plötzlich der Umriss eines Menschen zu sehen, der mit einem Fahrrad an seiner Seite aus dem Dunkel vor den Wagen steigt und unmittelbar erfasst wird. Es war die 49jährige Elaine Herzberg. Sie wurde schwer verletzt und starb wenig später im Krankenhaus.
In den Tagen und Wochen danach kursierten viele Theorien und Fragen darüber, wie und warum dieser Vorfall hatte passieren können. Hätte das Lidar die Frau nicht schon weit vor der Kollision erfassen und das Selbstfahrsystem den Wagen sofort zum Stillstand bringen müssen? Warum griff der von Werk aus in den Volvo integrierte Notbremsassistent mit Nahbereichsradar nicht? Spätestens der hätte eine Reaktion zeigen müssen. Immer wieder wurden Experten im Fernsehen befragt. Sie spekulierten in Technologiemagazinen, was passiert oder nicht passiert sein könnte und ob so ein Unfall auch bei den selbstfahrenden Wagen von Waymo oder Apple denkbar sei.
Ebenso kam aber auch eine viel generellere Debatte auf. Nämlich die darum, ob diese selbstfahrenden Wagen eigentlich schon sicher genug unterwegs sind, um überhaupt auf die öffentlichen Straßen gelassen zu werden; ob es sinnig ist, sie auf Straßen zu testen, wo echte Menschen fahren und laufen. Und vor allem: Wer ist haftbar zu machen, wenn ein Computer auf Rädern einen Unfall verursacht? Und was, wenn ein Mensch hinter dem Lenkrad ihn noch hätte verhindern können? Zumindest einige wenige dieser Fragen sollte eine ausführliche Untersuchung der US-Behörde für Verkehrs- und Transportsicherheit NTSB beantworten.
Uber hat vor dem tödlichen Crash schon Dutzende Unfälle
Noch vor Abschluss der Experten- und Gutachteruntersuchung waren viele Details zu dem Vorfall und Ubers Test-Prozedere bekannt worden. So hatte Herzberg die Straße dort wo sie entlang ging, eigentlich gar nicht überqueren dürfen. Die von Uber eingesetzte Sicherheitsfahrerin hatte wiederum die Straße nicht im Blick. Sie war abgelenkt, schaute die Sendung The Voice auf dem Streaming-Dienst Hulu und griff erst ein, als es bereits zu spät war. Wenn sie aufmerksam gewesen wäre, so urteilten Polizei und Analysten des Videomaterials, hätte sie den tödlichen Crash nicht unbedingt abwenden aber mit einer Notbremsung seinen tödlichen Ausgang verhindern können. Auch der ab Werk im XC90 verbaute und vom Selbstfahrsystem unabhängige Notbremsassistent hätte dies tun können. Laut den Entwicklern hätte er die Frau eine Sekunde vor dem Aufprall registrieren müssen. Jedoch hatte Uber den Notbremsassistent zugunsten des eigenen Systems deaktiviert.
Dass Uber mit seinen selbstfahrenden Prototypen auf den Straßen von Arizona unterwegs war, war Teilen der Bevölkerung und Regierung nicht wirklich klar. Wie Recherchen des The Gaurdian aufdeckten, war das Testprogramm zumindest teilweise geheim gehalten worden und nur zustande gekommen, da das Milliarden-Start-up eine „lauschige Beziehung“ zum Gouverneur Doug Ducey führte. Auch mit der Staatsanwaltschaft des Bundesstaates soll Uber allzu engen Kontakt gepflegt haben – unter anderem aufgrund einer Partnerschaft für eine Werbekampagne gegen Alkohol am Steuer. Beide sollen auch erste öffentliche Beurteilungen des Unfalls wohl zugunsten von Uber beeinflusst haben, dessen Fahrzeuge, wie jetzt öffentlich wurde, schon vor dem tödlichen Crash in 37 Unfälle verwickelt waren.
Das Ridesaring-Unternehmen hatte sein Testprogramm für selbstfahrende Autos nach dem Unfall vorerst ausgesetzt. Ebenso verbot Arizona Uber weitere Testläufe, um „die öffentliche Sicherheit“ im Bundesstaat zu fördern. Aber noch während die Ermittlungen liefen, schaffte Uber es, sich mit der Familie der Toten zu einigen und kündigte Ende 2018 in einem 70 Seiten langen Sicherheitsbericht an, seine Selbstfahrtests in einem eingeschränkten Umfang fortzusetzen.
Die Software kannte keine unvorsichtigen Fußgänger
Nach über einem Jahr hat die US-Behörde für Verkehrs- und Transportsicherheit NTSB ihren abschließenden Bericht veröffentlicht, der später im Monat noch offiziell vorgestellt werden soll. In dem wird festgestellt, dass die Software von Uber eindeutig Fehler gemacht hatte – welche, die nicht hätten sein müssen. Der Wagen sei mit 70 Kilometern pro Stunde unterwegs gewesen und hatte Elaine Herzberg mit ihrem Fahrrad ganze 5,6 Sekunden vor dem Unfall erstmals ausgemacht. Aber das Selbstfahrsystem erkannte sie nicht als Fußgängerin, sondern als stillstehendes Vehikel. Mit dem Näherkommen des Wagens wurde die Fußgängerin in Sekundenbruchteilen erneut entdeckt und neu klassifiziert. Etwa als Fahrrad , unbekanntes Objekt oder wieder als Vehikel.
Erst 1,5 Sekunden vor dem Unfall wurde registriert, dass sich ein unbekanntes Objekt „teilweise in der Spur“ und einen Sekundenbruchteil später ein Fahrrad „voll auf der Spur“ des selbstfahrenden Wagens befand.
Was das Uber-Auto dabei nicht feststellte, war dass sich die Frau mit ihrem Fahrrad zwar langsam aber stetig auf die Fahrtspur des Fahrzeugs zubewegte. Denn da Herzberg für das System jedes mal ein neues Objekt darstellte, wurde auch eine neue Ortsangabe gesetzt und damit keine Bewegung berechnet. Die Frau mit dem Fahrrad war für das Uber-Selbstfahrsystem ein unbewegliches Hindernis, das keine Gefahr für eine Kollision darstellte. Erst 1,5 Sekunden vor dem Unfall wurde registriert, dass sich ein unbekanntes Objekt „teilweise in der Spur“ und einen Sekundenbruchteil später ein Fahrrad „voll auf der Spur“ des selbstfahrenden Wagens befand.
Das Fahrsystem hatte noch ein Ausweichmanöver kalkuliert, das mit der neuen Position des Fahrrads aber nicht mehr ausführbar war. Daraufhin sollte eine Vollbremsung ausgelöst werden. Jedoch hatte da schon die Sicherheitsfahrerin das Lenkrad in der Hand. Die fehlerhaften und fahrlässigen Programmierungen, die zu dem Unfall geführt haben, sollen mittlerweile behoben sein. Die neue Software von Uber würde, das hätten Simulationen ergeben, die Bewegungen der Frau prognostizieren und sie 4,5 Sekunden vor einem möglichen Crash ausmachen und damit einen Unfall verhindern. Zur Zeit des Unfalls, so die Schlussfolgerung der NTSB, hätten die Entwickler von Uber aber offenbar nicht bedacht, dass Menschen achtlos eine Straße überqueren könnten.
Der Unfall im März 2018 war nicht das erste Unglück mit einem selbstfahrenden Auto bei dem ein Mensch starb – das war ein Crash in einem Tesla im Autopilot-Modus. Aber es war der erste Unfall bei dem ein unbeteiligter Verkehrsteilnehmer ums Leben gekommen war. Einige Medien vergleichen Elaine Herzberg daher mit Bridget Driscoll, dem ersten Menschen, der von einem Auto überfahren und getötet wurde. Firmenleiter wie Jen-Hsun Huang von Nvidia plädierten im Nachgang des Unfalls, dass „dies ein wichtiger Moment“ sei und die Industrie „eine Pause einlegen und davon lernen sollte.“ Andere Entwickler und Ingenieure hatten Vergleichbares gefordert.
Ob es dazu kam? Eine echte Pause haben Waymo, Zoox, Drive.ai, Cruise und viele andere Start-ups und Autobauer wie Tesla und Daimler jedenfalls nicht eingelegt. Gelernt haben dürften sie aber schon einiges. Nämlich dass fehlerhafte Software in einem Fahrzeug durchaus nicht nur Blech verbeulen, sondern auch Menschenleben kosten kann.
Was glaubt ihr, was bleibt vom tödlichen Uber-Crash?
Update: Mittlerweile hat die Verkehrssicherheitsbehörde NTSB den vorab schon online veröffentlichten Bericht auch offiziell vorgestellt – und damit auch einige Schlussfolgerungen zu denen die Ermittler kamen.
Nach deren Einschätzung trifft die unaufmerksame Testfahrerin die Hauptschuld am Crash. Sie habe weder das Verkehrsgeschehen noch die automatisierten Systeme im Blick gehabt. Ebenso sei aber auch Uber selbst zu belasten. Das Unternehmen habe eine „unzureichende Sicherheitskultur“ zur Schau gestellt. „Die Kollision war das letzte Glied einer langen Kette von Handlungen und Entscheidungen einer Organisation, die die Sicherheit leider nicht zur obersten Priorität gemacht hat“, sagte NTSB-Chef Robert L. Sumwalt.
Die Ermittler regen nun schärfere Regeln für Tests mit selbstfahrenden Fahrzeugen an. Bislang freiwillige Sicherheitsberichte der Unternehmen sollen beispielsweise zur verbindlichen Voraussetzung für Testfahrten werden.
Dieser Artikel ist Teil des 1E9-Themenspecials: Fahren 2035. Wir und die Roboterautos. Alle Texte und Diskussionen und Mobilitäts-Expertinnen und -Experten aus unserer Community findest du hier!