Autonomes Fahren

Gründe für Versagen der Uber-Software unklar

Die Sensoren hätten die Fußgängerin erfassen müssen. Trotzdem reagierte das autonome Fahrsystem nicht.

Autonome Fahrzeuge von Uber in Pittsburgh

Autonome Fahrzeuge von Uber in Pittsburgh

Der erste tödliche Unfall in der Geschichte des autonomen Fahrens sorgt weiterhin für Überraschungen und Diskussionen. Wie das bei öffentlich wirksamen Fällen häufig ist, werden nach und nach mehr Details bekannt. So hat die Polizei ermittelt, dass die Fußgängerin nicht „plötzlich“ und „aus dem Schatten heraus“ auf die Straße getreten ist, sondern gut erkennbar eine mehrspurige Straße überquerte. Außerdem geschah der Unfall nicht, wie anfangs berichtet, in einer 35-MPH-Zone, sondern außerorts. Dort gilt eine Höchstgeschwindigkeit von 45 Meilen pro Stunde, die von dem autonomen Fahrzeug auch korrekt eingehalten wurde.

Außerdem scheint es so zu sein, dass die Uber-Software für autonomes Fahren einfach nicht so gut ist wie die der Konkurrenz. Die New York Times berichtet von internen Dokumenten, aus denen hervorgeht, dass mindestens alle 13 Meilen eine „Intervention“ das männlichen Testfahrers notwendig ist. Waymo dagegen gibt an, die Software übergebe inzwischen nur noch alle 5.600 Meilen angesichts von nicht zu bewältigenden Problemen an den Fahrer. Gleichzeitig aber hat Uber angekündigt, gegen Ende des Jahres bereits einen Service mit Robotertaxis auf den Markt zu bringen. Stand die Uber-Unit für autonomes Fahren also unter Erfolgsdruck und musste für rasche Fortschritte sorgen? Bis zur Ermittlung der genauen Unfallursache hat die Regierung des US-Bundesstaats Arizona Uber weitere Testfahrten verboten.

Der Grund für den Unfall ist weiterhin unklar

Eine der Schwierigkeiten der Ermittler wird sein, den genauen Grund für die Kollision zu ermitteln. Denn das Video vom Unfall des Uber-Testfahrzeugs zeigt, dass die im Fahrzeug eingebaute Sensorik (Radar, Lidar) und mit hoher Wahrscheinlichkeit auch die Kamera ein die Straße querendes Objekt hätten erkennen und eine Notbremsung auslösen müssen. Auch der Testfahrer hätte die Kollision durch eine Notbremsung vermeiden können, wenn er nicht abgelenkt gewesen wäre. Stattdessen ist das Auto ungebremst mit der Fußgängerin kollidiert. Es gibt eine ganze Reihe von denkbaren Gründen dafür.

Erstens: Die Notbremsfunktion des autonomen Fahrsystems war nicht aktiv. Dies könnte zum Beispiel aufgrund eines Bugs, eines fehlgeschlagenen Software-Updates oder einer Fehlbedienung durch Techniker oder die Fahrerin geschehen sein. In diesem Fall hat das autonome Fahrsystem zwar möglicherweise die Fußgängerin erkannt, konnte aber keine Reaktion auslösen.

Zweitens: Die Notbremsfunktion des autonomen Fahrsystems funktioniert so, wie das bei den marktgängigen Notbremsassistenten in vielen Oberklassewagen heutzutage der Fall ist. Sie arbeiten lediglich innerhalb eines bestimmten Geschwindigkeitsbereiches, beispielsweise innerorts bis 35 Meilen pro Stunde. Außerhalb dieser engen Parameter, etwa bei höherer Geschwindigkeit auf Fernstraßen, können Hindernisse nicht sicher erkannt werden, sodass ein Notbremsassistent keine Reaktion zeigt - um einen Auffahrunfall durch plötzliches Bremsen zu vermeiden. Dies sollte zu einer Übergabe an die menschlichen Fahrer führen, die nun die Aufgabe haben, eine Sekunde nach Zwölf noch einen Zusammenstoß durch eine Vollbremsung zu verhindern. Konsequenz: Der Unfall wäre vermutlich von der Testfahrerin vermeidbar gewesen.

Drittens: Die Notbremsfunktion des autonomen Fahrsystems wird vollständig vom neuronalen Netzwerk des autonomen Fahrsystems übernommen, ohne Übergabe an den menschlichen Fahrer in unklaren Situationen. Dieses Szenario ist eigentlich logisch: Es geht um ein autonomes Fahrzeug, das alle Fahrsituationen ohne menschlichen Eingriff bewältigen soll. Es nutzt alle vorhandenen Fahrdaten, um auftauchende Hindernisse zu klassifizieren. Sollte eine genaue Klassifikation nicht möglich sein, wird anhand der Fahrdaten eine maximal sichere Reaktion gewählt. Denkbar wäre hier eine starke Reduktion der Geschwindigkeit, ohne eine Vollbremsung einzuleiten. Daran könnte sich bei entsprechend freien Fahrbahnen vor, hinter und neben dem Fahrzeug auch ein Ausweichen anschließen. In diesem Fall wäre zwar möglicherweise der Unfall nicht verhindert worden, aber er wäre deutlich leichter ausgegangen. In der Erprobungsphase das autonomen Fahrens wird der Testfahrer vermutlich trotzdem eine Vollbremsung auslösen können.

Gefragt sind herstellerübergreifende Standards

Die beiden letzten Positionen werden übrigens in einer hochinteressanten Diskussion auf Facebook von den Autobloggern Robert Basic (2.) und Sebastian Bauer (3.) vertreten. Denn dieser Unfall hätte eigentlich gar nicht passieren dürfen, wenn die hohen Erwartungen an autonome Fahrzeuge bereits heute erfüllt wären. Es gab bereits einige Unfälle mit Uber-Testfahrzeugen, bei denen allerdings Fehlverhalten anderer Fahrer Auslöser gehörte. Vor einem Jahr gab es einen Zusammenstoß, der bereits einmal zu einem Aussetzen des Testprogramms führte. Vor wenigen Wochen passierte ein weiterer Unfall, der ebenfalls glimpflich verlief.

Auffällig in beiden Fällen: Es wirkt so, als sei die Software von Uber von plötzlichen, nicht korrekten Manövern anderer Fahrzeuge leicht zu überfordern. Die gehören allerdings zum Alltag von Autofahrern. Zugespitzt ausgedrückt: Autonome Fahrzeuge fahren nach Straßenverkehrsordnung, aber nicht vorausschauend wie menschliche Fahrer, die häufig die Dusseligkeit anderer Verkehrsteilnehmer mit einbeziehen. Der Uber-Unfall könnte zur Konsequenz haben, dass die Hersteller der autonomen Fahrsysteme ihr Design überdenken müssen, sodass es auch erratisches Verhalten wie plötzliches Abbiegen oder unmotivierte Spurwechsel leichter interpretieren kann.

In den Diskussionen und Überlegungen wird aber eines deutlich: Der Unfall weist auf ein tiefergehendes Problem hin, nämlich die mangelnde Transparenz bei den Herstellern der Software für autonome Fahrsysteme. Welche Klassifikationssysteme und Entscheidungsbäume Unternehmen wie Uber oder Waymo einsetzen, ist unbekannt. Hier wären sicher einheitliche Standards gefragt, die herstellerübergreifend weiterentwickelt werden. Doch Robert Basic ist skeptisch, ob die Unternehmen daran ein Interesse haben: „Es geht um ein gigantisches Milliardengeschäft. Da werden sich die Hersteller nicht wie bei der Luftfahrt zusammensetzen und komplexe Sicherheitsregelwerke einziehen, damit kein Unfall zweimal auf die gleiche Art passiert.“

Bildquelle: Uber

©2018Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok