Autonomes Fahren

Wahrnehmung ist der Schlüssel

Die biologischen Wahrnehmungssysteme des Menschen haben sich über Millionen von Jahren entwickeln können. War es erst wichtig Raubtiere und andere Gefahren frühzeitig zu erkennen, sowie bei der Jagd und Nahrungssuche zu unterstützen, machen sie heute Autofahren, Flugzeugfliegen und die Schiffsnavigation erst möglich.

Digitales Armaturenbrett

Um Autonomes Fahren so sicher wie möglich zu machen, entwickeln Ingenieure Sensoren und Algorithmen, die in der Lage sind, den gesamten menschlichen Wahrnehmungsapparat inklusive Gehirn zu ersetzen und sogar zu übertreffen.

Ein Ziel der Ingenieure ist es, Sensoren und Algorithmen zu entwickeln, die in der Lage sind, unseren gesamten Wahrnehmungsapparat inklusive Gehirn zu ersetzen und sogar zu übertreffen. Schon heute ist es möglich, unsere Wahrnehmungssysteme nachzuahmen. So können Ingenieure Wahrnehmungsalgorithmen Millionen von Szenarien durchlaufen lassen, um sie darauf zu trainieren, vorab gekennzeichnete und identifizierte Verkehrsumstände und Objekte im Straßenverkehr zu erkennen und entsprechend darauf zu reagieren.

Dieser Prozess hat dazu geführt, dass wir aktuell autonome Fahrzeuge (AVs) und fortgeschrittene Fahrerassistenzsysteme (ADAS) der Autonomiestufe 2 oder 3 möglich machen können. Auf diesen Stufen sind die Fahrzeuge in der Lage, die Kontrolle über einige Funktionen wie Notbremsungen oder Spurhalten zu übernehmen. Aber es sitzt immer noch ein Mensch am Steuer, der die Kontrolle über das Fahrzeug hat.

Und es liegen noch viele tatsächliche und virtuelle Meilen zwischen dem aktuellen Stand der ADAS (Advanced Driver Assistance Systems) und vollständig autonomen Fahrzeugen der Stufe 5. So errechnete die Rand Corp. schon 2016 in einem oft zitierten Report zu autonomen Fahrzeugen, dass autonome Fahrzeuge Hunderte von Millionen manchmal sogar Hunderte von Milliarden von Kilometern fahren müssten, um ihre Verkehrssicherheit unter Beweis zu stellen. Laut Rand würde zum Beispiel der Nachweis, dass autonome Fahrzeuge weniger schwere Unfälle als menschliche Fahrer erleiden würden, eine Flotte von 100 autonomen Autos erfordern, die mit 25 Meilen pro Stunde 125 Millionen Meilen am Stück zurücklegen. Das entspricht einer Fahrzeit von sechs Jahren. Um den gleichen Nachweis für tödliche Unfälle zu erbringen, müsste die gleiche Flotte 8,8 Milliarden Meilen zurücklegen. Das würde in etwa 400 Jahre dauern. Wie also können Ingenieure die Fahrsicherheit autonomer Systeme sicherstellen, ohne Hunderte von Jahren auf den Abschluss dieser Tests zu warten? Die Antwort lautet: Mit digitalen Tests und Simulationen.

Wahrnehmungsalgorithmen können nicht manuell getestet werden

Fahrerassistenzsysteme der Stufe 2 bieten schon erstaunliche Sicherheit. Sie haben das Potenzial ca. ein Drittel aller Unfälle mit Passagierfahrzeugen verhindern und damit die Zahl der Verletzungen um 37 Prozent sowie der Todesfälle um 29 Prozent senken. Welches Potenzial haben dann erst vollständig autonome Fahrzeuge? Um die Autonomiestufe 5 allerdings zu erreichen benötigt es nicht nur die oben erwähnten Milliarden an gefahrenen Meilen. Jede Sekunde an während der Fahrt aufgenommenem Videomaterial muss gesichtet und die Straßensituationen und Objekte im Straßenverkehr müssen von Hand gekennzeichnet werden. Nur so können Wahrnehmungsfehler des Algorithmus identifiziert und korrigiert werden. Ein irrsinniger und unwirtschaftlicher Aufwand. Denn jede Stunde Videomaterial benötigt ca. 800 Stunden an Kennzeichnungsarbeit. 

Dieser Herausforderung können Ingenieure zum Beispiel mit der Nutzung von „Ansys Scade Vision powered by Hologram“ begegnen. Der Vorteil der Software: Es sind keine gekennzeichneten Daten erforderlich, um Wahrnehmungsfehler des Algorithmus zu identifizieren. Stattdessen wird im ersten Schritt das Videorohmaterial durch das neuronale Netzwerk des Algorithmus geleitet. Im zweiten Schritt wird das Material leicht modifiziert, typischerweise durch das Hinzufügen von Unschärfen, und erneut durch das Netzwerk geleitet. Der Vergleich der beiden Durchläufe erlaubt es der Software sogenannte Edge Cases zu identifizieren, bei denen das Netzwerk einen schlechten Erkennungswert oder sogar ein Falsch-Negatives Ergebnis produziert hat. So kann der Zeitaufwand für die Kennzeichnung der Fahrtaufnahmen drastisch reduziert werden.

Simulationen vereinfachen die Prüfung

Was aber passiert, wenn Ingenieure nicht in der Lage sind, Szenarien mit Hilfe von Fahraufnahmen zu erfassen? Sie könnten versuchen diese gefährlich, zeitaufwendig und teuer nachzustellen. Oder sie greifen auf Simulationssoftware wie zum Beispiel Ansys VRExperience Driving Simulator zurück. In dieser können virtuelle Fahrsituationen und Edge Cases erschaffen werden, um den Algorithmus zu testen. Der Vorteil der Simulation ist dabei, dass diese eine einmal erstellte Situation automatisch mit unterschiedlichen Fahr-, Wetter- und Verkehrssicherheitsszenarien durchlaufen kann. Anstatt also darauf zu warten, dass ein Edge Case bei einer realen Fahrt auftritt, können Ingenieure die virtuelle Umgebung so einrichten, dass sie Millionen dieser Szenarien durchläuft.

Software zur Überprüfung von Wahrnehmungsalgorithmen und Simulation kann den Zeit- und Kostenaufwand für die Evaluierung von AV und ADAS drastisch reduzieren. Denn beides trägt dazu bei, dass die manuelle Kennzeichnung von Filmmaterial überflüssig und der Umfang der zur Validierung erforderlichen physischen Tests verringert wird.

Bildquelle: Getty Images/iStock/Getty Images Plus

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok