17.05.2017 Fahren ohne Fahrer

Auf dem Weg zum völlig autonomen Fahrzeug

Von: Ingo Steinhaus

Autonomes Fahren ist jetzt auch in Deutschland erlaubt. Doch der Weg bis zu einem wirklichen „Driverless Car“ ist noch weit.

  • So sieht ein Lidar-Sensor seine Umgebung (Quelle: Luminar Technologies)

  • Blickwinkel eines Lidar-Sensors mit fixem Laser (Quelle: Velodyne)

Seit kurzem gibt es auch in Deutschland eine Regelung, die automatisiertes Fahren auf unseren Straßen ermöglicht. Dafür musste das Straßenverkehrsgesetz geändert werden. In der neuen Formulierung lässt es zu, dass der Fahrer „dem technischen System in bestimmten Situationen die Fahrzeugsteuerung übergeben kann“. Doch die letzte Verantwortung bleibt immer beim Fahrzeugführer.

Das bedeutet: Fahrerloses Fahren, bei dem das eingebaute Computersystem ein Auto vollständig vom Start bis zum Ziel übernimmt und die mitfahrenden Personen nur Passagiere sind, ist zunächst einmal auf öffentlichen Straßen nicht erlaubt. Damit spiegelt das Gesetz ungefähr den aktuellen technischen Stand wieder: Ein echtes fahrerloses Auto gibt es bislang noch nicht. Selbst das weit fortgeschrittene Google-Auto funktioniert zwar schon recht gut autonom, aber eben nicht überall.

Bisher gibt es keine vollautonomen Fahrzeuge

Der höchste Level 5 des autonomen Fahrens ist schwer zu erreichen. Das Auto muss beispielsweise auch dann korrekt funktionieren, wenn so gut wie keine Umgebungsmarkierungen mehr zu erkennen sind, etwa bei starkem Schneefall mit Verwehungen. Gleiches gilt auch für die vor allem in den engen deutschen Innenstädten verbreiteten Schilder- und Ampelwälder, die bereits Menschen vor Probleme stellt. Ein KI-basiertes Auto muss da irgendwie durch.

Die meisten Menschen haben sich angewöhnt, bei Widersprüchlichkeiten die Schilder innerlich nach Wichtigkeit zu sortieren und die weniger wichtigen einfach zu ignorieren. Stattdessen orientieren sie sich stärker an der Umgebung und dem Verhalten der anderen Verkehrsteilnehmer. So etwas ist einem Computer nur schwer beizubringen und mit regelbasierten Systemen unvorstellbar.

Aus diesem Grund basiert die Software-Seite des autonomen Fahrens auf neuronalen Netzen und Deep Learning. Für das Training dieser Netze sind enorme Mengen an Daten erforderlich, nämlich Fahrdaten von möglichst vielen und möglichst allen denkbaren Situationen. Dies ist einer der Gründe, warum der noch längst nicht autonom fahrende „Autopilot“ von Tesla mit hoher Wahrscheinlichkeit recht bald Level 3, vielleicht sogar Level 4 erreichen wird.

Da sämtliche Tesla-Fahrer Daten sammeln und in die Cloud senden, entsteht auf diese Weise eine recht umfassende Datenbank des Fahrerverhaltens, die zum Training von neuronalen Netzen genutzt werden kann. Andere Hersteller nutzen den Probebetrieb ihrer Autos, um diese Daten zu ermitteln. Doch dort ist die Datenmenge deutlich kleiner als bei den mindestens 150.000 Teslas, die weltweit durch die Gegend fahren.

Lasersysteme für 3D-Umgebungsbilder

Ein Level-5-Auto muss viele unterschiedliche Fahrsituationen bewältigen. Das funktioniert nur, wenn es zahlreiche zusätzliche Informationen über die nähere Umgebung besitzt - ebenfalls enorme Datenmengen, die über Sensorik gewonnen werden. Deshalb sind neben den ohnehin in jedem Auto eingebauten Messfühlern noch viele weitere Datenquellen notwendig.

So sind autonome Fahrzeuge mit Kameras ausgestattet, die Objekte in der Umgebung erkennen können sowie Radar-Systemen, die zur Messung von Abständen und Relativgeschwindigkeiten eingesetzt werden. Ergänzt wird dies durch hochauflösendes Kartenmaterial sowie GPS-Ortung. Dies ist auch ungefähr die Ausstattung eines Tesla Model S, dessen „Autopilot“ bisher lediglich ein hochkomfortables Assistenzsystem auf Level 2 ist.

Zurzeit ist es noch nicht möglich, außerhalb von Autobahnen oder übersichtlichen Landstraßen bei blendenden Wetterverhältnissen problemlos und ohne Fahrereingriff vorwärts zu kommen. Wer schon mal ein gut ausgestattetes Auto der Oberklasse chauffiert hat, kennt ähnlich leistungsfähige Systeme. Nur das Marketing der deutschen Hersteller ist schlechter. Für echte KI-Autos ist jedoch noch mehr erforderlich: Lidar, Light Detection And Ranging.

Diese Technologie ist grundsätzlich eine mit dem Radar vergleichbare Methode zur optischen Abstands-und Geschwindigkeitsmessung sowie zur Vermessung atmosphärischer Parameter. Statt Radiowellen werden Laserstrahlen verwendet. Doch Lidar kann mehr: Eine Reihe von Startups arbeiten an 360-Grad-Sensoren ohne bewegliche Teile, die präzise, hochauflösende, dreidimensionale „Umgebungsbilder“ erzeugen. Mit ihnen können fahrerlose Autos deutlich besser navigieren als mit den bisherigen Verfahren.

Lidar-Startups für autonomes Fahren

Das bekannteste Startup in diesem Bereich ist das Unicorn Quanergy. Zu den Investoren gehören Samsung und Daimler. Das Unternehmen hat kleine und kostengünstige Sensoren entwickelt, die keine beweglichen Teile mehr enthalten und im Laufe dieses Jahres in die Massenproduktion gehen sollen. Das wird einen großen Fortschritt bringen, den Highend-Lidar kostet bisher fünfstellige Dollarbeträge und die meisten autonomen Autos benötigen zwei dieser Systeme.

Doch die Konkurrenz schläft nicht. Lidar-Pionier Velodyne hat im April die Produktion eines kostengünstigen Lidar-Systems mit fixem Laser angekündigt. Vor wenigen Tagen hat Luminar Technologies, ein bereits seit fünf Jahren unter Geheimhaltung arbeitendes Startup, ebenfalls ein solches Produkt angekündigt. Der erst 22jährige CEO Austin Russell gab an, dass sein System die fünfzigfache Auflösung und die zehnfache Reichweite aktuell verfügbarer Systeme habe. Zurzeit ist es allerdings noch im Testbetrieb und wird von einigen, nicht näher bezeichneten Partnern experimentell eingesetzt.

Das klingt sehr vollmundig, aber trotzdem (oder gerade deswegen?) hat unter anderem Peter Thiel in das System investiert. Es scheint also zumindest keine Luftblase zu sein. Doch selbst wenn Luminar nicht liefert, es gibt noch andere Startups, die in diesem Bereich aktiv sind. Teils liefern sie bereits Systeme, teils sind sie erst in der Entwicklungsphase. Recht aktuelle Listen finden sich bei CBInsights und NANalyse.

Ganz vollständig sind sie allerdings nicht, denn die Analysten richten ihren Blick lediglich auf Sensoren für den Industrieeinsatz. Doch gibt auch andere Anwendungsbereiche. So hat das US-Startup Scanse einen kostengünstigen Lidar-Scanner entwickelt, der sich an die Maker-Szene richtet. Er heißt Sweep und ist vor einem Jahr auf Kickstarter finanziert worden. Die ersten Geräte sind bereits ausgeliefert worden, die normale Verkaufsversion kann zum Preis von etwa 350 Dollar vorbestellt werden.

Bildquelle: Luminar Technologies, Velodyne

©2017 Alle Rechte bei MEDIENHAUS Verlag GmbH