Edge Computing

So kommen autonome Fahrzeuge ins Rollen

Wie Edge Computing die Weiterentwicklung autonomer Fahrzeuge und damit die Zukunft der Mobilität befeuert, erklärt Marcel Kempe von Noris Network im Interview.

Marcel Kempe, Noris Network

Marcel Kempe, Head of Governance and Standards bei Noris Network

IT-DIRECTOR: Herr Kempe, nicht nur im Internet of Things (IoT) werden leistungsfähige Kapazitäten am Netzwerkrand benötigt. Inwieweit stößt man hierzulande bereits auf erfolgreiche Edge-Computing-Installationen?
M. Kempe:
Funktionierende Edge-Computing-Installationen sind bislang meist stationär, beispielsweise für Cloud-Anbindungen von Werkzeugmaschinen oder Industrieanlagen. In der 5GAA, einer internationalen Arbeitsgemeinschaft von Automotive- und Kommunikationsindustrie wird an Konzepten gearbeitet, um End-to-End-Lösungen für die Zukunft der Mobilität zu entwickeln. Cloud-Technologien und insbesondere Edge Computing spielen dabei eine wichtige Rolle. Hier steht man in Deutschland jedoch eher noch am Anfang.

IT-DIRECTOR: In welchen Branchen und für welche Anwendungsfälle spielen Edge Computing und sogenannte „Edge Datacenter“ momentan eine bedeutende Rolle?
M. Kempe:
Kleine, dezentrale Edge Datacenter sind ein wichtiger Bestandteil, um die Daten aus mobilen Endgeräten zu analysieren und gegebenenfalls zu aggregieren beziehungsweise in deren Kommunikation überhaupt eine annehmbare Latenz und Bandbreite zu sichern. Eine große treibende Kraft hinter diesen Entwicklungen ist die Automobilindustrie. Auf dem Weg zu autonom fahrenden Pkws und immer mehr Anwendungen im Fahrzeug ist ein dichtes Netz kleiner, lokaler Edge Datacenter eine zentrale Voraussetzung. Neben der Automobilindustrie denkt man aber auch z.B. im Bereich Smart Building Infrastructure über Edge Datacenter nach.

IT-DIRECTOR: Welche Daten und Applikationen werden dabei vorrangig allein am Netzwerkrand verarbeitet und welche an „klassische“ Rechenzentren weitergeleitet?
M. Kempe:
Als Mitglied der 5GAA haben wir hier einen gewissen Einblick in die Diskussionen im Automotive-Bereich. Hier ist noch viel in Bewegung und es spielen viele Faktoren eine Rolle. Auch wenn dieses Netz einmal bundes-, europa- oder weltweit steht, so wird es für zentrale Anwendungen immer auch eine lokale Verarbeitung in den Endgeräten geben müssen, um Basisfunktionen weiterhin nutzen zu können. Schließlich muss ein autonomes Fahrzeug auch bei technischen Ausfällen der Edge-Infrastruktur fahrbar und vor allem sicher bleiben. Daten bzw. Informationen, welche einen regionalen Bezug haben – wie etwa die Fahrbahnsituation oder der Verkehr – können in den Edge-Rechenzentren verarbeitet und den Verkehrsteilnehmern mitgeteilt werden. Auch die C-V2X-Kommunikation (Cellular Vehicle to Infrastructure) ist ein Teil der Edge-Infrastruktur. Die Anwendungsfälle sind vielseitig – im Fokus stehen dabei eine niedrige Latenz und die Aggregation/Analyse von Daten.

IT-DIRECTOR: Worauf kommt es bei der Verbindung zwischen Netzwerkrand und den „klassischen“ Rechenzentren besonders an?
M. Kempe:
Das sind schon die Faktoren, die in Netzwerken allgemein eine Schlüsselrolle spielen: Verfügbarkeit, Kapazität, Sicherheit etc. Wer mit Diensten Geld verdienen will, muss die Servicequalität sichern. In kritischen Anwendungen schließt dies beispielsweise eine priorisierte Weiterleitung der benötigten Daten über die gesamte Kette vom Endgerät über die Edge Cloud bis hin zur klassischen Cloud mit ein.

IT-DIRECTOR: Wie lassen sich Edge-Datacenter-Infrastrukturen besonders energieeffizient betreiben? Welche Kühlverfahren können am Netzwerkrand zum Einsatz kommen?
M. Kempe:
Ein Netzwerk von Tausenden von Edge-Rechenzentren sollte idealerweise ohne aktive Kühlung auskommen. Es braucht für solche kleinen Einheiten robustere, temperaturunempfindlichere Compute- und Storage-Einheiten als die, die heute in klassischen Rechenzentren noch aktive Kühlsysteme erforderlich machen. Aktiv gekühlte Edge Datacenter wären extrem unwirtschaftlich, schon weil die Kühlanlagen störungsanfällig und wartungsintensiv sind.

IT-DIRECTOR: Stichwort Ausfallsicherheit: Ein funktionierender Netzwerkrand wird immer geschäftskritischer. Wie können Ausfallsicherheit und nahtlose Energieversorgung beim Edge Computing gewährleistet werden?
M. Kempe:
Hier braucht es Redundanz, die aber auf sehr unterschiedliche Art gewährleistet werden kann. In Ballungszentren wird es möglich sein, für einzelne Edge Datacenter redundante Stromversorgungen zu realisieren oder es werden sich die Einzugsbereiche der Edge Datacenter überlappen, so dass eines dem anderen als redundante Einheit dienen kann. In ländlichen Gebieten werden solche Konzepte aber schnell unwirtschaftlich. Hier werden alternative Konzepte notwendig werden – beispielsweise die Nutzung von WIFI-Hotspots oder Peer-to-Peer-Verbindungen.

IT-DIRECTOR: Wie stellen sich etablierte Rechenzentrumsbetreiber bzw. Colocation-Anbieter derzeit auf Edge-Technologien ein?
M. Kempe:
Zumindest für den Automotive-Bereich gibt es eine große Herausforderung: „neutraler Boden bzw. Infrastruktur“. Fahrzeuge unterschiedlicher Hersteller werden miteinander Informationen austauschen müssen, Insassen möchten individuelle Applikationen im Fahrzeug nutzen oder die Daten mehrerer Edge Clouds über unterschiedliche Kommunikationsprovider müssen aggregiert werden.

Daher wird es weiterhin die klassischen Cloud-Infrastrukturen geben. Auch wenn dezentral die Daten verarbeitet werden, so ist es absolut sicher, dass durch die zunehmende Digitalisierung ebenso mehr Daten anfallen und diese an „zentralen Stellen“ weiterverarbeitet werden müssen. Hier sehen wir viele Bereiche, in denen wir als noris network mit Infrastruktur, umfangreichen IT-Services und Dienstleistungen unterstützen können.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok