Edge Datacenter

Große Datenmengen besser verteilen

Edge Datacenter sind unabdingbar für alle Anwendungsfälle, in denen große Datenmengen flächendeckend verteilt werden müssen, betont Klaas Mertens von Equinix.

Klaas Mertens, Equinix

Klaas Mertens, Global Solutions Architect bei Equinix

IT-DIRECTOR: Herr Mertens, nicht nur im Internet of Things (IoT) werden leistungsfähige Kapazitäten am Netzwerkrand benötigt. Inwieweit stößt man hierzulande bereits auf erfolgreiche Edge-Computing-Installationen?
K. Mertens:
Wenn wir von der globalen Verbreitung wie zum Beispiel Smart-Home-Anwendungen wie Google Assistant oder Amazons Alexa sprechen, dann sehen wir bereits heute Edge-Computing-Installationen in den großen Rechenzentren der einzelnen Märkte. Edge-Computing-Installationen, die sozusagen direkt am Mobilfunksendemast vorgenommen werden, haben sich allerdings noch nicht durchgesetzt. Letztlich ist es auch eine Frage der Definition – vor allem in Bezug auf die Latenz zwischen Computing-Instanz und Nutzer.

IT-DIRECTOR: In welchen Branchen und für welche Anwendungsfälle spielen Edge Computing und sogenannte „Edge Datacenter“ momentan eine bedeutende Rolle?
K. Mertens:
Edge Datacenter sind aktuell unabdingbar für alle Anwendungsfälle, in denen große Datenmengen flächendeckend verteilt werden müssen. Das beste Beispiel hierfür sind Streaming-Dienste wie Netflix oder Amazon Video, die beispielsweise beliebte Serien möglichst nah am Nutzer speichern, um ein schnelles Streaming zu ermöglichen. Viele andere Anwendungsfälle sind allerdings noch Testinstallationen. So braucht das Autonome Fahrzeug nicht unbedingt ein Edge Datacenter, um seine Grundfunktionen auszuführen. Die Anbindung an ein solches Rechenzentrum erhöht allerdings den Komfort, da das Auto auf ein umfassenderes Umgebungsmodell zurückgreifen und so beispielsweise Gefahrensituationen besser antizipieren kann.

IT-DIRECTOR: Welche Daten und Applikationen werden dabei vorrangig allein am Netzwerkrand verarbeitet und welche an „klassische“ Rechenzentren weitergeleitet?
K. Mertens:
Am Netzwerkrand werden aktuell vor allem Daten zwischengespeichert – dies ist etwa beim Streaming der Fall. Im Zusammenhang mit modernen Szenarien, wie Connected Cars, Smart Cities oder auch Industrie 4.0, kommt den Edge-Rechenzentren vor allem eine aggregierende und komprimierende Rolle zu, wobei anhand von einfachen Algorithmen entschieden wird, welche Daten an eine höhere Instanz weitergeleitet und welche verworfen werden können. Big-Data-Applikationen wie Machine-Learning-Anwendungen oder auch große Datenbanken werden hingegen eher zentral gehalten, um einen umfassenden Zugriff von Algorithmen auf diese Daten sicherzustellen.

IT-DIRECTOR: Worauf kommt es bei der Verbindung zwischen Netzwerkrand und den „klassischen“ Rechenzentren besonders an?
K. Mertens:
Ähnlich wie bei den aktuell existierenden großen Datenaustauschknoten kommt es auch bei den Edge-Rechenzentren auf eine hohe Verfügbarkeit von Verbindungen an. Eine Datenverarbeitung am Netzwerkrand hat wenige Vorteile, wenn die Daten nach der Verarbeitung doch wieder den Weg über die zentralen Knoten nehmen müssen, um beim Nutzer anzukommen – zum Beispiel, wenn eine Kommunikation über die Grenzen der Mobilfunknetze hinweg nötig wird. Dagegen spielt die Latenz zwischen Edge und „klassischem“ Rechenzentrum hier weniger eine Rolle – umso mehr dafür aber die Bandbreite und einfache Verfügbarkeit der Anbindung.

IT-DIRECTOR: Wie lassen sich Edge-Datacenter-Infrastrukturen besonders energieeffizient betreiben?
K. Mertens:
Am echten Netzwerkrand – also etwa bei der Nutzung von Rechenkapazitäten am Sendemast – wird eher mit hitzeresistenter Hardware gearbeitet, anstatt eine aufwendige Kühlung sicherzustellen. Das zeigt, dass die tatsächliche Berechnung performance-hungriger Algorithmen eher wieder im zentralen Rechenzentrum stattfindet. Bei regionalen oder lokalen Edge Datacentern wird wiederum mit ähnlichen Mechanismen gearbeitet, wie auch bei großen Rechenzentren.

IT-DIRECTOR: Stichwort Ausfallsicherheit: Ein funktionierender Netzwerkrand wird für viele Unternehmen immer geschäftskritischer. Wie können Ausfallsicherheit und nahtlose Energieversorgung beim Edge Computing gewährleistet werden?
K. Mertens:
Innerhalb eines regionalen oder lokalen Umfeldes werden auch kleinere Edge Datacenter genauso abgesichert, wie die großen zentralen Standorte – nämlich mittels redundant aufgebauter Stromversorgung und Notstrom-Dieseln. Sollte hingegen eines der sogenannten Mikro-Rechenzentren im Umfeld der „Micro-Edge“ ausfallen, wird der Ausfall hingenommen und die Leistung durch eine benachbarte Lokation nahtlos übernommen. Moderne Infrastrukturtechniken, wie Containerized Applications und die Distribution und Replikation von Daten aus einer zentralen Lokation sorgen hierfür für permanente Verfügbarkeit.

IT-DIRECTOR: Wie stellen sich etablierte Rechenzentrumsbetreiber bzw. Colocation-Anbieter derzeit auf Edge-Technologien ein?
K. Mertens:
Mithilfe eines modular je nach Bedarf aufgebautem Rechenzentrums ist es auch für Colocation-Anbieter möglich, sowohl große Multi-Megawatt-Installationen für den Bedarf der großen Cloud-Anbieter bereitzustellen, als auch ein „Rechenzentrum im Container“ für Mikro-Edge-Anwendungen mit annähernd dem gleichen Betriebsmodell zu betreiben. Bei den neuen Edge-Lokationen liegt die Herausforderung zum einen darin, dem Kunden durch Automation, aber auch durch klassische Personal vor Ort, alle physikalischen Arbeiten abzunehmen. Gleichzeitig gilt es sicherzustellen, dass alle wichtigen Partner – wie etwa Netzwerk- oder Cloud-Provider – innerhalb eines lokalen Ökosystems schnell und einfach erreichbar sind, um somit einen schnellen Datenaustausch über die Grenzen von Netzwerken und einzelnen Clouds hinweg zu ermöglichen.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok