Edge Computing

Die Netzwerke am Rande der Welt

Mit der Verbreitung von Edge Computing geht der Wandel der weltweiten Infrastrukturen einher, wenn an immer mehr Endpunkten von Netzwerken leistungsfähige ­Rechenressourcen aufgebaut werden.

Am Rande der Welt

Edge Computing: Netzwerke am Rande der Welt

Sprach man bislang über dezentrale Infrastrukturen, ging es meist darum, die IT von weltweit verteilten Standorten, Filialen und Produktionsstätten an das zentrale Rechenzentrum des jeweiligen Unternehmens anzubinden. Doch damit ist es heute nicht mehr getan. Denn im Zuge der Verbreitung des Internets der Dinge müssen immer mehr Endpunkte integriert werden. Um die Netze nicht über Gebühr mit unkritischem Datenverkehr zu belasten, soll sich am Netzwerk­rand künftig das sogenannte Edge Computing etablieren.

Dahinter verbirgt sich der Ansatz, die im Internet of Things (IoT) anfallenden Daten quasi in „Mini-Rechenzentren“ dezentral zu verarbeiten. Doch wie sehen die Orte des Geschehens aus? Wie lassen sich die hohen Datenmengen schnell und sicher verarbeiten? Und worauf sollte man beim Aufbau des benötigten Rechen- oder Speicherbedarfs besonders achten? An der Frage, inwieweit sich Edge Computing hierzulande bereits als Bestandteil von Infrastrukturen etabliert hat, scheiden sich derzeit die Geister. Es gibt Stimmen, die noch viel Potential für Edge-Installationen sehen, andere hingegen führen bereits erfolgreiche Beispiele ins Feld. „Wir stehen am Anfang der größten industriellen Revolution der Menschheit. Edge Computing als überall verfügbarer sicherer, leistungsstarker Datenspeicher und ultraschnelle Verarbeitung steckt hierzulande noch in den Kinderschuhen“, beleuchtet Dr. Jens Struckmeier, CTO von Cloud & Heat Technologies, die eine Seite. Um künftig alle Vorteile der Technologie ausspielen zu können, sei zunächst der Ausbau einer geeigneten Infrastruktur (Glasfaser und/oder die nächste Mobilfunkgeneration 5G) notwendig.

„Erst dann wird es für jedermann möglich sein, Anwendungen wie Augmented Reality, Echtzeitbilderkennung oder Künstliche Intelligenz flächendeckend zu entwickeln bzw. anzubieten“, so Struckmeier weiter. Demgegenüber verweist Klaas Mertens, Global Solutions Architect bei Equinix, auf konkrete Einsatzszenarien. Seiner Ansicht nach sind Edge Datacenter unabdingbar für alle Anwendungsfälle, in denen große Datenmengen flächendeckend verteilt werden müssen. Als Beispiel führt er Streaming-Dienste wie Netflix oder Amazon Video an, die Filme und Serien möglichst nah an den Nutzern speichern, um schnelle Übertragungen zu ermöglichen. Auch Smart-Home-Anwendungen wie Google Assistant oder Amazons Alexa sprechen für die heutige Verbreitung von Edge-Computing-Installationen in vielen Ländern.

Auch Andreas Keiger, Executive Vice President Global Business Unit IT bei Rittal, geht davon aus, dass ein dezentraler Ausbau der IT-Infrastruktur über Edge-Rechenzentren für viele Unternehmen schon Realität geworden ist. Fabriken etwa müssten mit vernetzten und automatisierten Fertigungsstraßen die anfallenden Datenströme in Echtzeit verarbeiten. In diesem Zusammenhang verweist Keiger auf den Rittal-Kunden Thyssenkrupp Steel: „Das Unternehmen installiert an seinen Produktionsstandorten neue Edge-Rechenzentren mit Cloud-Anbindung, um damit die Digitalisierung von produktionsnahen Prozessen voranzutreiben.“ Nicht zuletzt skizziert Jens Struckmeier ein weiteres Beispiel: Schon länger bekannt seien kleine performante Rechenzentren für das High-Speed-Trading von Banken. „Diese müssen in unmittelbarer Nähe zu den Börsen stehen, um im kleinen einstelligen Millisekundenbereich über kaufen und verkaufen zu entscheiden“, berichtet Struckmeier.

Der eingangs erwähnte Ausbau geeigneter Infrastrukturen könnte zudem bald dafür sorgen, dass sich weitere Edge-Anwendungen durchsetzen. Dann wird die Technologie im Smart Home und beim Autonomen Fahren eine Rolle spielen, ist sich Thomas Sting, Geschäftsführer bei der DC-Datacenter-Group, sicher. Denn immer dort, wo Caching und das (Vor-)Verarbeiten von Daten Geschwindigkeitsvorteile bringen und Latenzzeiten verringeren, spielt die Technologie ihre Stärken aus.

Physikalische Sicherheit spielt wichtige Rolle

Generell kommt Edge Computing an allen Standorten zum Zuge, an denen große Datenmengen vor Ort erfasst, gebündelt und anschließend weitergeleitet werden müssen. „Hierunter fällt beispielsweise hochspezialisierter Maschinenbau“, betont Oliver Fronk, Vertriebsleiter bei der Prior1 GmbH. Darüber hinaus würde in Zukunft sicherlich auch die automatisierte Landwirtschaft entsprechende Ressourcen benötigen, ergänzt Fronk.

Geht es um die Konzeption und Implementierung neuer Ressourcen am Netzwerkrand, bieten sich verschiedene Vorgehensweisen an. „Bei unseren Kunden spielt zunächst die physikalische Sicherheit eine wichtige Rolle. Denn oft stehen die Edge-Systeme in Lagerhallen oder sind in Stahlcontainern auf Freiflächen aufgebaut“, berichtet Andreas Keiger. Um Sabotage oder Datenmanipulationen zu vermeiden, seien entsprechend gesicherte IT-Racks und Einhausungen notwendig. Die derart gesicherten Rechenzentren sollte man schließlich über redundante Kabel- und Funkverbindungen mit dem Internet verbinden, sodass eine ausfallsichere Cloud-Anbindung realisiert werden kann.

Laut Marcel Kempe, Head of Governance and Standards bei Noris Network, sollte ein Netzwerk von Tausenden von Edge-Rechenzentren idealerweise ohne aktive Kühlung auskommen. Stattdessen brauche es für solche kleinen Einheiten robustere, temperaturunempfindlichere Compute- und Storage-Einheiten als die, die heute in klassischen Rechenzentren noch aktive Kühlsysteme erforderlich machen. Dies bestätigt Kempe: „Aktiv gekühlte Edge-Rechenzentren wären extrem unwirtschaftlich, schon weil die Kühlanlagen störungsanfällig und wartungsintensiv sind.“ Und Jens Struckmeier fügt hinzu, dass „am Netzwerkrand Platz, Datendichte und Kühlung eine entscheidende Rolle spielen. Hier wird es einen Paradigmenwechsel weg von den veralteten luftgekühlten Servern geben.“

Eine moderne Flüssigkeitskühlung ermögliche es hier, die Wärme um den Faktor 4.000 besser von der Hardware weg zu transportieren. Damit könne nicht nur eine zehn- bis 100-mal höhere Leistungsdichte erreicht werden, sondern gleichzeitig würden auch laute, stromfressende Ventilatoren entfallen. „Ein leiser Rückkühler auf dem Dach ersetzt dann die klassische und energiefressende Klimatechnik“, rät der RZ-Spezialist.

Neben der energieeffizienten Kühlung sollte die Ausfallsicherheit von Edge-Installationen im Vordergrund stehen. „Meist werden Edge-Rechenzentren genauso abgesichert wie große zentrale RZ-Standorte – nämlich mittels redundant aufgebauter Stromversorgung und Notstromdieseln“, sagt Klaas Mertens. Sollten hingegen deutlich kleinere Edge-Installationen ausfallen, wird der Ausfall hingenommen und die Leistung durch benachbarte Edge-Lokationen nahtlos übernommen. „Moderne Infrastrukturtechniken wie Containerized Applications und die Distribution und Replikation von Daten aus einer zentralen Lokation sorgen hier für permanente Verfügbarkeit“, so Mertens weiter. Dazu ergänzt Andreas Schürkamp, Bereichsleiter Consulting bei der DC-Datacenter-Group: „Der Trick ist, dass es beim Vorlagern von Rechenleistung zwar eben keine hohen Anforderungen mehr gibt. Dennoch sind hohe Bandbreiten, eine hohe Ausfallsicherheit und geringe Latenzzeiten von Vorteil.“ Wenn Edge Computing so aufgebaut sei, dass benachbarte Knoten einen Ausgefallenen „ersetzen“ können und Netzwerkkonnektivität als Mesh funktioniert, dann ist das Ziel erreicht.

Hinsichtlich der Stromversorgung hat Jens Struckmeier mehrere Alternativen in petto: „Spezielle Kombinationen von lokalen Rechenzentren mit Stromerzeugern ermöglichen neue dezentrale Ansätze. Wir kombinieren unsere Server etwa mit Solaranlagen. Ein Stromspeicher kann nicht nur nachts den Strom erzeugen, sondern pfiffig konfiguriert auch gleich als Unterbrechungsfreie Stromversorgung (USV) dienen.“ Auch die Kombination mit einem Gas-Blockheizkraftwerk (BHKW) mache nicht nur ökologisch, sondern vielfach auch ökonomisch Sinn. Das „normale“ Rechenzentrum wird laut Struckmeier dabei quasi zu einem gasbetriebenen Rechenzentrum. „Dabei ist die Netzstabilität von Gas um ein Vielfaches höher als die des Stromnetzes. Den Stromanschluss hätte man dann noch als Redundanz“, so Struckmeier weiter.

Extrem niedrige Latenzzeiten

Doch welche Daten sollten überhaupt am Netzwerk­rand verbleiben und welche an zentrale Rechenzentren weitergeleitet werden? Laut Oliver Fronk werden Prozess- und Steuerdaten sicherlich nicht Hunderte von Kilometern über das Netz transportiert, bei Konstruktions- oder Entwicklungsdaten hingegen sehe die Sache anders aus. Sie wandern in zentrale Rechenzentren, um dort langfristig gespeichert zu werden. Ähnliches berichtet Andreas Keiger. Seiner Ansicht nach werden am Netzwerkrand vor allem Echtzeitdaten verarbeitet, auf die Maschinen oder Systeme unmittelbar reagieren sollten. Dies können Sensordaten von einer Maschinensteuerung innerhalb von IoT-Umgebungen sein, Nutzungsdaten der Fahrzeuge eines Fuhrparks oder die Auslastung von Mobilfunknetzen. Die weitergehende Analyse dieser Daten erfolge dann in zentralen Rechenzentren oder Cloud-Systemen, beispielsweise für Machine-Learning- und Predictive-Maintenance-Lösungen.

An diesem Punkt ergänzt Reinhard Purzer, Vice President und Managing Director DACH bei Vertiv, dass große Datenmengen, die in Echtzeit verarbeitet werden müssen und ex­trem niedrige Latenzzeiten erlauben, oftmals schlichtweg zu groß und auch zu teuer für den schnellen Transport über große Distanzen in eine Cloud und zurück sind. Das würde auch Verbindungen mit extrem hoher Bandbreite erfordern, die meist einfach nicht zur Verfügung stehen oder sehr kostenaufwendig sind. Solche Daten würden immer häufiger direkt am Netzwerkrand verarbeitet. Weitere Beispielanwendungen sind neben den genannten Applikationen HD-Inhalte, medizinische Geräte oder auch der Aktienhandel. Für Autonomes Fahren wird Edge Computing sogar zur Voraussetzung. Denn laut Reinhard Purzer werden ohne 5G und ohne Rechenkapazitäten am Netzwerkrand die Autos nicht selbst fahren.

Dies ist ein Artikel aus unserer Print-Ausgabe 1-2/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Nicht zuletzt sollte die Übertragung der Daten vom Netzwerkrand in zentrale Rechenzentren entsprechend abgesichert sein. Dabei sind sämtliche Faktoren, die in Netzwerken generell eine Schlüsselrolle spielen, wichtig, darunter Verfügbarkeit, Kapazität oder Sicherheit. „Wer mit Diensten Geld verdienen will, muss die Servicequalität sichern. In kritischen Anwendungen schließt dies beispielsweise eine priorisierte Weiterleitung der benötigten Daten über die gesamte Kette vom Endgerät über die Edge Cloud bis hin zur klassischen Cloud mit ein“, erklärt Marcel Kempe. Und Andreas Schürkamp unterstreicht abschließend, dass man das Thema Sicherheit heutzutage generell nie außer Acht lassen sollte, denn auch Edge-Rechenzentren könnten als Einfallstore für Cyberattacken dienen.

Bildquelle: Thinkstock/iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok