Backup-RZ

So klappt die schnelle Datenreplikation

Im Rahmen des Ende Januar 2018 abgeschlossenen Forschungsprojekts „fast realtime“ entwickelte der Rechenzentrumsspezialist Cloud & Heat ein System zur verbesserten standortübergreifenden Datenreplikation von Rechenzentren. Damit könnten bei einem Server-Ausfall die Daten vom redundanten Standort aus innerhalb weniger Millisekunden wieder hergestellt werden.

Bessere Latenz zwischen RZ-Standorten

Mit einem neuen System lässt sich die Latenz zwischen einzelnen Rechenzentrumstandorten verbessern.

Smart Homes, Internet of Things, Industrie 4.0: Die Digitalisierung des Berufs- und Lebensalltags lässt gleichzeitig die Anforderungen an die verarbeitende IT-Infrastruktur steigen. Im Zuge dessen werden auch Ausfallsicherheit und Backup immer relevanter, denn IT-Ausfälle können heute schon binnen kürzester Zeit Kosten im fünfstelligen Bereich verursachen.

Laut einer Studie von Veeam Software fallen die IT-Infrastrukturen von Unternehmen und Behörden im Schnitt 27 Mal pro Jahr aus. Die Ursache: Stromausfälle, defekte Bauteile, menschliches Versagen, Hackerangriffe oder Störungen der Internetverbindung. Nur bei großen Firmen gelangt dies in die Öffentlichkeit, wie etwa bei Spiegel Online, Amazon oder British Airways in jüngster Vergangenheit geschehen.

Insbesondere bei kritischen Prozessen und Netzen spielt die Hochverfügbarkeit von Daten eine wichtige Rolle. Denn immerhin setzen weltweit etwa 96 Prozent aller mittleren und großen Unternehmen auf die digitale Verarbeitung von Daten. Zudem werden immer mehr Geräte und Sensoren ans Internet angeschlossen. Laut Gartner steuern bereits etwa 4,9 Milliarden Geräte u. a. Produktions- und Fertigungsabläufe, um sie besser planen und kosten- sowie zeiteffizienter gestalten zu können.

Störungen der IT-Infrastruktur verzögern die Produktions- und Lieferkette, von daher ist die Hochverfügbarkeit von Daten hier sehr wichtig. Auch rechenintensive Jobs, wie sie in großen Forschungseinrichtungen – z. B. dem Kernforschungszentrum Cern – anfallen, brauchen stabile digitale Infrastrukturen. Hier werden täglich riesige experimentelle Datenmengen erhoben, analysiert und interpretiert, die müssen rund um die Uhr verfügbar sein müssen.

Backup-Rechenzentren als Notfallmittel

Um dem Notfall und damit dem zeitweisen Verlust von wichtigen Daten vorzubeugen, erwägen Behörden oder Unternehmen ein zusätzliches Backup-Rechenzentrum zu nutzen. Diese kann den gesamten IT-Betrieb übernehmen, falls das eigentliche RZ ausfällt. Neben dem optimalen Standort und der Distanz zwischen den Rechenzentren geht es vor allem um die Schnelligkeit, mit der das Ausweichrechenzentrum die Aufgaben übernimmt. Außerdem müssen die Daten an beiden Standorten ständig synchronisiert werden. Um sie eins zu eins an verschiedenen Standorten zur Verfügung zu stellen, spielen geringe Latenzzeiten eine wichtige Rolle. Sie können den kontinuierlichen Datenabgleich, die Replizierung sowie die synchronisierte Datenspeicherung sicherstellen. Mit Latenz ist die technisch bedingte zeitliche Verzögerung in Netzen gemeint, die durch den Durchlauf der Datenpakete entsteht. Den Zeitraum besonders klein zu halten (Niederlatenz) ist wichtig, um die IT-Infrastruktur im Notfall so schnell wie möglich wieder produktiv zu schalten.

Die Mehrheit aller Replikationsprogramme kopieren Daten immer vollständig, auch wenn sich nur ein kleiner Teil der Datei ändert. Gerade bei großen Dateien mit kleinen Änderungen wird so die Netzlast enorm und vor allem unnötig erhöht. „Fällt ein Rechenzentrum aus, sind die zu replizierenden Daten möglicherweise noch gar nicht am Backup-Standort angekommen. Dieses Problem zu lösen, war Teil unserer Forschungsarbeit“, erklärt Dr. Marius Feldmann, COO von Cloud & Heat Technologies. Dazu habe das Unternehmen aus Dresden einen Mechanismus entwickelt, der Dateien zunächst in sogenannte Blöcke unterteilt. Sind die möglichst klein, müssen im Falle einer Replikation eben auch nur kleine Datenmengen über das Netz geschickt werden, was die Schnelligkeit der Datenübertragung erhöht. Außerdem: Erkennt die Software eine Änderung, repliziert sie laut Anbieter nur den geänderten Block. „Durch kurze Prüfintervalle und möglichst kleine Datenmengen können wir die Zeiten herkömmlicher Programme um durchschnittlich 30 bis 70 Prozent verringern“, so Feldmann weiter.

Intelligente Suche für den besten Server-Standort

Darüber hinaus hat der Anbieter einen Geolokalisator entwickelt, der es dem Nutzer ermöglichen soll, software-gesteuert denjenigen Server-Standort auszuwählen, der die geringste Latenz aufweist. Denn es ist nicht nur wichtig, so wenig Daten wie möglich standortübergreifend zu replizieren, sondern auch die Zeitverzögerung bei der Datenübertragung zwischen Nutzer und Cloud so klein wie möglich zu halten.

Forschungsziel war es auch, die Latenz zwischen den einzelnen Standorten zu verbessern. Sind die Infrastrukturen eines Rechnungszentrums auf verschiedene lokal betriebene, kleinere Standorte verteilt, lässt sich die Zeitverzögerung der Übertragung zwischen den einzelnen Datendepots minimieren. Die Zeit, die benötigt wird, alle vorhandene Daten von Standort A am Standort B zu synchronisieren und im Falle eines Ausfalls von Standort A zu sichern, könne so auf wenige Millisekunden reduziert werden. Werden die Daten in lokaler Nähe zum Kunden synchronisiert und gespeichert, braucht die Datenübertragung außerdem weniger Zeit, als wenn Cloud-Nutzer aus Deutschland ihre Cloud-Ressourcen in Server-Farmen in den USA verarbeiten.

Bildquelle: Thinkstock/iStock

©2018Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok