Storage und Backup

Im Notfall in die Cloud schalten

Mit aktuellen, erprobten Plänen für die System- und Datenwiederherstellung nach Ausfällen tun sich viele Unternehmen schwer. Disaster Recovery (DR) und Backup as a Service können die Business Continuity deutlich verbessern.

  • Rechenzentrum

    Der Markt der Anbieter für Backup- und Disaster-Recovery-Dienste aus der Cloud wächst stetig.

  • Thorsten Maier, Abteilungsleiter Service Center bei Advanced Unibyte

    Thorsten Maier, Abteilungsleiter Service Center bei Advanced Unibyte: „Es kommt darauf an, sich schon im Vorfeld Gedanken über das Backup-Konzept zu machen, also wie oft ein Backup nötig ist und wie schnell das System bei einem Ausfall wiederhergestellt sein soll.“

  • Wolfgang Lorenz, Senior Global Solutions Architect bei Equinix

    Wolfgang Lorenz, Senior Global Solutions Architect bei Equinix: „Wenn die Daten innerhalb eines halben Tages wieder da sein sollen, reicht Backup as a Service aus. Soll jedoch in kürzester Zeit die gesamte Produktiv-umgebung wieder hochgefahren werden, ist Disaster Recovery as a Service notwendig.“

  • Johannes Wagmüller, Director Solutions Engineering bei Netapp

    Johannes Wagmüller, Director Solutions Engineering bei Netapp: „Anwender geben typischerweise größere Speicher-volumina an, als sie tatsächlich benötigen. Dann liegen Kapazitäten brach und verursachen Kosten.“

Noch immer meldet ein knappes Drittel der Unternehmen Datenverluste als Folge von Rechenzentrumsausfällen. Über 40 Prozent von 400 befragten Unternehmen gaben in einer Unitrends-Studie an, im Jahr 2019 mindestens einmal eine Ausfallzeit erlebt zu haben. Die Anzahl an Organisationen, die mehr als 100 Terabyte Daten schützen müssen, steigt dabei kontinuierlich an: Der Untersuchung zufolge betrifft das immerhin 31 Prozent. Zugleich wächst der Markt der Anbieter für Backup- und Disaster-Recovery-Dienste aus der Cloud, dazu zählen z.B. Veeam, Veritas, Symantec, Acronis, Nutanix oder Netapp. Zum Thema Disaster Recovery as a Service (DRaaS) gehören das Backup, aber auch ein Computer-Anteil, mit dem im Notfall die virtuellen Maschinen hochgefahren werden. Dabei müssen sich die Anwender nicht mehr selbst um das Backup kümmern, der Anbieter überwacht korrekte Abläufe. Die Kosten für DRaaS berechnen die Provider unterschiedlich, einige Modelle basieren auf den Transferdaten, andere rechnen nach Terabyte pro Monat und RAM.

Bei Anbietern wie Advanced Unibyte werden die Meldekette und DR-Abläufe einmal im Jahr getestet. Ein Service Level Agreement garantiert, dass die Unternehmen innerhalb von vier Stunden alle kritischen Prozesse wieder aus der Cloud heraus betreiben können. Thorsten Maier, Abteilungsleiter Service Center beim Systemhaus Advanced Unibyte, zufolge lohnt sich DRaaS für jedes Unternehmen. Doch in der Praxis gibt es auch Missverständnisse: „Viele Kunden interessieren sich dafür, im Disaster-Fall gleich in der Cloud zu bleiben. Das funktioniert allerdings nicht: Es geht wirklich nur um den Notbetrieb für Business-kritische Prozesse, die vorher genau definiert werden müssen“, erläutert der Experte.

Klare Konzepte für Hochverfügbarkeit

Bis zu sechs Wochen können die Unternehmen im Normalfall den Notbetrieb auf den Cloud-Servern nutzen, in dieser Zeit wird eine Alternative geplant und umgesetzt. Es ist bei Bedarf zudem möglich, auf dezidierte Hardware im Rechenzentrum des Providers umzuziehen (Colocation). Der Anbieter setzt darauf, schon früh in das Disaster-Recovery-Projekt involviert zu sein. So ist klar, welche Prozesse und Daten für den Notbetrieb wesentlich sind und wie sich das Datenwachstum über die Zeit entwickelt. Typisch seien Laufzeitverträge von 36 Monaten, berichtet Maier. Dabei werden nur die genutzten Gigabyte und der beim Hochfahren der virtuellen Maschinen benötigte RAM berechnet.

„Es kommt darauf an, sich schon im Vorfeld Gedanken über das Backup-Konzept zu machen, also wie oft ein Backup nötig ist und wie schnell das System bei einem Ausfall wiederhergestellt sein soll. Vor allem muss die Reihenfolge klar sein, in der die virtuellen Maschinen wieder hochgefahren werden“, rät Maier. Grundsätzlich bleibe auch bei DRaaS die Betriebsverantwortung in der Unternehmens-IT, die Verbräuche und den Verlauf z.B. über Kundenportale verfolgen kann.

„Wenn die Daten innerhalb eines halben Tages wieder da sein sollen, reicht Backup as a Service aus. Soll jedoch in kürzester Zeit die gesamte Produktivumgebung wieder hochgefahren werden, ist Disaster Recovery as a Service notwendig“, erklärt Wolfgang Lorenz, Senior Global Solutions Architect bei Equinix. „Unternehmen sollten bei der Anbieterauswahl darauf achten, dass Regeln und Werte, die sich on-premises bewährt haben wie die 3-2-1-Regel in der Datenspeicherung, weiter eingehalten werden“, rät Lorenz. Dieses Prinzip bedeutet, dass mindestens drei Kopien der Daten vorhanden sein sollten, gespeichert auf zwei verschiedenen Medien, eins davon offsite.

Notfallabläufe regelmäßig proben

Ohne Unterstützung beim Wiederherstellen der Daten laufen Unternehmen durchaus hin und wieder in die Katastrophe hinein, meint Thorsten Maier. „Im Mittelstand gibt es oft keine Pläne für die Disaster Recovery. Häufig macht man sich erst Gedanken, wenn schon etwas schiefgelaufen ist. Nur selten ist z.B. klar, wie viel Zeit für welchen Prozess benötigt wird.“ Im Fall eines Datenverlusts könne es abhängig vom Volumen auch zwei Tage oder länger dauern, bis die Daten wiederhergestellt sind. Natürlich lässt sich das Thema Disaster Recovery auch on-premises sinnvoll umsetzen. „Es ist elementar wichtig, solche Umgebungen regelmäßig zu testen: Das Zurücksichern muss immer mal wieder geübt und durchgespielt werden“, meint auch Wolfgang Lorenz.

Entlastung nur bei Managed Services

Johannes Wagmüller rät gerade kleineren Unternehmen mit wenig eigenem IT-Personal, sich von Service-anbietern bei den vorbereitenden Aktivitäten unterstützen zu lassen. Haben Mittelständler bereits viel Erfahrung und ausreichende Ressourcen, lasse sich Disaster Recovery selbst in der Cloud aufsetzen. „Dafür müssen die Unternehmen allerdings Informationen selbst zusammentragen und Vorbereitungen treffen, das ist nicht im Angebot der Hyperscaler enthalten“, meint der Director Solutions Engineering bei Netapp. Aus seiner Sicht gibt es für das Thema „Storage in der Cloud“ keine Grenze nach unten. Ebenso wie es sich für Kleinunternehmen oft nicht lohne, eigene Server für das Office anzuschaffen, gelte das auch für andere Themen. Die Nutzung der hybriden Cloud werde zum neuen Standard, um IT-Services bereitzustellen.

Rund zehn Prozent der Daten ändern sich täglich im Schnitt, je nach Datenvolumen kann das schnell mal bedeuten, dass beim Backup-Service ein Terabyte pro Tag über eine schnelle Verbindung hochgeladen werden muss. Zur Recovery-Lösung gehören Umschalten, Testen und Failback – also die in der Cloud aktiven Daten als neuen Status quo zurückzuspielen. Hier hilft es, wenn der Anbieter  Storage-Orchestration im Angebot hat – im besten Fall soll der Anwender gar nicht mehr merken, ob Daten in der Cloud oder im eigenen RZ liegen. Bei DRaaS verbleibt die Verantwortung für das Aufsetzen der Lösung zunächst bei der eigenen IT-Abteilung. Sie muss den Service selbst einrichten und sicherstellen, dass die Replika-Daten vernünftig hochgeladen werden. „Self-Service-Lösungen sind am günstigsten. Nur bei Managed Services wird jedoch auch die Aufgabe ausgelagert, einen kompletten Disaster-Recovery-Plan zu entwickeln“, berichtet Wolfgang Lorenz. Zwar sei Managed DRaaS vordergründig am teuersten, es würden jedoch Ressourcen frei und weniger Experten vor Ort benötigt. Ein Preisvergleich ist deshalb komplex. Wie genau der DRaaS aufgebaut ist, hängt wiederum von der Datenklassifizierung ab. „Heiße Daten in schnellem Speicher sollten auch in der Cloud auf schnellem Flash-Speicher liegen. Für kalte Daten reichen günstigere Speicherklassen, dafür verwenden Cloud-Provider häufig Object Storage oder das gute alte Tape“, so Lorenz. Dabei können durchaus schon mal mehrere Minuten Zugriffszeit fällig werden. Wichtig sei flexibler Cloud Storage, der eine hohe Skalierbarkeit und die Metadatensuche unabhängig vom Standort erlaubt. Einen großen Vorteil sieht der Experte darin, dass Cloud Storage und Disaster Recovery ein globales Repository für alle Daten nutzen. Fällt also beispielsweise ein Server für den Webshop am Hauptstandort komplett aus, wird die Anwendung in der Cloud hochgefahren, sodass Kunden und Mitarbeiter weiter auf den Online-Shop zugreifen können. Im Hintergrund erfolgen dann die Reparatur oder der Austausch des Servers.

Auch der Advanced-Unibyte-Experte rät dazu, sich zu überlegen, welche Daten von on-premises in die Cloud geschoben werden können. Dabei sollte gut auf den großen Preisunterschied zwischen teuren, aber hochperformanten Speichern auf SSD-Platten und Standardspeichern geachtet werden. Zur Datenklassifikation gehöre dabei nicht nur, zwischen heißen und kalten Daten zu unterscheiden, sondern auch personen-, projekt- oder finanzbezogene Daten in konkreten Applikationen und Prozessen zu identifizieren. Aus Sicht von Maier zeichnet sich zunehmend als Trend ab, dass die Anforderungen stärker durch die Fachabteilungen bestimmt sind. „Bei der Wesentlichkeitsbestimmung der Geschäftsprozesse sprechen wir für den Aufbau von Backup- und DR-Systemen intensiv auch mit den Fachbereichen“, konstatiert der Experte.

Dies ist ein Artikel aus unserer Print-Ausgabe 7-8/2020. Bestellen Sie ein kostenfreies Probe-Abo.

 

Machine Learning kann helfen

Zwar gebe es bereits Systeme, die bei der Datenklassifikation helfen, doch oft seien sie noch teuer. Doch im Zuge des Trends in Richtung Machine Learning geht Maier davon aus, dass sich hier perspektivisch neue Möglichkeiten ergeben werden. Auch bei Netapp will man im Bereich der Datenanalyse hinsichtlich der Speicherklassen auf Machine Learning setzen. Dafür übernimmt der Anbieter nun mit Spot ein auf Kosten-einsparungen in der Cloud spezialisiertes Unternehmen. Dessen Lösungen sollen die Arbeitslastmuster von Anwendungen analysieren und das Verhältnis zwischen Performance und Kosten optimieren. Sparen lässt sich aber schon ganz profan bei der Menge der Cloud-Instanzen. „Anwender geben typischerweise größere Speichervolumina an, als sie tatsächlich benötigen. Dann liegen Kapazitäten brach und verursachen Kosten“, berichtet Wagmüller. Ziel sei, mit den in der Cloud gebuchten Instanzen eine gute Auslastung zu erreichen und die Skalierungsfähigkeit der Cloud auszuschöpfen. „Dabei helfen Tools, die mit smartem Monitoring prüfen, wie stark Instanzen ausgelastet sind, sowohl auf der Compute-Seite bei den Hyperscalern als auch auf der Storage-Seite“, erklärt Wagmüller. Dashboards sollen helfen, Schwankungen und Trends in hybriden Umgebungen übersichtlich darzustellen.

Globale Storage- und Backup-Strategien

Ganz wichtig ist aus Sicht von Lorenz neben dem Thema „Speicherkategorien“ das Thema „Multi Site“, das auch im Bereich Edge Computing eine große Rolle spielt. „Es ist unrealistisch, dass ein weltweit agierendes Unternehmen alle Daten zentral bereitstellt. Wir haben schon öfter gesehen, dass es nicht funktioniert, wenn User in Hongkong auf Daten in Deutschland zugreifen sollen: Es braucht Hubs an unterschiedlichen Standorten“, so der Equinix-Experte. Auch Johannes Wagmüller zufolge treibt viele Unternehmen das Thema „Datenkonsistenz“ über verteilte Standorte hinweg um. Mit einem globalen Datei-Cache in der Cloud können mehrere Niederlassungen auf den gleichen Datenpool in einem zusammenhängenden Bereich der Public Cloud zugreifen. „Das IT-Management wird vereinfacht, zugleich lassen sich Themen wie Disaster Recovery und Compliance leichter abbilden“, so Wagmüller.

Datenschutz und -sicherheit

„Viele Unternehmen sehen das Backup als unbequemen Job, den man gern aus der Hand gibt, wenn dafür klar ist, dass die geschäftskritischen Daten immer global verfügbar sind“, konstatiert auch Maier. Als Beispiel nennt er einen Anwender aus der Textilbranche mit mehreren Niederlassungen weltweit. Die Anforderung: Im Problemfall soll jede Niederlassung geschäftskritische Prozesse weiter betreiben können. Weil man diese Herausforderung nicht aus dem Hauptsitz „herauslösen“ konnte, zugleich in den Filialen nicht mehr Personal dafür vorgehalten werden sollte, fiel die Wahl auf DRaaS. Mit der Cloud wird auch das Thema „Georedundanz“ einfacher, z.T. lassen sich sogar eigene Rechenzentren einsparen. „Durch die Cloud können Unternehmen auf Tape Libraries verzichten und müssen die Sicherungen nicht mehr selbst im Schrank haben. Stattdessen werden die Backups geoinfrastrukturell getrennt vorgehalten“, so Maier. Die Sorgen, die einige Unternehmen bzgl. Datenschutz und DSGVO umtreiben, sind unbegründet, weiß er: „Beim Provider hat kein Mitarbeiter Zugriff auf die Daten, sie können nicht zweckentfremdet werden.“ Die DSGVO werde in den Vereinbarungen bestätigt.

RPO und RTO

Wichtige Maßeinheiten beim Thema Wiederherstellung für die Business Continuity sind RTO (Recovery Time Objective) und RPO (Recovery Point Objective). Mit RTO wird die maximal vertretbare Dauer eines Ausfalls beschrieben und auf dieser Grundlage der ausfallbezogene Umsatzverlust pro Zeiteinheit berechnet. Die Kennzahl RPO hingegen legt fest, für welchem „maximal tolerierbaren“ Zeitraum Daten verloren gehen dürfen. Damit kann die notwendige Frequenz von Backups bemessen werden, indem abgewogen wird zwischen den Kosten zu häufiger Backups und den Kosten, die durch den Datenverlust entstehen.

 

Bildquelle: Equinix, Netapp, Unibyte

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok