Umdenken gefordert!

Backup: Der Stand der Dinge

Während sich manche IT-Mitarbeiter gerade mit Deduplizierungsverfahren befassen, suchen andere Backup-Verantwortliche bereits nach weiteren Ansätzen, die oftmals ein Umdenken erfordern. Was ist Stand der Dinge und welche neuen Herausforderungen kommen bei der Datensicherung auf Unternehmen zu?

Es hat sich herumgesprochen: Ein klassisches Bandmedium hat für die Datensicherung ausgedient. Viele Unternehmen mussten leidvoll erfahren, wie die gestiegene Datenmenge ihr Backup-Konzept überforderte. Spätestens als die Sicherung das in der Nacht eingeräumte Zeitfenster um mehrere Stunden überschritt, war der Wechsel auf neue Technologien erforderlich.

Bis zum Jahre 2020 soll sich die Datenmenge verdoppeln. In puncto Backup begegnet man dem Datenwachstum heute mit dem Einsatz von Deduplizierungs-Appliances. Die disk-basierenden Systeme ersetzen die klassischen Bandroboter und reduzieren den Speicherbedarf auf bis zu 95 Prozent. Investitions- und Betriebskosten werden verringert. Weiteres Einsparpotential versprechen die Hersteller mit dem Angebot, die Daten in ein weiteres Tier, die Cloud, zu verlagern. Ein für die Backup-Applikation transparentes Auslagern bestimmter Daten in die Private oder Public Cloud erfolgt im deduplizierten Format, wodurch die Kosten für Cloud-Storage sehr attraktiv werden können.

Backup im hochdynamischen Umfeld

Was aber ist zu tun, wenn die steigende Datenmenge in der zur Verfügung stehenden Zeit nicht mehr gesichert werden kann? Abhilfe schafft die client-seitige Deduplizierung. Dieses Verfahren analysiert und reduziert die Daten bereits am Anwendungsserver. Es werden viel weniger Daten über das Netzwerk übertragen und letztlich reduziert sich die Dauer eines Sicherungsvorgangs enorm, je nach Umgebung auf bis zu 50 Prozent. Sprechen wir von Big Data, können klassische Dedup-Backup-Verfahren ebenfalls unterstützen.

Bekannte Vertreter von Big-Data-Applikationen sind Cloudera oder Hortonworks, die beide auf Hadoop basieren und das darunterliegende Hadoop-File-System (HDFS) nutzen. Hadoop besitzt eine Scale-out-Architektur, deren Daten in Blöcken organisiert mehrfach redundant auf den Cluster-Knoten gespeichert werden. Eine Backup-Lösung muss daher massiv parallel arbeiten können, muss Point-in-time-Sicherungen (Distributed File Copy und HDFS/HBase Snapshots) unterstützen, muss Datenkonsistenz gewährleisten und an der Quelle, sprich am Hadoop-Cluster, deduplizieren. Von Vorteil ist es, wenn der Cluster-Administrator das Backup und Recovery in seine Workflows integrieren kann und so die Kontrolle über den Prozess behält.

Big Data bedeutet mehr als riesige Datenmengen. Es definiert zwei weitere Dimensionen wie die Geschwindigkeit der Generierung und die große Zahl unterschiedlicher Datentypen und -quellen. In verteilten, hochdynamischen Umgebungen und unterschiedlichen Datentypen stößt Backup an seine Grenzen. Mittel der Wahl für solche Anforderungen ist die intelligente Replikation. Diese bedeutet Versionierung und Deduplizierung. Dabei wird jede Änderung eines Datensatzes zusätzlich in einem Journal mitgeführt. Diese Funktionalität erlaubt ein Zurücksetzen des Datenstandes auf einen beliebigen Punkt in der Vergangenheit. Nachteil dieser Vorgehensweise ist der erhöhte Speicherbedarf. Um dem zu begegnen, sollte die Granularität der Versionierung über die Laufzeit eingestellt werden können.

Analog zum fehlenden Backup-Zeitfenster gibt es die gleiche Problematik bei der Wiederherstellung von Daten. Das Transferieren der Daten vom Backup-Medium oder vom Replikationszielort zurück zum Original dauert zu lange, der Geschäftsbetrieb wäre zu lange unterbrochen. Daher sollten heutige Backup- und Replikationslösungen die Möglichkeit bieten, die Daten so zur Verfügung zu stellen, dass daran direkt weitergearbeitet werden kann.

Besonderen Charme hat eine solche Variante im Virtualisierungsumfeld, bei der ein Image einer virtuellen Maschine innerhalb weniger Minuten ohne Umkopieren wiederhergestellt werden kann. Während der Anwender bereits wieder seine Arbeit verrichtet, wird die virtuelle Maschine ohne Betriebsbeeinträchtigung auf das originale Speichersystem verschoben. Eine ähnliche Wiederherstellungszeit könnte nur mithilfe weitaus teurerer Hochverfügbarkeitslösungen erreicht werden. Die Backup-Software EMC Networker 9.1 bietet hier laut Avnet beispielsweise ein Lösungspaket für aktuelle Herausforderungen.

Bildquelle: Thinkstock / iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok