Drei Fragen an...

„Hochverfügbarkeit ersetzt kein Backup”

Christoph Storzum von Dell EMC und Alexander Best von Datacore im Gespräch über das richtige Backup-Medium, Hochverfügbarkeit und Datenverlust.

  • Stilisierte Darstellung eines Rechenzentrums

    Am Backup-Medium scheiden sich oft die Geister. ((Bildquelle: Getty Images/iStock))

  • Christoph Storzum, Director Commercial Sales Germany bei Dell EMC

    Christoph Storzum, Director Commercial Sales Germany bei Dell EMC

  • Alexander Best, Director Technical Business Development EMEA bei Datacore

    Alexander Best, Director Technical Business Development EMEA bei Datacore

Ohne Daten läuft keine IT-Anwendung – und ohne IT-Anwendungen läuft im modernen Mittelstand gar nichts. Kein Wunder also, dass die Daten-sicherung schon seit jeher eine absolute Pflichtaufgabe für jeden IT-Chef ist. Wenn es sich das Unternehmen leisten kann oder muss, kommen kostspielige Hochverfügbarkeitslösungen hinzu.

Dies ist ein Artikel aus unserer Print-Ausgabe 7-8/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Am Backup-Medium scheiden sich oft die Geister. Die Hersteller empfehlen natürlich ultraschnelle und teure SSD- und Disk-Systeme oder die Cloud. Doch gängige und bewährte Praxis sind zweistufige Backup-Lösungen – mit Disk und/oder SSD als primärem Datenrettungssystem und Magnetband als kostengünstigem Langfristspeicher. Gegen lupenreines Cloud-Backup spricht vor allem die Dauer einer Recovery beim Totalverlust der Daten. Vor diesem Hintergrund hat IT-Mittelstand zwei ausgewiesene Experten zur Modernisierung des Backups befragt.

ITM: Viele Mittelständler sichern ihre Daten immer noch ganz klassisch auf Magnetband. Welche Optionen empfehlen Sie in solchen Fällen für die Modernisierung des Backups?
Alexander Best: Wenn man auf ein Backup zurückgreifen muss, hat die davor liegende Infrastruktur schon versagt, heißt es aus unserer Sicht. Viele unserer Projekte zeigen, dass Unternehmen, bevor sie Daten als Backup sichern, diese Daten vorher schon hochverfügbar den Applikationsservern zu Verfügung stellen. Deshalb sollte ein Backup die letzte Option sein, um wieder auf die eigenen Daten zugreifen zu können. Gerade der Ansatz des Software-defined-storage, kurz SDS, bietet dem Mittelstand unterschiedliche Architekturoptionen, um die Hochverfügbarkeit der Daten zu gewährleisten: von Hyperconverged über Converged bis hin zur traditionellen Architektur.

Hochverfügbarkeit ersetzt natürlich kein Backup. Deshalb sollten sich Verantwortliche fragen, ob die aktuell eingesetzte Technologie heutige und vor allem künftige Ansprüche erfüllt. Bei unseren Projekten stellen wir fest, dass der Mittelstand immer mehr Strategien wie „Disk to Disk to Tape“ (D2D2T) oder aus Performance-Gründen eine reine „Disk to Disk“- bzw. D2D-Strategie umsetzt.

Christoph Storzum: Das eigentliche Medium ist hierbei nicht das entscheidende Kriterium, sondern wird nachgelagert durch die Anforderungen jedes Kunden bestimmt. Ich empfehle dabei vor allem, den ersten Blick auf die zu sichernden Daten zu werfen: Welche Anforderungen stellt die Business-Seite an Sicherungszeit, Wiederherstellungsdauer oder akzeptablen Datenverlust im „Worst Case“? Und wieviel manuellen Aufwand möchte und kann ich mir erlauben? Im Optimalfall stellt die Backup-Infrastruktur eine automatisierte Integration in alle zu sichernden Applikationen sicher – von Datenbanken über virtuelle Umgebungen bis hin zu Cloud-Applikationen. Es geht nicht nur darum, während der Sicherung einen reibungslosen Betrieb sicherzustellen, sondern insbesondere auch in einer stressigen Recovery-Situation vorbereitete Szenarien abrufbar zu halten.

Eine optimale Backup-Lösung reduziert dabei das Datenvolumen durch geschickte Deduplikation bereits direkt dort, wo die Daten entstehen, und reduziert damit nicht nur das zu speichernde Datenvolumen. Es verkürzt auch massiv die Sicherungs- und Wiederherstellungszeiten und entlastet die komplette Infrastruktur, wie Applikation, Server, Netzwerk und Backup-Infrastruktur während dieser intensiven Kopierarbeiten.

Hieraus ergibt sich in den meisten Fällen direkt eine Empfehlung für das Medium, bei dem Tape nur noch selten die optimale Wahl darstellt. Ein disk- oder flash-basiertes Speichersystem mit effizientem Deduplizierverfahren, kombiniert mit einer Software, die sich beliebig in alle Applikationen integriert, um eine einheitliche Management-Oberfläche für alle Sicherungsjobs zu gewährleisten, ist dann die optimale Wahl. Um dieses Szenario weiter zu vereinfachen, haben wir als Einstiegslösung im Bereich der integrierten Backup-Appliances ab 8 TB Nutzdaten eine auf den Mittelstand ausgerichtete Lösung auf den Markt gebracht, die mit einem einfachen Management versehen ist und sich in alle Business-Anwendungen integrieren lässt.

ITM: In manchen Branchen ist ein „Recovery Time Objective“ (RTO) von Null oder zumindest nahe Null notwendig. Wie lässt sich dieses Ziel der unterbrechungsfreien Verfügbarkeit durch die richtige Backup-Strategie unterstützen?
Storzum: Diese Frage schließt direkt an meine bisherigen Ausführungen an. Kern hierbei ist ein einfaches Management mit einer einheitlichen Management-Oberfläche, die sowohl klassische Backups sicherstellt, als auch besondere Kriterien erfüllen kann.

Ein RTO von Null oder nahezu Null erfordert „Continuous Data Protection“. Dabei werden sämtliche Schreibzugriffe einer Applikation in einem Journal mitverfolgt, so dass auf den individuellen I/O genau zurückgestellt werden kann. Eine entsprechende Applikationsintegration ist dabei, wie schon erwähnt, unerlässlich. Dies ermöglichen wir in unserer Data-Protection-Suite mit der Teilkomponente Recover Point, die zentral in unserer Oberfläche mit allen anderen Anforderungen verwaltet werden kann, ohne die gewohnte Oberfläche zu verlassen und ein weiteres Produkt einzusetzen, das eine Sicherungslösung verkomplizieren würde.

Best: „Recovery Time Objective“ gegen Null mit einer Backup-Lösung allein ist so gut wie unmöglich. Ein Ansatz ist es, zusätzlich zum Backup eine Continuous-Data-Protection-Lösung zu integrieren. Sie schreibt dann die Datenänderungen kontinuierlich auf Disk und ermöglicht, sekundengenau auf einen beliebigen Datenbestand der Aufzeichnung zurückzukehren und zuzugreifen. Sinnvoll eingesetzt, werden die Datenänderungen nicht über einen sehr langen Zeitraum aufgezeichnet, sondern z.B. nur zwischen zwei Snapshots. So benötigt diese Lösung wenig zusätzlichen Datenspeicher und ein RTO von Null oder nahezu Null wäre möglich.

ITM: Backup bedeutet Investition in Redundanz – und Redundanz ist teuer. Wie kann beim Backup Geld gespart werden, ohne unnötige Risiken bei Datensicherheit und -verfügbarkeit in Kauf zu nehmen?
Storzum: Das Backup ist letztlich meine „Lebensversicherung“, die mir im Falle eines Falles den Betrieb und meine Daten sicher zur Verfügung stellen muss. Entsprechende Priorität muss daher die „Storage of Last Resort“ erfahren: Wenn nichts mehr im Rechenzentrum funktioniert, dann muss die Sicherungslösung ihren eigentlichen Job erfüllen. Egal, ob die Störung durch ein Desaster hervorgerufen wurde, einen Brand, einen Ausfall von technischen Komponenten oder durch einen Cyberangriff mit einem Verschlüsselungstrojaner.

Wie auch bei der Lebensversicherung zählt daher vorrangig die Leistungsfähigkeit und nicht eine vordergründige Kosteneinsparung. Gerade bei den steigenden Datenvolumina und komplexen Infrastrukturen kommt es dort erneut auf die bereits angeführte optimale Datenreduktion bei maximaler Sicherheit an: Diese spart Kapazitäten und entlastet die Netzwerkinfrastrukturen. Zudem sollten sämtliche Prozesse und Applikationsintegrationen automatisiert erfolgen, denn die manuellen Eingriffe, die ebenfalls mit in die Rechnung einfließen müssen, sind teuer, fehleranfällig und im Ernstfall zeitaufwändig.

Mit unserer Datenreduktion von üblicherweise 55:1 in standardisierten Umgebungen können wir in nahezu allen Fällen eine günstige Lösung mit deutlichen Einsparpotentialen gerade auch für Mittelstandskunden sicherstellen, die von herkömmlichen Tape-Umgebungen auf eine moderne Sicherungsumgebung umsteigen müssen und ihr Backup-SLA an neue Anforderungen anpassen wollen.

Best: Es gibt den Spruch „Wer Backup macht, ist feige!“ Doch genau das Gegenteil ist der Fall: Backups sind ein absolutes Muss – und Verantwortliche dürfen sie aus Kostengründen nicht einfach unter den Tisch fallen lassen.

Kosten reduzieren können sie allerdings bei der Auswahl der richtigen Lösung. Dafür sollte zum einen die aktuelle Infrastruktur und zum anderen sollten die zukünftigen Herausforderungen als wichtigste Kriterien in die Entscheidung einfließen. Desweiteren sollten noch zusätzliche Faktoren in die Entscheidungsfindung einbezogen werden: eine einfache Bedienung, Herstellerunabhängigkeit, die Möglichkeiten der Datenreduktion, eine Cloud-Anbindung, die Integration von virtuellen und physikalischen Umgebungen, die Performance und Skalierbarkeit.

Nicht zuletzt muss natürlich das Preis-Leistungs-Verhältnis stimmen. Verantwortliche können also in Bezug auf Redundanz schon vor der Backup-Lösung durch diverse Hochverfügbarkeitsarchitekturen im Storage-Umfeld dafür sorgen, dass nicht das Backup allein eine komplette Datenredundanz verantwortet und aus finanzieller Sicht nicht voll ausgereizt wird.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok