Cloud-Backup ohne Risiko: Interview mit Everett Dolgner, Silver Peak

Daten-Backup in der Cloud

Interview mit Everett Dolgner, Director of Storage and Replication Product Management bei Silver Peak, über die Falltüren, die Unternehmen beim Backup von Daten in einer Cloud-Computing-Umgebung vermeiden sollten

Everett Dolgner, Silver Peak

Everett Dolgner, Director of Storage and Replication Product Management bei Silver Peak

Schenkt man den Anbietern von cloud-basierten Backup- und Speicherdiensten Glauben, ist alles ganz einfach: Sicherungskopien von Daten und Anwendungen werden via Wide Area Network (WAN) in das Rechenzentrum des Providers übermittelt und bei Bedarf wieder auf die IT-Systeme des Anwender zurückgesichert. Doch laut Everett Dolgner von Silver Peak sollten Unternehmen im Vorfeld sorgfältig analysieren, welche Daten sie in einer Cloud sichern wollen. Besonders häufig unterschätzt wird zudem die zentrale Rolle des Netzwerks, vor allem die der Weitverkehrsverbindungen zwischen dem Cloud-Data-Center des Service-Providers und dem Rechenzentrum des Anwenders.

IT-DIRECTOR: Herr Dolgner, immer mehr Unternehmen und Organisationen nutzen die Cloud als Backup-Medium. Welche Vorteile hat dieser Ansatz? 

E. Dolgner: Cloud Computing ist derzeit in aller Munde. Einige Befürworter argumentieren, dass ein Cloud-Service preisgünstiger ist als herkömmliche IT-Technologien, andere sehen den Hauptvorteil einer Cloud darin, dass sie den Übergang zu Mobile Computing erleichtert. Häufig übersehen wird jedoch ein weiteres Einsatzgebiet: Cloud Computing macht es einfacher, eine Disaster-Recovery-Strategie umzusetzen. Davon profitieren kleine und mittelständische Firmen ebenso wie Großunternehmen. Hinzu kommt, dass Cloud-Backup viele Dinge vereinfacht: Ein solcher Dienst lässt sich beispielsweise einfach und schnell implementieren. 

Ein weiterer Vorteil ist der Zugang zu nahezu unbegrenzten Speicherkapazitäten. Zudem werden beim Cloud-Backup die Daten eines Unternehmens in der Regel in einem hochsicheren Rechenzentrum eines Service-Providers gespeichert. Auch das Thema Mobile Computing kommt hier ins Spiel. Denn mithilfe entsprechender Applikationen können Mitarbeiter von jedem Ort und jedem Endgerät aus, das Zugang zum Internet hat, auf die Daten in einer Cloud-Umgebung zugreifen.

IT-DIRECTOR: Welche potentiellen Schwachpunkte hat die Sicherung von Daten in einer Cloud-Umgebung?

E. Dolgner: Häufig sehen sich Anwender, die Daten in einer Cloud sichern, mit einer instabilen IT-Umgebung konfrontiert. Denn Cloud Computing bedeutet, dass ein Hosted Service über ein Weitverkehrsnetz und das Internet bereitgestellt wird. Diese Verbindungen müssen sich viele Nutzer teilen. Hinzu kommt ein weiteres Grundprinzip von Cloud Computing: Die Daten liegen an einem zentralen Ort vor, während die Nutzer von unterschiedlichen Standorten aus darauf zugreifen. Somit hat die Qualität der Weitverkehrsverbindungen maßgeblichen Einfluss auf die Güte eines Cloud-Computing-Dienstes. WAN-Verbindungen mit zu niedriger Bandbreite, unzureichenden Quality-of-Service-Merkmalen (QoS) und zu hohen Latenzzeiten können somit die Investitionen in cloud-basierte Backup-Disaster-Recovery-Maßnahmen und Backup-Dienste zunichtemachen. Das übersehen viele Anwender.

IT-DIRECTOR: Wie äußern sich die von Ihnen genannten Faktoren in der Praxis? 

E. Dolgner: Beispielsweise in Form erhöhter Kosten und der Tatsache, dass Recovery Point Objectives (d.h. die maximale Zeit zwischen zwei Backup-Läufen, Anm. d. Red.) nicht eingehalten werden können. Außerdem haben Remote-Nutzer in Außenstellen möglicherweise Probleme, auf Daten und Anwendungen in der Cloud-Umgebung zuzugreifen. Viele Unternehmen greifen daher zu kostspieligen Gegenmaßnahmen, etwa WAN-Verbindungen mit höherer Bandbreite oder die Installation weiterer Server.

IT-DIRECTOR: Welche Alternativen haben Unternehmen, die aus Sorge um die Sicherheit ihrer Daten oder aus Kostengründen auf Cloud-Backup verzichten möchten? 

E. Dolgner: Es gibt eine Reihe von Alternativen, etwa die herkömmliche Datensicherung auf Bandlaufwerken oder der Einsatz von Backup-Systemen mit Festplatten. Außerdem können Unternehmen Hybrid-Cloud-Storage-Lösungen verwenden. In diesem Fall werden geschäftskritische Daten auf Backup-Systemen im Unternehmen gesichert, weniger sensible Informationen bei einem Cloud-Backup-Service-Provider.

Eine weitere Option ist das so genannte Off-Site-Disk-Backup, also das Replizieren der Daten auf einzelnen Festplatten auf Harddisks bzw. Speichersystemen an einem anderen Standort. Dieser Ansatz eignet sich vor allem für Unternehmen, für die eine möglichst kurze Wiederherstellungszeit von Daten wichtig ist, die es sich aber nicht leisten können, ihre gesamten Datenbestände in einem Ausweichrechenzentrum zu replizieren.

IT-DIRECTOR: Welche Vor- und Nachteile haben die von Ihnen genannten Verfahren?

E. Dolgner: Ein Backup auf Festplatten ist fast immer schneller als eine Sicherung auf einem Magnetband. Denn bei einem Band treten immer Verzögerungen durch das Mounten des Bandlaufwerks und bei der Suche nach bestimmten Daten auf. Eine Festplatte steht schneller zur Verfügung und unterstützt mehrere Access Streams.

Wichtig ist unter den Gesichtspunkten „Business Continuity“ sowie „Disaster Recovery“ jedoch ein anderer Faktor: Ein Backup-System muss an einem anderen Standort untergebracht werden. Das kann ein zweites Rechenzentrum des Unternehmens sein oder ein Co-Location-Datacenter eines Service-Providers. Hier kommt erneut die Weitverkehrsverbindung ins Spiel. Sie spielt beim Backup von Daten auf einem externen festplattengestützten Backup-System eine zentrale Rolle. Das gilt natürlich auch für das Zurücksichern der Daten.

IT-DIRECTOR: Die Datenmengen in Unternehmen nehmen drastisch zu. Nach Angaben des ITK-Branchenverbandes Bitkom stiegen sie alleine im Jahr 2013 in deutschen Firmen um 22 Prozent. Was bedeutet das für Anwendungen wie Backup und Disaster Recovery?

E. Dolgner: Eine Konsequenz ist, dass solche Applikationen immer stärker von der Qualität der zugrundeliegenden Netzwerkinfrastruktur abhängen, insbesondere der Güte der WAN-Verbindungen. Dabei sind in erster Line drei Faktoren zu beachten: die Bandbreite, die Verzögerungszeiten, die durch die Übertragungsentfernungen bedingt sind, sowie die Netzwerkgüte. Letztere wird vor allem von der Verlustrate der Datenpakete bestimmt, der Packet Loss Rate. Alle drei Faktoren hängen voneinander ab und wirken sich je nach Struktur eines Netzwerks in unterschiedlicher Weise aus.

Setzt ein Anwender beispielsweise WAN-Verbindungen mit größerer Bandbreite ein, bedeutet dies nicht automatisch, dass Backups schneller erstellt werden. Wenn etwa die Latenzzeiten wegen der langen Übertragungsstrecke zwischen zwei Rechenzentren zu hoch sind, tritt keine Verbesserung ein. Mehr Bandbreite ist auch dann pure Geldverschwendung, wenn die Router und Switches auf der Übertagungsstrecke Datenpakete wegen Überlastung 'wegwerfen' und erneut übertragen müssen, oder wenn die Pakete beim Empfänger in der falschen Reihenfolge ankommen. Beide Phänomene treten oft bei Internet-Verbindungen und in MPLS-Netzen (Multi-Protocol Label Switching) auf.

IT-DIRECTOR: Was können Unternehmen tun, um solche Probleme zu vermeiden?

E. Dolgner: Sie müssen erkennen, dass die speziellen Anforderungen, die Anwendungen im Bereich Storage und Backup stellen, den Einsatz hochwertiger Netzwerkverbindungen erfordern. Das gilt vor allem für die Weitverkehrsverbindungen. Mithilfe von WAN-Optimierungslösungen lässt sich beispielsweise das Datenvolumen beim Transport über ein Weitverkehrsnetz um bis zu 90 Prozent reduzieren, etwa durch Datenkompression und Deduplizierung, also das Ausfiltern mehrfach vorhandener Datenpakete vor der Übermittlung. Das spart Kosten, weil keine Verbindungen mit höherer Bandbreite erforderlich sind, und ermöglicht es Anwendern, Cloud-Computing-Dienste ohne Abstriche an der Qualität zu nutzen.

IT-DIRECTOR: Eine Datensicherung reicht aber nicht aus, um die Folgen eines Unglücksfalls zu kompensieren, etwa eines Brands oder eines Wassereinbruchs im Rechenzentrum oder Serverraum. Welche Vorkehrungen können IT-Verantwortliche gegen solche Vorfälle treffen?

E. Dolgner: Wichtig ist eine Disaster-Recovery-Strategie. Sie muss sicherstellen, dass Daten und Anwendungen in angemessener Weise geschützt werden. Welche Datensicherungsmaßnahmen zum Zuge kommen hängt von zwei Faktoren ab: dem Wert einzelner Datenbestände für das Unternehmen sowie der Fähigkeit des Anwenders, den Geschäftsbetrieb auch dann sicherzustellen, wenn bestimmte Daten verloren gehen oder zumindest zeitweise nicht verfügbar sind. 

Daher sollten unternehmenskritische Daten zwischen dem Rechenzentrum und einem Disaster-Recovery-Datacenter an einem anderen Standort gespiegelt werden. Außerdem ist es sinnvoll, von denselben Informationen regelmäßig Snapshots zu erstellen und vor Ort im Unternehmen aufzubewahren. Sollten beispielsweise Daten Fehler aufweisen, kann die IT-Abteilung dann diese Backups schnell wiedereinspielen. 

Eine weitere Option ist Continous Data Protection. Auch CDP ermöglicht es, Informationen vor Ort zu speichern und bei Bedarf schnell wieder zugänglich zu machen. Die meisten CDP-Tools verfügen außerdem über Replizierungsfunktionen. Wer auf Nummer sicher gehen möchte, kann geschäftskritische Informationen zudem auf Band, Festplatte oder in einer Cloud speichern. Der Nachteil ist, dass durch die große Zahl von Kopien identischer Daten das Datenmanagement komplizierter wird. Welche und wie viele Sicherungsebenen ein Unternehmen etabliert, hängt letztlich von den individuellen Anforderungen ab.

IT-DIRECTOR: Es gibt eine ganze Reihe von Cloud-Backup-Lösungen. Welche Kriterien sind bei der Auswahl eines Services wichtig?

E. Dolgner: Wenn kritische Daten in einer Cloud-Umgebung gespeichert werden, sollte es möglich sein, diese Informationen in eine Virtual Machine oder auf einen physischen Server beim Service-Provider zurückzusichern. In diesem Fall stehen die Daten schnell wieder zur Verfügung. Das ist nicht der Fall, wenn große Datenbestände zunächst heruntergeladen werden müssen. Diese Form der Sicherung sollte daher nur für weniger wichtige Informationen verwendet werden.

Weitere Kriterien sind die Bandbreite und Qualität der Weitverkehrsverbindungen, über die das Rechenzentrum des Cloud-Service-Providers und des Unternehmens gekoppelt sind. Limitierungen in diesen Bereichen wirken sich unmittelbar auf die Backup- und Recovery-Zeiten aus und gefährden die Einhaltung von RPOs und Recovery Time Objects [Zeit zwischen dem Auftraten eines Schadens und der vollständigen Wiederherstellung eines Geschäftsprozesses, Anm. d. Red.]. 

Weiterhin sollte der Nutzer prüfen, wie es um den Schutz der Daten bestellt ist. Eine starke Verschlüsselung ist unabdingbar, und zwar nicht auf den Speichersystemen beim Service-Provider, sondern auch beim Transport über das Weitverkehrsnetz.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok