Datendesaster vermeiden

Backup: Die Gefahr lauert im Kleingedruckten

Sicheres Backup und Hochverfügbarkeit: Aufgrund neuer Technologien und gesetzlicher Vorgaben sollten die IT-Verantwortlichen bisherige Infrastrukturen genauer unter die Lupe nehmen, um nicht geradewegs in ein Datendesaster zu laufen.

IT-Verantwortliche sollten bisherige Infrastrukturen genauer unter die Lupe nehmen.

IT-Verantwortliche sollten bisherige Infrastrukturen genauer unter die Lupe nehmen.

Anwendungsbereiche wie Cloud Computing, Advanced Analytics, Künstliche Intelligenz (KI) oder das Internet of Things (IoT) verändern aktuell grundlegend die IT-Strukturen und IT-Konzepte vieler Unternehmen. Gesetzliche Vorgaben wie die neue EU-Datenschutz-Grundverordnung (DSGVO) fordern zusätzlich strengste Sorgfalt im Umgang mit digitalen Informationen. Höchste Zeit, um traditionelle Backup- und Hochverfügbarkeitsstrategien auf den Prüfstand zu stellen.

Glaubt man den Marketing-Kampagnen der IT-Technologieanbieter, so sind die Möglichkeiten, die neue innovative Applikationen den Unternehmen eröffnen, grenzenlos: Cloud-Lösungen übernehmen die Datenspeicherung, Künstliche Intelligenz steuert die Kundenkommunikation, leistungsstarke Analysesysteme optimieren in Sekundenschnelle Geschäftsprozesse und dank IoT und einer fortschreitenden Automatisierung werden Produktionsstätten bald menschenleer sein. „Was von den Anbietern bei der Beschreibung und Vermarktung derartiger Zukunftsszenarien gerne vergessen wird, ist die Datensicherung. Während die Datensicherheit, also der Schutz der Daten gegen Missbrauch, Diebstahl, Veränderung etc. durchaus auf dem Radar der Technologiefirmen ist, scheinen die Datensicherung und damit der Schutz gegen den Verlust durch technische oder menschliche Fehler keine Rolle zu spielen“, kritisiert Holm Landrock, Berater beim Marktforschungs- und Beratungsunternehmen ISG.

Als charakteristisches Beispiel nennt Landrock verschiedene Cloud-Nutzungsmodelle wie Infrastructure as a Service (IaaS) oder Platform as a Services (PaaS). Wie er in der Praxis ­immer wieder feststellt, sind Backup und Hochverfügbarkeit typischerweise nicht Gegenstand der Verträge. Selbst für sorgfältig ausgearbeitete Fachverfahren fehlen in Pflichtenheften teilweise grundlegende Anforderungen hinsichtlich der Hochverfügbarkeit und Datensicherung. Mitunter stehen die Punkte in den Unterlagen, jedoch ohne Spezifikationen. Bei einigen Big-Data-Lösungen kann es sehr schnell schwierig werden, überhaupt die Bandbreite für ein Backup oder eine Duplizierung bereitzustellen. So bleibt es in der Verantwortung der Anwender, wie in klassischen IT-Umgebungen auch bei IT-Service-Providern und Cloud-Konzepten an die Datensicherung und die Hochverfügbarkeit zu denken.

„Wollte man die Hochverfügbarkeit sicherstellen, wäre die Cloud-Umgebung also zu duplizieren. Dabei müsste sich aus Katastrophenschutzgründen das Spiegelrechenzentrum, also die physischen Server der virtuellen Welt, an einem anderen Standort des Providers befinden. Hat man also einen Cloud-Provider gefunden, dessen Rechenzentrum den Anforderungen hinsichtlich des Datenschutzes entspricht, wird für die Hochverfügbarkeit im Katastrophenfall ein zweites Rechenzentrum benötigt. Das können bisher nur wenige Anbieter liefern, wenn man zudem gesetzliche Datenschutzvorgaben – Stichwort: RZ in Deutschland – berücksichtigt“, so Holm Landrock.

Nach Einschätzung von Thomas Sandner von Veeam Software ist die Datensicherung in vielen Unternehmen durch die DSGVO wieder in den Fokus gerückt. „Eine Chance, denn zahlreiche Firmen haben ihre Backup- und Disaster-Recovery-Verfahren länger nicht überprüft“, stellt Sandner immer wieder fest. Hybride Infrastrukturen sind nach seinen Worten auf dem Vormarsch und nicht nur IoT lässt Datenvolumen explodieren. Trotzdem müssen Firmen jederzeit den Überblick behalten, wo sich insbesondere personenbezogene Daten befinden, das gilt auch auf Backups. „Nur so können sie das ‚Recht auf Vergessen’ zuverlässig umsetzen und sicherstellen, dass Sicherungskopien nicht etwa in andere Länder oder zu Dienstleistern wandern, die DSGVO-Auflagen nicht erfüllen“, warnt Thomas Sandner.

Wollen Unternehmen ihre Daten wertschöpfend einsetzen, müssen sie laut Sandner nicht nur jederzeit im Zugriff, sondern auch sicher sein. Das erfordert eine neue Form von integriertem Datenmanagement über alle Plattformen hinweg. „Die Zukunft gehört einem Ansatz, in dem Daten sich ‚ereignisgesteuert’ selbst managen können, um so jederzeit wichtige Erkenntnisse zum Geschäftsbetrieb zu liefern. Das heißt, Künstliche Intelligenz und maschinelles Lernen werden Einzug in das Datenmanagement halten. Backups haben deshalb nicht ausgedient, im Gegenteil. Sie sind das Fundament für alle Schutzmaßnahmen“, so Sandner.

Einen konstruktiven Lösungsansatz sieht Veeam in seiner kürzlich vorgestellten Hyper-Availability Platform. Sie basiert auf einem flexiblen Baukasten inte-grierter „Plug-and-play“-Lösungen und bietet nach Herstellerangaben ein Spektrum bestehend aus Integra­tion, Transparenz, Orchestrierung, Intelligenz und Automatisierung. „Nur so können die enormen und permanenten Datenströme in verteilten Multi-Cloud-Umgebungen optimal gesteuert werden“, glaubt Thomas Sandner. Auch Dirk Barfuß, Director Enterprise Sales Data Protection Solutions bei Dell EMC, sieht dringenden Veränderungsbedarf bei Backup- und Hochverfügbarkeitsstrategien. „Eines der Kernziele ist es heute, die Anzahl der eingesetzten Tools zu minimieren, um damit Schnittstellen-, Management- und Orchestrierungsprobleme zu vermeiden. Damit rückt die ganzheitliche Verantwortung des Data-Protection-Konzepts für Applikationen, Datenbanken, virtuelle Landschaften, File-Systeme, Clouds, Clients und mobile Endgeräte verstärkt in den Fokus“, meint Barfuß. Die Cloud hilft seiner Ansicht nach zusätzlich bei der Optimierung der Sicherungsstrategie, indem sie für Disaster Recovery und Archivierungsaufgaben oder für Cloud-to-Cloud-Konzepte zum Einsatz kommt.

Zeitgemäße Backup- und Hochverfügbarkeitslösungen müssen nach seinen Worten über umfassende Integrationsmöglichkeiten verfügen, angefangen bei den Kernapplikationen bis hin zum Hypervisor. „Neben dem Standard-Backup muss der Data-Protection-Stack sich näher an der Applikation befinden sowie tiefer in die New Workloads, breiter in die Cloud und automatisierter in den IT-Betrieb eingebunden werden. Weitere Kriterien sind Self-Service-Portale mit Richtlinien und Leitplanken, um grundsätzlichen Compliance-Regeln wie etwa der DSGVO gerecht zu werden“, so Dirk Barfuß weiter.

Vorbereitet auf die Stunde X


Falls sich Unternehmen für Nutzungsmodelle wie IaaS oder PaaS entscheiden, gilt es laut Barfuß zunächst, die Umsetzung der notwendigen Compliance- und Cybersecurity-Anforderungen sicherzustellen. Auch sollten der komplette As-a-Service-Ansatz betrachtet sowie eine durchwegs software-definierte Datensicherungsstrategie aufgebaut werden. „Hinzu kommt die Klärung folgender Fragen: Welchen Einfluss haben IaaS und PaaS auf den internen IT-Betrieb? Welche SLAs bezüglich Backup und Recovery werden benötigt? Welche Abrechnungsmodelle stehen zur Verfügung?“, empfiehlt Barfuß.

Einhergehend mit der digitalen Transformation steigt das Bedürfnis nach Geschwindigkeit und Leistung an. Zudem wächst die Erwartung, dass es weder Ausfallzeiten noch Datenverlust oder Unterbrechungen geben darf. Traditionelle Technologien und Konzepte zur Datensicherung erfüllen diese Erwartungen in vielen Fällen nicht mehr. Moderne Unternehmen können es sich nicht leisten, Daten zu verlieren. Was auch immer die Ursache für einen Systemausfall sein mag – Naturkatastrophen, menschliches Versagen oder Cyber-Angriffe –, Datenverluste sind kostspielig und für das Weiterbestehen eines Unternehmens äußerst kritisch.
Eine sogenannte „IT-Resilienz“ basierend auf einem ausgefeilten Business-Continuity-Plan und die regelmäßige Überprüfung, ob dieser greift, werden deshalb zur Pflicht. Sie stellen Betrieb, Datensicherung und Produktivität der IT-Systeme sicher und sollen zentraler Bestandteil der Digitalstrategie im Unternehmen sein. Denn in einem Punkt sind sich IT-Experten einig: Die Frage ist nicht, ob es zu einem Daten-Crash kommt, sondern vielmehr wann er passiert und ob das Unternehmen in diesem Moment darauf vorbereitet ist.


IT-Resilienz: Hochverfügbarkeit zu Ende gedacht

Ziel des Unternehmens muss es sein, eine IT-Infrastruktur aufzubauen, die Änderungen, Unterbrechungen oder ein Desaster effizient abfangen kann, um einen unterbrechungsfreien Geschäftsbetrieb zu gewährleisten.

IT-Resilienz oder auch IT-Widerstandsfähigkeit ist ein proaktiver Business-Continuity-Ansatz, der die kontinuierliche Verfügbarkeit von geschäftskritischen Daten in den Mittelpunkt stellt, statt sich nur auf die Wiederherstellbarkeit von Systemen nach einem Störfall zu verlassen. Zentrale Bestandteile einer effektiven IT-Resilienz sind automatisierte und vereinfachte Replikations- und Wiederherstellungsabläufe, die sicherstellen, dass die Applikationen und Daten eines Unternehmens jederzeit verfügbar bleiben.

Dies ist ein Artikel aus unserer Print-Ausgabe 06/2018. Bestellen Sie ein kostenfreies Probe-Abo.

Typische IT-Unterbrechungen werden heutzutage weniger durch Brände, Überflutungen und Stürme verursacht. Die häufigsten Auslöser sind vielmehr Stromausfälle, Viren (wie Ransomware) oder Updates und Upgrades. Um eine IT wirklich resilient zu machen, muss ein Unternehmen über herkömmliche Backup- und Disaster-Recovery-Lösungen hinausdenken – und auf eine Komplettlösung hinarbeiten, die möglichst hardware-, hypervisor- oder cloud-unabhängig ist. Eine solche Lösung muss schnell auf geplante und ungeplante Unterbrechungen reagieren können.

Quelle: Zerto


Bildquelle: Thinkstock/iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok