IDC-Stduie

„Defizite im Data Management sind mehr als nur Schönheitsfehler“

Achim Freyer, Regional Director Central und Eastern Europe bei Rubrik, kommentiert die Ergebnisse der IDC-Studie zum Ausmaß des Problems der ansteigenden Datenflut in Unternehmen, wie diese darauf vorbereitet sind und wie sie damit bestmöglich umgehen könnten.

„Defizite im Data Management sind mehr als nur Schönheitsfehler“

Achim Freyer, Regional ­Director Central und ­Eastern Europe beim Schweizer Unternehmen ­Rubrik.

ITD: Herr Freyer, Rubrik hat gemeinsam mit IDC untersucht, wie Unternehmen Daten besser nutzen können, um ihre Geschäftsergebnisse zu verbessern. Was war der Hintergrund der Studie?
Achim Freyer: Man hört und liest praktisch permanent vom großen Datenwachstum, von Digitalisierung, Artificial Intelligence (AI) und Machine Learning (ML). Wir wollten wissen, wie es in der alltäglichen Wirklichkeit der Unternehmen aussieht. Gibt es handfeste Strategien oder werden Entscheidungen nur ad hoc gefällt? Wie weit reichen die Aktivitäten in Sachen Cloud wirklich? Sammeln die Unternehmen nur ihre Daten oder nutzen sie diese wirklich, um Mehrwerte zu generieren?

Die Studie „The Data-Forward Enterprise: How to Maximize Data Leverage for Better Business 
Outcomes“ umfasst 801 Befragte in Nordamerika, Westeuropa und dem asiatisch-pazifischen Raum. Sie repräsentierten ein breites Spektrum von Branchen und Größenordnungen – von KMU bis zum globalen Unternehmen. Alle Befragten sind entweder direkt für das Datenmanagement des Unternehmens verantwortlich oder darin versiert.

ITD: Welche Herausforderungen ergeben sich für Großkonzerne durch die Datenflut?
Freyer: Die Herausforderungen sind sehr vielfältig und teilweise eng miteinander verwoben. Ein Thema ist sicherlich der Datenschutz – spätestens seit dem Inkrafttreten der DSGVO eine absolute Pflichtaufgabe für die Unternehmen. Das massive Datenwachstum macht die Herausforderung nicht gerade einfacher. Damit eng verbandelt ist das Thema „Datensicherheit“. Je mehr Daten bewegt werden, desto größer wird auch die Angriffsfläche, die von Kriminellen für Attacken genutzt werden kann. Dieser Aspekt schließt wiederum an den ganzen Themenkomplex der Cyberresilienz an: Wie kann ich Cyberangriffe eindämmen bzw. mit minimalem Schaden überstehen? Hier sind wir dann also bei Themen wie Restore und Backup. Und klar, explodierende Datenvolumina und eine wachsende Fragmentierung der Infrastrukturen – Stichwort Cloud und Data Mobility – erschweren diese Aufgaben in vielen Fällen ganz erheblich.

Die Situation in diesen Bereichen stellt sich in den Unternehmen wie folgt dar: Die einen verfolgen eine Cloud-first-Strategie, andere freunden sich mit Hybrid-Cloud-Modellen an und wiederum andere halten an einer weitreichenden On-Premises-Strategie fest. Was sie aber alle gemeinsam haben: Sie müssen innerhalb des von ihnen gewählten Ansatzes Wege finden, die die Datenflut sicher, produktiv und wirtschaftlich bewältigen.

Dies ist ein Artikel aus unserer Print-Ausgabe 09/2020. Bestellen Sie ein kostenfreies Probe-Abo.

Dazu kommt, dass sich die Datenflut nicht nur aus einer Quelle speist. Vielmehr sorgt die Digitalisierung dafür, dass neben den klassischen Unternehmensprozessen, die seit jeher eng mit der IT verbunden sind, nun auch neue Akteure mit ins Spiel kommen. Stichwort IoT. Die Studie kommt zu dem Ergebnis, dass mehr als 80 Prozent der IT-Führungskräfte die Datenzersiedelung als eines der kritischsten Probleme sehen, mit denen sich ihre Unternehmen heute auseinandersetzen müssen.

ITD: Welche Schwierigkeiten treten beim Backup auf?
Freyer: Diese Frage lässt sich pauschal nicht beantworten, denn die Voraussetzungen und Ziele sind in den jeweiligen Unternehmen oft sehr unterschiedlich. Es gibt aber einige Trends und Phänomene, die wir häufig sehen – und die Herausforderungen für das Backup mit sich bringen.

Die größten Herausforderungen sehen wir bei Unternehmen, die Backup-Lösungen einsetzen, deren konzeptioneller Ansatz schon einige Jahre auf dem Buckel hat. Anders gesagt: Lösungen aus dem Vor-Cloud-Zeitalter bringen Unternehmen vermehrt ins Schwitzen. Sie benötigen häufig extra für die jeweilige Lösung geschultes Fachpersonal. Der allgegenwärtige Mangel an bezahlbaren IT-Profis schlägt hier voll durch. Zugleich werden die verfügbaren Mitarbeiter oft mit Backup-Jobs belastet, die viel Zeit in Anspruch nehmen. Dadurch entstehen Kosten, die zumindest auf den ersten Blick keinen Gegenwert schaffen. Zudem bestehen die konventionellen Lösungen meist aus unterschiedlichen Komponenten verschiedener Hersteller, die installiert, gewartet, aufeinander abgestimmt und regelmäßig aktualisiert werden müssen.

Eine weitere Schwierigkeit beim Backup sehen wir durch die zunehmende Akzeptanz der Cloud sowie das Verlangen nach mehr Data Mobility. Unternehmen wollen – und müssen – hier zunehmend flexibel sein. Was heute in Cloud A liegt, wäre morgen eventuell in Cloud B besser aufgehoben. Was gerade noch aus Performance-Gründen nur On-Premises verarbeitet werden konnte, kann plötzlich noch schneller und günstiger in der Cloud erledigt werden – oder auch wieder alles in die andere Richtung. Diese Mobilität der Daten ist für das Backup eine echte Herausforderung. Die Studie zeigt, dass 70 Prozent der CIOs eine Cloud-first-Strategie für die Anwendungsbereitstellung verfolgen. Dazu kommt noch die Option, die Cloud selbst als Backup-Ziel zu nutzen. Wenn all dies unter Kontrolle gehalten werden soll, sprechen wir von Multi-Cloud-Data-Control.

Eine Backup-Lösung muss mehr können. Damit meine ich, dass Unternehmen zunehmend erkennen, dass Backup-Daten tatsächlich auch gewinnbringend eingesetzt werden können. Ich denke da z. B. an die Möglichkeit, Entwicklern, die möglichst aktuelle Daten benötigen, diese aus dem Backup zu Verfügung zu stellen. Schnell eine virtuelle Maschine mounten, Backup-Daten nutzen, und schon kann die neue Software mit realen Daten getestet werden.

ITD: Welche Lösungen bieten welche Chancen?
Freyer: Laut Studie gehen 44,5 Prozent der Befragten davon aus, dass die Zersiedelung von Daten in zwei Jahren ein großes oder erhebliches Problem darstellen wird, wenn sie ihren derzeitigen Ansatz zur Datenkontrolle und für das Datenmanagement beibehalten – wozu auch das Backup gehört.

Ich bin der festen Überzeugung, dass Lösungen, die im Cloud-Zeitalter konzipiert wurden, einige unschlagbare Vorteile haben. Neben der „Cloud-Readiness“ sind das auch Themen wie Nutzerfreundlichkeit, offene Schnittstellen, Skalierbarkeit und vieles mehr.

Bei der Evaluierung einer zukunftssicheren Lösung gilt es, abschließend einige Merkmale zu beachten. So erweisen sich Systeme, die auf einer konsolidierten Plattform basieren, als besonders nutzerfreundlich und effizient im alltäglichen Betrieb. Ebenso trägt eine zentralisierte Richtlinien-Engine dazu bei, vielseitige Anforderungen und Vorgaben zu erfüllen. Eine wesentliche Bedeutung kommt ebenso einer möglichst einfachen Verwaltung von Metadaten zu. Mit einem hohen Maß an Metadaten-Intelligenz können Unternehmen zudem Einblicke gewinnen, wie sich -ihre Daten ändern, wer auf sie zugreift, wo sie sich befinden und ob sie den Compliance-Vorgaben entsprechen. Um für kommende Herausforderungen gerüstet zu sein, empfiehlt es sich außerdem, auf eine API-gesteuerte Erweiterbarkeit zu setzen. Als letzten Punkt denke ich an die Fähigkeit, Daten rasch einzulesen, zu klassifizieren und zu finden. Denn eines ist klar: Defizite im Data Management sind mehr als nur Schönheitsfehler, denn sie können schweren Schaden anrichten. 

Bildquelle: Rubrik

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok