Operational Resiliency

Widerstandsfähiger durch die Krise

Mit den wachsenden Datenmengen verlieren Unternehmen zunehmend den Überblick, welche Daten wo gespeichert sind. Das macht sie anfälliger für Cyber-Attacken. Abhilfe schaffen Lösungen zur Klassifizierung von Daten sowie kluge Automatismen, dank derer die Hard-und Software grundlegende Parameter selbst einrichten können.

Widerstandsfähiger durch die Krise

Hardware-unabhängige Analyseplattformen sorgen für einen robusteren IT-Betrieb.

Die Digitalisierung hält in immer mehr Bereichen Einzug. Sowohl im öffentlichen Sektor als auch in der Wirtschaft werden ständig neue Services ausgerollt, die das Datenwachstum befeuern. Den Marktforschern von IDC zufolge soll das weltweite Datenvolumen in den nächsten fünf Jahren auf 175 Zetta-Bytes, also 175 Milliarden TeraBytes, ansteigen. Vor allem Technologien wie 5G, Künstliche Intelligenz, das Internet der Dinge sowie Kryptowährungen fördern diese Entwicklung. Bereits heute werden täglich 463 Exabyte an Daten erstellt – das entspricht 212.765.957 DVDs pro Tag. Und es werden immer mehr, vor allem in den Unternehmen.

Entsprechend groß ist der Bedarf für Speicherplatz. Weil ihre Kapazitäten ständig ausgebaut werden müssen, wächst die Nachfrage nach Ressourcen aus der Cloud. Wie eine gemeinsame Umfrage des ITK-Branchenverbands Bitkom und KPMG im Sommer vergangenen Jahres ergeben hat, nutzen bereits drei von vier deutschen Unternehmen Cloud-Lösungen. Große Cloud-Anbieter wie AWS und Goolge errichten immer neue Rechenzentren, um die Kunden zu bedienen.

Mehr Daten, mehr Speicherorte, mehr Risiken

Immer mehr Daten an immer mehr Orten – für Unternehmen wird die Situation zunehmend schwerer kontrollierbar. Damit steigen Risiken wie die wachsende Abhängigkeit von Daten sowie die erhöhte Anfälligkeit für Cyberangriffe. 70 Prozent der deutschen Unternehmen haben laut Bitkom im vergangenen Jahr Schäden durch Cyberangriffe wie Passwort-Diebstahl, die Infizierung mit Malware und Phishing-Attacken erlitten. 2017 waren es noch 43 Prozent. Den dadurch entstandenen Schaden beziffert der Branchenverband auf fast 103 Milliarden Euro pro Jahr.

Vor allem Ransomware wie WannaCry macht Unternehmen sowie städtischen Verwaltungen und medizinischen Einrichtungen zu schaffen. Der Schaden durch die Erpresser-Malware lag 2018 bei rund 30 Milliarden Euro allein in Europa. Und Deutschland ist das mit Abstand beliebteste Ziel innerhalb der EMEA-Region, so der „Spotlight Report on Ransomware“ von 2019. Jedes zweite Unternehmen ist hierzulande bereits einem Ransomware-Angriff zum Opfer gefallen. Im vergangenen Jahr haben die Ransomware-Attacken zwar in der Summe abgenommen, dafür werden sie immer gezielter und effizienter, warnt der Bericht. Eine zunehmende Bedrohung entstehe außerdem dadurch, dass die Angreifer nicht mehr nur die Daten auf einzelnen Geräten verschlüsseln, sondern vor allem gemeinsam genutzte Dateien, die auf Cloud-Servern gespeichert sind.

„Dunkle Daten“ identifizieren und löschen

Umso wichtiger ist es, dass Unternehmen den Überblick über ihre Daten behalten und redundante, nicht benötigte Informationen ohne Risiko löschen können. Denn aus unstrukturierten so genannten dunklen Daten, die einen großen Teil der Unternehmensdaten ausmachen, lässt sich keinerlei Wert ziehen. Solange sie aber nicht als wertlos identifiziert und gelöscht werden, bindet ihre Sicherung und Verwaltung enorme Ressourcen. In den meisten Unternehmen ist dies gar nicht mehr manuell zu erledigen.

Eine Lösung bietet die automatische Klassifizierung von Daten nach Geschäftswert. Automatisierte Data-Management-Werkzeuge nutzen dafür KI und Machine Learning und kombinieren die Algorithmen mit länderspezifischen Regeln und gesetzlichen Vorgaben. Das Ziel dabei ist es, so wenig Fehler wie möglich zu produzieren und wenig menschliche Interaktion auszulösen. Durch eine konsequente Klassifizierung lässt sich die Datenmenge kontinuierlich reduzieren und bestehende Speicher freiräumen.

Alltagsaufgaben automatisieren

Auch der Überblick über die bestehenden Storage-Lösungen geht angesichts der wachsenden Datenflut leicht verloren. Wie viel Speicherkapazität haben wir noch? Wer und was beansprucht welchen Platz? Wie können wir vermeiden, dass wir zu viel oder zu früh neuen Speicher kaufen? Mit der steigenden Komplexität der Rechenzentren und der ständigen Anschaffung neuer Speichersysteme wird es immer schwerer, solche Fragen zu beantworten. Standard-Management-Methoden reichen nicht mehr aus, um die über Jahre angesammelten Datenmengen effizient zu verwalten.

Abhilfe schaffen Analyseplattformen wie beispielsweise Aptare IT Analytics von Veritas: Die Plattform liefert einen Gesamtüberblick über alle Daten und Speicherorte in heterogenen Umgebungen – vom Band über die Festplatte bis hin zur Cloud. Auch Verbrauchsanalysen – etwa zur Auslastung des Speichers vor einer Woche, einem Monat, einem Jahr – werden automatisch erstellt. Das erleichtert die Ressourcenplanung, sichert die Verfügbarkeit der Systeme und hilft, Ausfallzeiten von kritischen Anwendungen und Datenverluste zu vermeiden.

Ihre Algorithmen sind in der Lage, Standard-Hardware in einem virtuellen Ressourcen-Pool zu vereinen und automatische Prozesse anzustoßen, die kein menschliches Eingreifen mehr erfordern. Gefragt ist das vor allem bei IT-Umgebungen aus Produkten von unterschiedlichen Herstellern – etwa mehreren Backup-Lösungen. Denn die meisten Unternehmen betreiben ihre IT im Mischbetrieb: Die Workloads sind teilweise On-Premises, teilweise in der Cloud gespeichert – häufig auch in Multi-Cloud-Umgebungen aus Clouds von verschiedenen Anbietern.

Transparenz für störungsfreien Betrieb

Dank der Hardware-Unabhängigkeit können solche Analyseplattformen ebenfalls genau zeigen, welche wichtigen Workloads und Systeme aufgesetzt wurden und welche Speicherressourcen sie konkret nutzen. Im zweiten Schritt wird untersucht, ob diese Konstellationen tatsächlich per Backup auch gesichert werden.

Dank dieses skalierbaren und automatisierten Abgleichs können Verantwortliche feststellen, ob tatsächlich alle wichtigen Elemente einer kritischen Applikation zuverlässig gesichert werden. Oder ob im Alltag ein System übersehen und deren Daten nicht gesichert werden.

Diese Aufgabe lässt sich natürlich manuell erledigen, erzeugt aber viel Aufwand und wird komplexer, je mehr Systeme und unterschiedliche Cloud-Dienste an der Workload beteiligt sind. Hardware-unabhängige Analyseplattformen dagegen wickeln diese Aufgabe autonom ab und entlasten die IT-Teams, damit sie im Ernstfall den Betrieb wichtiger Anwendungen aufrecht halten können.

Der gesamte IT Betrieb wird dadurch in der Krise widerstandsfähiger und bringt ein Unternehmen in die Lage, sein Kerngeschäft in Ausnahmesituationen wie Cyber-Angriffen oder Naturkatastrophen am Laufen zu halten. Mit der fortschreitenden Digitalisierung und steigenden Kundenansprüchen in einem sich ständig verändernden Umfeld sind Maßnahmen zur Sicherung der Hochverfügbarkeit erfolgsentscheidend.

Bildquelle: Getty Images/iStock/Getty Images Plus

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok