Datenbasierte Hochverfügbarkeit

Kraftakt im Rechenzentrum

Hochverfügbarkeit im Rechenzentrum ist vor allem eine Frage des Geldes und der Ressourcen. Spezialisierte Cloud-Dienstleister ermöglichen zwar eine flexiblere Umsetzung, dennoch bleibt sie aber oft ein Kraftakt. Durch intelligente Algorithmen, die basierend auf Daten Betrieb und Wartung des Rechenzentrums optimieren, lässt sich die Effizienz jedoch steigern.

Liegestütze

In der Diskussion um Hochverfügbarkeit spielt auch immer die Frage nach mehr oder weniger (De-)Zentralisierung eine Rolle.

In den Rechenzentren mittelständischer Unternehmen wird der IT-Betrieb zumeist zwar schnell, aber reaktiv aufrechterhalten. Support-Verträge mit definierten Response-Zeiten von wenigen Stunden und bestimmte Bauteile im Lager sollen im Schadensfall gewährleisten, dass die Auswirkungen auf IT-Infrastruktur und die Nutzer möglichst gering ausfallen. Selbst in den Rechenzentren großer IT-Infrastrukturanbieter wird es so gehandhabt, auch wenn leistungsfähigere Technik und doppelte Auslegung für eine insgesamt höhere Verfügbarkeit sorgen. Dennoch bleibt die Schadensbehebung reaktiv: Geht ein Bauteil kaputt, wird es ersetzt. Gab es einen Ransomware-Angriff, greifen Sicherheitsprozesse, um weiteren Schaden zu verhindern. Bei dem Versuch, auf diese Art und Weise die Verfügbarkeit der IT-Ressourcen zu erhöhen, gilt eine einfache Faustformel: Je kürzer die Time to Repair oder je hochverfügbarer die IT ausgelegt wird, umso teurer ist sie – High Availability geht nun einmal ins Geld.

Anomalien erkennen

Dabei gibt es Gründe genug, die IT-Infrastruktur so hochverfügbar wie möglich auszulegen: Mag ein ausgefallener unternehmensinterner Service nur die Nutzer verärgern, kann ein stillstehendes Produktionssystem oder eine unerreichbare E-Commerce-Website schon erheblichen finanziellen Schaden und einen bleibenden Image-Verlust verursachen. Doch wie lässt sich Hochverfügbarkeit wirtschaftlicher und effektiver umsetzen?

Was im Rahmen von Industrie 4.0 und Internet of Things (IoT) schon breit diskutiert wird – nämlich die Optimierung des Betriebs aufgrund von Daten –, lässt sich auch auf IT-Infrastruktur übertragen. Der Cloud-Infrastrukturanbieter Gridscale beispielsweise nutzt dafür selbstlernende Algorithmen: Durch Sensoren erfasste Daten, wie etwa Umgebungstemperaturen, Spannungspegel oder Latenzzeiten, werden in Echtzeit interpretiert. Störungen oder Engpässe können so präventiv erkannt werden.

Den meisten Störungen gehen erkennbare Anomalien voraus. Eine Anwendung, deren Ladezeit vom Nutzer plötzlich als sehr langsam wahrgenommen wird, zeigt zumeist schon vorher Abweichungen vom Normalverhalten. Ein Ransomware-Angriff ist immer mit einer messbar ungewöhnlich hohen Lese-/Schreibrate von Daten verbunden. Ein Mitarbeiter, der kurz vor der Kündigung noch interne Daten kopiert, oder ein externer Angreifer, der versucht, sich unbefugt Zugriff zu den IT-Systemen des Unternehmens zu verschaffen, sind ebenfalls als Abweichung vom normalen Betrieb erkennbar.

Die richtigen Daten zu erfassen, ist die eine Aufgabe. Die größere Herausforderung ist es aber, Verknüpfungen zwischen verschiedenen Datenquellen herzustellen und diese mittels Algorithmen richtig zu interpretieren. Denn was genau eine Abweichung vom Normalbetrieb kennzeichnet, hängt stark von der individuellen Beschaffenheit und der konkreten Belastung der IT-Infrastruktur ab. Die Algorithmen müssen über längere Zeiträume lernen, welche Werte zu welchem Zeitpunkt in Ordnung sind und wann sie auf ein Problem hinweisen. Zudem lässt sich solch eine vorausschauende Wartung nur dann in einem vertretbaren Kostenrahmen realisieren, wenn sich der größte Teil des Prozesses automatisieren lässt. Dies erfordert spezielles Know-how, nicht nur in den Bereichen Netzwerk- und Kommunikationsprotokolle sowie IT-Systeme, sondern auch in Algorithmen im Bereich der Künstlichen Intelligenz (KI).

Automatisierte Hinweise

Zwar bieten verschiedene Hardware-Hersteller ihre Devices auch für den eigenen IT-Betrieb mit smarten Funktionen an. So ist es beispielsweise bei SSD-Festplatten üblich, dass diese automatisch warnen, wenn ihre Sektoren das Limit an Lese- und Schreibzugriffen erreicht haben. Doch in Cloud-Umgebungen spielt die datenbasierte Hochverfügbarkeit ihre Vorteile aus: Betreiber können beispielsweise ein dynamisches Kapazitätsmanagement etablieren. Ganz automatisch werden so Infrastrukturressourcen abgeschaltet, wenn keine Last zu erwarten ist, um dann rechtzeitig wieder in Betrieb genommen zu werden, wenn ein dynamischer Workload ansteht. Das senkt die Kosten, die in den meisten Cloud-Umgebungen nach Nutzung berechnet werden.

Solche Algorithmen unterstützen zudem den IT-Administrator. Ein Beispiel: Diverse Metriken wie CPU-, RAM- und Netzwerkauslastung der virtuellen Datenbank-Server genügen, um berechnen zu können, in welchem Zustand sich die Datenbank derzeit befindet. Ist sie in der Lage, Anfragen schnell bedienen zu können, oder nähert sie sich ihrer Leistungsgrenze? Mit automatisierten Hinweisen an den IT-Administrator oder sogar durch einen autonomen Eingriff eines Algorithmus in die Infrastruktur lassen sich rechtzeitig die Kapazitäten der Datenbank erhöhen.

Dezentral und flexibel

In der Diskussion um Hochverfügbarkeit spielt auch immer die Frage nach mehr oder weniger (De-)Zentralisierung eine Rolle. Während zentrale, monolithische Systeme oft als kostengünstiger und einfacher wartbar angesehen werden, stehen sie doch dem Konzept der Hochverfügbarkeit entgegen. Dezentralisierte Systeme sind weitaus flexibler – gerade in Zeiten der Cloud, wo man sich an das bedarfsgerechte, agile Hinzuschalten von IT-Ressourcen bereits gewöhnt hat. Mit intelligenten Algorithmen, die dem IT-Betrieb eine weitgehende Automatisierung zugrunde legen, gelingt es, dezentrale IT-Systeme vorausschauend zu managen und trotz dezentraler Architektur monolithische Systeme ohne Anpassung hochverfügbar zu betreiben. In der Praxis zeigen sich dadurch ein hohes Kostensparpotential und eine Steigerung der Qualität von IT-Diensten.

Bildquelle: Thinkstock/iStock

©2018Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok