Dezentralisierung und lernende Algorithmen

Im Rechenzentrum der Zukunft

In künftigen Rechenzentren werden Dezentralisierung und lernende Algorithmen eine immer wichtigere Rolle spielen.

Ziel ist die Erhöhung des Automatisierungsgrades im Rechenzentrum bei gleichbleibender Service-Qualität.

Ziel ist die Erhöhung des Automatisierungsgrades im Rechenzentrum bei gleichbleibender Service-Qualität.

Zunehmende Komplexität und wachsende Datenmengen zeichnen immer mehr Rechenzentren aus. Schon heute zeigen Trends, wie man die damit einhergehenden Anforderungen meistern kann: mit Dezentralisierung in einer neuen Dimension und Machine Learning für mehr Automatisierung und proaktives Management.

Ob Unternehmen alle IT-Ressourcen in eigene Rechenzentren packen oder auf Cloud-Dienste und ähnliche Infrastrukturservices zurückgreifen, hängt von zahllosen Faktoren ab. Inzwischen sind derart viele Services dieser Art verfügbar, dass für jede Anwendung die geeignete Infrastrukturvariante zur Verfügung steht – bei Bedarf gleich ganz als Software-Service, mit oder ohne Management-Tools, auf Basis einer Pay-per-use-Cloud oder dedizierter Ressourcen. Dabei entstehen beinahe zwangsläufig „Infrastrukturstückelungen“ – sprich hybride Infrastrukturen. Zu unterschiedlich sind die Ressourcenbedarfe und Anforderungen einzelner Anwendungen oder der Fachabteilungen – gerade wenn datenintensive Applikationen, etwa aus den Bereichen Internet of Things (IoT) oder Data Analytics, hinzukommen.

Bei der Verwaltung hybrider Infrastrukturen können Management-Tools behilflich sein, die mit Dashboards einen zentralen Überblick über verwendete Ressourcen geben oder mit Alarmen und halbautomatischen Vorgängen unterstützen. Bisher werden diese Software-Lösungen vor allem für das Monitoring und die reaktive Ressourcenverwaltung verwendet. Ein wichtiger, aber zugleich sehr zeitaufwendiger Schritt, um heute verteilte IT-Infrastrukturen zu managen und zeitnah auf zusätzliche Bedarfe reagieren zu können. In Zukunft werden sich die Aufgabenbereiche sowohl der Management-Tools als auch der Administratoren, die diese verwenden, deutlich ausweiten, glaubt der Cloud-Anbieter Gridscale. Denn optimale Ressourcennutzung braucht künftig noch mehr Flexibilität. Schon jetzt ist es oft zweitrangig, woher die IT-Ressourcen kommen – ob aus einer Public oder einer Private Cloud, ob geteilt oder dediziert. Hauptsache, sie sind verfügbar, wenn sie gebraucht werden, und bieten die benötigte Performance und Sicherheit zu einem attraktiven Preis.

Die Denkweise, die Rechenzentren von der verfügbaren Infrastruktur her konzipiert, ist veraltet. Anwendungen und Daten sind es, die für das Geschäft entscheidend sind. Die Infrastruktur dafür kann gleichwohl eine Management-Software evaluieren: Dabei prüft das System eigene Ressourcen und Cloud-Dienste in Abhängigkeit von Kosten und Rahmenbedingungen, wie z. B. geografischer Verfügbarkeit oder ökologischem Anspruch. Ob diese Cloud-Dienste künftig allein von speziellen Dienstleistern kommen müssen, ist nicht gesagt. Auch Unternehmen, die zeitweise private oder gebuchte öffentliche Cloud-Ressourcen nicht voll nutzen, könnten diese in einer Art Ressourcen-Pool anbieten. Erste Ansätze in Richtung Cloud-Marktplätze gab es bereits, doch sie beruhten stets ­darauf, dass ein Dienstleister verschiedene Angebote zusammentrug. Künftig könnte ein sich selbst verwaltender Ressourcen-Pool entstehen, der nicht einem einzigen Anbieter unterliegt, sondern freie Ressourcen – woher auch immer sie stammen – verfügbar macht.

Predictive Maintenance war erst der Anfang


Sollen Ressourcen derart flexibel zur Verfügung stehen, muss der Automatisierungsgrad von Rechenzen-trumsleistungen insgesamt wachsen. Soll heißen: Mit reaktiven Alarmen, z. B. wenn Festplatten ausgefallen sind oder Websites nicht mehr zur Verfügung stehen, ist dem Administrator kaum geholfen. Vielmehr sollten das Rechenzentrum bzw. die Software, die es managt, allein eine optimale Lösung finden.

Über bislang bekannte Predictive-Maintenance-Ansätze geht das weit hinaus: Wurde bisher anhand von Telemetriedaten von Hardware-Devices ermittelt, wann der optimale Austauschzeitpunkt vor dem Ausfall ist, wird künftig das System automatisiert anhand gelernter Abhängigkeiten Maßnahmen einleiten. So lassen sich neben Wartungsprozessen auch Infrastruktur- und sogar Geschäftsprozessoptimierungen umsetzen. Ein Ransomware-Angriff verursacht etwa eine ungewöhnlich hohe Lese- und Schreibbelastung, die vom System als Gefahr erkannt werden kann, wenn ihm zuvor beigebracht wurde, dass es sich hier um eine Anomalie handelt. Mittels zuvor festgelegter Features – das sind die im konkreten Anwendungsfall bedeutenden Kriterien – und großer Mengen an Laufzeitdaten von Rechenzentren lernt das System, was im Sinne des Tagesbetriebs nicht normal ist. Das müssen nicht immer Angriffe sein. Vielmehr geht es um automatisiertes, unmittelbares Skalieren oder Migrieren, damit Workloads ohne ein Eingreifen der Admins umverlagert werden können, etwa wenn andere Cloud-Dienste in diesem Moment preisgünstiger sind.

Die Herausforderung ist der Prozess des maschinellen Lernens. Denn intelligenter wird ein System nicht, wenn ihm schlicht vorgegeben wird, was „unnormales“ Verhalten ist. Hinter einer hohen I/O-Rate steckt nicht zwangsläufig ein Ransomware-Angriff. Zig Telemetrie- und anderen Umgebungsdaten, manchmal sogar aus externen oder weniger infrastrukturtechnischen Quellen, müssen ausgewertet und in den richtigen Zusammenhang gebracht werden. Je mehr Beispieldaten ein Algorithmus lernen kann und je mehr Features definiert ­werden, umso besser – gleichzeitig aber auch umso aufwendiger und rechenintensiver.

Dies ist ein Artikel aus unserer Print-Ausgabe 1-2/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Ziel des Ganzen ist ­eine Erhöhung des Automatisierungsgrads in Rechenzentren bei gleichzeitiger Verbesserung der Servicequalität. Diese erscheint zwingend notwendig, da die komplexer werdenden IT-Infrastrukturbedürfnisse schon jetzt kaum mehr manuell zu managen sind. Aus Sicht der Verantwortlichen sollte die Ressourcenfrage bald keine mehr sein, die eine definierte Antwort verlangt. Für Anwendungen wird eher deren Bedarf an Performance, Verfügbarkeit und Sicherheit definiert, woraufhin ein intelligenter Algorithmus die optimale Infrastrukturlösung wählt. Dabei bezieht er Wechselwirkungen mit anderen Infrastrukturfaktoren mit ein – wie die Preis-Leistungs- oder Erfahrungswerte.

Bildquelle: Thinkstock/iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok