Baustelle Datacenter

Ohne Investition keine Innovation

Unternehmen, die in Zukunft wettbewerbsfähig bleiben möchten, benötigen Rechenzentren, in denen ihre ­Geschäftsdaten nicht nur verwaltet, sondern kontinuierlich analysiert werden. Eine Aufgabe, mit der traditionelle ­Datacenter zunehmend überfordert sind.

Baustelle Datacenter

Baustelle Datacenter: Als Basis für zukunftsorientierte IT-Architekturen haben sich Software-defined-Infrastructure-Konzepte (SDI) durchgesetzt.

Immer mehr Unternehmen erkennen, dass ihre IT-Infrastrukturen über ein enormes Potential zur Verbesserung der Geschäftsprozesse verfügen. Zu diesem Ergebnis kommt eine IDC-Studie, in der das Beratungsunternehmen im Februar dieses Jahres IT- und Fachentscheidungsträger aus 210 deutschen Unternehmen mit mehr als 500 Mitarbeitern befragte. Demnach modernisieren derzeit 57 Prozent der Unternehmen ihre IT, um Business-Innovationen in den nächsten Jahren bestmöglich zu unterstützen.

Cloud Computing in seinen unterschiedlichen Ausprägungen spielt bei der Neustrukturierung der Datacenter eine Schlüsselrolle. So verfügen 90 Prozent der Studienteilnehmer nach eigenen Angaben über eine Cloud-Strategie. Der Trend geht dabei eindeutig zur Multi Cloud, d. h., Services werden zukünftig von mehreren unterschiedlichen Plattformen bezogen. Work­loads laufen immer häufiger in der Cloud. Aktuell dominiert noch die Privat Cloud, entweder im eigenen Datacenter oder im externen Datacenter eines Providers.

Modernisierungsinvestitionen fließen am häufigsten in datenrelevante Themen wie Analytics und das Management von relationalen Datenbanken, aber auch der Ausbau von Künstliche Intelligenz (KI) respektive Machine Learning und Business Intelligence bzw. Data Warehouse wird vorangetrieben.

Als Basis für zukunftsorientierte IT-Architekturen haben sich Software-defined-Infrastructure-Konzepte (SDI) durchgesetzt. Die Erweiterung virtualisierter Infrastrukturen (Software-defined Compute, Software-defined Storage, Software-defined Networking) um Automatisierungs- und Orchestrierungskomponenten schafft die technische Grundlage, um Private und Public Clouds umzusetzen und in hybriden und Multi-Cloud-Szenarien zusammenzufügen. „Die meisten IT- Organisationen in Deutschland haben die Zeichen der Zeit erkannt“, bestätigt Matthias Zacher, Senior Consulting Manager bei IDC und Projektleiter der Studie. „Allerdings gibt es noch Luft nach oben. Das gilt besonders für die Automatisierung im Datacenter und die Nutzung von Analytics und Künstlicher Intelligenz im operativen IT-Betrieb.“

Der Betrieb multipler Cloud-Umgebungen hat Unternehmen bislang dazu veranlasst, verschiedene Management-Konsolen und unterschiedliche Prozesse einzuführen. Mit neuen Infrastrukturkonzepten wollen führende IT-Hersteller die dadurch entstandene Komplexität beim Betrieb von gemischten Cloud-Umgebungen deutlich reduzieren. „Die meisten großen Unternehmen haben verteilte Daten und Workloads auf multiplen Public-und Private-Cloud-, in SaaS- und On-premise-Umgebungen. Das kann ein Ergebnis ihrer Geschäftsprozesse und der dahinter liegenden Infrastruktur sein, hat manchmal aber auch regulatorische oder Datenschutzgründe“, erklärt Denis Kennelly, General Manager Cloud Integration bei IBM. „Die Herausforderung bei diesen Umgebungen liegt im Überwinden von Daten- und Technologiesilos, um neue Services und Applikationen schnell und sicher anbieten zu können.“

Die kürzlich vorgestellte Cloud-Integration-Plattform wurde laut IBM konzipiert, um Applikationen, Software und Services aller Anbieter sicher miteinander zu verbinden, unabhängig davon, ob diese Systeme on premise, in einer Public oder Private Cloud sind. Die Plattform führt ein umfassendes Set an Integrationswerkzeugen in einer einzigen Entwicklungsumgebung zusammen. Ergänzt wird das Angebot durch IBM-Services für Cloud-Strategie und -Design. Dabei handelt es sich um ein breites Portfolio an Beratungsservices, das Kunden aufzeigen soll, wie sie eine ganzheitliche Cloud-Strategie entwickeln können: beginnend bei Design, Migration und Integration bis zu Road Mapping und Architekturservices. Ziel ist es laut Hersteller, die Kunden in der Entwicklung, der Migration, der Modernisierung und dem Management von Applikationen zu unterstützen.

Konvergenz schafft Konsistenz

Ebenfalls auf eine Vereinfachung des Datacenter-Managements zielt eine Kooperation von VMware und Dell EMC ab. Der Cloud-Service „VMware Cloud on Dell EMC“ soll nach Vorstellung der beiden IT-Hersteller die Vorteile der Public Cloud – einfach, agil und wirtschaftlich – mit der Sicherheit, Kontrollierbarkeit und Leistungsstärke von lokalen Infrastrukturen kombinieren.

Die Cloud besteht aus der Compute-, Storage- und Netzwerk-Infrastruktur-Software von VMware, die eng in die hyperkonvergenten Service-VxRail-Infrastruktur von Dell EMC eingebunden ist. Das Tool basiert auf der Project-Dimension-Technologie von VMware. Unternehmen können damit Rechenzentrums- und Edge-Umgebungen bei Bedarf wie einen Public-Cloud-Service über eine hybride Cloud-Kontrollebene nutzen. Über die Steuerungsebene können Administratoren alle lokalen Systeme transparent verwalten – beispielsweise ihre Racks überwachen, bei Servicepro­blemen die Fehlerlösung nachverfolgen und Systeme automatisch von Ende zu Ende patchen und upgraden.

„Cloud ist kein Ort, sondern ein Betriebsmodell. Mit unserer Cloud und dem gemeinsamen Engineering von Dell EMC und VMware bieten wir ein einheitliches Hybrid-Cloud-Erlebnis. Dies ermöglicht eine konsistente Infrastruktur und einen konsistenten Betrieb an jedem Ort der Cloud, vom lokalen Rechenzentrum bis hin zu Public Clouds, sodass Unternehmen eine bessere Kontrolle über ihre Multi-Cloud-Strukturen haben“, betont Michael Dell, Chairman und CEO von Dell Technologies.

Offen für Veränderung

Nach Ansicht von Marktbeobachtern wird bei der Neugestaltung von Rechenzentren zukünftig Open-Source-Software die Grundlage für viele moderne Anwendungen bilden bzw. die Tools für neue Lösungen bereitstellen. Haupttreiber für die Nutzung von Open-Source-Technologie sind u.a. die Flexibilität bei der Bereitstellung von IT-Ressourcen sowie Kostenreduzierung.

„Die Kunst bei der Modernisierung der Datacenter ist es, alte und neue Strukturen der heterogenen IT-Landschaft zu verbinden. Hier können innovative Open-Source-Lösungen Brücken bauen und einen Wandel Schritt für Schritt ermöglichen“, glaubt Mat­thias G. Eckermann, Director Product Management bei der Suse Linux GmbH. Seine Einschätzung basiert nicht zuletzt auf dem Openstack-Projekt. Hier arbeiten momentan über 96.000 Entwickler und 676 Unter-nehmen aus 186 Ländern an neuen IT-Standards, wozu Schwergewichte wie IBM, Intel, SAP und Suse gehören.

SDI und Enterprise-Open-Source-Lösungen spielen im Rechenzentrum eine zunehmend wichtige Rolle. „Mit der Einführung von SDI wird die IT zum aktiven Wegbereiter für neue Geschäftsmodelle. Das gilt für Storage im Umfeld von Datenanalyse in Echtzeit genauso wie bei unterschiedlichen Cloud-Modellen oder Container-as-a-Service-Angeboten. Container sind beispielsweise im Einsatz bei der Automatisierung von Entwicklungsprozessen im DevOps-Modell oder auch in anderen Bereichen wie Big Data bis hin zu Machine Learning, die von der beschleunigten Bereitstellung durch Container profitieren“, unterstreicht Matthias G. Eckermann.

Interconnection statt Internet

Der Rückgriff auf Colocation-Services unabhängiger Großrechenzentrumsbetreiber ist heute bereits Bestandteil moderner Rechenzentrumsarchitekturen. Die Angebote beschränken sich nicht mehr auf die Core-Komponenten Space, Power und Netzwerk, sondern wurden um Plattformen für den Betrieb hybrider Infrastrukturen erweitert. Damit treffen sie auf einen hohen Bedarf seitens der Anwenderunternehmen. Laut aktueller IDC-Studie nutzen 53 Prozent der Befragten bereits Colocation-Services oder planen eine Nutzung.

Einen Grund dafür sehen Experten in Interconnection-Services. Derartige private Anbindungen an Partner, Kunden oder andere Unternehmen gewinnen zunehmend an Relevanz, um die Verlangsamung des Datenaustauschs über das öffentliche Internet, die durch die enorme Auslastung entsteht, langfristig zu vermeiden. „Konnektivität ist entscheidend für die Entwicklung moderner verteilter, hybrider Multi-Cloud-Um­gebungen. Rechenzentrumseinrichtungen, die die Möglichkeit der Vernetzung in einem umfangreichen Ökosystem von Netzwerk- und Cloud-Anbietern bereitstellen, können Unternehmen in ihren Märkten zu substantiellen Wettbewerbsvorteilen verhelfen. Die wachsende Zahl von Großrechenzentren mit ihren leistungsstarken Interconnection-Plattformen bieten eine Umgebung, in der Unternehmen ihre Cloud-Strategien beschleunigen und ihre digitale Transformation optimal umsetzen können“, prognostiziert Kelly Morgan, Vice President Datacenter Infrastructure & Services beim Marktforschungsinstitut 451 Research.

Die Zeit drängt

Parallel zu ihrer Funktionalität und Leistungsfähigkeit ist auch der Energieverbrauch von Rechenzentren in den vergangenen Jahren rapide angestiegen. „Um die Auswirkungen auf die Umwelt zu minimieren, müssen Unternehmen ihren Beitrag zum Klimawandel bewerten und Produkte sowie Dienstleistungen implementieren, die diesen Prozess sowohl automatisieren als auch optimieren und dadurch den Energieverbrauch reduzieren“, fordert Ray O‘Farrell, Executive Vice President and Chief Technology Officer bei VMware.

Zur Optimierung der Energieversorgung im Rechenzentrum hat VMware kürzlich das Carbon Avoidance Meter (CAM) vorgestellt. Die Kunden, die VMware Skyline (proaktive Support-Technologie) nutzen, können mit CAM den Grad der VM-Dichte messen und falls möglich eine höhere Virtualisierungsdichte anstreben, um Energieverbrauch und CO2-Emissionen zu reduzieren. CAM analysiert den Stromverbrauch fast in Echtzeit. Damit können Kunden den Kauf von Zertifikaten aus dem Emissionshandel besser planen oder Arbeitsphasen mit hohem Energieverbrauch entzerren, um teure Energiespitzen zu vermeiden.

Dies ist ein Artikel aus unserer Print-Ausgabe 6/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Nach Einschätzung von IDC-Consultant Matthias Zacher wird trotz aller technologischer Innovationen die Komplexität im Rechenzentrum bestehen bleiben. „Die Anforderungen an das Management und die Governance werden eher wachsen als sinken. Aber diese Komplexität lässt sich beherrschen. Auch hier sind Orchestrierung und Automatisierung die zentralen Ansätze. Organisationen sollten daher besser heute als morgen damit beginnen, ihre Technologie, Architektur und Prozesse umfassend zu optimieren“, empfiehlt Zacher.

Standortnachteile bremsen Rechenzentren aus

Laut einem Bitkom-Papier sind Rechenzentren für die internationale Wettbewerbsfähigkeit und digitale Souveränität Deutschlands eine signifikante Schlüsselindustrie. Parallel dazu werden größere Rechenzentren gemäß IT-Sicherheitsgesetz als Kritische Infrastrukturen (Kritis) betrachtet. „Rechenzen-tren sind das Rückgrat der Digitalisierung und ein Grundpfeiler digitaler Souveränität. Um international faire Wettbewerbsbedingungen zu schaffen, sollten Rechenzentren in die Liste der stromkosten- oder handelsintensiven Branchen aufgenommen werden. Stromkosten machen oft mehr als 50 Prozent der Betriebskosten aus“, sagt Roman Bansen, Experte für IT-Infrastrukturen beim Bitkom.

Um die Wettbewerbsfähigkeit zu stärken und die digitale Souveränität zu sichern, gilt es deshalb nach Ansicht des Bitkom, die im europäischen und auch internationalen Umfeld besonders nachteiligen Rahmenbedingungen in Deutschland deutlich zu verbessern. Hierzu zählt insbesondere die Befreiung der Rechenzentren von der EEG-Umlage (EEG – Erneuerbare-Energien-Gesetz) und die Schaffung besserer Rahmenbedingungen zur Nutzung von Abwärme aus Rechenzentren.

Bildquelle: Getty Images / iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok