Revolution im Rechenzentrum

Das Ende des SAN?

Bereits vor einigen Jahren wurde das traditionelle Storage Area Network in Frage gestellt: Wegen einer zu geringen Ressourcen-Ausnutzung, der fehlenden Möglichkeit zur Priorisierung der Anwendungsperformance, langer Bereitstellungszeiten und steigender Kosten habe das SAN sein Versprechen nicht eingelöst.

Ein Software-Defined-Data-Center könnte dafür sorgen, dass das SAN in seiner traditionellen Ausprägung Geschichte wird.

Das Storage Area Network oder das alternativ eingesetzte Network Attached Storage (NAS) als Bindeglied zwischen virtualisierten Servern und dem zentralen Speichersystem machte das Management dieses Gebildes zu einer komplizierten Aufgabe und eine Skalierung war mit hohen Kosten verbunden. Wenn man sich als IT-Verantwortlicher für diesen Weg entschieden hatte, musste man eine grobe Vorstellung davon haben, wie das eigene Rechenzentrum in fünf Jahren auszusehen hat – und welchen Anforderungen es ausgesetzt sein würde.

Mittlerweile sprechen Experten von der „Virtualisierung 3.0“ – und haben diese dritte Stufe zum „Endspiel für das Rechenzentrum“ ausgerufen. Dabei geht es im Kern um die Konvergenz von Computing, Storage, Servern und dem Netzwerk insgesamt. Alles verschmilzt zu einer Einheit und der Weg dorthin führt über eine Lösung, in der Software die Hardware-Ressourcen exakt und dynamisch so zuteilt, wie sie benötigt werden – und zwar für alle Funktionen: Das vollständig Software-Defined-Data-Center mit der Integration aller Komponenten und SSD-Speicher direkt am Rechenkern wird immer mehr zur Realität.

Vorangegangen sind hierbei die ‚Großen Drei‘ im Internetgeschäft: Google, Amazon Web Services und Facebook. Sie haben in eigens entwickelten, proprietären Lösungen die vollständige Konvergenz der Computing- und Speicher-Ebenen konsequent umgesetzt: eine gänzlich verteilte Shared-Nothing-Software, der Einsatz von Commodity-Hardware und eine auf den Scale-Out, also die Erweiterung von Server-Infrastrukturen mit gleichartigen Servern, ausgerichtete Architektur. Das Schlüsselelement ist dabei die Management-Software. Sie hält dieses Konstrukt zusammen und aggregiert lokale Speicher. Durch diese „Hyper-Konvergenz“ werden Rechenzentren zuverlässiger und skalierbarer.

Katalysator Virtualisierung

Den Bedarf an solchen Lösungen verdeutlichen die Schwierigkeiten, die für viele Unternehmen bislang der Betrieb einer Virtual-Desktop-Infrastruktur (VDI) bedeutet hat. Dabei geht es um eine Struktur, in der virtualisierte Desktoprechner lokal an mehreren Standorten eines Unternehmens oder in einem zentralen Rechenzentrum gespeichert werden. Die Vorteile sind bekannt: Zentraler Zugriff für das Rechner-Management erleichtern Systemaktualisierungen und andere Wartungs- und Reparaturaufgaben, der User hat Zugriff auf seine gewohnte Oberfläche – auch von verschiedenen Geräten. Aber auch die Nachteile haben IT-Verantwortliche aus erster Hand erfahren müssen: Spitzenlasten durch eine hohe Zahl von Anfragen oder datenintensive Anfragen sorgen für Performance-Probleme und können das System insgesamt in die Knie zwingen. Darauf haben Unternehmen mit Aufrüstung der Server- und Storage-Plattformen regiert – und damit oftmals das Budget überzogen.

Es hat sich gezeigt, dass die Virtualisierung nicht nur den Bedarf, sondern auch die Struktur im Rechenzentrum verändert. Je mehr virtualisiert wird (Server, Netzwerk, Storage, Desktops) desto mehr wachsen die Anforderungen an die Infrastruktur: Sie muss dynamischer, skalierbarer und flexibler werden.

Nach dem Vorbild der Internet-Giganten

Moderne Lösungen von jungen Unternehmen wie dem 2009 gegründeten Start-Up Nutanix setzen genau hier an. Statt der bislang üblichen speziellen und teuren Hardware aus drei Kategorien – Server zum Rechnen, Storage zum Speichern von Daten und Netzwerkkomponenten um alles zu verbinden – werden diese Elemente nun in einer modular aufgebauten Anwendung kombiniert. Das Neue daran: die gesamte Infrastruktur rückt direkt an den Rechenkern und wird dynamisch.

Jedes der Module beherbergt vier Knotenpunkte, zu dem weitere einzelne Nodes zugeschaltet werden können, etwa wenn eine virtuelle Desktopinfrastruktur um 50 bis 100 Rechner auf einmal erweitert werden soll. Dieser modulare Aufbau ermöglicht eine schnelle Bereitstellung der erforderlichen Kapazitäten, standardisierte Managementprozesse und eine schnelle Problemlösung – bei Rechner- und Storage-Ressourcen. Und durch den Einsatz von vier Knotenpunkten steht immer ein Node zur Verfügung, der einspringen kann, falls ein anderer ausfällt – der Endanwender merkt dies an seinem Rechner ebenso wenig wie den „boot storm“, das Aufkommen an Anfragen, wenn beispielsweise in einem engen Zeitfenster zu Beginn des Arbeitstages 1.000 Rechner hochgefahren werden.

Damit können Unternehmen bis zu 60 Prozent ihrer operativen Kosten für den Betrieb ihrer Rechenzentren einsparen: Weniger Hardware erfordert weniger Platz, Strom und Kühlung. Der modulare Aufbau sorgt zudem dafür, dass Unternehmen auch mit einer kleinen, dafür aber flexiblen Lösung starten können. Stößt diese vollständig software-gesteuerte Infrastruktur an ihre Grenzen, kann sie beinahe stufenlos und in kurzer Zeit erweitert werden (Plug & Play). Dabei müssen Unternehmen nicht um den Wert bisher getätigter Investitionen fürchten: Die neuen Storage-Konzepte können schrittweise implementiert werden und müssen nicht auf einen Schlag die gesamte Rechenzentrumsinfrastruktur ablösen. Die Praxis zeigt: Der modulare Aufbau, der ein „pay as you grow“-Modell ermöglicht, überzeugt. Das schrittweise Vorgehen und kurze Installationszyklen – teilweise können zusätzliche Ressourcen innerhalb eines Tages bereitgestellt werden – führen dazu, dass Testprojekte bereits nach wenigen Tagen freigegeben werden, besonders dann, wenn der Serviceprovider eine gewisse Erfahrung mit converged systems vorweisen kann.

Mit dieser Technologie können Systemhäuser wie die Profi AG nicht nur Virtualisierungsprojekte mit mehreren zehntausend Workstations umsetzen, sondern auch für die Server virtualisieren oder Big-Data-Processing im mittelständischen Unternehmen implementieren.
Das Software-Defined-Data-Center könnte dafür sorgen, dass das SAN in seiner traditionellen Ausprägung Geschichte wird.



Tipps aus der Praxis  

  • Teile der IT-Infrastruktur identifizieren, in denen ein Pilotprojekt gestartet werden kann: ein neuer/kleiner Standort oder ein bestimmter Unternehmensbereich der virtualisiert werden soll.
  • Bei erfolgreichem Verlauf das Projekt schrittweise erweitern: Das kann die Umsetzung einer VDI in größerem Stil sein.
  • Den Hybrid-Betrieb von alter und neuer Infrastruktur nach und nach auflösen

 

Bildquelle: Thinkstock/ Digital Vision

 

 

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok