Herausforderungen für mittelständische IT-Abteilungen

Viele Wege zur Virtualisierung

Längst ist die Virtualisierung nicht mehr auf die Server im Rechenzentrum beschränkt, sondern betrifft auch Speicher, Desktops und das Netzwerk. Sie gilt als Grundvoraussetzung für den Einstieg in die Cloud-Welt. Für die IT im Mittelstand stehen damit Veränderungen ins Haus, die sowohl die IT selbst als auch die Qualifikation der Mitarbeiter in der IT-Abteilung betreffen.

Virtualisierung gilt zu Recht als eine Grundvoraussetzung für den Einstieg in die neue Welt des Cloud Computing.

Längst ist die Virtualisierung nicht mehr auf die Server im Rechenzentrum beschränkt, sondern betrifft auch Speicher, Desktops und das gesamte Netzwerk. Sie gilt zu Recht auch als eine Grundvoraussetzung für den Einstieg in die neue Welt des „Cloud Computing“. Außerdem kommt derzeit eine neue Generation vertikal integrierter Systeme unter Namen wie „Engineered“, „Converged“ oder „Unified Computing  Systems“ oder schlicht als „Pure Systems“ auf den Markt, die voll auf Virtualisierung setzen.

Für die IT im Mittelstand stehen damit große Veränderungen ins Haus, die sowohl die IT selbst als auch die Qualifikation der Mitarbeiter in der IT-Abteilung betreffen. Deshalb stellt sich die Frage, wo Mittelständler mit der Virtualisierung einer IT-Infrastruktur beginnen sollten.

„Bei der Server-Virtualisierung“, empfiehlt Scott Herold, Principal Product Manager beim Linux-Hersteller Red Hat. Sie sei nicht nur am weitesten entwickelt, sondern auch mit den wenigsten Risiken verbunden, denn Server-Workloads könnten ja nach einem individuellen Zeitplan auf eine Virtualisierungsplattform migriert werden.

Die Desktop-Virtualisierung dagegen erfordert wegen der unmittelbaren Auswirkungen auf die Endbenutzer umfangreiche und intensive Tests. „Bei Speicher und Netzwerken ist die Situation wegen der Abhängigkeit von den zu Grunde liegenden Infrastrukturkomponenten sehr komplex, denn diese Komponenten stellen nicht nur einzelne, leicht kontrollierbare Einheiten dar, sie bieten vielmehr Services für ein ganzes Rechenzentrum“, mahnt Herold.

Das sieht Viktor Hagen, Cloud Evangelist bei Cisco, völlig anders. Seiner Meinung nach kommt es vielmehr auf das Unternehmen und dessen individuelle Bedürfnisse an. „Sinnvoll ist Virtualisierung in der Regel in allen vier Bereichen“, meint Hagen. „Die Virtualisierung im Netzwerk ist schon länger üblich. Das Netz kann dabei um weitere virtualisierte Funktionen wie virtuelle Firewalls ergänzt werden. Damit lassen sich individuellere Anwendungsszenarien gestalten.“

Virtualisierung von Servern – gängige Praxis

Eine Virtualisierung von Servern hält auch Hagen meist für „relativ einfach“. Sie verspreche zudem den schnellsten ROI, denn damit ließen sich direkt Investitions- und Wartungskosten, Platz und Stromverbrauch einsparen. Die Speichervirtualisierung könne parallel erfolgen, da es sich hier um eigenständige Systeme handelt. Dieser Zusammenschluss ergibt dann laut Hagen weitere Synergien, die sich zum Beispiel auf die Anwendungsperformance positiv auswirke. „Desktopvirtualisierung erfolgt in einer gewachsenen Umgebung eher als letzter Schritt“, so Hagen weiter – „außer bei einem direkten Umstieg durch den Einsatz einer Converged Infrastruktur“.

Auch Frank Kölmel, Senior Director für die Region EMEA-Central bei Brocade, macht die Vorgehensweise von den Prioritäten des Unternehmens abhängig, „also beispielsweise von den Unternehmenszielen, aber auch davon, wie die bestehende Infrastruktur aussieht“. Auch Kölmel würde zunächst über eine Virtualisierung von Servern nachdenken. Er glaubt aber auch, „dass virtualisierte Netze aufgrund der geringeren Betriebskosten sowie des niedrigeren Administrations- und Wartungsaufwandes für mittelständische Unternehmen immer interessanter werden. Vor allem für Unternehmen, die expandieren, bieten virtualisierte Netze eine Reihe von Vorteilen.“

Storage-Virtualisierung – der zweite logische Schritt

Die geradzu offensichtlichen Vorteile der Server-Virtualisierung sind oft der Auslöser für umfassende Virtualisierungsprojekte. „Wenn in der Planung die Shared-Storage-Anforderungen und die damit verbundenen Kosten betrachtet werden, ist die Storage-Virtualisierung eigentlich zwangläufig der nächste logische Schritt“, meint Stefan von Dreusche, Director Central Europe bei Datacore Software. Treiber seien Effizienzsteigerungen und Kostensenkung – und hier biete der Speicher enormes Potential.

„Der Speicher war lange Zeit fest in den Händen der Hardware-Hersteller, die Kunden mit unflexiblen Lösungen zu hohen Preisen binden konnten“, kritisiert von Dreusche. Die Storage-Virtualisierung und damit einhergehende „Software defined Storage“-Lösungen ändern das nun. So ergab eine Umfrage unter Verantwortlichen aus dem Mittelstand, dass fast die Hälfte durch die problematische Migration zwischen Speichermodellen und -generationen daran gehindert werden, auf günstigere Storage-Hardware umzusteigen.

„Diese Probleme werden alle durch Storage-Virtualisierung gelöst“, betont von Dreusche. Ein alternativer Einstieg auch für den kleinen Mittelstand sei das „virtuelle SAN“. Dort werden nicht Komponenten des „Storage Area Network“ (SAN) virtualisiert, sondern herkömmlicher lokaler Speicher in den Applikationsservern gebündelt (‚Pooling’) und mit Funktionen eines zentralen SAN-Storage ausgestattet. Der Vorteil: Unternehmen oder Abteilungen müssen zunächst nicht in eine kostspielige SAN-Hardware investieren. Wichtig ist allerdings, dass ein solches VSAN skalierbar ist und einen Wachstumspfad für mehr Kapazität und Leistung bietet, denn diese Anforderungen kommen bestimmt.

„Unternehmen sollten mit der Virtualisierung der Server beginnen“, schlägt Herbert Bild, Solution Marketing Manager beim Speicherhersteller Netapp in die gleiche Kerbe wie seine Kollegen. Er ist allerdings davon überzeugt, dass die meisten Mittelständler damit schon begonnen haben.

Was danach kommt, ist aus Bilds Sicht „ganz klar“ der Speicher, denn ein umfassend virtualisierter Storage bringe speziell auch dem Mittelstand viele Vorteile. „Mittelständler können ihre Daten einfach und ohne Betriebsunterbrechung sowohl horizontal als auch vertikal skalieren“, verweist er auf Einstiegslösungen, die heute in diesem Segment alle Funktionen von Enterprise-Lösungen bieten und das Management erheblich vereinfachen.

Adam Hufnagel, Business Development Manager für die Bereiche Data Center und Application Delivery bei Controlware, unterscheidet zwischen etablierten Technologien (Server und Storage), aktuellen Technologie-Trends (Desktop-Virtualisierung) und neuen Technologien (Netzwerk-Virtualisierung interpretiert als „Software Defined Network“).

„Nahezu alle Unternehmen setzen bereits Server-Virtualisierung in unterschiedlichen Ausbaustufen zwischen 20 bis 95 Prozent ein“, beobachtet Hufnagel – und zwar teilweise „bereits seit einigen Jahren“. Desktop-Virtualisierung im eigentlichen Sinne werde bisher hauptsächlich in speziellen Umgebungen eingesetzt, „Software Defined Network“ dagegen sei erst im Stadium der ersten herstellerspezifischen Teil-Lösungen. Die logische Vorgehensweise für Unternehmen, die noch gar keine Virtualisierung einsetzen, ergibt sich laut Hufnagel aus diesem Reifegrad der Technologien.

Johannes Horneck, Business Development Manager Datacenter Solutions bei HP, rückt die Ziele mit der Virtualisierung in den Vordergrund. Ein Ziel könne die Optimierung der IT sein, weil sowohl die Auslastung der Infrastruktur als auch ihre Verfügbarkeit verbessert werde. „Eine effizientere Infrastruktur zusammen mit einem aktualisierten, ganzheitlichen Betriebskonzept kann zudem den Administrationsaufwand für den Betrieb senken“, sagt Horneck. „Virtualisierung kann zudem die Bereitstellungszeiten für neue Dienste senken. Indem Unternehmen ihre Daten zentralisieren, können sie diese zudem effizienter nutzen und deren Sicherheit verbessern.“

Wenn Unternehmen eines oder mehrere dieser Ziele verfolgen, hält es Horneck für ratsam, die zentrale IT ganzheitlich zu modernisieren – auf einen Rutsch oder phasenweise. Letzten Endes laufe das auf die Virtualisierung von Server, Speicher und Netzwerk hinaus. „Viele Mittelständler haben hier bereits ein sehr gutes Niveau erreicht und gehen jetzt die Desktop-Virtualisierung an“, so Horneck weiter. „Das bietet Vorteile gerade für Entwicklungsumgebungen, denn dadurch wird es möglich, Grafikkarten als Coprozessoren zu verwenden und so die Kronjuwelen – die Entwicklungsdaten – zentralisiert zu sichern.“

Konsolidierung Hand in Hand mit Virtualisierung

Auch für Ronny Zimmermann, Sprecher der DSAG-Arbeitsgruppe „Virtualisierung & Cloud Computing“, hängt das adäquate Vorgehen bei solchen Projekten von den Zielen ab, die mit einer virtualisierten Infrastruktur erreicht werden sollen. Daraus leite sich eine Virtualisierungsstrategie ab, die alle Komponenten der IT-Landschaft umfassen sollte. „Aus der Strategie folgt eine konkrete Planung für die Umsetzung der einzelnen Maßnahmen“, so Zimmermann. „Im Idealfall nutzt man das Gesamtprojekt auch, um vor oder mit der eigentlichen Virtualisierung eine Konsolidierung der eigenen IT-Landschaft durchzuführen.“

Bei der Umsetzung der Virtualisierung würde auch Zimmermann klassisch mit den Servern beginnen, was mit einer Virtualisierung, zumindest des Server-nahen, Netzwerks einhergehen sollte. „Die Desktop-Virtualisierung setzt eine virtuelle Infrastruktur voraus und kann daher erst in einem zweiten Schritt erfolgen“, gibt Zimmermann zu bedenken. „Sie bringt auch noch einmal neue und andere Herausforderungen mit sich und setzt, aus der Erfahrung heraus, eine gewisses Know-how in der Virtualisierung voraus.“

Das sieht Dr. Frank Lampe, Marketing Director beim Thin-Client-Hersteller Igel Technology, natürlich anders. Virtualisierung der Server sei heute Standard und lohne sich immer. „Netzwerke und Speicher zu virtualisieren lohnt sich erst ab bestimmten Größenordnungen und ist auch nicht so ganz trivial“, so Lampe. Desktops zu Virtualisieren sei dagegen einfacher und bringe „neben der Zentralisierung und Standardisierung von Betriebssystemen und Applikationen auch Zeit- und Kosteneinsparungen im Bereich Support“. 




Umfrage

Mehr als 60 Prozent der IT-Leiter wollen ihre IT-Infrastruktur umbauen, ergab eine aktuelle Umfrage des Mannheimer IBM-Partners Cema – damit sie Anwendungen schneller, flexibler und kostengünstiger bereit stellen können. Dabei bezieht aber nur jeder Dritte bereits Cloud-Services mit ein. Knapp die Hälfte der befragten IT-Leiter (48 Prozent) sieht in mobilen Lösungen einen Treiber für innovative Geschäftsmodelle sowie für eine höhere Effizienz und Zufriedenheit der Mitarbeiter. Diesem Potential an gesteigerter Wertschöpfung stehen jedoch neue Anforderungen gegenüber, die mit zusätzlichen Kosten und Risiken verbunden sind.

„Die IT-Leiter befinden sich in einem Spannungsdreieck aus Zeit, Kosten und Nutzen. Damit sie Innovationsprojekte zeitnah und wirtschaftlich umsetzen können, müssen sie in der Lage sein, den laufenden IT-Betrieb mit der gleichen Manpower effizienter zu managen“, erklärt Cema-Vorstand Rolf Braun. Vor diesem Hintergrund sei für 82 Prozent der Aufbau einer dynamischen Infrastruktur unverzichtbar. Während 20 Prozent ihre IT-Infrastruktur bereits modernisiert haben, planen 62 Prozent der befragten IT-Manager dies innerhalb der kommenden zwölf Monate.

Ein wichtiger Schritt auf diesem Weg ist die Virtualisierung. So setzen 79 Prozent der IT-Verantwortlichen auf virtualisierte Anwendungen. 49 Prozent der Unternehmen haben dieses Thema, etwa in Form einer privaten Cloud, schon angepackt; weitere 30 Prozent planen Projekte in diesem Bereich. Denn virtualisiert lassen sich Software und Applikationen kurzfristig und kostenoptimiert auf Clients bringen, überwachen und betreiben. 
www.cema.de


Bildquelle: © Thinkstock/iStockphoto

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok