Alexander Hartmann, Frank Mevert von Sysback

„Die Gigabyte-Preise sind weiter im ungebremsten Sturzflug!“

Im Gespräch mit Sysback-Vorstand Alexander Hartmann (li.) und Frank Mevert, Vertriebsleiter Nord

Alexander Hartmann (li.) und Frank Mevert

Die Datenflut steigt schneller denn je – und damit wachsen die Anforderungen an Speicherkapazität und -management in den Rechenzentren. Im Jahr 2015 werden 39 Mrd. Dollar weltweit in Backup-Lösungen investiert, prophezeien die Marktforscher von ABI Research. 2009 waren es 24,3 Mrd. Dollar.
Katastrophen wie 9/11 oder Fukushima sorgen dafür, dass Unternehmer ihre IT-Strategien überdenken und verstärkt in die Sicherstellung des laufenden Betriebs investieren.

Vorher galten Totalverluste der IT als unwahrscheinlich – und unter dieser Prämisse waren auch die Hochverfügbarkeitskonzepte eher provisorisch. Jetzt werden auf IT-Seite Vorkehrungen auch gegen sehr große Katastrophen getroffen, die ein Rechenzentrum und damit große Teile des „geistigen Eigentums“ des Unternehmens komplett auslöschen könnten.

Die rasanten Fortschritte bei der Speichertechnik helfen nicht nur, die steigende Datenflut zu bewältigen, sondern erlauben auch neue Konzepte bei Bac­k­up und Recovery. Die Rede ist von Virtual Tape Systems, also der Emulation von Magnetbandlaufwerken durch schnelle Plattenspeicher. Dazu kommen Turbotechnologien wie große Cache-Speicher oder Solid State Disk (SSD).

Nicht zu vergessen ist das gute alte Magnetband, das im Standard Linear Tape Open (LTO) in der fünften Generation marktreif ist. Nicht zu Unrecht verweist das LTO-Konsortium, hinter dem die drei Hersteller HP, IBM und Quantum stehen, jetzt auf zwei aktuelle Studien, die deutliche Vorteile des Magnetbands gegenüber der Magnetplatte bei der langfristigen Archivierung aufzeigen.

Vor diesem Hintergrund sprachen wir mit den beiden Sysback-Experten Alexander Hartmann und Frank Mevert über die Modernisierung und Konsolidierung der Speicherinfrastrukturen mittelständischer Unternehmen.

Herr Hartmann, was sind typische Auslöser für Projekte zur Modernisierung der Rechenzentren mittelständischer IBM-Anwender?
Alexander Hartmann:
Die treibenden Kräfte sind Kosten und Verfügbarkeit. Vor allem aber muss das RZ auf Anforderungen aus dem Fachbereich kurzfristig reagieren können. Die Fachbereiche fordern von ihrer IT-Abteilung, schneller zu werden, so dass sie mit neuen Applikationen oder Angeboten in kürzester Zeit am Markt sein können. „Time to market“ ist heute ganz entscheidend für den Geschäftserfolg – und deshalb auch für die IT.

Frank Mevert: Darüber hinaus gibt es ur­eigene Themen des IT-Chefs, wie Effizienz und „Green IT“, die Auslöser einer Modernisierung sein können. Viele IT-Leiter, gerade im Mittelstand, suchen Wege, wie sie ihren Beitrag zum Sparen, das seit der Wirtschaftskrise 2009 in vielen Unternehmen groß­geschrieben wird, erbringen können.

Wie viel kann man durch Modernisierung sparen? Da sind doch Investitionen nötig ...
Hartmann:
Die konkrete Ersparnis hängt im Einzelfall von den Prozessen ab, die dahinter stehen. Generell lässt sich sagen, dass mit ­jedem Technologiezyklus auch Funktionalitäten hinzukommen, die den Betrieb erleichtern. Außerdem sind neue Geräte im Regelfall günstiger in der Wartung.

Last, but not least ist im Speichermarkt der ­Gigabyte-Preis weiter unter Druck. Das macht uns zwar als Anbieter das Leben schwer, erfreut aber den IT-Leiter, unseren Kunden. Wenn die Modernisierung nicht nur technisch, sondern auch kaufmännisch richtig positioniert ist, rechnet sie sich in jedem Fall.

Was meinen Sie mit richtig positioniert?
Hartmann:
Die kaufmännische Nutzungsdauer muss dem technischen Lebenszyklus angepasst sein. Nur dann kann unser Kunde die geplanten Ersparnisse auch wirklich einfahren.

Wie lang ist denn heute die Nutzungsdauer eines Speichersystems?
Hartmann:
Dafür gibt es klare Regelungen der Oberfinanzdirektion, die leider nicht immer praxisgerecht sind. In der RZ-Praxis kann ein Speicher im Regelfall drei bis fünf Jahre effizient genutzt werden. Wenn der IT-Chef das berücksichtigt, hat er am Ende der realen Nutzungsdauer keine Restwerte mehr in den Büchern stehen und kann ohne Sonderabschreibungen Neuanschaffungen vornehmen. Dann ist die Modernisierung auch kaufmännisch richtig positioniert.

Mevert: Natürlich sind die Server und Speicher so zu planen, dass sie mit der Konfiguration für die geplante Nutzungsdauer über die Runden kommen. Das ist angesichts der schon sprichwörtlichen Datenflut leichter gesagt als getan und vor allem dann eine echte Herausforderung, wenn ein Unternehmen dezentral aufgestellt ist. Hier können jedoch innovative Technologien helfen.

Was genau kann denn dank Modernisierung im RZ effizienter werden?
Hartmann:
Durch Konsolidierung mehrerer Speicher auf ein größeres Gerät sind Skaleneffekte möglich. Virtualisierung sorgt für mehr Flexibilität bei der Bereitstellung von Speicherressourcen und beim Betrieb. Und das Plus an Funktionalität, das in der Regel mit jeder neuen Produktgeneration hinzukommt, macht neue, schlankere Prozesse im RZ möglich und damit den Betrieb effizienter.

Mevert: Denken Sie zum Beispiel an den K-Fall: da muss das Backup-RZ die Aufgaben des Produktions-RZ übernehmen. Unterstützt die Storage-Infrastruktur keinen virtuellen Failover, müssen die Systeme im Backup-RZ manuell gestartet werden. Das bedeutet ­höheren Personalaufwand und größere Fehlerwahrscheinlichkeit beim Wiederanlauf – und damit im Endeffekt eine längere Ausfallzeit der IT. Wie viel diese längere Ausfallzeit das Unternehmen kostet, weiß der IT-Chef für sein Unternehmen sehr genau.

Effizienzgewinne werden durch die Fortschritte bei den Speichertechnologien möglich. Welche innovativen Technologien können Sie guten Gewissens empfehlen – und bei welchen raten Sie noch zum Abwarten?
Mevert:
Brandaktuell ist das Thema „Daten in der Cloud“. Hier kommt auch das Thema Sicherheit ins Spiel – und es stellen sich Fragen wie: Wo genau liegen meine Daten? Übertrieben gesagt: Sind die Daten sicher in Deutschland oder ungeschützt in einer instabilen Region zum Beispiel außerhalb Euro­pas? Hier gibt es von Seiten der Kunden unbedingten Klärungsbedarf mit dem Cloud-Anbieter.

Microsoft etwa hat bereits eine riesige Cloud in Irland aufgebaut, für Office 365 oder für Dynamics CRM. Hier gibt es schon aus rechtlichen Gründen Vorbehalte, da längst nicht alle Daten eines deutschen Unternehmens ins Ausland gebracht werden dürfen. Der Speicherplatz in der Cloud muss sozusagen auch politisch stabil sein, denn kein Unternehmen will eines Tages seine ­Finanzbuchhaltung im Internet wiederfinden – oder seine Konstruktionsdaten bei der Konkurrenz.

Stichwort SSD: Ist diese Technik ausgereift?
Mevert:
Wir haben mit den schnellen Halbleiterplatten – Solid State Disks – im Umfeld der Power-Systeme bereits sehr gute Erfahrungen gemacht, sowohl mit dem Betriebssystem IBM i bzw. OS/400 als auch mit AIX. Mit Power i konnten wir sehr große Effizienz- und Performance-Gewinne erreichen, beispielsweise durch die Verlagerung des Datenbankindexes auf eine SSD. Diese Verlagerung wird durch die aktuelle Betriebssystemversion i 7.1 unterstützt, was den Aufbau einer Speicherhierarchie bzw. eines „Tiered Storage“ auch im Umfeld des Midrange-­Systems möglich und sinnvoll macht. Massendaten bleiben auf einfachen Plattenspeichern, „Hot Spots“ kommen auf die schnellen SSDs.

Hartmann: Bei all den guten Resultaten darf man aber eines nicht vergessen: Es gibt wenig Langzeiterfahrung mit der heutigen SSD, z.B. hinsichtlich ihrer Haltbarkeit oder Zuverlässigkeit. Wir arbeiten deshalb in diesem Bereich ausschließlich mit marktführenden Herstellern zusammen, die auch im vierten oder fünften Jahr der Nutzung etwaige Produktprobleme ohne Stress abfangen können.

Außerdem ist die Beratung im Vorfeld nicht zu vernachlässigen, denn bei einem Kunden kann ein Hinzufügen von 2,5 Prozent SSD-Kapazität in seine Plattenlandschaft den gewünschten Performance-Gewinn bringen, beim anderen dagegen müssen es zehn Prozent sein. Die Technologie an sich ist nur das Trägermedium; erst durch eine kompetente Beratung ergibt sich die passende Lösung.

Stichwort Virtual Tape: Schnelle Backups auf Magnetplatte sparen Zeit – auch bei der Recovery. Wann ist Virtual Tape eine praktikable Lösung?
Mevert:
Im Umfeld von IBM i gibt es aus ­unserer Sicht zwei Hersteller, die den Ton angeben: Die Firma Crossroads und IBM mit ­ihren 7510- und 7520-Modellen bieten mittelstandsgerechte Lösungen. Damit lassen sich sogar die WORM-Funktionen der optischen IBM-3995-Jukeboxen abbilden, so dass deren Ablösung technisch nichts mehr im Wege steht. Es ist durchaus sinnvoll, in komplexen LPAR-Landschaften bzw. virtualisierten Power-Umgebungen mit Virtuellen Tape Libraries (VTLs) zu sichern – insbesondere „kleine LPARs“.

Ist VTL eine Zwischenlösung, um später doch auf Band zu sichern?
Hartmann:
Um die klassische Sicherung auf Magnetband kommt man heute aus wirtschaftlichen Gründen nicht herum. Dafür spricht allein schon die Notwendigkeit der Langzeitarchivierung; viele Dokumente müssen ja aufgrund gesetzlicher Bestimmungen über Jahre hinweg aufgehoben werden.

Mevert: Langzeitarchivierung ist heute ein klares Argument für den Magnetband-Standard Linear Tape Open (LTO), nicht zuletzt wegen der Rückwärtskompatibilität der aktuellen Generation LTO 5 zu LTO 4. Zumal seit LTO 3 auch die WORM-Funktionalität für das Magnetband gegeben ist.

Stichwort LTO 5: Ist die letztes Jahr ein­geführte Technik schon reif für die Praxis?
Mevert:
LTO 5 ist heute Standard im Mittelstand, zumindest bei Modernisierungsprojekten. Auch bei den großen 3500-Bibliotheken der IBM kaufen unsere Kunden heute aufgrund der höheren Performance überwiegend LTO-5-Laufwerke. Wir machen damit gute Erfahrungen, auch in puncto Zuverlässigkeit.

Gibt es bei der Langzeitarchivierung überhaupt noch Alternativen zum Magnetband?
Mevert:
Das Band ist sicher eine kostengünstige und zuverlässige Option als Massen­speicher für Backup und Archivierung. Als Alternative sehe ich eigentlich nur die Magnetplatte, etwa von Netapp. Dieser Hersteller hat wunderbare Archivierungsfunktionen in seinen Plattenspeicher implementiert, die allerdings beratungsintensiv sind. Es stellen sich Fragen wie: Wann werden die Daten benötigt und wie oft? Macht ein „Tiered Storage“ Sinn oder lasse ich alle Daten besser online?

Hartmann: Pauschal lässt sich Ihre Frage nicht beantworten. In Bezug auf die Einhaltung von Compliance-Richtlinien zum Beispiel gibt es unterschiedliche Antworten, auch von ­Netapp. Über Archivierung mit dem Virtual Tape System, bekannt unter VTS, heute TS7740, sprechen wir schon seit vielen Jahren und benutzen dieses System zum Beispiel für die Langzeit-Dokumentenarchivierung.

Die TS7740 verhält sich wie ein Bandlaufwerk, ist tatsächlich aber eine Mischung aus Platten-Cache und klassischem Bandlaufwerk und verlagert selbsttätig die Daten von teuerem Platten-Cache auf Bänder. Band bleibt nach wie vor die kostengünstigste Speichertechnik, denn sie kommt ohne Stromkosten aus. Deshalb kann man Bänder problemlos in einen Tresor packen, ein nicht zu unterschätzender Vorteil bei der Offsite-Datensicherung.

Inwiefern kommt es bei der Modernisierung des Speichers auf die vorhandenen Server an?
Mevert:
Gerade IBM i unterscheidet sich durch die Blockgröße – Fixed Block, 520 Byte – von allen anderen gängigen Serverplattformen. Deshalb wird es immer schwierig, wenn in der Speicherinfrastruktur Produkte anderer Hersteller zum Einsatz kommen sollen. Man muss also unbedingt auf die Roadmap dieser Hersteller achten, denn die Performance steht in unmittelbarem Zusammenhang mit Storage-Größe und hat Einfluss auf Backup und Recovery.

EMC etwa hat doch die IBM-Schnittstellen lizenziert. Das müsste doch klappen ...
Mevert:
Ja, EMC kann das ebenfalls. Allgemein gesprochen gibt es bei kompatiblen Speichern aber immer die Frage des Supports – und des Tempos, mit dem der Hersteller neue Betriebssystem-Releases und Hardwarearchitekturen von IBM unterstützt. Da gibt es oft einen Zeitversatz; hier haben wir schon einschlägige Erfahrungen gesammelt.

Die Modernisierung kostet Geld. Wie macht sie sich bezahlt?
Hartmann:
Generell stellt sich nicht die Frage des Invests, sondern des Nutzens. Beschränkt man sich auf die reine Hardware, ist das trivial. Da geht es, wie gesagt, um Kosten pro Gigabyte und für Wartungsaufwand sowie um Einsparungen bei Stellflächen, Energieverbrauch und Kühlung bzw. Rückkühlung. Dafür haben wir Modellrechnungen und Erfahrungswerte und beraten unsere Kunden unter anderem mit Thermal-Analysen.

Mit Blick auf den CO2-Footprint des RZ haben wir darüber hinaus einen zertifizierten Beratungsansatz namens Sysgreen entwickelt, der in acht Phasen die Energieeffizienz verbessert. Dabei analysieren wir ein Unternehmen Schritt für Schritt, z.B. hinsichtlich bestehender Energielieferverträge, baulicher Beschaffenheit des Rechenzentrums und eben auch verwendeter Technologien. Am Ende der Analyse werden die Einsparpotentiale deutlich.

Mevert: Dabei berufen wir uns auf unsere ­Expertise im Bereich Optimierung von Betriebsprozessen und auf unsere Erfahrung in deren monetärer Bewertung. Sobald die Prozesslandschaft steht, ergänzen wir mit den passenden Prokukten und Lösungen für Server und Storage.

Gibt es Kunden, die im RZ so gut sind, dass Sie sich Prozessanalysen sparen können?
Hartmann:
Offen gesagt finden wir bei der Mehrzahl unserer Kunden einen Optimierungsbedarf. Wir halten das für normal, denn Unternehmen legen in expansiven Phasen häufig weniger Wert auf Effizienz und wollen Aufgaben kurzfristig lösen. In der anschließenden Konsolidierungsphase, wie wir sie im Zuge der Wirtschaftskrise gerade erlebt haben, steht dann wieder die Effizienz im Vordergrund. Derzeit prüfen viele IT-Chefs wieder ihre IT-Systeme und -Prozesse und klopfen die neuen Speichertechnologien daraufhin ab, wie sich die Betriebsprozesse damit optimieren lassen.

Ist denn Green IT überhaupt ein Thema für den IT-Leiter?
Hartmann:
Bei IT-Leitern von kleinen und mittleren Unternehmen sicher nicht. Wer zehn oder 20 teilweise virtualisierte Server betreibt, für den rechnen sich solche Ansätze selten. Bei großen Unternehmen ­jedoch ist Green IT im Sinne von Energie-Audit und -Effizienz durchaus ein Thema, nicht nur unter dem Aspekt Kosten, sondern auch aus Imagegründen. Den IT-Chef eines Großunternehmens interessiert jedoch der Stromverbrauch meistens weniger, denn die Stromkosten laufen ja meistens über das Budget der Gebäudeverwaltung oder der Haustechnik.

Mevert: Die Geschäftsführung von mittelständischen Unternehmen interessiert sich aber durchaus für Green IT, wenn auch vor allem wegen der möglichen Kosteneinsparungen.
Solche Firmen sind meist inhabergeführt und haben in der Regel die Wirtschaftlichkeit des gesamten Unternehmens im Blick. Wenn sich mit Green IT Geld sparen lässt, wird der IT-Leiter den IT-Betrieb entsprechend aufsetzen.

Abschließend ein Blick in die Zukunft: Wie schätzen Sie die Auswirkungen der neuen Technologie des „Cloud Computing“ auf die Speicherinfrastruktur im Mittelstand ein?
Hartmann:
Mit Cloud Computing rollt wieder eine größere Welle auf uns zu – ähnlich wie beim Thema eBusiness Ende der 90er- Jahre. Da ist viel Marketing dabei, aber eben auch viel Technik. Wer hätte damals schon die Entwicklung des Internets und seiner Anwendungen, wie wir sie heute kennen und schätzen, vorausgesehen?

Auf Dauer wird sich mit Cloud Computing die gesamte IT-Landschaft grundlegend verändern. Für unsere Kunden heißt das: Sie sollten die Prozesse ihrer IT gemäß aktuellen Standards wie ITIL so sauber und effizient gestaltet haben, damit sie relativ schnell auf Veränderungen reagieren können. Denn machen wir uns nichts vor: diese Veränderungen werden nicht vom IT-Chef initiiert, sondern von den Fachabteilungen, der Geschäftsleitung und vor allem vom Markt. Da muss das ein oder andere Unternehmen umdenken.
Mevert: Saubere Prozesse braucht der IT-Chef schon aus Eigeninteresse. Allein schon, um kurzfristig entscheiden zu können, ob er einen Service intern selbst erbringt oder extern in der Cloud einkauft.

Wofür kann ein Mittelständer Cloud Computing heute schon sinnvoll nutzen?
Mevert:
Bei OS/400-Anwendungen ist Cloud Computing heute noch eine Herausforderung; hier sprechen wir von der Übernahme bestimmter Betriebsleistungen durch einen Provider. Das ist einfach zu realisieren, wenn die Prozesse stimmen; das ist die grundlegende Bedingung dafür, Cloud-Services überhaupt nutzen zu können.

Generell hängt es davon ab, welche Anwendungen ein mittelständisches Unternehmen überhaupt nach außen an einen Provider geben kann und will. Der Mittelstand lagert vorwiegend Mail- und Webserver an einen Betreiber, der auch Cloud-Services anbietet, aus. Um hier von Cloud Computing zu sprechen, bedarf es standardisierter Anwendungen. Beim Auslagern individualisierter Anwendungen sprechen wir nur von Outtasking einer Betriebsleistung oder schlicht von Hosting.

Hartmann: Sinn macht z.B. eine „Testing Cloud“; so können für umfassende Softwaretests kurzfristig temporäre Ressourcen beschafft werden – on demand. Cloud Computing ist für uns ein tolles Thema. Wir sind froh darüber, ein Teil davon sein zu dürfen.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok