Jörg Eilenstein, Tim AG

Die Zukunft ist Virtualisierung

Interview mit Jörg Eilenstein, Vorstand der Tim AG in Wiesbaden, über neue Herausforderungen im Speicherumfeld – wie etwa Backup und Recovery von virtualisierten Umgebungen

  • Jörg Eilenstein, Tim AG

    Jörg Eilenstein ist Vorstand der Tim AG.

Seit der Gründung im Jahr 1985 ist die Tim AG auf den Bereich Datensicherung, Backup und Recovery sowie auf Speichermanagement spezialisiert. Mittlerweile beschäftigt der Value Added Distributor rund 120 Mitarbeiter am zentralen Standort in Wiesbaden. Von hier aus pflegt man nicht nur Partnerschaften mit führenden und Storage-Anbietern, sondern auch mit Systemhäusern in der ganzen Bundesrepublik.

Im Fokus der Tim AG stehen Hersteller und Systemhäuser. Mit dem Ende der 90er Jahre ins Leben gerufenen Programm „Storage Competence Partner“ bietet man aber auch den Anwendern – Großunternehmen wie Mittelständlern - eine Plattform, auf der sie passende Partner für ihre Speicherprojekte finden können. Welche Vorhaben dabei vorrangig auf der Agenda der IT-Verantwortlichen stehen, erklärt Jörg Eilenstein im Gespräch mit IT-DIRECTOR.

IT-DIRECTOR: Herr Eilenstein, wie hat sich Ihr Geschäftsmodell in den vergangenen Jahren gewandelt?
J. Eilenstein:
Historisch betrachtet haben wir mit Backup und Recovery begonnen. Ende der 90er Jahre erfolgte mit dem Aufkommen der Storage Area Networks die Trennung des „Primary Storage“ vom Server. Bis zu diesem Zeitpunkt kauften die Kunden ihre Speicherkapazitäten stets gemeinsam mit ihrem Server, da die Speicherplatten dort integriert waren. Gemeinhin sprach man hier vom sogenannten Direct Attached Storage, kurz DAS.

Mit dem Aufkommen der SANs entkoppelten sich die Speichersysteme von der Serverhardware, was das Storagemanagement zu einer eigenständigen und wichtigen IT-Disziplin machte. Nicht nur vor dem Hintergrund dieses Technologiewandels riefen wir das spezielle Partnerprogramm „Storage Competence Partner“ ins Leben. Denn damals wie heute spielt die Interoperabilität eine wichtige Rolle: Welche Speicherlösungen funktionieren mit welchen Switches, mit welchen Host-Bus-Adaptern und mit welcher Software? Wir treten den Beweis an, dass eine Speicherumgebung nicht aus der Hand eines einzigen Herstellers stammen muss, sondern dass die Kunden hier durchaus einen Best-of-Breed-Ansatz verfolgen können.

IT-DIRECTOR: Auch in virtualisierten Umgebungen?
J. Eilenstein:
Virtualisierung ist die Technologie, die heutzutage alles vorantreibt, gleichzeitig aber auch vielen Administratoren Bauchschmerzen bereitet. Beim Direct Attached Storage wussten sie immer, auf welchem Server bzw. auf welcher Platte ihre Daten liegen. Legen sie heute eine virtualisierte Schicht zum Beispiel unter ihre SAP-, Oracle- oder SQL-Server-Datenbanken, wissen sie dies nicht mehr genau.

Die Vorteile der Virtualisierung greifen, wenn beispielsweise heterogene Unix- und Windows-Umgebungen flexibel auf die jeweils freien Systemressourcen zugreifen können und damit eine opTIMale Speicherauslastung ermöglichen.

Ähnlich verhält es sich bei der Servervirtualisierung. Die Maschinen besitzen heute Multicore-Prozessoren, deren Performance es erlaubt, mehrere Applikationen auf einem Server zu betreiben. Zum Einsatz kommen dabei in der Regel die Virtualisierungslösungen der großen Anbieter VMware, Microsoft (Hyper V) oder Citrix (Xen Server).

IT-DIRECTOR: Welche Vorteile verspricht diese Vorgehensweise?
J. Eilenstein:
Installiert man auf einer physischen Maschine zehn oder zwanzig virtuelle Server, lastet man nicht nur seine Ressourcen besser aus, sondern reduziert auch den Energieverbrauch – insbesondere im Peripheriebereich, bei der Klimatisierung und bei der unterbrechungsfreien Stromversorgung (USV). Desweiteren benötigt man weniger Stellfläche im Rechenzentrum und kommt mit deutlich weniger Service- bzw. Wartungsdienstleistungen aus.

Neben der Server- und Speichervirtualisierung geht der Trend hin zum virtuellen Desktop – Stichwort Virtual Desktop Infrastructure (VDI). In diesem Zusammenhang arbeiten viele Unternehmen verstärkt mit Thin Clients, die deutlich weniger Strom verbrauchen als klassische Arbeitsplatzrechner.

Im nächsten Schritt steht die Virtualisierung des Netzwerks an – Stichwort Converged Network. Auf der einen Seite existiert das IP-basierte Ethernet für die Kommunikation zwischen Rechnerknoten bzw. einzelnen Clients, auf der anderen Seite gibt es mit dem SAN ein dediziertes Speichernetzwerk, das typischerweise auf Fiber-Channel-Technologie oder iSCSI basiert. Mit der Technologie Fiber Channel over Ethernet, kurz FCoE, kann das Netzwerk nun ebenfalls virtualisiert werden. Das heißt: Man versendet seine Speicherdaten getunnelt über das IP-Netz.

IT-DIRECTOR: Wie funktioniert dies genau?
J. Eilenstein:
Hinsichtlich der Kapazität gab es im Ethernet immer wieder Performancesprünge – von 1 auf 10 und nach der Roadmap von 10 auf 40 und von 40 auf 100 Gigabit/s. Die Fibre-Channel-Technologie liegt demgegenüber nur bei 8 bzw. künftig 16 Gigabit/s. Mit FCoE (Fibre Channel over Ethernet) könnte man das Fibre-Channel-Protokoll über das Ethernet tunneln.

Hier stellt sich allerdings die Frage, ob ein Unternehmen zukünftig überhaupt noch zwei Netzwerke aufbauen und administrieren muss, oder nicht gleich alles über ein Netz leitet. Denn aufgrund der hohen Durchsatzraten ist das Ethernet – im Gegensatz zu früher – kein Flaschenhals mehr. Basis für dieses Verfahren ist eine entsprechende Switch-Umgebung, die die Anbindung an Clients, Server oder den Speicherbereich ermöglicht.

IT-DIRECTOR: Lässt sich jede Applikation virtualisieren?
J. Eilenstein:
Nein. Es wird immer Anwendungen geben, die nicht standardisiert sind bzw. auf spezifischen Eigenentwicklungen basieren und sich deshalb nicht ohne weiteres virtualisieren lassen. Generell wird der Grad der Virtualisierung in Zukunft jedoch deutlich zunehmen. Dies bestätigt eine aktuelle Studie, die ermittelte, dass die Anzahl der virtuellen Maschinen mittlerweile die der physischen überholt hat. Allerdings glaube ich kaum, dass sich in den nächsten Jahren bereits komplett virtualisierte IT-Landschaften in Großunternehmen finden lassen.

IT-DIRECTOR: Wie sehen denn die Backup- und Recovery-Lösungen für virtuelle Umgebungen aus?
J. Eilenstein:
In der Regel fragen sich die Anwender sehr früh, mit welcher Software sie ihre virtuellen Maschinen am besten absichern können. Gerade wenn es um die Hochverfügbarkeit von Informationen geht, ist noch immenses Potential vorhanden.

Für uns sind Backup und Recovery untrennbar mit dem Speicherthema verbunden. Wenn unsere Kunden heute Storage-Konsolidierungsprojekte angehen, verändert sich nicht nur die Infrastruktur, sondern natürlich auch die Backup- und Recovery-Strategie. Generell gilt: Backup und Recovery müssen stets adäquat zur neuen Konsolidierungsumgebung aufgesetzt werden.

IT-DIRECTOR: Früher hat man die Server wahrscheinlich einfach gespiegelt?
J. Eilenstein:
Nicht unbedingt. Oftmals besaßen die Anwender Server mit angeschlossenem Storage und dahinter ein Bandlaufwerk, um das Gespeicherte nochmals zu sichern. Im Laufe der Zeit setzte sich das Verfahren durch, die Daten von mehreren Servern zentralisiert zu sichern – und zwar nicht auf Einzellaufwerken, sondern mit Automationssystemen für Bänder, Autoloader und Libraries. Aktuell geht der Trend hin zur Datensicherung auf Plattensystemen bzw. sogenannten Deduplizierungs-Appliances. Diese Methoden helfen, den Umgang mit der stetig steigenden Datenflut zu bewältigen.

IT-DIRECTOR: Von welchen Datenvolumina gehen Sie aus?
J. Eilenstein:
Das Datenwachstum wird in den Unternehmen kontinuierlich ansteigen.

Ob die Datenmenge in einem Unternehmen künftig um 50, 80,100 oder mehr Prozent anwachsen wird, hängt vom jeweiligen Geschäftstyp und von der Art der zu verwaltenden Informationen ab. Technologien wie Storage Virtualisierung, Datendeduplizierung, Hierarchisches Storage Management (HSM) und File-Virtualisierung werden in diesem Zusammenhang immer wichtiger.

IT-DIRECTOR: Wie funktioniert HSM?
J. Eilenstein:
Die Anwender nehmen eine Klassifizierung ihrer Speicherdaten vor, indem sie ihre File-Systeme mit Regelwerken versehen und dementsprechend verwalten. Eine Regel könnte dabei lauten: Alle Dateien, die älter als ein Monat sind oder die seit drei Monaten nicht mehr genutzt wurden, werden auf günstigere Speichermedien ausgelagert.

IT-DIRECTOR: Wobei man die Compliance-Vorgaben im Auge behalten muss?
J. Eilenstein:
Sicherlich, allerdings reicht ein HSM-Ansatz allein dafür nicht aus. Denn hierbei geht es alleine darum, die Daten sicher auszulagern. Bei einer revisionssicheren Ablage müssen die Daten aber nicht nur sicher, sondern auch unveränderbar abgelegt werden und das unter Berücksichtigung der entsprechenden Aufbewahrungsfristen

IT-DIRECTOR: Zurück zur Deduplizierung – inwiefern kann sie für eine Datenkomprimierung sorgen und das Speichern doppelter Inhalte vermeiden?
J. Eilenstein:
Deduplizierung sorgt genau dafür. Lösungen finden wir im Primär- als auch im Secondär-Storage.. Generell unterscheidet man beispielsweise im Backup Bereich zwischen „Source“ und „Target“ Deduplizierung. Source bedeutet, dass man die Datensicherungsdeduplizierung direkt am Client durchführt und die Daten bereits komprimiert über das Netzwerk an das Speichergerät – das Target – verschickt. Andere Systeme nehmen die Daten unkomprimiert über das Netzwerk auf und fungieren als Dedup-Appliance. Das heißt: Die Intelligenz steckt in der Hardware, die die Daten über einen Algorithmus dedupliziert und entsprechend auf der Platte abspeichert. Derzeit wird viel darüber diskutiert, welcher der beiden Ansätze der bessere ist.

Mitunter kommen in einem Unternehmen beide Ansätze parallel zum Tragen. Steht die Unternehmens-IT zentral in einem Rechenzentrum, liegen die Daten gemeinhin auch nur dort vor. Hierfür eignet sich eine Target-Lösung. Anders bei einem Unternehmen mit vielen Filialen und Standorten, die ihre Daten in die Zentrale senden. Hier ist die Kombination mit einer Source-Deduplizierung sinnvoll, damit für den Weg in die Zentrale geringere Bandbreiten ausreichen.

IT-DIRECTOR: Welche Speichertechnologien kommen heute vornehmlich zum Einsatz?
J. Eilenstein:
Im Primär-Storage werden FC- und SAS Platten für die I/O trächtigen Anforderungen und die SATA Platten für kapazitiven Anforderungen genutzt. Nicht immer ist diese Aufteilung praktikabel. Intelligente Lösungen, die beide Anforderungen kombiniert abdecken können, sind hier gefragt. Es zeichnet sich ab, dass zukünftig die SSD Platte an Boden gewinnen wird. Die Kombination aus SSD- und SATA Platten scheint aus heutiger Sicht für die Anforderungen hinsichtlich I/O und Kapazität optimal zu sein.

Für Backup und Recovery auf Tape-Lösungen ist die LTO Technologie heute führend. Wollen Kunden ihre großen Datenvolumina sichern, kommen sie an einer Deduplizierungs-Appliances nicht mehr vorbei. Diese können zum Teil als VTL sehr einfach in bestehende Datensicherungsumgebungen - als Ersatz oder Ablösung von Tape Libraries - integriert werden. Die Vorteile liegen auf der Hand: Mögliche Fehler am Bandmedium, am Laufwerk oder der Robotik sind damit ausgeschlossen und Backups können störungsfrei in den zur Verfügung stehenden Zeitfenstern laufen.

IT-DIRECTOR: Welche Managementebene trifft die Entscheidung über ein Speicherprojekt?
J. Eilenstein:
In der Vergangenheit musste die IT in vielen Unternehmen einfach nur funktionieren. Mittlerweile besitzt sie hingegen einen strategischen Stellenwert, unterstützt sämtliche Geschäftsprozesse und generiert dadurch auch klare Geschäftsvorteile.

Die Administratoren betreiben die IT, benötigen aber die Unterstützung der CIOs, wenn es um grundsätzliche Entscheidungen hinsichtlich Storage oder Backup und Recovery geht. Hier muss geprüft werden, was sich ein Unternehmen erlauben kann und was nicht: Wo entwickelt sich das eigene Geschäft hin und welche Anforderungen ergeben sich, basierend auf den Geschäftsprozessen, an die IT?

IT-DIRECTOR: Sprechen Sie selbst mit den CIOs?
J. Eilenstein:
Nein, wir agieren als Value Added Distributor. Dabei sind wir mit den Produkten der führenden Speicheranbietern unterwegs und unterstützen bundesweit Systemhauspartner – das heißt, die Spezialisten, die dann vor Ort beim Endkunden arbeiten.

Aufgrund der engen Zusammenarbeit mit den Storage-Herstellern verfolgen wir alle Technologie-Updates hautnah, sind für alle Produkte entsprechend zertifiziert und halten spezielle Professional-Service-Ressourcen vor. Mit dieser Kompetenz im Rücken fungieren wir für unsere Systemhauspartner sozusagen als ein „Storage Backoffice“. Als Value Added Distributor unterstützen wir Systemhauspartner dabei entsprechende Lösungsansätze für deren Endkunden zu entwickeln.

IT-DIRECTOR: Greift an dieser Stelle das eingangs erwähnte Konzept der Storage Competence Partner?
J. Eilenstein:
Ja. Dabei handelt es sich um eine bundesweite Kooperation von Systemhauspartnern, führenden Storage Anbietern und der Tim AG mit dem Ziel, den Anwendern als kompetenter Ansprechpartner für zum Thema Storage zur Verfügung zu stehen.

IT-DIRECTOR: Mit wie vielen Systemhäusern arbeiten Sie heute zusammen?
J. Eilenstein:
Wir arbeiten mit ca. 4.000 Systemhäusern in Deutschland zusammen. Unsere Partner weisen wir darauf hin, welche Technologien zu ihren Kunden passen, und leisten in den ersten Projekten technologische Unterstützung. Dabei sind unsere Mitarbeiter auch vor Ort beim Anwender unterwegs und geben Hilfestellung. Insgesamt beschäftigen wir heute mehr als 20 Mitarbeiter im Professional Service. In unserem letzten Geschäftsjahr haben wir über 60 Kundenveranstaltungen der Partner unterstützt , haben außerdem über 200 kostenfreie Presales-Termine begleitet und mehr als 500 kostenpflichtige Implementierungstermine wahrgenommen.

IT-DIRECTOR: Wie viele Partnerschaften pflegen Sie herstellerseitig?
J. Eilenstein:
Wir arbeiten derzeit mit zwölf Herstellern zusammen, nämlich CA, CommVault, EMC, Emulex, F5, Huawei Symantec, Isilon (EMC), NetApp, Overland Storage, QLogic, Quantum, Quest, und Symantec.

IT-DIRECTOR: Würden Sie mit weiteren Herstellern Partnerschaften eingehen?
J. Eilenstein:
Wir gehen immer wieder neue Partnerschaft ein, allein aufgrund der Konsolidierung im Speichermarkt.

IT-DIRECTOR: Welche Themen decken Sie mit den Partnerlösungen ab?
J. Eilenstein: 
Backup und Recovery, Konsolidierung und Virtualisierung, Hierachical Storage Management sowie Security und Hochverfügbarkeit.

Jörg Eilenstein
Alter: 46
Ausbildung: DV-Kaufmann
Werdegang: 1988 bis 1991 Softwareentwicklung bei CSE Software Ergonomic GmbH; 1991 bis 1999 Außendienst Mitarbeiter, Vertriebsleiter und Mitglied der Geschäftsleitung bei Tim
Derzeitige Position: seit Ende 1999 Mitglied des Vorstandes bei der Tim AG
Hobbys: Reisen, gutes Essen und guter Wein

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok