Hans Schramm, Dell

Virtualisierung als gute Basis für Cloud Computing

Interview mit Hans Schramm, Field Product Manager Large Enterprise bei Dell in Frankfurt am Main

Hans Schramm, Dell

Hans Schramm, Field Product Manager Large Enterprise bei Dell

IT-DIRECTOR: Inwiefern haben aktuelle Technologien wie Virtualisierung und Cloud Computing den Markt für Speicherlösungen verändert?
H. Schramm: Viele Unternehmen haben in den letzten Jahren positive Erfahrungen mit der Virtualisierung von Servern gesammelt. Sie wissen in der Zwischenzeit aber auch, dass es durch die Virtualisierung der Speichersysteme noch mehr Potential zu erschließen gibt. Erst damit sind ganzheitliche Lösungen möglich, die gleichzeitig die Startrampe für den Übergang zum Cloud Computing bilden. Wer Server und Storage virtualisiert, verfügt über eine gute Ausgangsbasis für Cloud Computing.

IT-DIRECTOR: Hinsichtlich sogenannter „Big Data“ gehen Experten in den nächsten Jahren von einem Datenwachstum bis in den Exa- und Zettabyte-Bereich aus. Welche Anforderungen stellt dieses Wachstum künftig an die Speicherinfrastruktur?
H. Schramm: Klassifizierung, besser gesagt automatisierte Datenklassifizierung, wird das Schlüsselwort der Zukunft sein. Nicht alle Daten sind gleich, es gibt „wichtige“ und „weniger wichtige“. Schon heute sind zirka 70 Prozent der in den Unternehmen vorhandenen Daten inaktiv, das heißt, auf sie wird nicht oder nur in geringem Maße zugegriffen. Umso entscheidender ist es, nur die wichtigen Daten auf kleinen, schnellen und damit teuren Platten zu halten. Die weniger wichtigen liegen dann auf großen, aber günstigen Platten. Die Erfahrung von Kunden, die eine solche Klassifizierung bereits einsetzen, ist die, dass bei einer anstehenden Kapazitätserweiterung in der Regel nur die großen und günstigen Platten nachgerüstet werden, sehr selten dagegen die teuren schnellen Platten. Eine weitere Waffe im Kampf gegen „Big Data“ könnte auch das Thema Deduplizierung werden, wobei das bei den Primärspeichern eine sehr spannende Angelegenheit ist.

IT-DIRECTOR: Mit welchen Speicherkonzepten können Unternehmen diese Datenflut am besten in den Griff bekommen?
H. Schramm: Vor allem inaktive Daten haben auf schnellen und damit teureren Platten nichts zu suchen. Sie gehören auf günstige Medien – seien es kosteneffiziente große Platten, Tapes und Archivsysteme, oder aber die Daten werden in die „Cloud“ verlagert. Aktive Daten können dann ruhig auf schnellen aber teuren „Medien“ liegen. Automatisierungslösungen sorgen dafür, dass dieser Wechsel in beide Richtungen ohne großen administrativen Aufwand vonstattengeht.

IT-DIRECTOR: Wie können IT-Verantwortliche – ohne große Neuinvestitionen zu tätigen – die Leistungsfähigkeit ihrer Speicherlandschaften steigern? Und wie können sie diese energieeffizienter gestalten?
H. Schramm: Hier ist es zunächst wichtig, einen fundierten Überblick der momentanen Situation zu bekommen. Das können Experten heute im Rahmen von Dienstleistungen, beispielsweise mit Storage-Assessments, wie Dell es in unterschiedlichen Bereichen anbietet, bewerkstelligen. Im Rahmen solcher Assessments werden die künftigen Ansprüche und Anforderungen mit der Ist-Situation des Kunden abgeglichen und Lösungen erarbeitet, wie die bestehende Speicherstruktur in eine zukunftsfähige Konzeption eingebunden werden kann.

IT-DIRECTOR: Stichwort Langzeitarchivierung: Welche Speichermedien eignen sich am besten für eine sichere und compliancegerechte Langzeitarchivierung von Unternehmensdaten?
H. Schramm: Hier gibt es unterschiedliche Ansätze, die zum einen technisch begründet sind, aber auch vom Kunden und seinen Anforderungen abhängen: Kapazitäten, Art des Zugriffs, Aufbewahrungsfristen etc. Genügt den einen ein LTO- Laufwerk oder ein Autoloader mit WORM-Funktionalität, benötigen andere einen schnellen Zugriff auf Archivdaten über ein festplattengestütztes Archivsystem, das den Compliance-Richtlinien des jeweiligen Landes entspricht. Darüber hinaus werden oft noch die Themen Archivierung und Backup in einen Topf geworfen. Unternehmen scheuen die Investitionen in ein Archivsystem und versuchen, die Anforderungen einer langfristigen Aufbewahrung mit einer Backupsoftware zu bewältigen, deren Stärken die kurz- bis mittelfristige Speicherung sind.

IT-DIRECTOR: Welche Langzeitspeichermedien werden in Zukunft eher zu den Auslaufmodellen gehören? Welche Gründe sind hierfür ausschlaggebend?
H. Schramm: Vor zwanzig Jahren war die magneto-optische Technologie zumindest bei der Archivierung das Maß aller Dinge. Das hat sich gründlich geändert, denn hier haben softwaregesteuerte Lösungen Einzug gehalten. Auch festplattengestützte Archivsysteme werden sich weiter ausbreiten. Sie bieten einen schnellen Zugriff auf die Archivbestände, kennen eigentlich keine Obergrenze in der Kapazität – hier sind wir eigentlich in der Private Cloud – und nehmen dem Anwender viel Administrationsaufwand ab.

Das bedeutet nicht, dass die Tapes „tot“ sind. Sie werden weiter eine, wenn auch weniger wichtige, Rolle spielen. Hier dürfte die „Innovationsbereitschaft“ der Unternehmen ein entscheidender Faktor sein. Ferner werden wir mit Sicherheit nicht bis zum Sankt Nimmerleinstag auf drehende Platten speichern. Hier haben die Entwickler bestimmt schon ganz neue Techniken in der Schublade. Es bleibt also spannend.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok