Storage wird virtuell

Große Nachfrage nach SDS

Wie SDS-Lösungen durch den Wegfall einer administrativen Ebene die IT verschlanken können, berichtet Hans Schramm, Field Product Manager Enterprise bei Dell, im Interview.

Hans Schramm, Field Product Manager Enterprise bei Dell

IT-DIRECTOR: Herr Schramm, bislang gibt es keine einheitliche Definition des Software-defined Storage (SDS), was verstehen Sie unter diesem Begriff?
H. Schramm:
Software-defined Storage bedeutet allgemein, dass man Storage-Funktionalitäten aus dem „Storage-Layer“ in den „Server-Layer“ verlagert. Allerdings sind die Möglichkeiten, wie man das bewerkstelligt, so mannigfaltig, dass eine klare Definition kaum möglich ist.

IT-DIRECTOR: Handelt es sich dabei um ein neues Paradigma in der Speicherindustrie oder um einen reinen Marketingzweck?
H. Schramm:
Es handelt sich definitiv mehr als nur um einen Marketingzweck, denn neben SDS sind bereits Lösungen auf dem Markt, die nicht nur den Storage-Layer in die Server-Layer verlagern, sondern komplette hyperkonvergente Server-Strukturen aufbauen, in denen Storage nur einen kleinen Teil ausmacht. Als Beispiel wäre hier die Dell-XC Baureihe (powered by nutanix) zu nennen.

IT-DIRECTOR: Wie verbreitet ist die SDS-Technologie bei deutschen Unternehmen?
H. Schramm:
Der größte Teil der Kunden legt noch in klassischer Art und Weise seine Informationen ab, d.h. in SAN-/NAS-Strukturen. Wobei sich mehr und mehr Projekte ergeben, die auf SDS oder SDx basieren. Die Vielfalt ist derzeit so groß, dass eine konkrete Einstufung noch schwer fällt.

IT-DIRECTOR: Wie gut sind Kunden über diese Möglichkeit informiert, wie hoch ist die Nachfrage?
H. Schramm:
Die Nachfrage und das Interesse an SDS sind groß, dennoch ist die Entscheidungsfreudigkeit noch nicht sehr ausgeprägt, da die Kunden durch die Vielfalt der Lösungen schlichtweg überfordert sind, Information und Coaching sind hier notwendig.

IT-DIRECTOR: Wie ausgereift sind aktuelle SDS-Lösungen?
H. Schramm:
Eine sogenannte „One-fits-all-Lösung“ ist aktuell nicht mehr denkbar. Heute werden SDS-Lösungen exakt auf den Kunden zugeschnitten, denn je individueller die Lösung an die Kundenbedürfnisse angepasst ist, desto größer ist natürlich auch die Zufriedenheit der Kunden.

IT-DIRECTOR: Storage-Anforderungen werden komplexer – die Datenmenge steigt etwa durch die Nutzung mobiler Endgeräte – welche Antwort bietet SDS darauf?
H. Schramm:
Je nach Anforderung der Kunden können unterschiedliche Lösungen individuell konzipiert werden. Es gibt SDS-Konstrukte, die zum Beispiel sehr hohe IO-Leistungen bereitstellen; andere Lösungen dagegen zielen auf höchste Skalierbarkeit ab und wiederum andere sind dahingehend konzipiert, möglichst viel Komplexität aus dem IT-Umfeld zu nehmen.

IT-DIRECTOR: Welche Vor- und Nachteile ergeben sich durch den Einsatz?
H. Schramm:
Wie die Kunden bestätigen ist ein großer Vorteil der Wegfall von administrativen Ebenen (SAN-Switch, Oberflächen der Storage-Arrays), was zu einer Verschlankung der IT führt und dadurch Kosten einspart. Speziell hyperkonvergente Lösungen, die mehr als nur Storage bieten, brechen aber mit der Silostruktur beim Kunden. Das bedeutet, hier kommen nicht nur technische Themenstellungen zum Tragen, sondern es wird auch in die Administrationsebene des Kunden eingegriffen. Wenn Storage plötzlich vom Server-Admin bereitgestellt wird, so gefällt das nicht unbedingt jedem in der vorhandenen IT-Struktur.

IT-DIRECTOR: Wie lassen sich bestehende Umgebungen mit SDS-Konzepten verbinden?
H. Schramm:
Die Integration von SDS-Konzepten in bestehende Umgebungen lässt sich eigentlich sehr einfach bewerkstelligen. SDS ist beispielsweise in der Lage, die Daten sehr nahe an die Applikation, also die Server-Ebene, heranzuführen. Zum anderen fügen sich SDS-Lösungen nahtlos in bestehende virtuelle Umgebungen ein bzw. stellen selbst eine virtuelle Umgebung dar. Aber auch hier gibt es eine derartige Vielfalt an Lösungen, dass sich bei so manchem Kunden eine gewisse „Entscheidungshemmung“ einstellt.

IT-DIRECTOR: SDS führt zu einer zusätzlichen Komplexitätsebene in der Datenlandschaft, wie sollten Unternehmen dieser Herausforderung begegnen?
H. Schramm:
SDS bedeutet nicht zwangsläufig eine zusätzliche Komplexitätsebene. Ganz im Gegenteil können SDS-Lösungen sogar Komplexität aus Systemen herausnehmen: es müssen beispielsweise keine SAN-Switche mehr gemanagt werden und es gibt keine Storage-Systeme mit eigenen Oberflächen mehr. Wenn alles einheitlich aus der Serverebene heraus geschieht, führt das zu einer enormen Erleichterung. 

IT-DIRECTOR: Ab welcher Größenordnung und welchem Unternehmensumfeld empfehlen Sie den Einsatz einer SDS-Lösung?
H. Schramm:
Es gibt optimierte individuelle SDS-Lösungen für verschiedenste Unternehmen unterschiedlicher Größe. Generell sind es momentan eher große Kunden, die nach Möglichkeiten suchen, um aus der IT Komplexität herauszunehmen, Management-Layer zu vermeiden und dadurch Kosten zu sparen.

IT-DIRECTOR: Wie wird sich der Bedarf nach Speicherlösungen generell in den kommenden Jahren entwickeln?
H. Schramm:
In Zukunft wird man eine Entwicklung hin zu hyperkonvergenten Szenarien verzeichnen können, das heißt einen Trend hin zu Umgebungen, die nur noch aus einer reinen Server-Umgebung bestehen. Virtuelle Clients oder virtuelle Server legen ihre Daten direkt auf dem Knoten ab, Sicherheit und Hochverfügbarkeit entstehen durch multiples Ablegen auf mehreren Knoten. Klassische Storage-Lösungen werden weiterhin dort bestehen bleiben, wo Server auf sehr große Filebereiche zugreifen müssen. Auch schwenken nicht alle Kunden gleichzeitig auf eine neue Lösung um.

IT-DIRECTOR: Wie beurteilen Sie den Trend „Software-defined Everything“ – die Entwicklung, die gesamte IT-Hardware künftig durch Software zu verwalten und zu steuern?
H. Schramm:
Der Trend dorthin ist klar erkennbar: die Server-Umgebung hat es vorgemacht, denn es gibt heute kaum mehr ein Unternehmen, das keine virtuellen Server betreibt, auch wenn die Entwicklung einige Zeit gebraucht hat. Weitere Bereiche wie Storage und Netzwerk ziehen nach und das gesamte Data Center ist nur noch eine Frage der Zeit. Im Endeffekt kommt die Intelligenz eines Systems, sei es ein Storage Array oder ein Switch, immer schon aus der Software, nur war diese bislang stets an das System gebunden. Nun löst sich diese Bindung zunehmend auf und es etabliert sich eine Hardware-Basis, die dann mit Software bestückt wird. Dadurch ergeben sich Möglichkeiten, unterschiedliche Bereiche zusammenzufassen und bei Management wie auch Hardware zu sparen und damit OpEx-Kosten wie auch CapEx-Kosten einzusparen.

IT-DIRECTOR: Sehen Sie dadurch ein erhöhtes Risiko mit Blick auf Ausfälle oder Defekte?
H. Schramm:
Es besteht kein Risiko, wenn die Lösungen den Kundenbedürfnissen angepasst werden: Redundanz und Ausfallsicherheit müssen natürlich gegeben sein, was man steuern und entsprechend konfigurieren kann. Die Vielfältigkeit der Lösungen ist der lähmende Faktor für eine Neuorientierung, da die vorhandenen Strukturen etabliert sind und immer noch gut funktionieren. Hier konkurrieren wieder einmal die Prinzipien Evolution versus Revolution: klassische, evolutionäre Storage- oder IT-Strukturen stehen neuen revolutionären hyperkonvergenten Umgebungen gegenüber.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok