Speicherplatz allein reicht nicht

Big Data erfordert Big Storage

Neue Anbieter von Speicherplatz konkurrieren mit den Storage-Platzhirschen um die Marktanteile.

Storage

Mit Big Data entstehen für Unternehmen Herausforderungen, die mit derzeitigen modernen Speicherlösungen nur ansatzweise gelöst werden können.

Leistungsstarke Speicherinfrastrukturen sind eine wichtige Komponente bei der Konzeption von Big-Data-Szenarien. Dabei geht es nicht nur um die Bereitstellung großer Datenvolumina, das komplexe Anforderungsprofil schließt auch die Integration schneller Flashspeicher ein. Eine Herausforderung, der Storage-Anbieter mit unterschiedlichen Strategien begegnen. Im Bereich Big Data und Analytics wird es nach Ansicht von IDC in diesem Jahr wichtige Entwicklungen geben. Die weltweiten Ausgaben für Software, Hardware und Dienstleistungen im Big-Data-Umfeld steigen nach den Vorhersagen der Marktforscher auf 125 Mrd. US-Dollar. Die Auswertung sogenannter Rich Media (Video, Audio und Bilder) beginnt, sich zur wichtigen Triebfeder von Big-Data-Projekten zu entwickeln. Auch wird die Bedeutung der Big-Data-Wertschöpfungskette zunehmen, etwa in Form von Data as a Service. Hier kommen die Angebote der Cloud-Plattform- und Analytics-Dienstleister zum Tragen, die ihren Kunden aufgewertete Informationen aus kommerziellen oder frei verfügbaren Datenquellen bereitstellen. Daneben sieht IDC wichtige Neuerungen bei Analysen im Umfeld des kognitiven/maschinellen Lernens sowie des Internets der Dinge. Der Großteil der reinen Rechen- und Speicherkapazität wird nach IDC-Prognosen auf von Cloud-Dienstleistern betriebene Hyperscale-Rechenzentren verlagert, die für Cloud, Mobile und Big Data optimiert sind.

Mit Big Data entstehen für Unternehmen Herausforderungen, die mit derzeitigen modernen Speicherlösungen wie Virtualisierung, Datendeduplizierung oder insgesamt Storage-Management nur ansatzweise gelöst werden können. Ein Grund dafür ist, dass die Datenmengen nicht mehr homogen vorliegen, sondern sich strukturiert und unstrukturiert auf verschiedenen Speichersysteme befinden. „Dabei sind Speicherarchitekturen notwendig, die auch für einen schnellen Zugriff auf die Daten sorgen. Ebenfalls spielt es eine Rolle, welche Transportmechanismen innerhalb des Speichersystems und zwischen Speicher und Server verwendet werden“, erklärt Holm Landrock, Senior Advisor bei der Experton Group.

Flash verändert die Prozesse


Die Cloud, Big Data, große Online-Archive, Videostreaming und andere Umgebungen mit exponentiell wachsenden und schwer planbaren Datenmengen stellen neue Anforderungen an die Storage-Architektur. „Performance und Kapazität müssen flexibel, modular und unlimitiert wachsen können (hyperscale), das System sollte online technologisch erneuert werden können, um Datenmigrationen zu vermeiden, und es benötigt fehlertolerante Mechanismen, um beim Ausfall von Festplatten oder ganzen Storage-Knoten weiterhin Zugriff auf Daten zu ermöglichen“, umreißt Frank Reichart, Senior Director Storage bei Fujitsu, das Anforderungsprofil.

Die neuen Serverplattformen, CPUs, Betriebssysteme und Unternehmensapplikationen zwingen IT-Abteilungen dazu, die Data-Center-Infrastrukturen neu auszurichten. „Der Erfolg solcher Upgrades hängt maßgeblich von der Storage-Performance ab“, meint ebenfalls George Kurian, Executive Vice President bei Net-app. Nach seinen Worten erfordern Applikationen zur Steuerung wichtiger Geschäftsvorgänge, beispielsweise Datenbanken, Analysen und OLTP, sowohl eine absolute Performance als auch konsistente Reaktionszeiten. Anfang des Jahres stellte Netapp deshalb mit dem EF560 ein All-Flash-Array mit einer höheren Speicherperformance vor, das konsistente Latenz, Bandbreite und IOPS bietet, um Anforderungen von unternehmensweit genutzten Datenbanken und Analyseapplikationen zu erfüllen.

Für Leah Schoeb, Senior Partner und Analyst bei der Evaluator Group, ist der flashbasierte Speichermarkt im letzten Jahr mit immer mehr Lösungen für die Anforderungen aktueller Unternehmensanwendungen stark gewachsen. „Die Unternehmen beobachten, dass Flash-Storage-Leistungen das eigene Geschäft grundlegend verändern können – vom Hochfrequenzhandel bis hin zum Echtzeitrisikomanagement“, so Schoeb. Lange Jahre war der Preis das größte Hindernis für die Verbreitung von Flashspeichern in den Unternehmen. „Diese Barriere haben wir jetzt beiseitegeräumt. Die hohe Performance und Zuverlässigkeit auf kleinster Fläche, wie sie für Flashspeicher typisch sind, steht jetzt für nahezu alle Anwendungsszenarien bereit“, erläutert Robin Kuepers, Storage Marketing Director bei Dell EMEA. Ähnlich wie Netapp stellte Dell im Januar mit dem SC4020 eine neue Generation von All-Flash-Arrays vor, die nicht nur Datenzugriffe beschleunigen, sondern gleichzeitig die Betriebskosten von Rechenzentren deutlich reduzieren sollen.

Investition in Innovation


Den hohen Stellenwert von Flashspeichersystemen, insbesondere im Big-Data-Umfeld, unterstreicht auch IBM. Das Unternehmen hat nach eigenen Angaben seit April 2013 rund 1 Mrd. US-Dollar in die Weiterentwicklung und Kommerzialisierung von Flashtechnologien investiert. Das im Februar vorgestellte Flashsystem V9000 bietet laut IBM die Vorteile von Software Defined Storage gepaart mit der Geschwindigkeit von Flash. Beim Einsatz dieses Systems können Kunden ihre bestehenden Speichersysteme in einer Verwaltungsdomain zusammenfassen und dabei aktuelle Virtualisierungstechnologie und Services implementieren. Die Flashsysteme setzen Micron-MLC-Flash-Chip-Technologie ein. Sie profitieren von der Packungsdichte, den Merkmalen und den Kostenvorteilen dieser Chips. Die führt zu hohem Schutz der Daten, hoher Zuverlässigkeit und Wirtschaftlichkeit der Anwendungen.

Neue Wege zur Umsetzung von Big-Data-Szenarien beschreitet EMC. Ende März kündigte das Unternehmen den „Federation Business Data Lake“ an. Dabei handelt es sich um eine integrierte Lösung bestehend aus Speicher- und Big-Data-Analytics-Technologien von EMC Information Infrastructure, Pivotal und VMware. Sie soll Unternehmen den Schritt zu Big Data erleichtern und ihnen helfen, große Datenmengen sinnvoll auszuwerten und auf dieser Grundlage neuartige Geschäftsmodelle zu entwickeln. Nach Vorstellung des Herstellers ersetzen Business Data Lakes die herkömmlichen Data Warehouses, die nur strukturierte Daten verarbeiten. Ein Business Data Lake enthält strukturierte und unstrukturierte Daten aus vielen unterschiedlichen Quellen. Das Hauptziel der Analysen ist das Erstellen von Modellen, mit deren Hilfe künftige Entwicklungen vorhergesehen werden können.

Die Grundlage der Analyseebene ist die Big-Data-Suite von Pivotal. Diese umfasst auch die Analyseplattform PivotalHD mit vorkonfigurierter Integration in HAWQ, ein MPP-basiertes natives SQL-Modul für die analytische Verarbeitung von strukturierten Daten in Hadoop. Die Analyseebene ist komplett virtualisiert durch VMware-Lösungen auf Vblock, die sich automatisch provisionieren und konfigurieren lassen und mit vordefinierten Anwendungsfällen ausgestattet sind. Storage-Arrays von Isilon bilden die konsolidierte Speicherinfrastruktur der Data-Lake-Lösung und sollen für eine  Balance zwischen Kapazität und Leistung sorgen. Haupthindernisse für den Einsatz von Big Data sind hohe Infrastrukturkosten und Sicherheitsbedenken. Aber auch der Mangel an Know-how sowie der Zeitaufwand für Analysen werden als Gründe angeführt. Mit dem Federation Business Data Lake bieten wir Unternehmen eine vollständig konfigurierte Lösung für die Analyse großer Datenmengen – von der Spei-
cherinfrastruktur bis zur Analyseplattform“, erklärt Sabine Bendiek, Geschäftsführerin der EMC Deutschland GmbH.

Chancen für Einsteiger

Wie der aktuelle „Big Data Vendor Benchmark“ der Experton Group zeigt, tummeln sich im Segment für Big-Data-Speicherlösungen neben namhaften Speicherherstellern auch Neu- und Seiteneinsteiger. „Einige etablierte Anbieter treten mit dedizierten Big-Data-Lösungen aus Hard- und Software sowie mit Storage Appliances am Markt auf. Begleitet und teils stark attackiert werden diese etablierten Anbieter von neu aufgetauchten Herstellern von Speicherhard- und -software“, so Holm Landrock. Nach seinen Angaben hat die Experton Group im Rahmen der Recherche festgestellt, dass viele Unternehmen – darunter auch viele Unternehmen der Leader-Gruppe – noch immer internationale Use Cases und Pilotprojekte als Referenzen anführen. „Das kann ein Indikator dafür sein, dass Deutschland im weltweiten Vergleich beim Big-Data-Trend tatsächlich hinterherhinkt, obwohl sich dabei weder die deutsche Wirtschaft als Anwenderseite noch die in Deutschland agierenden Anbieter wirklich etwas haben zuschulden kommen lassen.“

Bildquelle: Thinkstock/iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok