Die (Daten-)Flut beherrschen

IoT verwandelt das Data Center

Wie das Internet der Dinge, neudeutsch Internet of Things (IoT), das Data Center verändert und welche Rolle software-definierte Infrastrukturen dabei spielen

Wellenreiter

Eine große Datenflut lässt sich ohne zukunftsfähige Architekturen nicht speichern und auswerten.

„Maschinenanwendungen“ stellen andere Anforderungen an die Daten- bzw. Signalverarbeitung als traditionelle „Office- oder Geschäftsanwendungen“. Riesige Datenmengen müssen im Internet der Dinge in Echtzeit verarbeitet und analysiert werden. Doch ist das aktuell häufig propagierte Software Defined Data Center (SDDC) die Antwort auf alle damit verbundenen Herausforderungen oder benötigt es neue Rechenzentrumskonzepte?

Bis zum Jahr 2020 rechnet Intel weltweit mit 20 Milliarden vernetzten Geräten. Das Internet der Dinge stellt nach Einschätzung von Dieter Hoffend, Leiter Großkunden bei der Intel Deutschland GmbH, den Betrieb und die Struktur von Rechenzentren vor völlig neue Herausforderungen. „In den kommenden Jahren wird das aufkommende Datenvolumen exponentiell wachsen. Data Center müssen in der Lage sein, diese riesigen Datenmengen in Echtzeit zu verarbeiten, zu analysieren und daraus Informationen zu aggregieren. Fakt ist: Die richtige Struktur eines Rechenzentrums wird in Zukunft mehr denn je die Wettbewerbsfähigkeit von Unternehmen bedingen, die Wissen aus maschinell generierten Daten gewinnen“, prognostiziert Dieter Hoffend.

Doch wie sieht nun die optimale Struktur eines Rechenzentrums aus, das für die Verarbeitung sehr großer Datenmengen aus dem Internet der Dinge gerüstet ist? Prinzipiell ist das „Software Defined Data Center“, das innerhalb kürzester Zeit skaliert, ein zukunftsträchtiges Konzept. Die Infrastruktur ist wandlungsfähig genug, um durch vernetzte Geräte anfallende Work­loads jeder Art zu unterstützen, und flexibel genug, um auf wechselnden Ressourcenbedarf bei Servern, Speicher und Netzwerkauslastung zu reagieren. Damit erfüllt das Konzept nach Meinung von Dieter Hoffend wichtige Schlüsselkriterien für den erfolgreichen Betrieb. „Ein weiterer zentraler Punkt sind offene Standards: Die Standardisierung von Prozessen und Technologien gewährleistet maximale Kompatibilität beim Austausch von Komponenten und vereinfacht Upgrades bestehender Rechenzentren drastisch. Datensicherheit und die Möglichkeit der Verschlüsselung sind eine Grundvoraussetzung“, so Hoffend.

Bei der Etablierung neuer Strukturen zur Verarbeitung gigantischer Datenmengen aus dem Internet der Dinge gibt es nach Ansicht von Experten jedoch keinen Königsweg. „Die Projektverantwortlichen sollten stets eine umfassende Kosten-/Nutzen-Evaluierung durchführen. Wir stehen unseren Kunden dabei beratend zur Seite. Gemeinsam evaluieren wir, welche Bestandteile ausgetauscht werden, welche in ,Eigenregie‘ betrieben werden und an welcher Stelle es Sinn ergibt, externe Partner an Bord zu holen“, rät Hoffend.

Unternehmen können sich beim IT-Fortschritt im Rechenzentrum keinen Stillstand erlauben, warnt auch Andreas Olah, IDC-Analyst in der EMEA Systems and Infrastructure Solutions Group. „Immer mehr neue technologiebasierte Konkurrenten wie beispielsweise Uber oder Airbnb mischen die traditionellen Branchen auf“, stellt Olah fest. Die Rolle der IT hat sich vom Kostenfaktor zur Triebkraft für Wettbewerbsvorteile und neue Einnahmequellen entwickelt. „Vor allem die Wertschöpfung durch Analysen von bestehenden wie auch neuen Datenquellen wie Sensoren und Maschinendaten ist entscheidend, um innovative Produkte und Dienstleistungen auf den Markt zu bringen sowie Prozesse zu optimieren“, erklärt Olah. Oft müssen aber zunächst bestehende Silos von Abteilungen integriert werden, bevor die Systeme und Datenbanken miteinander verknüpft werden können. Ein wichtiger Schritt ist seiner Ansicht nach die Automatisierung von Prozessen, wie die Verschiebung von Server-Arbeitslasten in Echtzeit, um Ressourcen besser auszulasten. Dabei müssen nicht nur die Server, Speichersysteme und Netzwerke virtualisiert werden, sondern auch Verbindungen zu Cloud-Anbietern geschaffen werden, um diese in einer einheitlich verwalteten hybriden Umgebung genauso nutzen zu können wie das eigene Rechenzentrum.

Dies ist ein Artikel aus unserer Print-Ausgabe 12/2015. Bestellen Sie ein kostenfreies Probe-Abo.

„Sensible Daten und wichtige Applikationen können somit auf den eigenen Servern bleiben, während die Cloud die notwendige Flexibilität, Skalierbarkeit und Kosteneinsparungen ermöglicht, um mit der Konkurrenz Schritt zu halten. Der Trend geht zum Software Defined Data Center, wobei System-Management-Tools helfen können, Agilität zu erhöhen und nicht zu sehr an bestimmte Hardware- und Cloud-Anbieter gebunden zu sein“, erklärt Olah. Der Trend zur Virtualisierung dehnt sich von der Compute- in die Netzwerk- und Storage-Umgebung aus, stellt Martin Niemer, Director SDDC, Network & Security bei VMware fest. „Dies führt dazu, dass die Grenzen von Rechenzentren zunehmend an Bedeutung verlieren und logische Data Center entstehen. Diese können sowohl mehrere eigene Rechenzentren umfassen als auch Public-Cloud-Services mit einbinden. Aus Anwendersicht handelt es sich aber um einen transparenten Pool von Ressourcen“, erklärt Martin Niemer. Die Netzwerkvirtualisierung ist seiner Ansicht nach die treibende Kraft hinter diesem Trend, da sie es erstmals ermöglicht, unterschiedliche RZ-Netzwerke transparent miteinander zu ver­binden.

Zukunftsfähige Architekturen


Auf zwei Aspekte, die im Internet der Dinge eine besondere Relevanz besitzen, verweist Peter L. Dümig, Senior Server Product Manager bei Dell. „Vernetzung und Sicherheit auf der einen Seite sowie die Datenanalyse auf der anderen. Beide Anforderungen sollten in jedem Rechenzen­trum umgesetzt sein, werden aber beim Einsatz von Anwendungen für das Internet der Dinge noch einmal deutlich wichtiger“, betont Dümig.

Im Hinblick auf die Datenanalyse sollte nach seiner Empfehlung bereits in den Endgeräten eine erste Aufbereitung der Daten erfolgen. Die zu erwartende Datenflut sei ansonsten nicht zu bewältigen, denn das Datenvolumen wird massiv ansteigen und muss sicher geroutet werden. Große Datenmengen lassen sich ohne zukunftsfähige Architekturen nicht speichern und auswerten. „Software-Defined-Strukturen helfen dabei sowohl auf der Netzwerk- als auch auf der Storage-Seite. Zudem werden Hadoop- und in In-Memory-Anwendungen in diesem Zusammenhang immer wichtiger. Mit Flash lassen sich große Datenmengen sehr schnell bereitstellen. Ein zukunftsfähiges Rechenzentrum für das Internet der Dinge sollte weitgehend virtualisiert und automatisiert sein.

Konnektoren stellen die Verbindungen zu Cloud-Services her, um die benötigte Flexibilität sicherzustellen“, erklärt Peter L. Dümig. In einem sind sich IT-Experten einig: Big Data wird in Zukunft untrennbar mit Themen wie Industrie 4.0 und dem Internet der Dinge verbunden sein. „Neue Technologien generieren immer mehr Daten aus Prozessen. Die Anwenderunternehmen müssen verstehen, dass manche klassischen Geschäftsmodelle mit dem Datenwachstum nicht Schritt halten können. Sie müssen aber auch verstehen, welche neuen Geschäftsmodelle sich in den aus den Daten gewonnenen Informationen verbergen. Es geht um wesentlich mehr als nur eine größere Datenbasis für einen klassischen Geschäftsprozess“, fasst Holm Landrock, Berater „Big Data“ bei der Experton Group, Risiken und Chancen der sich abzeichnenden Datenflut zusammen.


Sicherheit für software-­basierte Rechenzentren

Einer aktuellen Umfrage von F5 Networks zufolge glauben 20 Prozent der europäischen Unternehmen, dass sie bereits über ein vollständig software-basiertes Rechenzentrum (Software Defined Data Center – SDDC) verfügen. Weitere 46 Prozent der Befragten gaben an, dass ihr Unternehmen ein teilweise software-basiertes Rechenzentrum hat. 33 Prozent der Unternehmen stellen Kundenanwendungen über ein SDDC zur Verfügung, während weitere 22 Prozent planen, einen Proof of Concept (PoC) zu erstellen und das System innerhalb von zwölf Monaten produktiv gesetzt zu haben.

Auf die Frage nach den größten Herausforderungen bei der Bereitstellung von SDDC nannten 34 Prozent Sicherheit als große Hürde. Das Vertrauen der Endnutzer (30 Prozent), Fokussierung auf andere Technologien (28 Prozent) sowie Kosten (25 Prozent) wurden als weitere hemmende Faktoren erwähnt.


Bildquelle: Thinkstock/iStock

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok