19.05.2017 Rechenzentren: Weniger ist mehr

Was Gigafabriken leisten können

Von: Dr. Stefan Bucher

Eine steigende Datenflut bedeutet nicht, dass es zwangsläufig auch mehr Rechenzentren (RZ) geben muss. Im Gegenteil: Manchmal kann eine Konsolidierung zu einer größeren Leistungsfähigkeit führen. Welche Rolle spielen an dieser Stelle Gigafabriken?

Rechenzentrum T-Systems

Der Standort in Biere spielt eine exponierte Rolle in der globalen Rechenzentrumsstrategie von T-Systems.

Dass weniger mehr sein kann, zeigt z.B. die Strategie von T-Systems. Die Geschäftskundensparte der Telekom setzt auf ein knappes Dutzend Gigafabriken weltweit. Denn nach Meinung der Bonner verliert die räumliche Distanz zwischen Data Center und Kunde zunehmend an Bedeutung. Schnelle Datenverbindungen ermöglichen das. Der Hintergrund: Rechenzentren machen das Rückgrat der Digitalisierung aus und sorgen für eine sichere Abwicklung von Geschäftsprozessen in einer vernetzten Welt.

Das globale Netzwerk der Data Center macht technische Entwicklungen wie Cloud Computing, Internet of Things, Big Data und Industrie 4.0 überhaupt erst möglich. Dabei sollte man meinen, immer mehr Daten erfordern zwangsläufig auch immer mehr Rechenzentren. Und Cloud-Anbieter wie Amazon, Microsoft oder Google setzen für niedrige Latenzzeiten tatsächlich auf viele dezentrale Data Center. T-Systems hingegen fährt eine andere Strategie und wird die Anzahl seiner weltweiten Rechenzentren bis 2018 auf elf reduzieren – von ehemals 89. Wie passt das zusammen?

Trend zur Gigafabrik


T-Systems betreibt seit vielen Jahren Rechenzentren auf allen Kontinenten. Allerdings entwickeln sich die Anforderungen und die Technik immer weiter. Auch der ITK-Provider tut das und konzentriert sich künftig auf hochperformante Data Center an Standorten, die für das Business seiner Geschäftskunden sinnvoll sind. So kann die Anzahl reduziert und dennoch die Speicher- und Rechenkapazitäten erhöht werden. Aktuell liegt die IT-Leistung aller T-Systems-Rechenzentren bei fast 83 Megawatt. Die reine IT-Fläche beträgt 94.000 m2. Und nach und nach baut die Telekom-Tochter ihre Rechenzentren zu Gigafabriken mit noch mehr Leistung aus.

Durch die Konzentration an ausgewählten Standorten weltweit vergrößert sich jedoch auch die Entfernung zu den Kunden. Doch ist die räumliche Nähe nicht nötig für eine schnelle Datenverarbeitung? Glaubt man dem Bonner IT-Dienstleister, braucht es für die meisten Cloud-Anwendungen keine räumliche Nähe zum Rechenzentrum, da die Server und Datenleitungen immer leistungsfähiger werden. Und für das autonome Fahren, wo Echtzeitkommunikation gefragt ist, gibt es inzwischen sinnvolle technische Ergänzungen.

So stellt die Mobilfunktechnologie 5G, der LTE-Nachfolger, eine Zukunftslösung mit minimaler Latenzzeit dar. Kombiniert mit einer Datenverarbeitung in sogenannten „Cloudlets“ direkt an den Mobilfunk-Basisstationen, auch bekannt als Edge Computing, sollen die Signallaufzeiten von Auto zu Auto auf unter 20 Millisekunden sinken. Die Bonner erproben diese Technologie bereits im „Digitalen Testfeld“ auf der Autobahn A 9 zwischen Nürnberg und München. Fahrzeuge tauschen hier Gefahreninformationen über das Mobilfunknetz aus. Das Rechenzentrum selbst muss künftig somit nicht zwingend in der Nähe sein. Viele kleine Datenwolken entlang eines schnellen Netzes ermöglichen eine rasend schnelle Auswertung der Daten und Kommunikation mit dem Fahrzeug bzw. anderen vernetzten Objekten.

RZ-Ausbau auf 18 Megawatt


Trotz Konsolidierung der Rechenzentren bedeutet das nicht, dass künftig jeder Standort des IT-Dienstleisters alles leisten können muss. Zwar erfüllen sämtliche Rechenzentren hohe Qualitätsstandards, die einem Tier-3-analogen Betrieb entsprechen. Es ist jedoch sinnvoll, auf unterschiedliche Leistungsschwerpunkte zu setzen. Der Fokus jedes einzelnen Data Centers ist am Anforderungsprofil der Kunden ausgerichtet, von Cloud über Modularität bis Sicherheit: So hat der Provider eine effiziente Twin-Core-Lösung in Großbritannien errichtet, ein modular wachsendes Rechenzen-trum mit hoher Skalierbarkeit in Spanien und ein ­sicheres Data Center in Biere in Sachsen-Anhalt.

Der Data-Center Campus bei Magdeburg spielt eine exponierte Rolle in der globalen Rechenzentrumsstrategie des Anbieters. In Biere ist das „Who is who“ der internationalen Cloud-Anbieter zu Hause, heißt es. Mit ­einem PUE-Wert von 1,3 ist der Stromverbrauch um rund ein Drittel niedriger als in herkömmlichen ­Rechenzentren. Bis zum Frühsommer 2018 sollen die Rechen- und Speicherkapazitäten in Biere für einen dreistelligen Millionenbetrag um 150 Prozent erweitert werden. Zu den beiden bestehenden RZ-Modulen kommen dann drei weitere hinzu. Die IT-Leistung wird durch den Ausbau auf 18 Megawatt steigen. ­Davon profitieren auch führende amerikanische Internet-Konzerne. Selbst sie speichern ihre sensiblen Daten in Biere. ­Datensicherheit und -schutz spielen dabei eine wichtige Rolle.

Erdwälle, Stacheldraht, Kameras, Bewegungsmelder, Vereinzelungsanlagen und Handflächen-Scanner bilden die äußere Schutzschicht des Rechenzentrums. Ausschließlich autorisierte Mitarbeiter erhalten Einsicht in die gespeicherten Informationen, die nur nach dem Need-to-know-Prinzip genutzt werden dürfen. Darüber hinaus schützen Firewalls den Zugang zum Rechnernetz. Um Hacker oder Datendiebe abzuwehren, fließen alle Informationen in einem geschlossenen System durch verschlüsselte IP-VPN-Tunnel, separiert von öffentlichen Netzen.

Intrusion-Detection- und -Prevention-Systeme ergänzen die Firewall und analysieren, ob sich Schadcodes in den Datenströmen befinden. Mehr geht aktuell kaum in puncto Sicherheit. Auch nach der Erweiterung kann das RZ in Biere weiterwachsen. Die nötige Ausbaureserve wurde von Anfang an eingeplant: Das Gelände bietet Platz für insgesamt 20 Module. Die modulare Bauweise dient aber nicht nur als Blaupause zur Erweiterung des bestehenden Campus. Bei ähnlichen klimatischen Bedingungen kann das Konzept auch auf andere Standorte über­tragen werden.

Dies ist ein Artikel aus unserer Print-Ausgabe 04/2017. Bestellen Sie ein kostenfreies Probe-Abo.

Der amerikanische Netzwerkausrüster Cisco prognostiziert, dass sich der weltweite Cloud-Traffic von 2,1 Mrd. in 2014 auf 8,6 Mrd. Terabyte in 2019 ver­vierfachen wird. Mit der steigenden Datenflut werden auch die weltweit benötigten Speicherkapazitäten wachsen müssen. Eine mögliche Auswertung der Daten direkt im Gerät hat keinen Einfluss darauf. Die Geräte selbst werden schon bald mit der Auswertung überlastet sein. Es führt also kein Weg an skalierbaren Rechenzentren und leistungsfähigen Cloud-Lösungen vorbei. Die immer intelligentere Infrastruktur der ­Rechenzentren ist in der Lage, das weitere Datenwachstum aufzufangen: Dank neuer Technologien wie Flashspeicher werden die Speicherkapazitäten deutlich kompakter. Für mehr Leistung ist künftig weniger Platz nötig. Darum lassen sich auch die kommenden Herausforderungen der Digitalisierung mit modernen ­Rechenzentren meistern.

Bildquelle: T-Systems

©2017 Alle Rechte bei MEDIENHAUS Verlag GmbH