11.05.2017 Deutlich höhere Leistungsdichte

Warum Rechenzentren sich anpassen müssen

Von: Thomas Stossberg

Industrie 4.0, Big Data oder Cloud-Anwendungen sorgen dafür, dass die Datenvolumina weiter stark steigen. Rechenzentren müssen ihre Kapazitäten anpassen, sprich entweder die vorhandene Fläche und Energie effizienter nutzen oder aufstocken. Doch speziell in Ballungszentren finden sich nur schwer geeignete Örtlichkeiten.

DCDi ermittelte in einer Befragung, dass die Leistungsdichte pro Rack stetig zunimmt.

Aktuelle Zahlen dazu liefern die Analysten von Datacenter Dynamics Intelligence (DCDi), die sich auf diesen Bereich spezialisiert haben. So liegt der Energieverbrauch in Rechenzentren derzeit bei über 45 GW; bis zum Jahr 2018 erwartet man zweistellige Wachstumsraten. Auch verstärkte Virtualisierung, Technologien zur Optimierung des Stromverbrauchs sowie eine verbesserte Recheneffizienz können diese Tendenz nicht umkehren. Ähnliches gilt für die Fläche: Betrug diese im Jahr 2013 noch rund 33,8 Millionen Quadratmeter, so werden für 2017 bereits 41,3 Mio. Quadratmeter prognostiziert.

Die Datenflut treibt die Anforderungen in Rechenzentren weiter nach oben. EMCs Präsentation „The Virtual Data Center of the Future“ zufolge soll die Zahl der Kunden, die ein Datenvolumen von einem Petabyte oder mehr speichern, von 2010 bis zum Ende der Dekade auf 100.000 anwachsen. Daher werden sich Storage und Datenverarbeitung wohl zunehmend von lokal gehaltenen Geräten in entfernte cloud-basierte Rechenzentren verlagern. Im Jahr 2019 sollen Ciscos Global Cloud Index (2014-2019) zufolge fast 90 Prozent der Workloads in cloud-basierten Rechenzentren verarbeitet werden.

Investition in die Zukunft


Doch wie lässt sich die kostbare RZ-Infrastruktur effizienter betreiben? High-Density-Computing gilt als zukunftsorientierte Technologie. Darunter versteht man die Maximierung der Dichte pro Rack. DCDi definiert die Schwelle für die neue Technologie bei 10kW pro Rack. Doch auch hier gibt es abweichende Meinungen. Noch herrscht viel Unsicherheit rund um das Thema, nicht zuletzt in Bezug auf die damit einhergehenden Kosten und den daraus resultierenden Nutzen. Vielen Unternehmen ist nicht bekannt, dass eine Dichte von 20kW und höher möglich ist. Auch ist der Kenntnisstand hinsichtlich Kühlanforderungen oder innovativen Kühlsystemen begrenzt.

Trotz dieser Herausforderungen gewinnt High-Density-Computing an Zuspruch. So ermittelte DCDi in einer Befragung, dass die Leistungsdichte pro Rack stetig zunimmt. Realisieren lassen sich drei Varianten:

  • Einsatz neuer Server-Modelle mit verbesserter Prozessor- und damit Rechenleistung.
  • Nutzung sogenannter Blade-Server, die sich sukzessive einschieben lassen.
  • Verwendung von High-Density-Pods. Dabei handelt es sich um eine oder mehrere Rackreihen, die eine Dichte pro Rack von durchschnittlich 4 kW oder mehr gewährleisten.

High-Density-Computing empfiehlt sich insbesondere, wenn nicht genügend RZ- bzw. Rackfläche zur Verfügung steht. So haben RZ-Betreiber zunehmend Schwierigkeiten, passende Örtlichkeiten zu finden, vor allem an überlasteten Drehkreuzen. Dies bestätigen vor allem die im Rahmen des „DCDi Global Census, 2014-15“ Befragten aus Hongkong, London, Singapur und Tokio, aber auch diejenigen aus Frankfurt und Paris. Einen guten Standort machen noch weitere Kriterien aus – z.B. zuverlässige Transportverbindungen, einfach erhältliche Baugenehmigungen, Konnektivität und Energie. Orte, die all diese Attribute auf sich vereinen, sind selten. So können Kommunen aufgrund von Lärm- oder Umweltbelastungen Einwände gegen den Bau von Rechenzentren erheben. Ist es also beispielsweise möglich, zusätzlichen Strom in einem bestehenden RZ bereitzustellen, ist High-Density-Computing ein tragfähiger Ansatz.

Abzudecken sind jedoch auch die komplexer werdenden Kühlanforderungen, da High-Density-Server mehr Hitze produzieren. Es reicht also nicht, die High-Density-Racks lediglich mit zusätzlicher Energie zu versorgen. Hier ist anzumerken, dass die Technologie zwar den Stromverbrauch pro Rack erhöht, insgesamt den Strombedarf für die Rechenlast eines Endanwenders jedoch erheblich senken kann. Industrial Light & Magic (ILM), das Unternehmen für Special Effects von George Lucas, verzeichnete zum Beispiel einen Rückgang von 84 Prozent. Höhere Recheneffizienz ist daher ein lohnendes Ziel.

Dies ist ein Artikel aus unserer Print-Ausgabe 04/2017. Bestellen Sie ein kostenfreies Probe-Abo.

Laut dem ITK-Lösungspartner NTT Europe Germany bedeutet der Einsatz von High-Density-Computing letztlich eine einfachere Handhabung im Rechenzentrum. Dieses benötigt weniger IT-Equipment pro Rack, so dass die Komplexität dank weniger Racks und Kabel sinkt. Gleichzeitig steigt die Zuverlässigkeit. All diese Vorteile wirken sich durch eine höhere Leistungsaufnahme pro Rack in kW aus. DCDi zufolge profitieren insbesondere Nutzer großer Rechenressourcen von High-Density-Computing. Die Analysten prognostizieren daher, dass Cloud-Computing-Provider, Digital-Media-Unternehmen sowie TK-Anbieter recht schnell auf diese Technologie setzen werden. Auch Anbieter von Virtual-Desktop-Infrastructure (VDI) dürften frühzeitig umstellen.

Bildquelle: Thinkstock/iStock

©2017 Alle Rechte bei MEDIENHAUS Verlag GmbH