Klimatisierung in Rechenzentren

RZ-Kühlung für High Performance Computing

Ein Rechenzentrum (RZ) produziert viel heiße Luft. Diese zu kühlen, kostet Energie und damit bares Geld. Sollte man seine Server daher besser nahe dem Polarkreis betreiben? Berücksichtigt man besondere Strategien zur Klimatisierung von Hochleistungsrechenzentren (High Performance Computing, HPC), schafft es die IT, auch hierzulande einen kühlen Kopf zu bewahren.

  • Elwetritsch, Rechenzentrum der TU Kaiserslautern

    Elwetritsch im Rechenzentrum (RZ) der TU Kaiserslautern schafft aktuell 53 Billionen Rechenoperationen pro Sekunde auf 240 Rechnern und hat einen Energiebedarf von 110 kW.

  • Hochleistungsrechner Elwetritsch

    Die Vorlauftemperatur des Wassers beim Der Hochleistungsrechner (High Performance Computing, HPC) Elwetritsch beträgt zirka 10 Grad Celsius und erwärmt sich in den Kühlsystemen auf zirka 17 bis 23 Grad Celsius.

  • Hochleistungsrechner Mogon, Universität Mainz

    Durch die Kühlung über rack-basierte Klimatisierungsmodule, die rechts und links zwischen den Serverracks am Hochleistungsrechner Mogon der Universität Mainz eingebaut sind, lässt sich eine effiziente Kühlung erreichen.

Besitzer von Laptops kennen das Phänomen: nach dem Öffnen mehrerer Anwendungen oder dem Start einer rechenintensiven Aufgabe laufen die eingebauten Lüfter auf Hochtouren. Der Prozessor verbraucht jetzt mehr Energie und erzeugt damit mehr Wärme, die über eine höhere Lüfterdrehzahl schnellstmöglich aus dem Gehäuse transportiert werden muss. Ähnlich muss auch die Kühlung im Rechenzentrum reagieren. Will beispielsweise die Forschungsabteilung bei einem Automobilhersteller eine neue IT-gestützte Crashtest-Simulation durchführen, werden hierfür die Server im Rechenzentrum auf Volllast betrieben. Das heißt dann auch für die Kühlsysteme: volle Leistung bringen, bis die Aufgabe erledigt ist.

In anderen Dimensionen müssen IT-Verantwortliche denken, die den Betrieb einer HPC-Umgebung verantworten. HPC steht für High Performance Computing und beschreibt IT-Landschaften, die über Tage oder sogar Wochen hinweg unter maximaler Auslastung laufen. In der Praxis sind es häufig Forschungseinrichtungen oder Universitäten, die solche Hochleistungszentren betreiben. Hier sind ganze Rechnerfarmen auf engem Raum zusammengepackt und verlangen – ganz ähnlich wie ein überforderter Laptop – nach viel frischer und gekühlter Luft.

Durch die extreme Leistungsdichte der HPC-Rechenzentren sind die Server auf kleinstem Raum konzentriert. So entsteht ein Verbrauch von bis zu 30 Kilowatt Energie auf einer Fläche von weniger als einem Quadratmeter. Bei dieser Energiedichte können klassische Doppelbodenkonstrukte zum Transport der kalten Luft zu den Serverschränken schnell an ihre Grenzen kommen. Um die Schränke adäquat zu kühlen, müssten die Böden extrem hoch gebaut werden. Das verfügbare Volumen ist sonst schlichtweg nicht ausreichend für die benötigte Luftmenge. Zudem muss sich die Kaltluft den Platz gegebenenfalls mit Kabeltrassen und anderen Hindernissen teilen.

Kurze Reaktionszeiten der RZ-Kühlung

Daher kann man in HPC-Rechenzentren zunehmend die Klimatisierung an den Racks, die sogenannte rack-basierte Kühlung, als wirtschaftlich und technisch sinnvolle Lösung nutzen. Wichtig ist es hierbei, die Kühlkapazität möglichst nah an den Ort der Wärmeerzeugung zu bringen, was rack-basierte Kühlsysteme wie etwa die LCP-Familie (Liquid Cooling Package) von Rittal leisten können. So nutzt der Supercomputer „Mogon“ der Johannes Gutenberg-Universität Mainz die LCP-Systeme, um 44 kW thermische Last pro Rack abzuführen. Das komplette System ist geschottet, die heiße Luft wird nicht in den normalen Luftkreislauf eingebracht, sondern direkt an der Rückseite der Server noch im Schrank vom Kühlsystem angesaugt, über den Wärmetauscher gekühlt und an der Vorderseite wieder eingeblasen. Dabei kommt eine typische Besonderheit von HPC-Rechenzentren zum Tragen: Liquid Cooling Package müssen schnell reagieren und ihre Leistung liefern können, bei Mogon fällt innerhalb von 40 Sekunden die volle Abwärme an, wenn ein Rechenjob startet.

Heute wird die Luftführung in den Serversystemen in der Regel mit integrierten Hochleistungslüftern effizient realisiert. Unter besonderen Umständen sind dadurch keine weiteren Lüfter für die Klimatisierung notwendig. Bis zu etwa 30 kW reichen passive Rücktüren in den Schränken aus, da die leistungsstarken Lüfter der Bladeserver genügend Luftvolumen in die Wärmetauscher drücken. Für hohe Leistungsanforderungen führt jedoch kaum ein Weg an rack-basierten Systemen vorbei. Verlangt die Anwendung noch mehr Leistung oder erhöhte Redundanz, können sich rack-basierte Kühlsysteme auch gegenseitig unterstützen. Wenn die Module im Wechsel mit den Serverschränken aufgebaut sind, blasen sie die Kaltluft an der Front in beide Richtungen aus und versorgen die Serverschränke so jeweils von zwei Seiten. Spielt Redundanz eine große Rolle, sollten die Kühlmodule im Wechsel an zwei verschiedenen Wasserkreisläufen angeschlossen sein.

HPC-Systeme energieeffizient betreiben

Das Wasser für die Wärmetauscher der rack-basierten Kühlsysteme wird zentral aufbereitet und gekühlt. Immer häufiger kommt in mittel- und nordeuropäischen Breiten indirekte freie Kühlung zur Kaltwasseraufbereitung zum Einsatz. In heutigen Systemen kann die Freikühlgrenztemperatur durchaus bis auf 1,5 Kelvin an die gewünschte Wasservorlauftemperatur heranreichen. Erst wenn dieser Vorlauftemperaturwert überschritten wird, ist der deutlich kostenintensivere Einsatz von Chiller-Systemen notwendig. Weil die zulässigen Server-Zulufttemperaturen durch ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers) auf bis zu 27 Grad Celsius angehoben wurden, sind Wasservorlauftemperaturen von 20 Grad Celsius keine Seltenheit mehr. ASHRAE ist ein US-Berufsverband, der Technologien für das Gebäudeklimamanagement fördert und Empfehlungen ausspricht. Die kostengünstige Freikühlzeit hat sich im Gegensatz zu sechs Grad Vorlauftemperatur vor fünf Jahren deutlich verlängert. Damit lassen sich selbst HPC-Systeme energieeffizient betreiben.

Abwärme zum Heizen nutzen

Die große Menge an Abwärme, die HPC-Rechenzentren produzieren, kann übrigens ein Segen sein. Vor allem bei Neubauten wird immer öfter darauf geachtet, das entstehende warme Wasser in die Gebäudetechnik zu integrieren. So heizen die Server indirekt die Büroräume der Mitarbeiter oder angrenzende Gebäudekomplexe. In einem Universitätscampus in den USA hält Warmwasser aus dem Rechenzentrum die Wege auf dem Gelände schnee- und eisfrei. Solche, wenn auch sinnvollen, Zusatzfunktionen lassen sich jedoch kaum nachrüsten und sind bei bestehenden Anlagen in der Regel nicht machbar.

Wo es möglich ist, nutzen Betreiber von HPC-Rechenzentren lokale Gegebenheiten aus und versuchen gezielt, Standorte in klimatisch günstigen Regionen zu erschließen. Die Klimatisierung profitiert von den niedrigen Außentemperaturen, die fast ganzjährig für die indirekte freie Kühlung ausreichen. In Neuseeland verwendet Weta Digital, eine Spezialfirma für digitale Effekte (z.B. für die Filmproduktionen Avatar und Herr der Ringe), für ihre Rendering-Farm indirekte freie Kühlung und 30 LCP rack-basierte Module von Rittal. Die 30 Racks beherbergen jeweils vier HP-Blade-Chassis mit jeweils 16 Servern. Zurzeit wird eine Leistungsdichte von 25 kW erreicht; die Kühlsysteme besitzen jedoch ausreichend Leistungsreserven für kommende Server-Generationen. Selbst ohne indirekte freie Kühlung erreicht das Rechenzentrum ganzjährig einen Power Usage Effectiveness (PUE) von 1,5. Bei einer ausreichend niedrigen Außentemperatur sinkt dieser Wert auf 1,15 Punkte ab. So belasten auch die nächsten Blockbuster Umwelt und Stromrechnung nicht mehr als unbedingt nötig.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok