Interview mit Bart Mellenbergh, Dell

Luftkühlung für HPC-Systeme

Interview mit Bart Mellenbergh, Director HPC Solutions EMEA bei Dell, über kleinere HPC-Infrastrukturen als Wachstumstreiber

Bart Mellenbergh, Dell

Bart Mellenbergh, Director HPC Solutions EMEA bei Dell

IT-DIRECTOR: Herr Mellenbergh, aus welchen Branchen verzeichnen Sie derzeit eine verstärkte Nachfrage nach High Performance Computing (HPC)?
B. Mellenbergh:
Ein starker Bedarf zeichnet sich in allen forschungsintensiven Branchen wie der Medizintechnik, der Automobilindustrie oder dem Maschinenbau ab. Exemplarisch dafür stehen Unternehmen aus dem verarbeitenden Gewerbe, die laut der Definition des Deutschen Instituts für Wirtschaftsforschung mehr als 2,5 Prozent ihres Umsatzes für Forschung und Entwicklung ausgeben. Eine wichtige Rolle spielen aber auch nach wie vor öffentliche und private Forschungseinrichtungen. Wachstumstreiber sind kleinere HPC-Infrastrukturen, die schnell umsetzbare Ergebnisse liefern und einen entscheidenden Beitrag dazu leisten, dass Unternehmen wettbewerbsfähig bleiben oder sich auf neuen Gebieten einen Wettbewerbsvorsprung verschaffen.

IT-DIRECTOR: Welche Anwendungszwecke wird HPC dabei in der Regel genutzt?
B. Mellenbergh:
Unsere Genomic Data Analysis Platform beispielsweise wird am Translational Genomics Research Institute (TGen) in Phoenix, Arizona, eingesetzt und ist auch im europäischen Markt verfügbar. Das Institut befasst sich mit biomedizinischen Forschungen und klinischen Studien zu Neuroblastomen, die eine der aggressivsten Krebserkrankungen bei Kindern auslösen. Die Lösung unterstützt die Wissenschaftler dabei, Gendaten effizienter zu analysieren und damit den Trial-and-Error-Aufwand bei der Suche nach wirksamen Therapiemethoden zu reduzieren. Ein weiteres Einsatzgebiet ist die 3D-Darstellung von Ergebnissen aus der medizinischen Forschung und deren Einsatz in der Diagnostik und Therapie.

IT-DIRECTOR: Für welche Systeme sollten sich Anwenderorganisationen, die auf der Suche nach mehr Leistungsfähigkeit sind, entscheiden: hochparallele Supercomputer oder Computercluster?
B. Mellenbergh:
Unsere langjährigen Erfahrungen aus den unterschiedlichen Anwendungsgebieten zeigen, dass High Performance Computing nie eine Frage des Entweder-Oder ist. Jedes Projekt hat seine individuellen Herausforderungen. Einzelne Anwendungen oder HPC-Services benötigen sicherlich Supercomputer. Standardbasierte Computercluster bieten in der Regel genügend Rechenleistung für die allermeisten Anwendungsszenarien.

IT-DIRECTOR: Bitte nennen Sie uns einen groben Rahmen: Mit welchen Anschaffungs- und mit welchen Wartungskosten müssen die Anwenderorganisationen rechnen? In welchem Millionenbereich bewegt man sich hier? Oder geht es auch etwas kostengünstiger?
B. Mellenbergh:
Wenn von High Performance Computing und Supercomputern für große, national tätige Forschungseinrichtungen die Rede ist, geht es oft sofort um Investitionskosten von vielen Millionen Euro. Ein typischer Clusterknoten dagegen, wie ihn Unternehmen heute einsetzen, enthält Standard-CPUs und verfügt über mehr Rechenleistung als Supercomputer vor einigen Jahren. Für grafikintensive Anwendungsszenarien stellen Precision-Workstations von Dell in Verbindung mit Nvidia Tesla GPUs und der Cuda-Architektur Topleistung für parallele Datenverarbeitungsanwendungen bereit. Wichtig ist, zunächst die aktuellen und geplanten Anwendungsszenarien zu analysieren und auf dieser Basis eine passende Lösung aus Rechen-, Speicher- und Netzwerkkomponenten zusammenzustellen.

IT-DIRECTOR: Wie gestaltet sich der „normale“ Lebenszyklus eines HPC-Systems? In welchen Zeitabständen tauschen die Anwenderorganisationen die Systeme in der Regel aus?
B. Mellenbergh:
Einige Unternehmen und Forschungseinrichtungen tauschen ihre HPC-Systeme in regelmäßigen Abständen von einigen Jahren aus. Sie werden jedoch häufig nicht gänzlich außer Betrieb genommen, sondern meist für weniger aufwendige Anwendungsszenarien weiterhin genutzt. Der Trend geht eindeutig hin zu flexiblen, erweiterbaren und hochskalierbaren Lösungen.

IT-DIRECTOR: Stichwort Energieeffizienz: Insbesondere hierzulande haben RZ-Betreiber mit kontinuierlich steigenden Energiekosten zu kämpfen. Inwieweit passen Maßnahmen zur Steigerung der Energieeffizienz und der HPC-Einsatz zusammen?
B. Mellenbergh:
Würde der technische Fortschritt in der CPU-Technologie nur evolutionär erfolgen, wäre eine bessere Performance pro Watt und damit eine höhere Energieeffizienz nur in kleinen Schritten zu erreichen. Das Design von Grafikbeschleunigern wie den Nvidia GPUs oder einem Coprozessor wie dem Intel Xeon Phi ermöglicht eine deutlich bessere Gleitkomma-Performance pro Watt. Notwendig ist dazu aber ein entsprechend höherer serieller und paralleler Aufwand beim Programmieren. Die Software-Entwicklung ist aktuell und auch in Zukunft die größere Herausforderung.

IT-DIRECTOR: Welche Kühlsysteme haben sich bei HPC-Systemen am effektivsten erwiesen?
B. Mellenbergh:
Für standardbasierte HPC-Systeme ist die Luftkühlung immer noch die erste Wahl. Bei aktuellen Servern, die bei erhöhten Temperaturen eingesetzt werden können, ist auch eine Luftkühlung in weiten Teil Europas möglich – und in diesem Fall sinken die Kühlkosten. Viele luftgekühlte Systeme nutzen die Klimaanlagen in den Rechenzentren, die letztlich mit Kühlwasser arbeiten. In größeren Einrichtungen setzen sich wassergekühlte Türen durch, die wesentlich weniger Energie benötigen als konventionelle Klimaanlagen.

IT-DIRECTOR: Was spricht für eine Luft-, was für eine Wasserkühlung von HPC-Systemen?
B. Mellenbergh:
Das ist eine grundsätzliche Frage. Mit Wasserkühlung – in Form eines lokalen Wärmetauschers – lassen sich einzelne Komponenten direkt kühlen. Bei der Kühlung mit Umgebungsluft kommen beispielsweise wassergekühlte Türen zum Einsatz. Diese Art von Kühlung verursacht zusätzliche Kosten, die Unternehmen bei ihren Investitionsentscheidungen berücksichtigen sollten. Oft gilt diese Art von Kühlung in Form eines höheren Werts für die Power Usage Effectiveness (PUE) als effizienter. Das ist aber nicht immer der Fall. Die Universität Cambridge arbeitet mit wassergekühlten Türen sowie mit Evaporative Cooling und erzielt damit einen sehr guten PUE-Wert von 1,06. Bei einer direkten wassergekühlten Lösung werden keine Ventilatoren in den wassergekühlten Türen benötigt. Als Folge verbessert sich der PUE-Wert. Das geht allerdings zu Lasten einer komplexeren und teureren Infrastruktur, bei der die Gesamtkosten nur gering sinken. Zudem ist das Kühlsystem der Universität Cambridge bereits sehr kosteneffizient. Abgesehen davon kann die PUE eine verwirrende Metrik sein, wenn sie nicht richtig eingesetzt wird: Sehr ineffiziente Server können einen vergleichsweise besseren PUE-Wert erzielen.

Die direkte Kühlung von Prozessoren ermöglicht mehr Turbo States und damit eine höhere Performance, benötigt jedoch mehr Energie und verursacht damit höhere Kosten. Eine direkte Wasser- oder Flüssigkeitskühlung ermöglicht, die Zahl der Recheneinheiten pro Serverrack zu erhöhen. Wenn die Rackdichte eine wichtige Kennziffer ist, bietet die Flüssigkühlung Vorteile – allerdings zu Lasten einer proprietären Lösung.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok