High Performance Computing

HPC-Systeme als Boliden der Zukunft

High-Performance-Computing-Systeme (HPC) werden ­immer leistungsfähiger. Glaubt man den Herstellern, soll künftig gar die Exaflop-Marke geknackt werden.

Bolide, Bildquelle: Thinkstock/iStock

HPC-Systeme gelten als die Boliden der IT-Branche.

Sie gelten als die Boliden der IT-Branche und berechnen Unmengen von Daten in Bruchteilen von Millisekunden. So rechnet der laut der Top-500-Liste der weltweit größten HPC-Installationen aktuell auf Platz 1 gelistete Supercomputer „Tianhe-2“ am National Supercomputer Center in Guangzhou in China mit einer Leistung von ca. 33,9 Petaflops (Billiarden Gleitkommaoperationen pro Sekunde). Der schnellste Rechner in Deutschland steht im Forschungszentrum Jülich, rangiert auf Platz 8 der Liste und kommt immerhin noch auf eine Geschwindigkeit von rund fünf Petaflop/s.

Traditionell zählen Forschungsinstitute und der öffentliche Sektor zu den Abnehmern von HPC-Systemen. „In den letzten Jahren haben allerdings auch innerhalb der Privatwirtschaft die Anforderungen an Rechenleistung massiv zugenommen, sodass wir mittlerweile eine große Nachfrage aus der produzierenden Industrie, insbesondere der Luftfahrttechnik und dem Automobilbau, sowie aus dem Finanzsektor feststellen“, betont Bill Mannel, General Manager Compute Servers bei SGI. In diesem Zusammenhang ergänzt Bart Mellenbergh, Director HPC Solutions EMEA bei Dell, dass „vor allem Unternehmen aus dem verarbeitenden Gewerbe, die laut Definition des Deutschen Instituts für Wirtschaftsforschung mehr als 2,5 Prozent ihres Umsatzes für Forschung und Entwicklung ausgeben, Investitionen in HPC-Systeme tätigen.

Da man mittlerweile nicht mehr nur im Umfeld von Forschung und Entwicklung auf die klassischen Hardwareboliden trifft, haben sich auch die Anwendungsfelder für HPC-Systeme verändert. „Viele Organisationen nutzen deren Leistungsfähigkeit für komplexe Simulationen, etwa für Wettervorhersagen oder für die Produktentwicklung, da sich so kostenintensive Tests mit Prototypen minimieren lassen“, erklärt Bill Mannel. So simuliere etwa das Deutsche Luft- und Raumfahrtzentrum mittels HPC das physische Flugverhalten von Flugzeugen und deren Komponenten, um die Entwicklungsdauer zu reduzieren und weitgehend auf die Konstruktion von Testmodellen verzichten zu können.

Desweiteren treiben aktuellen Entwicklung der IT-Branche, etwa die zunehmenden Bedeutung von Big-Data-Analysen, die Verbreitung von Superrechnern voran. So betont Klaus Gottschalk, Senior IT Specialist bei IBM, dass HPC wichtig sei für die Beantwortung technischer oder wissenschaftlicher Fragen wie etwa ‚Wie wird das Wetter in sechs Stunden sein’ oder ‚Wie finde ich ein Merkmal in 1.000 Erbgutanalysen’? Demgemäß reichen die Anwendungen von Hochleistungsrechnern heute von Informationen des täglichen Gebrauchs über einfachste Entwicklungsaufgaben bis hin zu den großen ungelösten Fragen der Wissenschaft. „Simulation stellt neben der Theorie und dem Experimentieren heute die dritte Säule des wissenschaftlichen Fortschritts dar – kaum ein Gebiet der Entwicklung kommt heute ohne Simulation aus. HPC ist daher in der Mitte von Forschung, Entwicklung und Fertigung angekommen“, betont Gottschalk.

Ein konkretes Anwendungsbeispiel findet man beim Deutschen Klimarechenzentrum (DKRZ) in Hamburg. Dort setzt man für das High Performance Computing auf einen Hochleistungsrechner auf Basis von Bullx B700 DLC Blades. In der Endausbaustufe, die 2016 erreicht sein soll, soll der Bolide etwa drei Petaflop/s Rechenleistung sowie eine Speicherkapazität von 45 Petabyte erreichen. Dies entspricht drei Billiarden Rechenoperationen pro Sekunde und einem Datenvolumen von zehn Millionen DVDs.

Das DKRZ will den neuen Hochleistungsrechner für die Verbesserung von Klimamodellen nutzen. Im Mittelpunkt steht die Frage: „Was hält das Klima für unsere Zukunft und für die der Erde bereit?“ Zentrale Hilfsmittel bei ihrer Beantwortung sind auch hier Simulationen, d.h. die Nachbildung des Klimasystems und seiner komplexen Entwicklung im Computer mithilfe numerischer Modelle. „Nur durch stets an die neueste Technologie angepasste Hochleistungsrechner können verbesserte Klimavorhersagen getroffen werden. Mit dem neuen Rechner erhoffen wir uns insbesondere bei der Vorhersage der Wolkenbildung ganz neue Erkenntnisse“, betont Prof. Dr. Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie, Hauptnutzer unter den Gesellschaftereinrichtungen des DKRZ.

Der künftig zum Einsatz kommende Rechner soll die maximale Rechenleistung gegenüber dem aktuellen um etwa den Faktor 20 steigern. Im Endausbau wird er mehr als 60.000 Prozessorkerne, verteilt auf rund 60 Racks, umfassen. Für das Projekt stehen 41 Millionen Euro zur Verfügung, die zu zwei Dritteln vom Bundesministerium für Bildung und Forschung und zu einem Drittel von der Helmholtz-Gemeinschaft Deutscher Forschungszentren finanziert werden. Bereits vergangenen Mai wurde ein Vertrag mit dem Anbieter Bull unterzeichnet, der die Beschaffung der Kernkomponente, bestehend aus Rechner und Plattenspeicher im Wert von initial 26 Millionen Euro, umfasst.

Das Beispiel beim DKRZ zeigt, dass sich HPC-Projekte nicht selten im Millionenbereich bewegen. Doch mitunter geht es auch kostengünstiger. Laut Eric Schnepf, Strategic Infrastructure Solutions Presales bei Fujitsu, können HPC-Cluster je nach Leistungsanforderungen bereits für etwa 30.000 Euro angeschafft werden. Für die geringeren Kosten sorge, so Eric Schnepf, u.a. der HPC-Trend zur Standardisierung bei den Infrastrukturkomponenten. Denn dies führe zu vereinfachten Wartungsprozessen sowie günstigen Skalierungseffekten und damit zu einer Reduzierung der Supportkosten.

Ähnlich argumentiert Klaus Gottschalk: Ihm zufolge basieren sogar „die meisten HPC-Systeme auf kostengünstiger Hardware, woraus man Cluster mit der gewünschten Größe und passendem MPI-Netzwerk baut.“ So werde vielleicht ein Ingenieurbüro ein System mit wenigen Knoten bei sich installieren, wobei die Kosten dann zwischen rund 10.000 bis 50.000 Euro liegen. Laut Gottschalk liegt die Obergrenze aktuell bei Systemen mit zehntausenden Rechenknoten, womit man sich sehr schnell wieder im zweistelligen Millionenbereich befindet.

Aufgrund der nicht gerade günstigen Anschaffungskosten könnte man meinen, dass die Boliden eine lange Lebensdauer besitzen und über Jahre hinaus ihre Dienste tun. Aufgrund der Schnelllebigkeit im Prozessor- und Speicherbereich arbeiten viele Maschinen jedoch nur für kurze Zeit im Hochleistungsbetrieb. „HPC-Cluster werden in der Industrie in der Regel nach drei Jahren ausgetauscht“, bestätigt Eric Schnepf. Für den Bereich „Forschung & Lehre“ räumt er der Hardware mit rund fünf Jahren einen etwas längeren Lebenszyklus ein.

Diese Entwicklung spiegelt auch die eingangs erwähnte Top-500-Liste der Supercomputer wider. Denn „befindet sich ein System zunächst unter den Top 100, ist es in der Regel nach drei bis fünf Jahren technisch soweit überholt, so dass es keine Platzierung mehr erhält. Das Nachfolgesystem ist dann meist schon installiert oder wird bereits geplant“, erklärt Jörg Heydemüller von Megware. Und auch Bart Mellenbergh von Dell bestätigt, dass viele Unternehmen und Forschungseinrichtungen ihre HPC-Systeme in regelmäßigen Abständen austauschen. Allerdings räumt er ein, dass sie zumeist nicht gänzlich ausgemustert, sondern vielmehr für weniger aufwendige Anwendungsszenarien genutzt werden.

Was folgt auf Petaflops?

Noch liegt die Leistungsfähigkeit von HPC-Systemen im Petaflop- sowie Petabyte-Bereich. Allerdings wird – wie in so vielen IT-Bereichen – in Zukunft die Performance deutlich zunehmen. So berichtet Bill Mannel von SGI: „Wir verfügen heute über Systeme im zweistelligen Petaflop-Bereich und gehen davon aus, dass innerhalb der nächsten zwei Jahre 100 Peta­flops und in nicht allzu ferner Zukunft auch 1.000 Petaflops, also ein Exaflop, erreicht werden können.“ Darüber hinaus wollen auch andere HPC-Anbieter ihre Boliden mit deutlich mehr Power ausstatten.

So gibt es etwa bei Fujitsu eine Roadmap in Richtung Exaflops, wobei Eric Schnepf betont, dass man hochparallele Supercomputer mit einem Exaflop etwa zwischen 2020 und 2022 von dem Hersteller erwarten kann. Für Klaus Gottschalk hat bereits ein Wettrennen bis zum Durchbruch des Exaflop-Zeitalters begonnen: „Wenn man die Top-500-Liste der vergangenen Jahren extrapoliert, dann installieren wir schon in wenigen Jahren die ersten Exaflop-Supercomputer.“ Auf dem Weg dorthin gibt es laut Gottschalk allerdings noch einige technologische Hürden zu überwinden, und zwar in folgender Reihenfolge: Energieeffizienz, Datenexplosion und Mean Time between Failure (MTBF), d.h. die durchschnittliche Zeit zwischen Ausfällen.

Apropos Energieeffizienz: Führt man sich die erreichten Spitzenwerte im Peta- und bald Exaflop-Bereich vor Augen, wird schnell klar, dass ohne entsprechende Energiezufuhr kaum etwas geht. In Europa sowie insbesondere in Deutschland sind die Energiekos­ten für den laufenden Supercomputer-Betrieb jedoch alles andere als ein Pappenstiel. Dabei macht vor allem die Klimatisierung der Boliden einen großen Batzen der Kosten aus, wobei sich hier durchaus an der ein oder andere Stellschraube drehen lässt. So ist laut Bart Mellenbergh für standardbasierte HPC-Systeme nach wie vor eine Luftkühlung die erste Wahl. „Bei aktuellen Servern, die bei erhöhten Temperaturen eingesetzt werden können, ist eine Luftkühlung in weiten Teilen Europas möglich, was zu sinkenden Kühlkosten führt“, sagt Mellenbergh. Bei größeren Installationen würden sich demgegenüber wassergekühlte Rack-Türen durchsetzen, die wesentlich weniger Energie benötigen als konventionelle Klimaanlagen.

Für eine Wasserkühlung spricht sich auch Bill Mannel aus: „Für HPC-Umgebungen hat sich die Cell-Technologie – d.h. wassergekühlte Gehäuse im Verbund mit wassergekühlten Blade-Servern ohne Lüfter – als das effizienteste System erwiesen.“ Denn durch eine hohe Packungsdichte, Warmwasserkühlung sowie einer im Vergleich zu Lüftern weitaus effizienteren integrierten Kühlrack-Architektur, sei dies aktuell die optimale Kombination, um Rechenkapazität, Kühlleistung und Energieverbrauch – und nicht zuletzt die Investitionskosten – in Einklang zu bringen.

Den Vorteil der direkten Kühlung in der Hardware erklärt Mannel wie folgt: „Zwar ist die Luftkühlung gemessen an den Investitionskosten die günstigste Kühlungsvariante, benötigt aber am meisten Platz und Energie, während Wasserkühlung weitaus weniger Fläche und Energie, aber höhere Investitionen erfordert.“ Laut dem SGI-Manager ist die Immersionskühlung sehr effizient: Hierbei werden Komponenten in eine hitzeabsorbierende Flüssigkeit getaucht, wobei „wir aktuell mit 3M und Intel an einem System arbeiten, das die Energiekosten für die Kühlung in Zukunft um bis zu 95 Prozent reduzieren könnte“, berichtet Mannel.

Auch bei HP erweist man sich hinsichtlich der Energieeffizienz als äußerst umtriebig und setzt gleich auf mehrere Initiativen: „Zunächst besitzen alle unsere Standardsysteme integrierte Überwachungsanlagen, die eine effiziente Nutzung von Energie ermöglichen. CPUs und Systeme werden beispielsweise automatisch ausgeschaltet, wenn sie nicht genutzt werden“, erläutert Philippe Trautman, Manager im Bereich High Performance Computing bei HP EMEA. Desweiteren habe man mit Moonshot eine Low-Power-Computing-Lösung entwickelt, die man selbst als Software-defined-Lösung bezeichnet. „Dies bedeutet, dass wir Rechenknoten entwickeln, die den Anwendungsanforderungen entsprechen. Dieser Ansatz erlaubt uns den Einsatz extrem niedrigenergetischer Lösungen für den Betrieb spezifischer Anwendungen, verglichen mit anderen gängigen CPUs“, so Trautman weiter. Nicht zuletzt verweist er auf die eigenen Angaben zufolge ultradichte Warmwasser-Kühlungs-Technologie. „Unser kürzlich angekündigter Apollo 8000 ist die wohl fortschrittlichste Direct-Liquid-Cooling-Lösung (DLC) weltweit. Wir haben jetzt das erste System in Europa in Betrieb genommen und sehen unsere Zielgruppe dafür in großen Rechenzentren, beispielsweise in Forschungszentren“, sagt Trautman.

Nicht zuletzt vergleicht Klaus Gottschalk die HPC-Systeme hinsichtlich ihres Energieverbrauchs mit der „Formel 1“ des Computings: „Probleme wie steigende Energiekosten und notwenige drastische Steigerung der Energieeffizienz treten bei HPC-Systemen zuerst auf und ähnlich wie bei der Formel 1 werden hier neue Lösungen entwickelt und getestet; von guten Lösungen profitiert dann der gesamte IT-Markt. So hat etwa unser Forschungslabor in Rüschlikon bei Zürich mit dem System ,Aquasar‘ einen Prototyprechner bei der ETH in Zürich installiert, um direkte Wasserkühlung zu testen. Es hat sich gezeigt, dass Voraussagen über die Einsparung von Energiekosten zur Kühlung des Systems eingetroffen sind: Es werden Einsparungen von 40 Prozent der Gesamtenergiekosten erreicht. Heute wird direkte Wasserkühlung von fast allen Computerherstellern am Markt als Option angeboten, ist also am Markt angekommen.“

Die größten Supercomputer in Deutschland

1. Forschungszentrum Jülich, IBM Juqueen
2. Leibniz Rechenzentrum, IBM SuperMUC
3. Max-Planck-Gesellschaft, IBM iDataplex
4. HWW/Universität Stuttgart, Cray Hermit
5. Max-Planck-Gesellschaft, IBM iDataplex
6. Airbus, HP HPC4
7. Aerospace Company, HP Cluster Platform 3000 BL460c Gen8
8. Universität Frankfurt, Clustervision/Supermicro Loewe-CSC
9. Universität Hannover, Cray Gottfried
10. Konrad-Zuse-Zentrum für Informationstechnik, Cray Konrad
11. Forschungszentrum Jülich, Bull Juropa
12. T-Systems, SGI Case-2

Quelle: Top-500-Liste, Juni 2014

 

Was kosten Supercomputer?

Bei High-Performance-Computing-Systemen (HPC) und Supercomputern rücken zunehmend die Gesamtbetriebskosten in den Vordergrund. Dabei sind neben dem Kaufpreis u.a. folgende Punkte entscheidend:

  •   Wartungs- und Betriebskosten
  •   Kosten für den Kauf einer Softwarelizenz
  •   Kosten für Wartung und Support, die unternehmensintern erbracht werden – ­besonders dann, wenn eine Portierung notwendig ist.
  •   Ausgaben zur Erfüllung von Rechenzentrumsvorschriften (z.B. Austausch der ­Kühlungsinfrastruktur, Energieeffizienz)
  •   Personalkosten für Support und Instandhaltung des Systems
  •   Kosten für Kühlung und Strom

Was spricht für eine Luft-, was für eine Wasserkühlung bei HPC-Systemen?

Für eine Wasserkühlung spricht:

  •   Energieeffizienz: mehr Flops pro Watt als bei Systemen mit Luftkühlung
  •   Dichte: weniger Platzverbrauch im Rechenzentrum
  •   Wärmenutzung: Das warme Kühlwasser kann verwendet werden, um beispielsweise Gebäude zu heizen
  •   bessere Kontrolle über das System; einfacher Betrieb
  •   niedrigere Gesamtbetriebskosten während der Lebensdauer

Für eine Luftkühlung spricht:

  •   einfache Installation
  •   traditionelle Rechenzentrumsumgebung
  •   keine besonderen Strom- oder Kühlungsanlagen
  •   einfacher Betrieb und Instandhaltung

Quelle: Philippe Trautman, Manager High Performance Computing und Performance-Optimized Datacenters bei HP EMEA

Bildquelle: Thinkstock/iStock

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok