Interview mit Eric Schnepf, Fujitsu

Hochparallele Supercomputer

Interview mit Eric Schnepf, Strategic Infrastructure Solutions, Presales Central Europe bei Fujitsu, über hochparallele Supercomputer für hochskalierende Anwendungen

Eric Schnepf, Fujitsu

Eric Schnepf, Strategic Infrastructure Solutions, Presales Central Europe bei Fujitsu

IT-DIRECTOR: Herr Schnepf, aus welchen Branchen verzeichnen Sie derzeit eine verstärkte Nachfrage nach High Performance Computing?
E. Schnepf:
In Deutschland kommen die meisten Anfragen nach High Performance Computing aus dem Bereich „Forschung & Lehre“ sowie aus dem Industriesegment „Manufacturing“.

IT-DIRECTOR: Für welche Anwendungszwecke wird HPC dabei in der Regel genutzt? Können Sie uns ein konkretes Anwendungsbeispiel nennen?
E. Schnepf:
Im Bereich „Forschung & Lehre“ gibt es ein sehr breites wissenschaftliches Anwendungsspektrum. In der letzten Zeit nimmt die HPC-Nutzung für „Life Sciences“-Anwendungen deutlich zu.
Im Industriesegment „Manufacturing“ dominieren Strömungsberechnungen (z.B. für Aerodynamik) sowie Strukturanalysen (z.B. für Crash-Simulationen).

IT-DIRECTOR: Für welche Systeme sollten sich Anwenderorganisationen, die auf der Suche nach mehr Leistungsfähigkeit sind, entscheiden: hochparallele Supercomputer oder Computercluster?
E. Schnepf:
Unter „hochparallelen Supercomputern“ verstehen wir Systeme wie unsere PrimeHPC FX10 oder den „K Computer“. Diese eignen sich besonders für hochskalierende wissenschaftliche Anwendungen. Industrielle Anwendungen – insbesondere wenn kommerzielle Software von ISVs genutzt wird – laufen vorwiegend auf „Computerclustern“, wie wir sie auf Basis von Primergy Servern anbieten.

IT-DIRECTOR: Bitte nennen Sie uns einen groben Rahmen: Mit welchen Anschaffungs- und mit welchen Wartungskosten müssen die Anwenderorganisationen rechnen? In welchem Millionenbereich bewegt man sich hier? Oder geht es auch etwas kostengünstiger?
E. Schnepf:
Je nach Leistungsanforderungen können HPC-Cluster bereits für etwa 30.000 Euro angeschafft werden, d.h. dies ist auch für mittelständische Firmen erschwinglich. Nach oben gibt es „fast“ keine Grenzen. Hochparallele Supercomputer skalieren hoch bis zu Multi-Millionen-Euro-Konfigurationen.

Auch HPC unterliegt einem starken Trend zur Standardisierung bei den Infrastrukturkomponenten. Dies führt zu vereinfachten Wartungsprozessen sowie günstigen Skalierungseffekten bei den Komponentenkosten und so zu einer Beschränkung der Wartungskosten.

IT-DIRECTOR: Wie gestaltet sich der „normale“ Lebenszyklus eines HPC-Systems? In welchen Zeitabständen tauschen die Anwenderorganisationen die Systeme in der Regel aus?
E. Schnepf:
In der Industrie werden HPC-Cluster in der Regel nach drei Jahren ausgetauscht. Im Bereich „Forschung & Lehre“ sind Laufzeiten von fünf Jahren nicht selten.

IT-DIRECTOR: Welche Leistungskriterien sind für Supercomputer bzw. HPC-Systeme heute gang und gäbe? Was bringt die Zukunft in diesem Segment – was kommt nach Petaflop und Petabyte?
E. Schnepf:
Die wichtigsten Leistungskriterien sind: Anwendungsleistung, Speicherbandbreite, I/O-Durchsatz, Stromverbrauch, Kosten für Kühlung sowie eine einfache Nutzung und Administration. Viele Firmen – auch Fujitsu – arbeiten bereits an der Roadmap zu Exaflops, hochparallele Supercomputer mit einem Exaflop werden etwa zwischen 2020 und 2022 erwartet.

IT-DIRECTOR: Stichwort Energieeffizienz: Insbesondere hierzulande haben RZ-Betreiber mit kontinuierlich steigenden Energiekosten zu kämpfen. Inwieweit passen Maßnahmen zur Steigerung der Energieeffizienz und der HPC-Einsatz zusammen?
E. Schnepf:
Gerade bei der Entwicklung von HPC-Systemen wird auf die Steigerung der Energieeffizienz großen Wert gelegt. Hierzu gehören die Optimierung der Luftströmung und der Lüftersteuerung genauso wie die Entwicklung neuer Kühltechnikern (z.B. Liquid Cooling in Serversystemen). Wir testen im Labor neue Systeme auch hinsichtlich Energieeffizienz unter Verwendung von Standard-Benchmarks.

IT-DIRECTOR: Welche Kühlsysteme haben sich bei HPC-Systemen am effektivsten erwiesen?
E. Schnepf:
Dies kann man nicht pauschal beantworten und hängt immer auch von der RZ-Infrastruktur der Kunden ab. Hier kommen u.a. traditionelle Luftkühlungen, Kaltgangeinhausungen, Racklösungen mit geschlossenem Wasserkühlkreislauf zum Einsatz.

IT-DIRECTOR: Was spricht für eine Luft-, was für eine Wasserkühlung von HPC-Systemen?
E. Schnepf:
Die Vor- und Nachteile hängen von der jeweiligen RZ-Infrastruktur des Kunden ab. Generell sind Luftkühlungskonzepte in vorhandenen RZ-Räumen leichter aufzubauen, stoßen aber schneller an Grenzen hinsichtlich der abführbaren Wärme pro Rack. Je größer die HPC-Konfiguration, desto eher kommt eine Form von „Liquid Cooling“ zum Einsatz.
Bei der Konzeption von neu zu bauenden RZ-Infrastrukturen für HPC wird heute von Beginn an die Möglichkeit der Wasserkühlung berücksichtigt.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok