Interview mit Jörg Heydemüller, Megware

HPC für eine Trillion Rechenoperationen

Interview mit Jörg Heydemüller, Repräsentant der Megware Computer Vertrieb und Service GmbH in Chemnitz, über die Einführung von High Performance Computing (HPC) in Unternehmen sowie die Lebenszyklen von Supercomputern

Jörg Heydemüller, Megware

Jörg Heydemüller, Repräsentant der Megware Computer Vertrieb und Service GmbH

IT-DIRECTOR: Herr Heydemüller, aus welchen Branchen verzeichnen Sie derzeit eine verstärkte Nachfrage nach High Performance Computing?
J. Heydemüller:
Wir haben uns in den vergangenen Jahren zur Nummer 8 im Ranking der weltweiten Supercomputing-Produzenten entwickelt. Dies spiegelt sich auch in der aktuellen Top-500-Liste der größten Rechner vom Juni dieses Jahres wider, bei der wir mit vier platzierten Systemen an verschiedenen Universitäten in Europa vertreten ist. Für Entscheidungsträger aus unterschiedlichen Industriebereichen, bei denen Supercomputer zum Einsatz kommen, ist das häufig ein entscheidendes Kriterium, sehr große, zum Teil sechsstellige IT-Investitionen an uns zu vergeben. Diese erhöhte Nachfrage erhalten wir insbesondere aus den Bereichen des Automobilbaus und der Pharmaindustrie.

IT-DIRECTOR: Für welche Anwendungszwecke wird HPC dabei in der Regel genutzt? Können Sie uns ein konkretes Anwendungsbeispiel nennen?
J. Heydemüller:
Eine Investition in Supercomputing-Technik sieht im ersten Moment nach hohen Ausgaben im mehrstelligen Euro-Millionen-Bereich aus. Allerdings sparen heute zum Beispiel Automobilbauer mit dem Einsatz entsprechender IT bei der Entwicklung eines neuen Fahrzeugmodells mehrere Millionen Euro ein. Früher wurden komplexe Prototypen einzeln in Handarbeit gefertigt und für Crash-Simulationen verwendet. Heute reichen ein, zwei oder drei Prototypen aus. Alles andere wird am Hochleistungsrechner in Bezug auf Crash, Geräuschkulisse oder Aerodynamik simuliert. Modernste Software kann heute in Echtzeit am entsprechenden Supercomputer verschiedene Szenarien und Simulationen bereitstellen.

IT-DIRECTOR: Für welche Systeme sollten sich Anwenderorganisationen, die auf der Suche nach mehr Leistungsfähigkeit sind, entscheiden: hochparallele Supercomputer oder Computercluster? Bitte begründen Sie kurz Ihre Einschätzung.
J. Heydemüller:
Bei einem Computercluster – einem Verbund vieler Server oder auch Knoten, kombiniert mit einem Hochleistungsnetzwerk – werden viele anstehende Rechenaufgaben parallel zur Berechnung verteilt. Insofern ist ein Cluster ein Supercomputer, der hochparallele Anwendungen sehr schnell und effizient lösen kann.

Hochparallele Supercomputer eignen sich insbesondere für Anwender und Rechenzentren, welche über wenige Applikationen verfügen, die sehr gut parallelisiert und in Anzahl der verwendeten Prozessorcores äußerst hoch skalierbar sind. Dies stellt auch den typischen Einsatzzweck für jene Art von Architektur dar und wird insbesondere in Spezialgebieten wie der Wettervorhersage oder in der Klimafolgenforschung genutzt. Muss jedoch eine Vielzahl von Anwendungen mit unterschiedlichen Anforderungen an die Ausstattung der einzelnen Server gerechnet werden bzw. kommen keine oder nur wenig parallelisierte Anwendungen zum Einsatz, stellen die Computercluster die flexiblere und in den meisten Fällen durch Standardkomponenten und dem günstigeren Netzwerk auch die kostengünstigere Lösung dar. Demzufolge kann ein Compute-Cluster sehr heterogen ausgelegt werden, um den verschiedenen Anforderungen zu genügen, ohne jedoch die maximal mögliche Performance für jede einzelne Applikation zu erzielen. Der vordergründige Mehrwert des Systems ist auch ein anderer. Der Fokus eines Supercomputers liegt auf der breit aufgestellten Rechenressource für beliebige Anwendungen einer großen Nutzerzahl.

IT-DIRECTOR: Bitte nennen Sie uns einen groben Rahmen: Mit welchen Anschaffungs- und mit welchen Wartungskosten müssen die Anwenderorganisationen rechnen? In welchem Millionenbereich bewegt man sich hier? Oder geht es auch etwas kostengünstiger?
J. Heydemüller:
Supercomputer zu entwickeln, zu evaluieren und beim Kunden zu integrieren, ist grundsätzlich kein schnelles Business, das sich im Katalog zusammenstellen lässt. Sie entstehen aus einer Vielzahl von Kriterien, welche erfüllt und von gut ausgebildeten Ingenieuren gesteuert sowie getestet werden müssen. Wir haben in den letzten 15 Jahren fast 1.000 Computercluster für unterschiedlichste Anwendungsbereiche in ganz Europa installiert.

Hierbei ist kein Supercomputer mit einem anderen vergleichbar. Verschiedenste Anwendungen aus Industrie, Forschung und Lehre erfordern immer wieder heterogene Technologien auf Basis von differenzierten Prozessoren mit divergenter Speicheranbindung, verschiedensten Netzwerkverbindungen bis hin zur Kühlungsmöglichkeit des Systems mit heißem Wasser. Dazu haben wir in unserem Technologiezentrum am Standort Chemnitz ein Benchmark-Center in Form eines eigenen Supercomputers aufgebaut. Im Vorfeld einer Investition bieten wir Anwendern die Möglichkeit, ihre Applikationen auf neuester Hard- und Software zu testen und zu vergleichen. Sie erhalten damit einen Überblick, welcher Technologieausbau für die eigenen Berechnungen optimal ist. Unsere Ingenieure unterstützen dabei den Kunden mit viel Engagement entweder via Remote-Zugriff oder auch live mit dem Kunden zusammen direkt am Cluster.

Da die zu berechnende Anwendung im Vordergrund steht, müssen die Budgets hierbei volatil sein. Wenn beispielsweise Wetterprognosen mit einem moderneren und effizienteren System wesentlich schneller berechnet werden können, wäre eine limitierte Budgetvorgabe nicht sinnvoll. Supercomputer werden meistens kontinuierlich erweitert und ausgebaut. Wir führen langjährige Partnerschaften, die mit minimalen Beträgen angefangen und heute ein System für über drei Millionen Euro im Serverraum zur Verfügung stehen haben. Spitzenforschung oder auch Tier-1-Projektinstallationen bewegen sich rasch bei einem Budget von 50 Mio. Euro.

IT-DIRECTOR: Wie gestaltet sich der „normale“ Lebenszyklus eines HPC-Systems? In welchen Zeitabständen tauschen die Anwenderorganisationen die Systeme in der Regel aus?
J. Heydemüller:
Lebenszyklen von Supercomputer können in der halbjährlich veröffentlichten Top-500-Liste beobachtet werden. Steht ein System am Anfang noch auf einer Position unter den Top 100, ist es in der Regel nach drei bis fünf Jahren technisch überholt, so dass es keine Platzierung mehr erhält. Das Nachfolgesystem ist dann meist schon installiert oder wird bereits geplant.

IT-DIRECTOR: Welche Leistungskriterien sind für Supercomputer bzw. HPC-Systeme heute gang und gäbe? Was bringt die Zukunft in diesem Segment – was kommt nach Petaflop und Petabyte?
J. Heydemüller:
Die Rechenanforderungen aus Industrie, Forschung und Lehre steigen stetig an. Damit erhöht sich auch der Druck auf die Hochleistungsrechner-Spezialisten, entsprechende Performance zu liefern. Wurden bis vor ein paar Jahren nur herkömmliche Multi-Core-Prozessoren in Supercomputer verbaut, werden zukünftige Many-Core-Prozessoren mit mehr als 50 Rechenkernen das Spektrum erweitern. Mit dem zusätzlichen Einsatz von Grafikprozessoren (GPUs) für rechenintensive Anwendungen werden jedoch nicht nur die Berechnungen beschleunigt, sondern sie sind dabei auch noch besonders energieeffizient. Durch verschiedene nationale und internationale Projekte wird für das Jahr 2020 eine Rechenleistung von einer Trillion Rechenoperationen pro Sekunde, sprich 1 Exaflop/s und einer Arbeitsspeicherbereitstellung im Bereich von 100.000 Terabytes erwartet.

IT-DIRECTOR: Stichwort Energieeffizienz: Insbesondere hierzulande haben RZ-Betreiber mit kontinuierlich steigenden Energiekosten zu kämpfen. Inwieweit passen Maßnahmen zur Steigerung der Energieeffizienz und der HPC-Einsatz zusammen?
J. Heydemüller:
Wir haben bereits vor Jahren die Zeichen der Zeit erkannt und beobachtet, dass Rechenzentren an ihre Grenzen stoßen, da sie immer weiter bestückt und heißer denn je werden. Deshalb entwickelten und installierten wir gemeinsam mit dem Leibniz-Rechenzentrum in Garching vor vier Jahren einen Prototyp, welcher mit sehr heißem Wasser (bis zu 55 Grad Celsius) als Kühlmittel direkt auf den Chips im Server gekühlt wird. Mithilfe einer Adsorptionsmaschine wird die entstandene „Abfallwärme“ genutzt, um weitere Server in einem separaten Serverschrank mit kühler Luft zu versorgen bzw. zu kühlen. Demnach ist es mit einfachen Mitteln möglich, in fünf Jahren rund 100.000 Euro Stromkosten einzusparen. Im Übrigen ist unser Erfolgsmodel „ColdCon“ der weltweit erste heißwassergekühlte AMD-Supercomputer.

IT-DIRECTOR: Welche Kühlsysteme haben sich bei HPC-Systemen am effektivsten erwiesen?
J. Heydemüller:
In den meisten Rechenzentren wird der Standard-Supercomputer mit kalter Luft gekühlt. Dabei sind meist Luftwärmewassertauscher im Rack integriert. Am effektivsten sind aus unserer Sicht Systeme, die direkt auf dem Chip mit warmen Wassern gekühlt werden. So wird der Wärmehotspot im Knoten am besten herausgeführt und die Prozessoren können problemlos auch im Turbomode betrieben werden. Es gibt differenzierte Projekte von verschiedenen Herstellern, welche direktflüssigkeitsgekühlte Systeme anbieten. Allerdings müssen hierbei auch die Infrastruktur und der Wille von den Anwendern, vom herkömmlichen Weg abzugehen, gegeben sein.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok