Interview mit Bill Mannel, SGI

HPC-Spitzenleistung im Petaflop-Bereich

Interview mit Bill Mannel, General Manager Compute Servers bei SGI, über wichtige Leistungskriterien von Systemen für das High Performance Computing (HPC)

Bill Mannel, SGI

Bill Mannel, General Manager Compute Servers bei SGI

IT-DIRECTOR: Herr Mannel, aus welchen Branchen verzeichnen Sie derzeit eine verstärkte Nachfrage nach High Performance Computing?
B. Mannel:
Traditionell sind Forschungsinstitute und der öffentliche Sektor wichtige Abnehmer von HPC-Systemen. In den letzten Jahren haben allerdings die Anforderungen innerhalb der Privatwirtschaft an die Rechenleistung massiv zugenommen, sodass wir mittlerweile eine große Nachfrage auch bei der produzierenden Industrie, insbesondere in der Luftfahrttechnik und beim Automobilbau, sowie dem Finanzsektor feststellen.

IT-DIRECTOR: Für welche Anwendungszwecke wird HPC dabei in der Regel genutzt? Können Sie uns ein konkretes Anwendungsbeispiel nennen?
B. Mannel:
Viele Unternehmen nutzen die Leistungsfähigkeit von HPC für komplexe Simulationen, etwa für Wettervorhersagen oder für die Produktentwicklung, da sich so kostenintensive Tests mit Prototypen minimieren lassen. Das Deutsche Luft- und Raumfahrtzentrum simuliert beispielsweise mittels HPC das physische Flugverhalten von Flugzeugen und deren Komponenten, um die Entwicklungsdauer zu reduzieren und weitgehend auf die Konstruktion von Testmodellen verzichten zu können.

IT-DIRECTOR: Für welche Systeme sollten sich Anwenderorganisationen, die auf der Suche nach mehr Leistungsfähigkeit sind, entscheiden: hochparallele Supercomputer oder Computercluster?
B. Mannel:
Im Allgemeinen spielen bei beiden Varianten die Größe, das Einsatzszenario und die Verfügbarkeit von Mitarbeitern für die Verwaltung der Systeme eine Rolle. Supercomputer sind in der Regel besser für Multi-Rack-Installationen und Installationen geeignet, die zu Beginn von geringem Umfang sind, aber voraussichtlich mit der Zeit wachsen werden. Gerade wenn die Verfügbarkeit wichtig ist, sind sie im Vergleich zu Rackmount-Clustern die richtige Wahl, da sie über bessere RAS-Fähigkeiten verfügen. Gleiches gilt, wenn die Anzahl oder Qualifizierung der Support-Mitarbeiter eingeschränkt sind.

IT-DIRECTOR: Bitte nennen Sie uns einen groben Rahmen: Mit welchen Anschaffungs- und mit welchen Wartungskosten müssen die Anwenderorganisationen rechnen? In welchem Millionenbereich bewegt man sich hier? Oder geht es auch etwas kostengünstiger?
B. Mannel:
Auch wenn die Kosten je nach gewählter HPC-Lösung und der gewünschten Verfügbarkeit stark variieren, sollten Unternehmen für die Unterhaltskosten zwischen zehn und 20 Prozent des Kaufpreises des Systems veranschlagen. Bei einer hohen Toleranz in Hinblick auf die Ausfallzeiten sind auch weniger strikte Instandhaltungsprogramme verfügbar.

IT-DIRECTOR: Wie gestaltet sich der „normale“ Lebenszyklus eines HPC-Systems? In welchen Zeitabständen tauschen die Anwenderorganisationen die Systeme in der Regel aus?
B. Mannel:
Die durchschnittliche Nutzungsdauer eines HPC-Systems liegt normalerweise bei drei bis fünf Jahren. In der Privatwirtschaft wird die IT-Austattung meist innerhalb von drei Jahren abgeschrieben oder für den gleichen Zeitraum geleast, so dass meist der Wunsch besteht, die Hardware nach drei Jahren zu ersetzen. Einige Aufträge, vor allem aus dem öffentlichen Bereich, beinhalten ein Upgrade nach zwei oder drei Jahren, wodurch sich der Nutzungszyklus auf bis zu fünf Jahre erweitert.

IT-DIRECTOR: Welche Leistungskriterien sind für Supercomputer bzw. HPC-Systeme heute gang und gäbe? Was bringt die Zukunft in diesem Segment – was kommt nach Petaflop und Petabyte?
B. Mannel:
Die Leistungskriterien sind zahlreich, vor allem aber zählt die Spitzenleistung, also die bestmögliche Leistung, die ein System basierend auf der Kapazität seiner Komponenten erzielen kann, und die Effizienz, sprich inwieweit diese potentielle Spitzenleistung tatsächlich erreicht wird. So erzielt ein System eine 90-prozentige Effizienz, wenn ein bestimmte Applikation 90 Prozent der Spitzenleistung benötigt, allerdings kann die Effizienz andere Applikationen auch deutlich unter 50 Prozent liegen. Wir verfügen heute über Systeme im zweistelligen Petaflop-Bereich und gehen davon aus, dass innerhalb der nächsten zwei Jahre 100 Petaflops und in nicht allzu ferner Zukunft auch 1.000 Petaflops, also ein Exaflop, erreicht werden können.

IT-DIRECTOR: Stichwort Energieeffizienz: Insbesondere hierzulande haben RZ-Betreiber mit kontinuierlich steigenden Energiekosten zu kämpfen. Inwieweit passen Maßnahmen zur Steigerung der Energieeffizienz und der HPC-Einsatz zusammen?
B. Mannel:
Unternehmen, die in HPC-Systeme investieren, interessiert vor allem die Leistung, die sie zum Erreichen ihrer Geschäftsziele benötigen. Höhere Rechenkapazitäten bedeuten dabei in der Regel auch höhere Energiekosten auf Grund des Energieverbrauchs der Hardware und ihrer Kühlsysteme – mit unmittelbaren Auswirkungen auf den Unternehmensgewinn. Energiekosten sind daher bei Investitionsentscheidungen und der Suche nach einem Technologiepartner ein wesentlicher Faktor. Innerhalb der letzten Jahre wurden bei der Entwicklung von energieeffizienten Systemen allerdings große Fortschritte gemacht, so dass trotz enormen Leistungszuwächsen der Energieverbrauch seit 2008 konstant geblieben ist.   

IT-DIRECTOR: Welche Kühlsysteme haben sich bei HPC-Systemen am effektivsten erwiesen?
B. Mannel:
Für HPC-Umgebungen hat sich die Cell-Technologie – also wassergekühlte Gehäuse im Verbund mit wassergekühlten Blade-Servern ohne Lüfter – als das effizienteste System erwiesen. Durch hohe Packungsdichte, Warmwasserkühlung und der im Vergleich zu Lüftern weitaus effizienteren integrierten Kühlrack-Architektur, ist es aktuell die optimale Kombination, um Rechenkapazität, Kühlleistung und Energieverbrauch – und nicht zuletzt die Investitionskosten – in Einklang zu bringen.

IT-DIRECTOR: Was spricht für eine Luft-, was für eine Wasserkühlung von HPC-Systemen?
B. Mannel:
Luftkühlung ist gemessen an den Investitionskosten die günstigste Kühlungsvariante, benötigt aber am meisten Platz und Energie, während Wasserkühlung weitaus weniger Fläche und Energie, aber höhere Investitionen erfordert. Am effizientesten ist allerdings die Immersionskühlung, bei der Komponenten in eine hitzeabsorbierende Flüssigkeit getaucht werden, wobei wir aktuell mit 3M und Intel an einem System arbeiten, das die Energiekosten für die Kühlung in Zukunft um bis zu 95 Prozent reduzieren könnte. Letztlich gibt es momentan nicht die eine Lösung für alle, da am Ende die individuellen Anforderungen entscheiden, welche Option bzw. welche Kombination die erfolgversprechendste ist.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok