High Performance Computing

Den Rechner neu erfinden

Hans-Peter Scherm, Sales Manager HPC & AI DACH bei Hewlett Packard Enterprise (HPE), im Interview über die Möglichkeiten von Supercomputern.

Hans-Peter Scherm, Sales Manager HPC & AI DACH bei Hewlett Packard Enterprise (HPE)

Hans-Peter Scherm, Sales Manager HPC & AI DACH bei Hewlett Packard Enterprise (HPE)

ITD: Für welche Anwendungsfelder ist High Performance Computing (HPC) heute besonders prädestiniert?
H. Scherm: Die Zeiten sind vorbei, in denen High Performance Computing ein Nischenthema für Spezialisten aus Wissenschaft und Militär war. Mittlerweile ist HPC fast schon Mainstream und wird zum Beispiel in der Medizin, Chemie oder Luft- und Raumfahrt eingesetzt. Der Grund liegt im exponentiellen Datenwachstum. Hier geht der Trend von Simulation zu KI. Künftig werden HPC und KI in allen Branchen entlang der gesamten Wertschöpfungskette ihren Einsatz finden.

ITD: Welche Spitzenleistungen können Supercomputer heutzutage erreichen?
H. Scherm:
Die heutigen Supercomputer warten mit 200 Petaflops auf. Aufgrund der wachsenden Datenberge besteht jedoch ein praktisch unbegrenzter Bedarf nach noch höherer Leistung. Die nächste Generation auf Exaflop-Niveau steht schon in den Startlöchern. Die größte Hürde ist hier der Energieverbrauch. Um Exascale-Computing nachhaltig betreiben zu können, braucht es komplett neue Rechnerarchitekturen wie Memory-Driven Computing oder Technologien wie Photonics.

ITD: Woran liegt es, dass Anwenderunternehmen mitunter eher noch zögern, in HPC-Lösungen zu investieren?
H. Scherm:
Dieses Zögern ist Ausdruck einer generellen Hürde. Wir sind auf dem Weg in die datengetriebene Wertschöpfung, und das erfordert neue Kompetenzen und Denkweisen. Dazu gehört auch die grundlegende Aufgabe, sinnvolle und rentable Einsatzfelder zu definieren, um so HPC erfolgreich im Mainstream zu positionieren.

ITD: Auf welche Funktionen oder Vertragsinhalte sollten Anwenderunternehmen, die „HPC as a Service“ nutzen wollen, besonders achten?
H. Scherm:
Dynamische Verträge wie unser verbrauchsorientiertes IT-Bezugsmodell HPE Greenlake bringen Unternehmen mehr Entscheidungsfreiheit. So bleiben sie flexibel und können Ressourcen schnell und einfach an ihre wechselnden Geschäftsanforderungen anpassen.

ITD: Mit welchen „Kinderkrankheiten“ haben Quantenrechner aktuell noch zu kämpfen?
H. Scherm:
Angesichts exponentiell steigender Datenmengen und einer Verlangsamung des Prozessorleistungswachstums muss der Computer neu erfunden werden. Quantencomputing ist einer von mehreren Ansätzen, um mit diesen Herausforderungen fertig zu werden. Abgesehen von den anspruchsvollen Betriebsbedingungen wie Temperaturen nahe dem absoluten Nullpunkt, wird Quantencomputing nur für spezifische Aufgaben einsetzbar sein.

Wir brauchen einen breiteren Ansatz, um das Kernproblem heutiger Architekturen zu lösen: Der Prozessor bildet das Zentrum eines Rechners, 90 Prozent der Leistung wird nicht für das Rechnen, sondern für das Datenschaufeln verschwendet. Deshalb müssen wir statt des Prozessors den Speicher ins Zentrum der Rechnerarchitektur stellen, wir nennen das Memory-Driven Computing. Damit erreichen wir heute schon eine bis zu 10.000-fache Beschleunigung der Berechnungen. Sobald Quantenprozessoren kommerziell verfügbar sind, können sie in speicherzentrische Computer integriert werden.

Bildquelle: Hewlett Packard Enterprise

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok