Integration in HPC-Cluster

Was bringt Quantencomputing?

Interview mit Fisnik Kraja, Consultant HPC, Jimmy Pike, Senior Vice President und Senior Fellow, sowie Chuck Gilbert, HPC-Spezialist bei Dell, über aktuelle Trends in Sachen Supercomputing und Quantenrechner

  • Fisnik Kraja, Dell

    Fisnik Kraja ist Solution Consultant High Performance Computing und Machine Learning bei Dell Technologies Deutschland

  • Jimmy Pike, Dell EMC

    Jimmy Pike, Senior Vice President und Senior Fellow, Office of the CTO Server and Infrastructure Systems bei Dell EMC

  • Chuck Gilbert, Dell EMC

    Chuck Gilbert, HPC-Spezialist bei Dell EMC

IT-DIRECTOR: Herr Kraja, für welche Anwendungsfelder ist High Performance Computing (HPC) heute besonders prädestiniert?
F. Kraja:
Abhängig davon, wie man High Performance Computing definiert, findet man mittlerweile in fast jeder Branche Anwendungsmöglichkeiten für HPC, speziell dort, wo Performance gefragt ist. Ganz klassisch wird HPC oft für Simulationen genutzt, aber auch vermehrt im Bereich Machine- und Deep-Learning.

IT-DIRECTOR: Welche Spitzenleistungen können Supercomputer heutzutage erreichen?
F. Kraja:
Die leistungsstärksten Systeme sind ja wohlbekannt, sie erreichen Werte bis zu 148.600 Teraflops (oder 148,6 Petaflops), allerdings meist zu Forschungszwecken und finanziert mit öffentlichen Mitteln. Aber für mich definieren sich HPC-Lösungen mehr über die Breite und Vielfalt der Anwendungsfelder, unabhängig von den Spitzenwerten oder der Anzahl der Server. Viele kleinere Systeme werden gerade im Automotive-Bereich, für Life Sciences oder Healthcare eingesetzt. Dort wird HPC immer mehr zur Commodity. Diese Entwicklung ist weit spannender als der Leistungswettlauf bei den wenigen großen Systemen.

IT-DIRECTOR: Woran liegt es, dass Anwenderunternehmen mitunter eher noch zögern, in HPC-Lösungen zu investieren?
F. Kraja:
Die Investition in HPC-Lösungen, egal ob man diese kauft oder mietet, folgt in der Regel zuerst einer Kosten-Nutzen-Abwägung. Ein Produkt, das man mithilfe einer HPC-Lösung optimiert, kommt vielleicht erst Monate oder sogar Jahre später auf den Markt. Für kleinere Unternehmen ist das ein Risiko, da für sie ein schneller Return on Investment wichtig ist. Hinzu kommt, dass es zunehmend schwieriger wird, Fachkräfte in diesem Bereich zu finden.

IT-DIRECTOR: Auf welche Funktionen oder Vertragsinhalte sollten Anwenderunternehmen, die „HPC as a Service“ nutzen wollen, besonders achten?
F. Kraja:
Es gibt mehrere Varianten von „HPC as a Service“, die für unterschiedliche Anforderungen sinnvoll sind. Anwender sollten unterscheiden, ob es um Infrastruktur (der Kunde erhält nur die Hardware), Plattform (der Kunde erhält Hard- und Software) oder Anwendung (der Kunde erhält HPC als vollständige Dienstleistung) als Service geht. Darüber hinaus sollte man auf die eingesetzte Hardware achten, speziell für HPC konzipierte Lösungen sparen Zeit und damit Geld. Bei den Kosten kommt es auch auf das Abrechnungsmodell an. Zahlt man nach Zeit, Nutzung (etwa der Cores) oder Verfügbarkeit. Das ist wichtig, wenn ein System temporär nicht genutzt wird. Letztlich sollte bei „HPC as a Service“ tatsächlich auch der Service an erster Stelle stehen. Dazu gehören eine umfassende Beratung und eine schnelle Reaktionszeit bei Fragen und Problemen.

IT-DIRECTOR: Herr Pike, geht es um Hochleistungsrechner, dann drängen zunehmend auch Quantentechnologien in den Vordergrund. Worin liegen in diesem Zusammenhang die Unterschiede zwischen Quantensimulation und Quantencomputing?
J. Pike:
Quantencomputing ist zwar interessant für HPC-Anwendungen, steht aber noch am Anfang seiner Entwicklung. Klassisches Quantencomputing ist aktuell weder skalierbar noch kosteneffizient. Deshalb besteht großes Interesse an Präquantensimulatoren, die mithilfe großer, arbeitsspeicherlastiger HPC-Cluster bereits eine kleine Anzahl an Quantenbits (Qubits) generieren. Damit lassen sich Software und Algorithmen entwickeln, die in Zukunft bei echten Quantencomputern zum Einsatz kommen könnten.

IT-DIRECTOR: Herr Gilbert, mit welchen „Kinderkrankheiten“ haben Quantenrechner aktuell zu kämpfen?
C. Gilbert:
Ein praktisches Problem liegt in der Kühlung auf Temperaturen nahe dem absoluten Nullpunkt, ohne die Quantenverschränkungen nicht möglich sind. Dazu kommt, dass solche Verschränkungen aktuell nur kurze Zeit, für wenige hundert Operationen, aufrechterhalten werden können. Außerdem hat Quatencomputing noch eine relativ hohe Fehleranfälligkeit, die es zu überwinden gilt.

IT-DIRECTOR: Für Quantencomputing werden über die Hardware hinaus entsprechende Betriebssysteme und Software-Anwendungen benötigt. Wie weit sind hier die Entwicklungen fortgeschritten?
J. Pike:
Quantencomputing unterscheidet sich grundlegend von der Technologie seiner Vorgänger. Deshalb startet die Software-Entwicklung bei Null. Es gibt weder etablierte Software-Sprachen, Techniken oder Bibliotheken, noch ein einheitliches Framework. Damit Quantencomputing praktikabel wird, muss es in Kombination mit traditioneller Software eingesetzt werden. Erste, vielversprechende Ansätze, wie z.B. Algorithmen zur Beschleunigung von Suchabfragen, wurden bereits entwickelt.

IT-DIRECTOR: Worauf kommt es bei einer speziell für die Nutzung auf Quantenrechnern konzipierten Software besonders an?
C. Gilbert:
Software für Quantentechnologie muss probabilistisch arbeiten. Statt 0 und 1 gibt es im Quantencomputing unendlich viele Zustände. Dadurch wird auch die Software deutlich komplexer. Sowohl Soft- als auch Hardware werden aber vorerst hauptsächlich in Kombination mit herkömmlicher Technologie zum Einsatz kommen. Quantenrechner werden zunächst als Teil eines HPC-Clusters in klassische Technologie integriert. Gleiches gilt für Software, die, in klassische Systeme integriert, völlig neue Möglichkeiten schafft.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok