Supercomputer

Exascale-Systeme im Blick

Dr. Martin Matzke, Head of Big Data and Security bei Atos Deutschland, im Interview über das Potential von High Performance Computing (HPC).

Dr. Martin Matzke, Head of Big Data and Security bei Atos Deutschland

„Eine mitunter noch hohe Fehlerrate und störende Phänomene wie das sogenannte Quantenrauschen verkomplizieren die Entwicklung der Quantencomputer”, so Dr. Martin Matzke von Atos.

ITD: Für welche Anwendungsfelder ist High Performance Computing (HPC) heute besonders prädestiniert?
M. Matzke: HPC findet in vielen strategisch wichtigen Forschungsfeldern Verwendung, etwa bei hochkomplexen Klimamodellen, Genomsequenzierung oder Nano-Materialien. Auch Unternehmen nutzen Hochleistungsrechner wie den BullSequana XH2000, um mit Big-Data-Anwendungen, KI und Simulationen neue digitale Geschäftsmodelle zu erschließen. Auf dem Gebiet der Cybersicherheit ist HPC prädestiniert, in enormen Datenmengen Muster zu erkennen und vorausschauende Security-Maßnahmen einzuleiten.

ITD: Welche Spitzenleistungen können Supercomputer heutzutage erreichen?
M. Matzke: Die weltweit leistungsstärksten Supercomputer werden zweimal jährlich in der sogenannten TOP500 Liste erfasst. In diesem Rennen führt derzeit mit einigem Abstand der „Summit“ des Oak Ridge National Laboratory in den USA. Aktuell werden 148,6 Petaflops (Stand: Juli 2019), also 148,6 Billiarden Rechenoperationen pro Sekunde erreicht.

Allerdings sind weltweit bereits Exascale-Systeme im Blick, das bedeutet eine Trillion Flops pro Sekunde – 18 Nullen. Atos arbeitet seit geraumer Zeit an einer energieeffizienten Lösung für solch einen Supercomputer, in den Jahren 2022 bis 2023 werden marktreife Produkte erwartet. Für Atos als europäischen Hersteller ist dabei das EuroHPC Joint Undertaking von besonderer Bedeutung, das sich zum Ziel gesetzt hat, Europa auf dem Gebiet des Supercomputings in eine Führungsrolle zu bringen. Atos engagiert sich mit seiner Expertise an diesem EU-Vorhaben.

ITD: Woran liegt es, dass Anwenderunternehmen mitunter eher noch zögern, in HPC-Lösungen zu investieren?
M. Matzke: Die enormen Ressourcen und die nötige Expertise für den Einsatz solcher Hochleistungsrechner können die meisten Unternehmen schlicht nicht bereitstellen. Zudem muss ein Supercomputer den Anforderungen von unterschiedlichen HPC-Anwendungen und Nutzern im Unternehmen gerecht werden, etwa hinsichtlich Prozessortyp und Kühlung. Aufgrund ihrer Flexibilität und Kosteneffizienz sind HPC-as-a-Service-Modelle für viele Unternehmen attraktiv.

ITD: Auf welche Funktionen oder Vertragsinhalte sollten Anwenderunternehmen, die „HPC as a Service“ nutzen wollen, besonders achten?
M. Matzke: Der wichtigste Aspekt beim „as a Service“-Ansatz ist nach wie vor die Datensicherheit. Bei den Daten, die von den Unternehmen berechnet werden, handelt es sich schließlich um das wichtigste Gut der Firmen. Daher muss eine umfassende Sicherheits-Infrastruktur deren Integrität bewahren und elementarer Bestandteil eines Servicevertrags sein.

ITD: Geht es um Hochleistungsrechner, dann drängen zunehmend auch Quantentechnologien in den Vordergrund. Worin liegen in diesem Zusammenhang die Unterschiede zwischen Quantensimulation und Quantencomputing?
M. Matzke: Während echte Quantencomputer mit quantenphysischen Effekten rechnen, nutzen Quantensimulatoren klassische Supercomputer, um die Funktionsweise der Zukunftstechnologie zu emulieren. Auf ihnen lassen sich bereits heute Anwendungen sowie Algorithmen für Quantencomputer in einer stabilen Umgebung entwickeln und testen. So haben Atos, Bayer und die RWTH Aachen in einem Forschungsprojekt komplexe Krankheitsbilder mithilfe des Atos Quantensimulators untersucht und bewiesen, dass die Technologie großen praktischen Mehrwert bietet. Sie nutzen die Atos Quantum Learning Machine (QLM), den weltweit leistungsstärksten Quantensimulator, um mit Hilfe großer Datenbestände die Entwicklung von Mehrfacherkrankungen zu erforschen.

ITD: Mit welchen „Kinderkrankheiten“ haben Quantenrechner aktuell noch zu kämpfen?
M. Matzke: Eine mitunter noch hohe Fehlerrate und störende Phänomene wie das sogenannte Quantenrauschen verkomplizieren die Entwicklung der Quantencomputer. Die quantenphysischen Stolpersteine lassen sich aber aus dem Weg räumen: So umschifft ein vielversprechender Ansatz namens NISQ (Noisy Intermediate-Scale Quantum) etwa komplexe Fehlerkorrektur-Verfahren und kompensiert das Quantenrauschen mit neuartigen Algorithmen.

ITD: Für Quantencomputing werden über die Hardware hinaus entsprechende Betriebssysteme und Software-Anwendungen benötigt. Wie weit sind hier die Entwicklungen fortgeschritten?
M. Matzke: Für Quantencomputer und -simulatoren stehen Programmiersprachen und Software Development Kits bereit, darunter QASM (Quantum Assembly Language) und Hybridsprachen auf Basis von Python. Fortschrittliche Software berücksichtigt Effekte wie das Quantenrauschen sowie Fehlerquoten schon auf den Quantensimulatoren. Somit lassen sich auf den stabilen Simulatoren Anwendungen und Algorithmen entwickeln, debuggen und testen, bevor sie auf realen Quantenrechnern zum Einsatz kommen.

Bildquelle: Atos

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok