Hochleistungsboliden durchdringen die Branchen

HPC: Raus aus der Nische

High Performance Computing (HPC) kam bislang vorrangig im universitären Umfeld und hier insbesondere bei daten­intensiven Forschungsvorhaben zum Tragen. Inzwischen durchdringen die Boliden jedoch auch zahlreiche weitere Branchen.

HPC kommt raus aus der Nische

Raus aus der Nische: Mittlerweile durchdringen Supercomputer die Branchen.

Die Zeiten scheinen vorbei, in denen High Performance Computing als reines Nischenthema für Spezialisten aus Wissenschaft und Militär galt. „HPC ist mittlerweile fast schon Mainstream und wird beispielsweise in der Medizin, Chemie oder Luft- und Raumfahrt eingesetzt“, betont Hans-Peter Scherm, Sales Manager HPC and Artificial Intelligence bei Hewlett Packard Enterprise (HPE). Nicht zu vergessen die verschiedenen Optimierungsmöglichkeiten in Logistik und Transport oder generell in der Produktentwicklung.

Die Gründe für die zunehmende Verbreitung der Supercomputer sind vielfältig. Einer davon ist das mit der Digitalisierung und globalen Vernetzung einher-gehende exponentielle Datenwachstum. „Denn HPC-Systeme werden neben Simulationen zunehmend auch in der Datenanalyse und für rechenintensive Anwendungen rund um die Künstliche Intelligenz (KI) eingesetzt“, erläutert Eric Schnepf, Lead Solution Architect HPC and KI bei Fujitsu.

Während Großunternehmen und Konzerne auf Supercomputing setzen, halten sich kleinere Unternehmen mit Investitionen eher vornehm zurück. Trotz des großen Potentials, das HPC-Implementierungen auch ihnen bieten könnte, zögern die Verantwortlichen Ausgaben in die Technologie vielfach hinaus. Diese Zurückhaltung basiert auf unterschiedlichen Gründen. „In der Regel liegt es daran, dass kein Wissen um HPC-Systeme und -Anwendungen vorhanden ist und die Vorteile dadurch nicht gehoben werden können“, erklärt Ingolf Wittmann, Technical Director HPC bei IBM in Europa. Dabei könnten sogar schon kleinere HPC-Systeme große Vorteile im Rahmen der Produktentwicklung etwa hinsichtlich der Time to Market oder der Kostensenkung mit sich bringen, ergänzt
Fisnik Kraja, Consultant bei Dell Technologies.

Darüber hinaus müssen die Verantwortlichen die HPC-Systeme nicht gleich kaufen, denn mit dem B­etriebsmodell „HPC as a Service“ gibt es Supercomputing auch zur Miete. Bei HPE etwa läuft das verbrauchsorientierte HPC-Bezugsmodell unter dem ­Namen „Green Lake“. Damit sollen die Unternehmen, so Hans-Peter Scherm, flexibel bleiben und Ressourcen schnell an ihre wechselnden Geschäftsanforderungen anpassen können.

Kunden, die sich für einen cloud-basierten „As a Service“-Ansatz entscheiden, sollten laut Dr. Martin Matzke, Head of Big Data and Security bei Atos Deutschland, bestimmte Aspekte beachten. Der kritischste ist seiner Meinung nach die Datensicherheit. „Bei den Daten handelt es sich um das wichtigste Gut von Unternehmen. Von daher muss eine umfassende Sicherheitsinfrastruktur deren Integrität bewahren und elementarer Bestandteil der Serviceverträge sein“, betont Matzke. Desweiteren wirft Ingolf Wittmann hinsichtlich der Handhabung von Daten in der HPC-Service-Cloud folgende Fragen auf: Wie bekommt man diese in die Cloud und wieder heraus? Wie sicher sind die Kommunikationswege und die Cloud selbst? Diese Punkte gilt es zu klären, „da es beim HPC in der Regel um große Mengen von Daten geht insbesondere bei den Simulationen. Weiterhin sind diese Daten das ­Kapital für die zukünftigen Produkte und Lösungen, die besonders geschützt werden müssen, um den Wettbewerbsvorteil nicht zu verlieren“, führt Ingolf Wittmann weiter aus.

Neben dem Angebot an HPC-as-a-Service-Lösungen existieren verschiedene Initiativen, die die Nutzung von HPC-Ressourcen in den Betrieben fördern wollen. Auf einem guten Weg sieht Ingolf Wittmann etwa die Universität Stuttgart im Automotive-Segment. „Hier werden Entwicklungsingenieure in Kursen mit HPC-Technologie und -Anwendungen vertraut gemacht, damit sie Supercomputing in der täglichen Arbeit einsetzen können“, berichtet Wittmann. Überdies führen bereits mehrere Universitäten Diskussionen, wie HPC in die Ausbildung der Studenten mit eingebunden und wie die Bundesregierung dies fördern kann.

Grenzen der Leistungsdichte

Hinsichtlich der Leistungsdichte der Superboliden geben die zweimal jährlich erscheinenden Top-500-Listen detailliert Auskunft. Seit längerem haben hier die USA und China die Nase vorn. „In diesem Rennen führt derzeit mit einigem Abstand der ‚Summit‘ des Oak Ridge National Laboratory in den USA. Stand Juli 2019 werden 148,6 Petaflops, also 148,6 Billiarden Rechenoperationen pro Sekunde erreicht“, berichtet Martin Matzke. Mit dem SuperMUC schafft es ein Supercomputer vom Leibniz-Rechenzentrum in Garching bei München mit 19,5 Petaflops aktuell auf Platz neun und damit gerade noch in die Top Ten.

Doch die schiere Größe ist mitunter nicht alles. Vor diesem Hintergrund betont Fisnik Kraja, dass die leistungsstärksten Systeme mit ihren Werten von bis zu 148,6 Petaflops zumeist zu Forschungszwecken genutzt und mit öffentlichen Mitteln finanziert werden. In der Industrie hingegen kämen solche Hochleistungsboliden weniger zum Zug. „Dort definieren sich die HPC-Lösungen eher über die Breite und Vielfalt der Anwendungsfelder, unabhängig von den Spitzenwerten oder der Anzahl der Server“, unterstreicht Kraja. Aktuell würden etwa viele kleinere Systeme im Automobilbereich, für Biowissenschaften oder im Gesundheitswesen eingesetzt. „Im Zuge dessen wird HPC zur Commodity. Diese Entwicklung ist weit spannender als der Leistungswettlauf bei den wenigen großen Systemen“, so die Einschätzung von Fisnik Kraja.

Exascale-Systeme im Kommen

In der aktuellen Top-500-Liste tummeln sich zahlreiche Supercomputer mit einer Leistungsdichte von über 100 Petaflops. Dabei besteht aufgrund der immer weiter wachsenden Datenberge weltweit ein praktisch unbegrenzter Bedarf nach noch höherer Leistung. „Die nächste Generation auf Exaflop-Niveau steht schon in den Startlöchern“, weiß Hans-Peter Scherm.

Was dies genau bedeutet, führt Martin Matzke aus: Aktuell werden wie erwähnt 148,6 Billiarden Rechenoperationen pro Sekunde erreicht. Die bereits im Fokus stehenden Exascale-Systeme bedeuten eine Trillion Flops pro Sekunde – sprich 18 Nullen. „Wir arbeiten seit geraumer Zeit an einer energieeffizienten Lösung für solche Supercomputer, wobei in den Jahren 2022 bis 2023 marktreife Produkte erwartet werden, ergänzt Matzke. Dabei spiele für Atos als europäischen Hersteller das „EuroHPC Joint Undertaking“ eine besondere Rolle. Diese Initiative hat sich zum Ziel gesetzt, Europa auf dem Gebiet des Supercomputings in eine Führungsrolle zu bringen.

Trotz der hehren Ziele stehen der tatsächlichen Markteinführung von Exascale-Systemen noch einige Hürden im Weg: So gilt der Energieverbrauch derzeit als eine der größten Herausforderungen. Um Exascale-Computing nachhaltig betreiben zu können, braucht es laut Hans-Peter Scherm daher komplett neue Rechnerarchitekturen wie Memory-Driven Computing oder Technologien wie Photonik.

Wann gelingt der Quantensprung?

Weit über Exascale-Systeme hinaus verspricht das Quantencomputing ungeahnte Leistungssprünge. Derzeit gibt es dabei noch Unterschiede zwischen Quantensimulationen und „echten“ Quantenrechnern. Letztere sind im Betrieb extrem anspruchsvoll. Laut dem Chip-Hersteller Intel müssen die Quanteneinheiten „Qubits“ bei Temperaturen von bis zu 20 Milli­kelvin arbeiten – das ist 250 Mal kälter als im Weltraum.

Überdies verkomplizieren, ergänzt Martin Matzke, mitunter hohe Fehlerraten und störende Phänomene wie das sogenannte Quantenrauschen die Entwicklung von Quantencomputern. Allerdings glaubt er, dass sich solch quantenphysische Stolpersteine über kurz oder lang aus dem Weg räumen werden: „So umschifft ein vielversprechender Ansatz namens Noisy Intermediate-Scale Quantum (NISQ) komplexe Fehlerkorrekturverfahren und kompensiert das Quantenrauschen mit neuartigen Algorithmen“, sagt Matzke.

Im Moment gibt es bereits Anbieter, die sich hinsichtlich der Entwicklung von Quantenrechnern hervortun und an deren Marktreife feilen. Zu den bekanntesten Projekten zählt sicherlich der bereits 2018 vorgestellte Quantenrechner Bristlecone von Google. Ebenfalls im vergangenen Jahr präsentierte Big Blue seinen Quantencomputer „IBM Q“. „Wir haben dieses System über die IBM-Cloud für jedermann verfügbar gemacht.

Zudem wurde die speziell für Quantencomputing entwickelte Software-Umgebung von Qiskit über Github als Open-Source-Software bereitgestellt“, erklärt Ingolf Wittmann. Desweiteren hat der Hersteller Bibliotheken mit Anwendungsfunktionen für IBM Q, genannt Aqua, für die Allgemeinheit veröffentlicht. Somit stehe für Q der gesamte Software-Stack vom Betriebssystem, der Quantum Assembly Language (QASM), den Bibliotheken und Anwendungen zur Verfügung.

Geht es um die erwähnten Quantensimulationen, zeichnen sich momentan Hersteller wie Atos oder Fujitsu mit konkreten Angeboten aus. Mit dem Digital Annealer bietet etwa Fujitsu einen Ansatz, der eigenen Angaben zufolge „mit der Inspiration von Quantenphänomenen“ entwickelt wurde. Nach den Vorteilen von Simulatoren befragt, fasst Eric Schnepf zusammen: „Solche Brückentechnologien sind vom Quantencomputing inspiriert, setzen auf silizium-basierten Systemen auf und können bereits heute Geschwindigkeitsvorteile in bestimmten Bereichen erzielen, z.B. bei komplexen kombinatorischen Problemstellungen. Diese benötigen extrem viele Rechenoperationen, die selbst auf aktuellen Supercomputern zu lange dauern würden. Quantencomputing kann hier die Rechenzeit signifikant reduzieren.“

Kurz vor der Marktreife?

Rund um die Quantentechnik brachte der IT-Dienstleister Reply vergangenen September eine Studie heraus. Die Erhebung wurde gemeinsam mit der Trendplattform Sonar realisiert und soll den Reifegrad von Quantum Computing aufzeigen. Dabei überprüft die Studie wie weit der kommerzielle Einsatz bereits fortgeschritten ist. Laut Studie sind Quantencomputer in der Lage, Rechenprozesse von Jahren auf Stunden oder Minuten zu reduzieren und Probleme zu lösen, bei denen selbst die fortschrittlichsten konventionellen Computer an ihre Grenzen stoßen. „Vor allem in den Bereichen Machine Learning, Künstliche Intelligenz und Big Data verspricht Quantum Computing enorme Fortschritte“, heißt es weiter. Dabei zeigt die Zunahme der Patentanmeldungen, wie die durch Quantum Computing ermöglichten Lösungen den Weg für die Entwicklung neuer Angebote in verschiedenen Feldern geebnet haben: Dazu gehören Computer Science, ­Cybersecurity, Finanzdienstleistungen und Logistik.

Dies ist ein Artikel aus unserer Print-Ausgabe 10/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Generell verzeichnet die Informatik seit 2013 einen kontinuierlich stärker werdenden Trend in Richtung Quantencomputer. Vor diesem Hintergrund prognostizieren die Analysten von Morgan Stanley, dass sich der Markt bis 2025 fast verdoppeln und zehn Milliarden Dollar pro Jahr erreichen wird. Die Entwicklung von Quantencomputern erfährt vor allem seit dem Zeitpunkt einen starken Aufschwung, an dem sich die Technologieriesen verstärkt des Themas annahmen.

Die Leistungsfähigkeit von Quantencomputern kann in eine neue Wissensära führen. So begrüßenswert dies ist – dies kann auch eine große Bedrohung für die Cybersicherheit darstellen. Das bedeutet: Der Schutz kommerzieller Transaktionen sowie Datenübertra­gungen muss teils völlig neugestaltet werden. Die ­Quanten-Security begegnet dieser Herausforderung mit ­anspruchsvollen Maßnahmen wie der Quantenschlüsselverteilung, mit quantensicheren Algorithmen und so genannten Quantum-Zufallszahlengeneratoren. Weder Regierungen noch Unternehmen kommen demnach um die Entwicklung „quantensicherer“ Lösungen herum. Dabei steht China in diesem Wettlauf mit ­Initiativen wie dem Micius-Satelliten oder dem Aufbau einer nationalen Netzwerkinfrastruktur an vorderster Front.

Über Sicherheitsfragen hinaus stößt Quantencomputing bei Finanzdienstleistern für Anwendungsoptionen von der Portfolio-Optimierung über die Betrugserkennung bis hin zum Hochfrequenzhandel auf starkes Interesse. Zuletzt hat die Investitionstätigkeit zugenommen: Branchengrößen wie Goldman Sachs, RBS oder Citigroup investieren bereits in die Technologie. Ähnliches gilt für die Automobilbranche. Die Ankündigung von Daimler und Honda von Anfang 2018, IBM-Quantencomputer kaufen zu wollen, ist ebenso ein Indiz für ein schlagartig gesteigertes Interesse wie die Investitionserhöhungen vieler Luft- und Raumfahrtunternehmen für die Quantenforschung.

 

Einsatzfelder für ­Supercomputer

High Performance Computing (HPC) findet in vielen strategisch wichtigen Forschungsfeldern Verwendung, etwa bei hochkomplexen Klimamodellen, Genom-Sequenzierung oder Nano-­Materialien. Auch Unternehmen nutzen Hochleistungsrechner, um mit Big-Data-Anwendungen, Künstlicher Intelligenz (KI) und Simulationen neue digitale Geschäftsmodelle zu erschließen. Darüber hinaus ist HPC auf dem Gebiet der Cybersicherheit dazu prädestiniert, in enormen Datenmengen Muster zu erkennen und vorausschauende Sicherheitsmaßnahmen einzuleiten.

Quelle: Martin Matzke, Head of Big Data and Security bei Atos Deutschland

 

Was steckt hinter „HPC as a Service“?

Es gibt mehrere Varianten von „HPC as a Service“, die für unterschiedliche Anforderungen sinnvoll sind. Anwender sollten unterscheiden, ob es um Infrastruktur (der Kunde erhält nur die Hardware), Plattform (der Kunde erhält Hard- und Software) oder Anwendung (der Kunde erhält HPC als vollständige Dienstleistung) als Service geht. Darüber hinaus sollte man auf die eingesetzte Hardware achten, speziell für HPC konzipierte Lösungen sparen Zeit und damit Geld. Bei den Kosten kommt es auch auf das Abrechnungsmodell an. Zahlt man nach Zeit, Nutzung (etwa der Cores) oder Verfügbarkeit. Das ist wichtig, wenn ein System temporär nicht genutzt wird. Letztlich sollte bei „HPC as a Service“ tatsächlich auch der Service an erster Stelle stehen. Dazu gehören eine umfassende Beratung und eine schnelle Reaktionszeit bei Fragen und Problemen.

Quelle: Fisnik Kraja, Solution Consultant bei Dell Technologies Deutschland


Bildquelle: Getty Images / iStock / Getty Images Plus

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok