Die Produktentwicklung befeuern

Supercomputer für den Mittelstand

In der Ära von „Big Data“ benötigen mittelständische Unternehmen zusätzliche Rechenleistung, um die stetig wachsenden Datenmengen zu verarbeiten. Von daher ist High Performance Computing (HPC) aktuell sehr gefragt.

Hochleistungsrechner zählen zu den Schlüsseltechnologien unserer Zeit und sind in vielen Branchen unverzichtbar geworden. So benötigen etwa die Forschungsabteilungen der Chemie- und Pharmafirmen ultraschnelle Rechner, um die Entwicklung neuer Medikamente oder die Genom- und Krebsforschung voranzutreiben. „Der Forschungs- und Entwicklungsbereich zählt definitiv zu den wichtigsten Anwendern für HPC-Systeme. In diesen Abteilungen fallen die großen Rechenjobs an“, berichtet Jan Wender, Teamleiter HPC Presales und Benchmarks bei Atos Deutschland aus der Praxis.

Auch in der Automobilindustrie arbeiten Forschung und Entwicklung, aber selbst¥ mittelständische Zulieferer Hand in Hand, um neue Modelle in immer kürzeren Entwicklungszyklen auf den Markt zu bringen. Hier beschleunigt HPC die Konstruktion digitaler Prototypen und optimiert die Testphase der neuen Modelle. Bereits im Vorfeld lässt sich durch Simulationen das Verhalten von Bauteilen oder die Verwendung unterschiedlicher Materialien für die Karosserie in bestimmten Situationen am Rechner testen. Unternehmen gewinnen an Flexibilität und an Innovationskraft, da sich eine Vielzahl von Varianten mit unterschiedlichen Prototypen am HPC-Rechner schnell und mit beliebigen Wiederholungen durchspielen lässt.

Überproportional hohe Rechenleistung

Die meisten komplexen Probleme, mit denen sich Ingenieure aktuell und in Zukunft beschäftigen, liegen an der Schnittstelle zwischen HPC und Big Data. Durch die kontinuierlich anwachsenden Datenvolumen erfordern bestimmte Anwendungen die Echtzeitdatenverarbeitung im Arbeitsspeicher. Für diesen Zweck hat sich das In-Memory-Processing etabliert, also die Verarbeitung gleich im Arbeitsspeicher. Beide Anwendungen – High-Performance-Berechnungen und In-Memory-Technologien – verlangen nach Rechnern mit einer überproportional hohen Rechenleistung.

Im Big-Data-Umfeld liegt das Ziel darin, in einer sehr großen Datenmenge durch Sortier- und Filtermethoden bislang unerkannte Zusammenhänge und Muster zu identifizieren. Viele HPC-Anwendungen hingegen folgen einem theoretischen Modell, mit dem die Daten in einer gewissen Weise neu berechnet und modelliert werden. Trotz aller Ähnlichkeiten bleiben Big Data und HPC zwei völlig unterschiedliche Disziplinen. Denn mit dem Ansatz, wie er in Big-Data-Lösungen verwendet wird, lassen sich keine Crashtests berechnen.

Manche Rechenalgorithmen erbringen Höchstleistungen, wenn man sie auf viele kleinere Rechner verteilt. Andere wiederum profitieren von einem zentralen System mit Hauptspeicherkapazität von mehreren Terabyte. Aktuelle Supercomputer berücksichtigen die Anforderungen beider Ansätze und enthalten die entsprechenden Hardware-Komponenten. Durch die enge Kopplung von Daten und Simulationen können sie große Mengen heterogener Daten sowohl analysieren als auch für komplexe Modellierungen und Hochrechnungen aufbereiten.
Trotz aller Vorteile schrecken viele kleine und mittelständische Unternehmen vor HPC zurück, weil sie die Kosten scheuen und ihnen intern Expertise rund um diese Technologie fehlt. Daher vertrauen sie weiterhin auf Workstations, mit denen sie jahrelang Erfahrung gesammelt haben. Jedoch können diese naturgemäß nicht mit der Rechenleistung von HPC-Systemen mithalten. Dadurch verlangsamen sich Markteinführungen, da die dafür nötigen Berechnungsprozesse länger dauern.

Von der Technik profitieren

In diesem Zusammenhang liefern IT-Dienstleister spezielle HPC-Pakete, die sich individuell nach den Anforderungen und Kostenkalkulationen der Mittelständler richten. Für Unternehmen hat dies den Vorteil, dass sie sich nicht um IT-Infrastrukturen kümmern müssen, sondern sich vollständig auf ihr Kerngeschäft konzentrieren können. „Für mittelständische Ingenieurbüros beispielsweise dürfte die Investition in ein HPC-System unter dem Strich sogar attraktiver sein als eine Installation mit mehreren unterschiedlichen Workstations“, meint Jan Wender. „Zusammen mit der Hardware erhalten Unternehmen nämlich auch das aktuelle Know-how und den entsprechenden Service von Fachleuten dazu.“ Als Alternative bieten sich Cloud-Services an, die in den HPC-Rechenzentren der Provider zur Verfügung stehen. So können Mittelständler von der Technik profitieren, ohne selbst hohe Investitionen tätigen oder personelle Ressourcen mit entsprechendem Know-how vorhalten zu müssen.

Die wichtigsten Punkte bei der HPC-Installation:
› Keine „One size fits all“-Lösung: HPC-Installationen müssen sich an den Anwendungen orientieren, die spezielle Konfigurationen erfordern, und benötigen daher flexible, adäquate und skalierbare Hardware.
›› Hochleistung benötigt viel Energie: Zur optimalen Energienutzung sollte der Energieverbrauch einzelner Rechenoperationen gemessen werden. Dadurch lassen sich die Algorithmen hinsichtlich Performance und Effizienz optimieren.
››› Auf die richtige Kühlung kommt ­es an: Moderne Supercomputer nutzen direkte Warmwasserkühlung, um den Energiebedarf zu reduzieren. Solche Systeme benötigen deutlich weniger Strom, denn sie führen Wärme direkt dort ab, wo sie entsteht.
›››› HPC per Outsourcing: Können Betriebe keine eigene HPC-Installation stemmen, müssen sie nicht auf Supercomputer verzichten. Spezialisierte IT-Dienstleister bieten spezielle Pakete – Hardware, passende IT-Dienstleistungen und Software inklusive.

 

Bildquelle: Atos

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok