Dem Klimawandel auf der Spur

Sind HPC und Wettervorhersagen ein Big-Data-Problem?

Im Interview erläutert Philip Brown, Earth Sciences Segment Leader bei dem auf High Performance Computing (HPC) spezialisierten Anbieter Cray, warum High Performance Computing und Wettervorhersagen zu einem echten Big-Data-Problem werden können.

  • Eisbär

    Die Meteorologie bringt Supercomputer stets an die Grenzen ihrer Leistungsfähigkeit.

  • Philip Brown, Cray

    Philip Brown, Cray

IT-DIRECTOR: Herr Brown, inwiefern verändern sich Wetterdienste vor dem Hintergrund des Klimawandels?
P. Brown:
Eine grundsätzliche Schwierigkeit bei der Betrachtung des Klimawandels ist – im Gegensatz zur Wettervorhersage – der um ein Vielfaches größere Zeitrahmen. Verglichen mit traditioneller kurz- bis mittelfristiger Wettervorhersage ist es deutlich schwieriger, die Vorhersagefähigkeiten von Klimamodellen zu verifizieren. Nahtlose Vorhersagefunktionen, die ein gemeinsames Simulationsmodell über Zeitskalen, seien es Minuten oder Jahrhunderte, hinweg nutzen, sollen diese Problematik künftig lösen.

IT-DIRECTOR: Wie reagiert die Supercomputing-Branche auf neue Anforderungen in der Wettervorhersage?
P. Brown:
Die Meteorologie bringt Supercomputer stets an die Grenzen ihrer Leistungsfähigkeit. Sowohl Wetterbeobachtungsdaten, also der „Input“ für Wettervorhersagen, als auch der Output der Vorhersagemodelle wachsen sehr schnell an und belasten die Leistung, Skalierbarkeit und Zuverlässigkeit von Speicher- und Datenverarbeitungssystemen. Daraus resultiert ein echtes „Big Data“-Problem. Die Supercomputing-Industrie muss hierfür eng verzahnte, maßgeschneiderte Lösungen finden, die nicht nur die Rechenanforderungen berücksichtigen, sondern auch Datenbewegung, Datenmanagement, Zuverlässigkeit und Gesamtbetriebskosten.

IT-DIRECTOR: Was treibt Investitionen in der Klimaforschung voran und inwiefern profitiert die Bevölkerung von stetig verbesserten Vorhersagemodellen?
P. Brown:
Um mit numerischen Modellen heutzutage eine moderne, globale Zehn-Tage-Vorhersage zu erzeugen, sind Rechenoperationen in der Größenordnung von 10.000 Mrd. (1016) nötig und der Austausch von 150 Mrd. (1,5 x 1014) Bytes an Daten. Ferner müssen die Prognosen in sehr knappen Zeitfenstern abgeschlossen werden, um für den Endverbraucher von Nutzen zu sein. Zudem muss jede Simulation in einen mehrstufigen Betriebsablauf integriert werden. Die Verbesserung und der Ausbau der Wetter- und Klimaprognosen verlangt Investitionen in die Grundlagenforschung, die Entwicklung von skalierbaren numerischen Modellen sowie verbesserte Supercomputer-Ressourcen, auf denen diese Modelle verarbeitet werden können.

Dies ist ein Artikel aus unserer Print-Ausgabe 03/2016. Bestellen Sie ein kostenfreies Probe-Abo.

Der offensichtliche Nutzen besserer Wettermodelle ist der Schutz menschlichen Lebens vor extremen Klimaerscheinungen, beispielsweise der erfolgreich prognostizierte, ungewöhnliche Verlauf des Hurrikans Sandy. Daneben sind beispielsweise Fluggesellschaften auf Wetterprognosen angewiesen, um die Kraftstoffeffizienz zu maximieren und einen sicheren Flugbetrieb zu gewährleisten. Auch Regierungen können von genaueren Klimaprognosen profitieren, etwa bei der Planung langfristiger ­zukunftsfähiger Infrastrukturprojekte wie Hoch­wasserschutzanlagen. Die Erträge aus Investitionen in die Klimaforschung können immens sein. Der ­britische Wetterdienst Met Office nutzt etwa einen neuen Supercomputer, in den die Regierung 97 Mio. Pfund steckte, erwartet für das Vereinigte Königreich aber sozio­ökonomische Vorteile in Höhe von 2 Mrd. Pfund.

IT-DIRECTOR: Welche Art von Simulationen und Modellierungen sind für Wettervorhersagen entscheidend?
P. Brown:
Auf einem hohen Niveau setzt sich eine typische Arbeitsbelastung aus Datenassimila­tion, deterministischen Vorhersagemodellen und Ensemble-Vorhersagemodellen zusammen. Zusätzlich können spezielle Modelle für Extrem­ereignisse, Luftqualität, Meereswellen und Straßenbedingungen angewandt werden. Für Wissenschaftler und Meteorologen ist daher zentral, dass jede Dimension berücksichtigt wird. Zum Beispiel haben sich Modelle mit höherer räumlicher Auflösung als entscheidendes Element herausgestellt, um den langfristigen Zustand des Klimasystems besser abschätzen zu können.

IT-DIRECTOR: Welche HPC-Architekturen sind am besten für Wettervorhersagen geeignet?
P. Brown:
Klima- und Wettermodelle sind typischerweise durch Speicher und Interconnect-Latenz sowie Bandbreite eingeschränkt. Die potentielle oder tatsächliche Modellleistung basiert aber nicht einfach auf der Spitzenleistung des Systems, sondern es geht um stagnierende Mikroprozessor-Taktraten. Dies zwingt Wetterdienste dazu, ihre Modelle zu skalieren und zig Prozessoren parallel zu verwenden, um die erforderlichen Leistungsebenen zu erreichen. Letztlich ist eine skalierbare Computing-Architektur am besten geeignet.

Bildquelle "Eisbär": Thinkstock/iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok