KIT kooperiert mit Nvidia

Fünf Billiarden Rechenoperationen pro Sekunde

Das Karlsruher Institut für Technologie (KIT) hat als erster Standort in Europa das neuartige KI-System NVIDIA DGX A100 in Betrieb genommen.

Fünf Billiarden Rechenoperationen pro Sekunde

Bei den neuen Computersystemen vom Typ DGX A100 handelt es sich um Hoch-leistungsserver mit jeweils acht Nvidia A100 Tensor Core GPUs.

Ob bei der Entwicklung autonomer Robotersysteme oder neuartiger Funktionsmaterialien, ob bei der Optimierung von Energiesystemen oder bei der Verbesserung von Klimamodellen: Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) sind heute ein wichtiger Bestandteil der Forschung am KIT. Um den Einsatz dieser Zukunftstechnologien weiter voranzutreiben, engagiert sich das KIT in der Helmholtz Artificial Intelligence Cooperation Unit (HAICU), einer forschungsorientierten Plattform der Helmholtz-Gemeinschaft für angewandte KI, die feldübergreifende Forschungsprojekte fördert. Hier sollen Ähnlichkeiten zwischen Anwendungen identifiziert und ausgenutzt sowie die Entwicklung neuer Methoden vorangetrieben werden. „Dafür ist vor allem eines nötig – eine extrem hohe Rechenleistung“, sagt Martin Frank, Direktor am Steinbuch Centre for Computing (SCC) am KIT und Professor am Institut für Angewandte und Numerische Mathematik (IANM) des KIT: „Beim Training einer KI mit großen Datensätzen kommen konventionelle Computersysteme an ihre Grenzen. Viele KI-Algorithmen lassen sich aber durch den Einsatz spezieller Hardware beschleunigen. Für unsere Forscherinnen und Forscher ist ein Zugriff auf solche Computersysteme heute ein entscheidender Wettbewerbsfaktor.“

Das Steinbuch Centre for Computing (SCC) des KIT hat daher die Beschaffung für den derzeit am SCC im Aufbau befindlichen Hochleistungsrechner Karlsruhe (HoreKa) genutzt und ist eine Partnerschaft mit Nvidia eingegangen, um als erster Standort in Europa Zugriff auf die derzeit modernsten KI-Systeme des Unternehmens zu erhalten. Bei den nun installierten drei Computersystemen vom Typ DGX A100 handelt es sich um Hochleistungsserver mit jeweils acht Nvidia A100 Tensor Core GPUs. Gemeinsam erbringen die acht Beschleuniger eine Rechenleistung von 5 AI-PetaFLOP/s, also fünf Billiarden Rechenoperationen pro Sekunde. Im Vergleich mit dem bislang schnellsten Vorgängermodell Nvidia V100 ist das eine Beschleunigung um den Faktor fünf. Gleichzeitig wurden die neuen Beschleuniger mit deutlich größerem und schnellerem Hauptspeicher ausgestattet und der Durchsatz des speziellen NVLink-Netzwerks zwischen den einzelnen Chips auf 600 Gigabit pro Sekunde erhöht. Die neuen Systeme erlauben es den Forschern auch, ihre Anwendungen direkt für den zukünftigen Supercomputer HoreKa des KIT zu optimieren.

Bildquelle: Simon Raffeiner/SCC

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok