Viele RZ-News nach Ankündigung der Mellanox-Übernahme

Nvidia-GPU T4 noch nicht für Power9

Nvidia will die „Graphic Processing Unit“ in das RZ bringen. Wie in den aktuellen Power9-Servern der IBM bereits zu sehen, werden mit der GPU vor allem neue Workloads aus Bereichen wie „Big Data“, KI oder Analytics viel performanter abgewickelt. Deshalb hat Nvidia gestern auf der „GPU Technology Conference“ (GTC) an der kalifornischen San Jose State University die Zusammenarbeit mit zahlreichen OEM-Herstellern bekanntgegeben, die vorkonfigurierte Server mit den T4-Grafikprozessoren liefern. Dabei handelt es sich ausschließlich um x86-Server, weil IBM die T4-Karte mit der Power-Architektur noch nicht unterstützt.

Soll Standard-Turbo für moderne Business-Server werden: Die Nvidia-GPU T4

Wie von den GTC-Konferenzen des Erfinders der Grafikkarte und langjährigen IBM-Partners im Openpower-Konsortium gewohnt, gibt es auch jetzt wieder eine Fülle von Produktneuigkeiten. Dazu zählt eine neue Klasse von Workstations mit T4-GPUs für „Data Scientists“ und KI-Ingenieure. So sollen speziell bei Datenanalysen, KI und „Deep Learning“ nicht nur die nötige Performance liefern, sondern auch die Werkzeuge mitbringen, die erforderlich sind, um „Big Data“ zu transformieren, zu verarbeiten und zu analysieren.

Ebenfalls neu ist das Software-Development-Kit Cuda-X AI. Das neue SDK soll die Arbeit der KI-Entwickler vereinfachen und es auch für den IT-Chef und sein Team leichter machen, bereits vorhandene KI-Anwendungen auf die Cuda-Plattform zu portieren. Cuda-X ist eine Weiterentwicklung von Nvidias Programmier-Technik „ Compute Unified Device Architecture“. Cuda-X sieht für jeden einzelnen Anwendungsbereich dedizierte Bibliotheken vor, die in Form von Containern vorliegen und in der Cloud per virtueller Instanz sehr schnell bereitgestellt werden können.

Mit der GPU ins Rechenzentrum

Mit der neuen Tesla-Rechenkarte T4, die im letzten September im Rahmen der GTC Japan erstmals vorgestellt wurde, will Nvidia endgültig den Schritt ins Rechenzentrum vollziehen. Mit den Power-Systemen der IBM ist man zwar schon dort, sogar im schnellsten Supercomputer der Welt (Summit), aber noch nicht unbedingt als Bestandteil von Mainstream-Servern.

Deshalb wurde jetzt der DGX POD vorgestellt, als Blaupause für die Architekten von Rechenzentren, die ihre Server-, Speicher- und Netzwerkinfrastruktur optimieren für KI- Anwendungen möchten. Hersteller wie Arista, Cisco, DDN, Dell EMC, IBM Storage, Mellanox, Netapp und Pure Storage entwickeln rund um DGX POD bereits Produktangebote auf Basis ihrer unterschiedlichen Technologien.

Außerdem sind x86-basierte Server, die für den Betrieb der „Nvidia Data Science Acceleration“ Software optimiert sind, ab sofort von sieben großen Herstellern erhältlich: Cisco, Dell EMC, Fujitsu, Hewlett Packard Enterprise (HPE), Inspur, Lenovo und Sugon. Als NGC-Ready validierte T4-Server wurden gestern folgende Servermodelle angekündigt:

Ausgestattet mit „Neural Graphics Acceleration“

NGX-Ready heißt: Diese Server haben nicht nur T4-Grafikprozessoren „inside“, sie sind auch insgesamt für die Nvidia-Technologie „Neural Graphics Acceleration“ (NGX) und den Betrieb von Cuda-X AI Accelerated Data Analytics, Machine Learning und Deep Learning optimiert. Dank einer Leistungsaufnahme von nur 70 Watt und der erleichterten Integration in bestehende RZ-Infrastrukturen kann die GPU T4 laut Nvidia-Manager Ian Buck sowohl KI-Training und -Inferenz, maschinelles Lernen, Datenanalyse und virtuelle Desktops beschleunigen. „Die kurzfristige Einführung von T4 auf den weltweit beliebtesten Business-Servern signalisiert den Beginn einer neuen modernen Ära im Enterprise Computing“, so Buck weiter. Er verspricht durch den Einsatz der GPU u.a. bis zu 33 Prozent mehr VDI-Leistung als nur mit CPU und Grid vPC möglich wäre.

Die jetzt von Cisco, Dell EMC, Fujitsu, HPE, Inspur, Lenovo und Sugon angekündigten Server wurden von Nvidia als „NGC-Ready“ validiert. Im Rahmen dieses im November gestarteten Programms für Server mit Tensor-Cores als GPU ist vorgetestete Software im NGC erhältlich, einem Repository von Nvidia mit GPU-beschleunigter Software, vortrainierten KI-Modellen, Modelltrainings für Datenanalysen, Machine und Deep Learning sowie High Performance Computing. Darüber hinaus haben mehrere andere Partner den Validierungsprozess für ihre T4-Server gestartet. Nvidia-Support wird über die Partner angeboten, die NGC-Ready-Systeme verkaufen; das gilt heute bereits für das V100-System Cisco UCS C480 ML und ab Juni für den T4-Server HPE Proliant DL380 Gen10.

IBM fehle in dieser Auflistung, weil man sich mit dieser Initiative auf x86-Server fokussiere, erfuhr DV-Dialog auf Anfrage bei Nvidia; x86-Server hat IBM seit dem Lenovo-Deal im Jahr 2015 nicht mehr im Portfolio. Allerdings bietet IBM seine Power-Systeme schon lange mit GPUs des Partners an – allerdings noch nicht mit dem neuen Modell T4. Die seit Herbst 2017 sukzessive angekündigten aktuellen Power9-Systeme arbeiten – wie das erste Power9-Modell AC922 – allesamt mit der Tesla-GPU V100.

Übernahme von Mellanox

Nvidia und IBM arbeiten allerdings schon lange eng zusammen, auch in der gemeinsam mit Google und Mellanox gegründeten Open Power Foundation. Diese Zusammenarbeit dürfte im Zuge der geplanten Übernahme von Mellanox für 6,9 Mrd. Dollar sogar eher noch intensiviert werden. IBM jedenfalls hat in einem „Statement of Direction“ beim AC922-Announcement bereits die Unterstützung der T4-GPU durch ausgewählte Power9-Server avisiert.

In diesem „Statement of Direction“ heißt es wörtlich: „IBM intends to enable the Nvidia Tesla T4 GPU accelerator on select Power9 servers. This is intended to enhance IBM's end-to-end integrated AI platform, which includes PowerAI and select IBM Power9 hardware to help address the growing industry need for AI inferencing.“ Wie bei IBM üblich, ist dieses SOD aber noch keine verbindliche Ankündigung, sondern der aktuelle Stand einer Planung, die ohne weiteres geändert oder gestoppt werden kann.

Weniger Maschinen, schnellere Ergebnisse

Erst im Dezember war das gemeinsame entwickelte Speichersystem Spectrum Storage for AI mit Nvidias KI-System DGX speziell für den Einsatz beim „Deep Learning“ vorgestellt worden. Dass IBM auf der GTC keine große Rolle spielte, hatte vielleicht auch damit zu tun, dass Nvidia-CEO Jensen Huang erst vergangene Woche Think-Konferenz in Las Vegas aufgetreten war, wo die langjährige Partnerschaft bekräftigt worden war.

Dort gab IBM auch bekannt, dass ein Team des Züricher Forschungslabors mit einem System aus Power9-CPUs und Tesla V100-GPUs, die über die Highspeed-Interconnect-Technologie NVLink verbunden waren, einen wichtigen Benchmark für die Performance von Machine-Learning um das 46-Fache schlagen konnten. Dies gelang nicht nur viel schneller, sondern auch mit weniger Maschinen als mit dem bisherigen Rekordhalter.Das Team verwendete dabei einen Datensatz in Terabyte-Dimensionen, um Klicks auf Anzeigen in 91,5 Sekunden vorherzusagen. Zum Vergleich: Bei dem letzten Benchmark im Februar letzten Jahres dauerte das noch 70 Minuten.

Die T4-GPU besteht aus 2.560 Cuda- und 320 Tensor-Kernen; sie beschleunigt diverse Cloud-Workloads mit bis zu 65 TFLOPS Gleitkomma- bzw. 130 TOPS Integer-Performance, darunter Workloads für High-Performance-Computing, Deep-Learning-Training und -Inferenz, maschinelles Lernen, Datenanalysen und Grafik. T4 basiert auf der neuen Turing-Architektur, ist mit 70 Watt energieeffizient und bietet einen kleinen PCIe-Formfaktor. Die Grafikprozessoren sind für Scale-Out-Umgebungen optimiert, mit Turing-Tensor-Multipräzisions-Recheneinheiten sowie neuen RT-Recheneinheiten.

Bildquelle: Nvidia

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok