ESS 5000 und COS, die neuen IBM-Bausteine für KI-Infrastrukturen

Vorstoß in Yottabyte-Dimensionen

Neue Bausteine für den Aufbau optimierter KI-Infrastrukturen kündigte IBM mit den Speichersystemen Elastic Storage System 5000 und Cloud Object Storage (COS) an.

  • Getty Images

Das Modell ESS 5000 ist eine Ergänzung zum 2019 lancierten ESS 3000 – und gedacht für hohe Speicher­kapazitäten mit sehr hohen Speicherdichten. Dazu gesellt sich COS; das neue System ist so konzipiert, dass eine kosteneffiziente lokale und hybride Cloud-Objekt-Speicherung von Netzstandorten in aller Welt ermöglicht wird.

Der Elastic Storage Server ist eine ­Storage-Appliance, die unter Verwendung von Spectrum Scale und Power-Hardware ein skalierbares, hoch­performantes Speichersystem bildet. Spectrum Scale war früher als GPFS bekannt und ist das in den 1990er Jahren von IBM entwickeltes Cluster-Dateisystem General Parallel File-System.

Dies ist ein Artikel aus unserer Print-Ausgabe 9-10/2020. Bestellen Sie ein kostenfreies Probe-Abo.

Bei den heutigen Storage-Ankündigungen geht es darum, Unternehmen jeder Art und Größe in die Lage zu versetzen, einfach und kosteneffizient neue KI-Lösungen zu entwickeln. Das neue Speichersystem ESS 5000 (verfügbar seit dem 14. August) basiert auf Power9-Prozessoren und dem Filesystem Spectrum Scale; es wurde mit 55 GB/s in Bandbreite eines Gehäuseknotens als Baustein für Data Lakes konzipiert.

Die ESS 5000 bietet – je nach Konfiguration – eine große Spannbreite von Kapazitäten, von 552 TB bis in Yottabyte-Dimensionen. Es ist ein reines Festplattensystem, dass als Standard-Modell (SL) in einem Rack platz bietet für sechs Gehäuse und zwischen 552 TB und 8,8 PB Speicher. Per Scale-Out-Methode lassen sich weitere Racks hinzufügen, so auch das SC-Modell, dass ein tiefes Rack und zwischen 1 bis 13,5 PB an Storage bietet.

Skalierbar ohne Ende

Während eine ESS 5000 mit den vergrößerten Festplatten- und Gehäusekapazitäten für große Speicherkapazitäten mit sehr hohen Speicherdichten ausgelegt ist (als Reservoir für die zentralen Daten-Pools), dient die ESS 3000 als Edge-System. Sie soll für mehr Performance im KI-Prozess sorgen – insbesondere dann, wenn die Daten aus dem Data Lake an die GPUs gebracht werden müssen. Die ESS 3000, die mit der ESS 5000 kombinierbar, arbeitet dabei als lupenrein NVMe-basierter Flashspeicher und ist ebenfalls mit dem Filesystem Spectrum Scale ausgestattet; bei einer Bauhöhe von 2U bietet das System 350 TB Speicherplatz und ein bis zu 40 GB/s.

Das neue Speichersystem kann mit Power- und x86-Servern, aber auch anderen Systemen wie etwa Nvidias DGX arbeiten, wobei es laut IBM auch mit den Datenanforderungen der GPUs des Systems Schritt halten kann. ESS 5000 kann ein eigenständiges System sein, aber durch einfaches Hinzufügen weiterer Einheiten oder Plattengehäuse zur Erweiterung der Kapazität und Bandbreite skaliert und ausgebaut werden. Es kann in einem Cluster mit anderen ESS-5000- oder -3000-Einheiten eingesetzt werden.

Cloud Object Storage überarbeitet

Ergänzend bringt die IBM seit dem 7. August mit dem neuen COS einen weiteren Baustein ihrer Data-Lake Architektur auf den Markt, der eine kosteneffiziente lokale und hybride Cloud-Objekt-Speicherung von jedem Netzwerkstandort weltweit aus ermöglichen soll. Das besondere am neuen Cloud Object Storage: nicht benutzte oder „kalte“ Daten können darauf verschoben werden, zum Beispiel für ein „aktives“ Archiv. Dank des überarbeiteten Betriebssystems soll die Systemleistung auf 55 GB/s in einer 12-Knoten-Konfiguration steigen, wodurch sich je nach Objektgröße die Lese- und Schreibgeschwindigkeit um bis zu 300 bzw. 150 Prozent verbessert.

Um die Datenbestände im Data-Lake zu katalogisieren, indizieren, labeln und im KI-Prozess sichtbar zu machen, hat IBM die Software Spectrum Discover entwickelt. Mit dem neuen Release ­lassen sich Daten „per click“ direkt an Watson und an das Cloud Pak for Data exportieren. Außerdem kann man Spectrum Discover wohl noch dieses Jahr auch in Open­shift-Umgebungen integrieren.

Der über Spectrum Scale bereitgestellte globale Adressraum ermöglicht die Integration sehr vieler Scale-Out-Systeme in einer einzigen Verwaltungsdomäne, zum Beispiel für Replikation, erweitertes Caching sowie Archiv- und Backup-Integration. Die Basis liefert die Software-Technologie GPFS Native RAID, die neben der Aggregation von Festplatten-Ressourcen auch die Problematik des „Drive Rebuild“ löst, die bei Verwendung sehr größere Nearline-Laufwerken entsteht. ESS bietet neben der nativen Unterstützung von Spectrum-Scale-­Clients auch NFS, CIFS, S3 und iSCSI als Zugriffsprotokolle an.

Was ist ein Yottabyte?

Ein Yottabyte, 1024 Byte oder die Kapazität von 100 Milliarden Festplatten zu 10 Terabyte, ist die aktuell größte Mengeneinheit der Informatik, vor dem Zettabyte, dem Exabyte, dem schon mit einem ESS 5000 erreichbaren Petabyte und dem handelsüblichen Kapazitätsmaßstab Tera- oder Gigabyte; ein USB-Stick mit 1 GB Kapazität ist heute schon kein tolles Geschenk mehr.

Das Yottabyte entspricht einer ­Billiarde Gigabyte oder 36 Millionen Jahre Video-Content in HD. Das reicht auf absehbare Zeit, denn laut einer Studie von Seagate sollen Jahr 2025 weltweit rund insgesamt „nur“ 163 Zettabyte Daten generiert werden – das ist das Zehnfache des Speichervolumens von 2016. Zur Einordnung: Das entspricht allen derzeit bei Netflix gespeicherten Serien und Filmen – wenn die knapp 500 Millionen Mal gestreamt werden. Nach Einschätzung des Festplattenherstellers liegt die jährliche Wachstumsrate aller Daten zwischen 2015 und 2025 bei 30 Prozent.

Bildquelle: IBM / Getty Images

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok