„Die AS/400 aus dem Keller auch in die Cloud migrieren!“

Power-i-Nachfrage wächst wieder in Europa

Die schon seit Jahrzehnten angebotene IBM-Hardware der Power-i-Familie (ehemals AS/400 oder iSeries) liegt seit nunmehr zwei Jahren wieder auf Wachstumskurs. Oft schon totgesagt angesichts der Konkurrenz aus der Windows- und Linux-Welt, ist diese Plattform im Mittelstand auch heute noch weit verbreitet als Prozess­maschine, auf der teils jahrzehntelang in Unternehmen bestens bewährte Software betrieben wird.

  • Bartlomiej Kluska, Comarch

    Bartlomiej Kluska ist Consulting-Director bei Comarch für den deutschsprachigen Raum.

  • Stephen Lutz, IBM Deutschland

    Stephen Lutz (IBM Deutschland): Power i wird auch bei der Digitalisierung eine Rolle spielen.

  • Bernd Albrecht (IBM): „Unsere Speichersysteme bieten inzwischen auch im Midrange-Segment eine Verfügbarkeit von 99,9999 Prozent bei korrektem Set-up.“

  • Bildquelle: Getty Images / iStock

Bartlomiej Kluska, als Beratungs-­Direktor beim Softwarehaus Comarch für den deutschsprachigen Raum zuständig, hat tagtäglich mit IBM-i-­Anwendern zu tun, denn Comarch bietet nicht nur selbst IBM-Power-­Software an, sondern darüber hinaus auch IT-Infrastruktur und ­Managed-Services für IBM Power. In den Gesprächen geht es mitunter um fehlenden Nachwuchs für IBM-i-­Experten, die Rente gehen, aber auch um Platz- und Kosten-Einsparungen. Kluska ist daher sicher, dass IBM i auch in Zukunft eine Rolle spielen wird, es wenn nicht mehr zwingend als „die große Maschine im Keller“.

Die IT-Welt wird immer heterogener

Auch wenn immer mehr Anwendungen auf anderen Plattformen betrieben werden, so ist IBM i noch lange kein Auslaufmodell, denn das i steht für „Integration“ – und die Maschine und die Anwendungen darauf lassen sich einfach in unterschiedlichste IT-­Welten einbetten.

„IBM i befindet sich in Europa seit acht Quartalen auf Wachstumskurs. Um dieses Revival weiter zu treiben, sind Software-Modernisierungsaktionen nötig“, erklärte Peter Dussmann von IBM Österreich Mitte September in Wien. Für den Erfolg dieser Modernisierung seien einerseits die Serverkapazitäten wichtig, andererseits aber auch, wo und wie Daten gespeichert sind – und wie es um ihre Verfügbarkeit steht.

Da sind die Speichersysteme gefragt. Was diese Anforderungen im Einzelnen für die Datenspeicher bedeutet, führte Bernd Albrecht von IBM Deutschland (siehe Interview) anlässlich des Comarch-Impulstages „Digitalisierung“ Anfang November in Köln aus: „Unsere Speichersysteme bieten inzwischen auch im Midrange-Segment eine Verfügbarkeit von 99,9999 Prozent bei korrektem Set-up. Eine Verteilung der Server und der Speichersysteme auf verschiedene Standorte mit Datenspiegelung und transparenten Failover ist eine Komponente, um sich gegen bestimmte Szenarien wie Stromausfall, Feuer, Wasser und ähnliches abzusichern.“

Wo sind die IBM-i-Experten?

Nicht jedes Unternehmen kann oder will die dafür nötige IT-Infrastruktur und Fachkompetenz selbst vor­halten. Und mancher IT-Chef betreibt zwar eine Power-Umgebung in Eigen­regie, möchte aber seine Capex-Kosten minimieren. Und bei wieder anderen steht gar die Entscheidung an, die bewährten IBM-i-Systeme abzuschaffen, weil kein erfahrenes Personal mehr zu finden ist.

Aus so unterschiedlichen Gründen greifen IT-Chefs auf Services vom Markt zurück, um durch gezieltes IT-Outsourcing oder -Outtasking die Effizienz zu verbessern, das Know-how langfristig zu sichern oder die IT-­Kosten durch den Betrieb der Hardware für IBM Systems i zu senken. Kluska hat viel mit Unternehmen zu tun, die ihre vertraute AS/400-Umgebung behalten möchten, ohne sie aber noch inhouse vorzuhalten.

In diesem Fall rät der IT-Experte zur Auslagerung in moderne Rechen­zentren wie Comarchs „Data Center“ in Dresden, zumal von dort umfassende Managed-Services für IBM Power erhältlich seien. Das sei „eine maximal gesicherte Alternative zum Eigenbetrieb für mittelständische und große Unternehmen“ . Als IBM-Partner mit einem weltweiten Netz zertifizierter Rechenzentren und erfahrenen Fachkräften könne man „ein Höchstmaß an Sicherheit und Support für das IBM System i“ bieten.

Ein Beispiel: Mit dem „Virtualization Center“ PowerVC, einer auf Openstack basierenden Lösung für Management und Cloud-Implementierungen von virtuellen Maschinen (VMs) mit Betriebssystemen AIX, IBM i und Linux auf Power-Hardware, können Power-basierte Cloud-Umgebungen geschaffen werden, die zwei große Vorteile miteinander verbinden: Performanz und Flexibilität.

Laut Stephen Lutz (IBM Deutschland) lässt sich so eine IT-Landschaft für geschäftskritische Anwendungen aufbauen und betreiben. „Bei Cloud Computing findet man in der Regel ein Self-Service-Portal vor, aus dem sich Services, Software oder Infrastruktur schnell und einfach mieten lassen. Diese Plattform kann von einem Dienst­leister im Internet betrieben werden (Public Cloud) oder auch inhouse (Private Cloud)“, erläutert Lutz. „Oftmals werden Dienste teils inhouse und teils in der Public Cloud gefahren – dann spricht man von Hybrid Cloud.“

Beim Outsourcing werden oftmals einzelne dieser Tasks oder auch die gesamt IT an einen Dienstleister übergeben und dann extern betrieben. Dies geht oft mit der Übernahme von Personal einher – insbesondere bei der Übernahme der gesamten IT-Infrastruktur. Sowohl die aktuellen Wachstumszahlen als auch die Weiterentwicklung durch Technologie und Betriebsmodelle zeigen, dass Power i auch zukünftig eine Rolle bei der Digitalisierung spielen wird. Es muss nur nicht mehr die große Maschine im Firmenkeller sein.

 

Kurzinterview mit Bernd Albrecht, Senior Technical Sales Professional bei IBM

Hochverfügbarkeit mit IBM Storage

Herr Albrecht, wie sind die Unternehmen in Deutschland bei der IT-Infrastruktur aufgestellt?
Bernd Albrecht
: Sehr unterschiedlich, wobei dies viel von der Größe des Unternehmens und den IT-Ressourcen abhängt. Immer mehr wird klar, dass ein Ausfall der IT große Schäden für das Unternehmen zu Folge hat – sowohl finanziell als auch bei der Reputation. Ständige Verfügbarkeit der Daten, Security und effiziente Datenspeicherung sind die wichtigsten Aspekte – auch im Mittelstand.

Wie ist höchstmögliche Verfügbarkeit der IT erreichbar?
Albrecht
: Wesentliche Komponenten sind die Verfügbarkeit und Sicherheit der Daten. Da spielt die Zuverlässigkeit der Speichersysteme eine wesentliche Rolle. Unsere Speichersysteme bieten inzwischen auch im Midrange-Segment eine Verfügbarkeit von 99,9999 Prozent bei korrektem Set-up.
Die Verteilung der Server und der Speichersystem auf verschiedene Standorte mit Datenspiegelung und transparenten Failover ist eine Komponente, um sich gegen Szenarien wie Stromausfall, Feuer, Wasser und ähnliches abzusichern. Ein dritter Spiegel und regelmäßige Snapshots sind zusätzliche Optionen, aber immer noch nicht ausreichend. Eine Backup-Strategie und ein Restore-Plan gehören ebenfalls dazu. Dabei hat sich gerade in den Zeiten von Verschlüsselungstrojanern und ähnlichem ein „Air Gap“ bewährt: Daten auf Tape im Safe sind schlicht und ergreifend online unangreifbar.

Welche Konzepte für Disk-Hochverfügbarkeit gibt es bei IBM?
Albrecht
: Verschiedene – je nach notwendigem Verfügbarkeitsgrad, von einfacher Datenspiegelung bis hin zur 100-Prozent-Weiterführung der Geschäftsprozesse bei Ausfall einzelner Komponenten oder ganzer Rechenzentren. Wir unterstützen bereits mit unserer Entry-Lösung Hochverfügbarkeitsanforderungen, die für fast alle Anforderungen im Mittelstand geeignet sind.

Wie funktioniert die HA-Lösung Hyper-Swap?
Albrecht
: Bei der Implementierung von Hyperswap für SVC und Storwize wird ein Cluster über beide Seiten aufgebaut – und die Daten werden dann zwischen beiden Seiten mit einem speziellen synchronen Remote Copy gespiegelt, der seine Richtung automatisch nach Workload ändern kann.
Auch „Consistency Groups“ können zur Gewährleistung der Konsistenz von Anwendungen mit mehreren LUNs verwendet werden. Dabei werden die beiden gespiegelten Volumes den Servern wie eines präsentiert, wobei das Speichersystem weiß, auf welcher Seite welcher Server zugreift und so eine IO-Optimierung sowohl im Multipathing als auch in der Spiegelrichtung durchführen kann.
Zum Schutz der Daten werden zusätzlich auf jeder Seite „Change Volumes“ verwendet, um bei einer Resynchronisation einen konsistenten Datenbestand aufzubewahren. Zum Schutz vor dem sogenannten „Split Brain“ stehen verschiedene Quorum-Arten zur Verfügung: Disksystem, angebunden über Fibre Channel, oder eine Java-App, angebunden über das IP-Netzwerk. Die Connectivity zwischen den Rechenzentren kann Fibre Channel, Fibre Channel over Ethernet (FCoE) oder auch neu iSer sein, „iSCSI Extensions over RDMA“. Das Management erfolgt über WebGUI oder Secure Shell (SSH). 

Herr Albrecht, vielen Dank für das Interview!

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok