Das Netzwerk im RZ

Ruckzuck von 0 auf 100

In den kommenden Jahren verbreitet sich im Data Center eine vorgefertigte Kombination aus Server, Speicher, Netzwerk und Managementsoftware, kurz der „Building Block“. CIOs können mit dieser Infrastruktur neue Anwendungen rasch zum Laufen bringen.

Auto, Bildquelle: iStockphoto.com/ajansen

Einen radikalen Systemwechsel hat die „Kommunale Informationsverarbeitung Baden-Franken“ (KIVBF), kürzlich eingeleitet. Das Rechenzentrum in Karlsruhe plant, die Mainframes abzulösen und eine groß angelegte „Community Cloud“ auf der Basis von x86-Servern aufzubauen. Eine einzige homogene Plattform mit Windows und Linux als Betriebssystemen soll künftig „virtuelle Instanzen“ für rund 700 Mandanten mit 40.000 Usern ablaufen lassen. Die KIVBF will Rechnerleistung und Applikationen je nach Bedarf vollautomatisiert bereitstellen. Nachts, wenn die Beschäftigten in den Gemeinden und Landkreisen schlafen, lassen sich „Building Blocks“ zur Energieeinsparung abschalten, bei wachsendem Bedarf an Rechenleistung und Speicherplatz in der Zukunft kann das Rechenzentrum zusätzliche Building Blocks anbauen.

Der Informatiker Jürgen Heinrich von der Stabstelle Innovation der KIVBF sieht die Chance, durch die Nutzung von Cloud-Technologien im öffentlich-rechtlichen Umfeld Leistungen des Rechenzentrums preiswerter als bisher anzubieten. Die von den Gemeinden und Landkreisen genutzten Programme, darunter Fachanwendungen für Finanzen, Personal und Einwohnerwesen, seien bereits heute zu 90 Prozent für Windows und Linux geschrieben. Die KIVFB arbeitet künftig mit einer Firewall von Cisco sowie den Citrix-Netscaler-Produkten. Sie stellen Applikationen über das ICA-Protokoll (ICA = Independent Computing Architecture) von Citrix „sehr performant“ zur Verfügung, betont Jürgen Heinrich. Auch kleinere kommunale Verwaltungen mit Thin Clients könnten dank ICA-Protokoll in den Genuss von Rich-Client-Anwendungen kommen. Wesentliche Erleichterungen erwartet sich der Informatiker Heinrich von einem Self-Service-Portal, in dem die Kommunen in Eigenregie benötigte Applikationen zubuchen oder abbestellen können.

Die neue Installation der KIVBF steht für eine Reihe von Trends der nächsten fünf Jahre im Data Center: die wachsende Verbreitung der x86-Architektur, die flexible Nutzung einer einzigen homogenen Infrastruktur sowie Virtualisierung, Flexibilisierung und Automatisierung. Auch in den kommenden fünf Jahren liegt der x86-Server im Trend. Die x86-Architektur spielt in den Data-Center-Offerten aller einschlägigen Hardwareproduzenten eine zentrale Rolle. Doch nicht alle Anbieter setzen ausschließlich auf x86. Andreas Wodtke, Vice President der Systems and Technology Group IBM Deutschland, sieht Power-Prozessoren nicht nur in den USA „ganz stark“, auch in Deutschland habe Power „eine große Zukunft“ und ersetze in vielen Fällen x86. Ausschlaggebend dafür seien die geringeren Energiekosten bei einer Konsolidierung auf der Power-Plattform, so Wodtke. Wie schon in der Vergangenheit sieht IBM die „barrierelose Nutzung“ von Power und x86 in einem integrierten System mit vereinheitlichtem Management als Nonplusultra an.

Auch der Mainframe ist keineswegs auf der Verliererstraße. Die sechste „Mainframe-Umfrage“ von BMC Software ermittelte im September 2011 eine „anhaltende Nachfrage“ nach Großrechnern. Der Infrastrukturexperte der Experton-Group, Wolfgang Schwab, glaubt jedoch, dass nicht alle Anbieter überleben werden: „Alles, was nicht IBM-Mainframe heißt, wird verschwinden“, sagt Schwab.

Das Netzwerk im Data Center

Das Netzwerk im Data Center der nächsten Jahre erlebt laut Viktor Hagen von Cisco Systems einen Abbau hierarchischer Strukturen. Die bislang vorherrschende „Multi-Tier-Switching-Infrastruktur“ werde von „Fabric-Strukturen“ (sog. Stoffstrukturen) abgelöst. Die „Fabric-Extender-Technologie“ FEX von Cisco und andere Technologien seien die Nachfolger bisheriger Switching-Technologie im Server-Access-Bereich, sie führten zu „deutlich weniger Stromverbrauch und deutlich weniger physischen Komponenten“. FEX verspricht die Ausweitung von Fabric-Strukturen in das „Top of the Rack“, in das Blade Chassis, in die Server und in virtuelle Maschinen. Auf die Frage, ob das 10-Gigabit-Ethernet der Standard der nächsten Jahre sei, antwortet Viktor Hagen, in heutigen Produkten sei bereits eine Steigerung der Datenrate auf 40 bis 160 Gigabit pro Sekunde möglich. Konkurrent Brocade wirbt dagegen für neue „Fibre Channel Fabric-Lösungen“ mit 16 Gigabit pro Sekunde, diese sollen Unternehmen bei der Migration ihrer Rechenzentrumsarchitekturen in „flexible private Clouds“ unterstützen. Leo Kappeler, Director Systems Engineering DACH bei Brocade meint: „Die Fibre-Channel-Fabric-Technologie bleibt erste Wahl für zuverlässige und leistungsstark virtualisierte Server- und Speicherumgebungen.“ Salomonisch bescheinigt Kappeler jedoch auch Ethernet-Fabrics in den nächsten zehn Jahren eine Zukunft.

Vorgefertigte Komplettsysteme

Nach Auffassung zahlreicher Anbieter auf dem Infrastrukturmarkt sollten sich die Anwender gar nicht mehr mit den technischen Bestandteilen ihrer Systeme und deren Zusammenbau zu einer betriebsbereiten Gesamtinstallation beschäftigen, sondern gleich eine Art „Data Center out of the box“ kaufen. Ein solches vorkonfiguriertes, ausgetestetes Komplettsystem besteht aus mindestens einem Building Block, der wiederum Chassis, Server, Storage, Netzwerk und eine umfassende zentralisierte Managementsoftware beinhaltet. Durch Kombination von Building Blocks gleicher Bauart – sprich: des gleichen Anbieters – lässt sich ein Rechenzentrum beliebig skalieren. Nach Cisco, HP, Dell und anderen Produzenten hat kürzlich IBM mit der Ankündigung einer „Puresystems-Familie“ Einstand auf dem Converged-Computing-Markt gefeiert. Ivo Körner, Vice President Software Group bei IBM Deutschland betont, bei „Puresystems“ handele es sich „um sehr viel mehr als nur ein statisches Rack an vorintegrierten Komponenten wie Server, Speicher, Netzwerke, Systemmanagement und weiteren Softwarekomponenten“. IBM verspricht, Puresystems verdoppele die „Computing-Leistung pro Fläche im Rechenzentrum“, könne die Softwarelizenzkosten „bis zu 70 Prozent“ reduzieren und vermindere den Zeitaufwand für die Planung, Beschaffung und Bereitstellung einer Infrastruktur für eine Web-Anwendung von sechs Monaten auf „weniger als zehn Tage“.

Laut Ferdinand Prezenski, Director for Worldwide Database/ISV Sales bei IBM, eignet sich die vorinstallierte Infrastruktur und Middle­ware von IBM, um rasch eigene Anwendungen zum Laufen zu bringen und den typischen Innovationsstau in den IT-Abteilungen der Unternehmen aufzulösen. Über 150 Softwarepartner, darunter SAP, unterstützten das neue „Ecosystem“, so Preszenski. Ganz so revolutionär, wie IBM die Produktfamilie darstellt (Neue Ära des Computings), ist sie jedoch nicht. Seit den 80er-Jahren hat der Konzern das Application System/400, bekannt als AS/400 und heute als System i, im Angebot. In einem Puresystem steckt im Prinzip die gleiche technische Konzeption wie in einem System i. Kritisch sieht Wolfgang Schwab von der Experton-Group die Fertigprodukte des „Converged Computing“. Schwab weist auf die Gefahr hin, dass Kunden in die „Abhängigkeit von einem Anbieter“ geraten, wenn sie sich auf einen Building Block einlassen und ihr Data Center dann nur noch mit baugleichen Blocks ausbauen könnten. Auch zu dem Versprechen „Simplicity“ der Anbieter äußert sich Schwab sehr skeptisch. Spezialisierte Unternehmen benötigten eine passgenaue IT-Infrastruktur.

Big Data und Analysen

Ist „Big Data Analytics“ bei Großunternehmen ein Trend oder nur ein Thema? Benötigen die Firmen eine neue aufwendige Infrastruktur, um Datenbestände nach verborgenen Schätzen durchforsten zu können? Eine Studie der IDC im Auftrag von SAS Institute kommt zu diesem Ergebnis: Die Datenflut macht allen Unternehmen zu schaffen, überwiegend sehen IT-Fachkräfte und Entscheidungsträger in Big-Data-Analysen „einen sehr interessanten Ansatz, der sich aber noch in einem frühen Stadium befindet“. Von den Befragten glauben 38 Prozent, dass dieser Ansatz „hohe Investitionen in Hardware und Software“ erfordere. Die IDC-Forscher führen diese Einschätzung auf Erfahrungen mit Business-Intelligence-Projekten zurück und betonen, die Big-Data-Analyse biete „durch den Einsatz von Standardtechnologie oder auch Open-Source-Komponenten günstigere und bessere Beschaffungs-, ­Nutzungs- und Integrationsansätze“ (mehr dazu ab ­Seite 36). SAS bringt neben eigener Software auch In­frastrukturlösungen für solche Analysen ins Spiel. Das Unternehmen bewirbt als preisgünstige Variante das „Grid Computing“, mit dem sich eine vorhandene Infrastruktur für Analysezwecke einsetzen lasse. Andererseits schlägt das Softwarehaus Echtzeitanalysen mit aufwendigeren Technologien – wie In-Memory-Analytics – vor. Der Anbieter glaubt, dass sich mit Analysen großer Datenbestände auch die IT-Infrastrukturen „effizient betreiben“ lassen. Die Analysen könnten bei der intelligenten Lastverteilung, der passgenauen Zuordnung von Kosten und beim Management virtueller Infrastrukturen helfen.

Bildquelle: iStockphoto.com/ajansen

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok