„Shared Desktops“ bald von gestern

Thin Clients sparen Energie, aber vor allem Arbeit

Im Interview erläutert Ulrich Mertz, Geschäftsführer der Rangee GmbH, die Trends beim Einsatz von Thin Clients und Virtuellen Desktop Infrastrukturen. Seiner Meinung nach geht es dabei vor allem um die vernünftige Gestaltung des Gerätemanagements und die praktikable Einbindung mobiler Endgeräte.

  • Ulrich Mertz, Rangee

    Dank niedrigerer Betriebskosten für Thin Clients amortisieren sich die Einführungsinvestitionen oft innerhalb von zwölf Monaten, hieß es bereits vor zehn Jahren. Dennoch sind die Geräte kein Mainstream in den Unternehmen. DV-Dialog hat nachgefragt; bei Ulrich Mertz, Rangee

  • Ulrich Mertz, Rangee

    Thin Clients: Energiesparen ist für Mertz kein ausschlaggebendes Argument, eher schon die vereinfachte Administration.

  • Ulrich Mertz, Rangee

    „Serverbased Computing ist die günstigste Form einen Unternehmensdesktop bereitzustellen", sagt Ulrich Mertz.

In Deutschland wurden laut IDC im vergangenen Jahr rund 481.900 Thin Clients verkauft; das sind 22 Prozent mehr als 2013. Nicht ganz so schnell wuchs dieser Markt in der Region „Europe, Middle East & Africa“ (EMEA), wo die verkaufte Stückzahl um 7,9 Prozent auf 1,97 Mio. Geräte zulegte. Weil IDC das für eine Sonderkonjunktur wegen des auslaufenden Supports für Windows XP hält, rechnen die Marktforscher für die nahe Zukunft wieder mit bescheideneren Wachstumsraten.

Der Thin Client bleibt also in der Nische – und der PC dominiert auch weiterhin die Arbeitsplätze in den Unternehmen. Dennoch haben die schlanken Geräte durchaus ihren Charme und finden zurecht ihren Platz in Unternehmen, die ihre IT-Infrastruktur in Richtung „Server Based Computing“ und „Virtuelle Desktop- In­frastrukturen“ weiterentwickeln. Ulrich Mertz, Geschäftsführer beim deutschen Thin-Client-Hersteller Rangee GmbH, steckt im Gespräch mit DV-Dialog die lohnenden Einsatzfelder ab.

Herr Mertz, Thin Clients sind an den Arbeitsplätzen in den Unternehmen noch immer nicht die Regel. Warum?
Ulrich Mertz:
Weil die notwendige IT-Infrastruktur oft fehlt. Unternehmen setzen keine oder nur sehr wenige Thin Clients ein, wenn sie die dafür nötigen Basistechnologien noch nicht nutzen – für die Desktopbereitstellung, für Serverbased Computing (SBC) oder für „Virtuelle Desktop Infrastrukturen“ (VDI).

Das ist überall da anders, wo die Mehrheit der Arbeitplätze stationär ist und wo überwiegend mit Standardanwendungen gearbeitet wird – z.B. in Versicherungen, Banken und öffentliche Verwaltungen. In diesen Bereichen gibt es ganz erhebliche Einsparpotentiale, wenn statt der herkömmlichen PCs am Arbeitsplatz Thin Clients ein­gesetzt werden.

Weil der Thin Client weniger Strom verbraucht?
Mertz:
Nein. Der Energieverbrauch ist zwar ein Vorteil, aber die Einsparungen bei Wartung und Administration der Endgeräte, die laut Studien bei 30 bis 50 Prozent liegen können, sind mit Sicherheit wichtigere Argumente. Auch weil man natürlich berücksichtigen muss, dass mit dem Einsatz von Thin Clients der Energieverbrauch im Hintergrund – auf Serverseite und bei den Netzwerkressourcen – ansteigt. Deshalb wird auch das Label „Green IT“, das dem Thin Client in den letzten Jahren angeheftet wurde, zurecht zunehmend kritisch hinterfragt.

Zwar verbraucht auch das Gesamtkonstrukt „Thin Client“ weniger Energie als der Fat Client, doch dürfte die Ersparnis beim Stromverbrauch für keinen IT-Chef das ausschlaggebende Argument für einen Umstieg sein. Dafür sind die Einsparungen zu gering und die notwendigen Investitionen in die IT-Infrastruktur zu groß.

Also liegt der Hauptvorteil in der zentralen Administration?
Mertz:
Eindeutig. Wenn der Strom für das Endgerät im Jahr 160 statt 200 Euro kostet, ist das bei hundert Arbeitsplätzen zwar eine Ersparnis von 20 Prozent, aber keine Riesensumme. Der Hauptvorteil liegt darin, dass die Administration aller Daten und Anwendungen zentral auf dem Server stattfindet und jene abgeschottet sind vor Veränderungen durch die User. Das erhöht automatisch auch die Datensicherheit, etwa durch einfachere Backups und bessere Zugriffkontrolle – und erspart im Management des IT-Betriebs spürbar viel Aufwand.

Und die größere Langlebigkeit der Hardware?
Mertz:
Die muss man eindeutig relativieren, denn die hängt stark von den Produkten ab, die der IT-Chef kauft. Es kommen ja relativ viele billige Thin Clients auf den Markt, die schon nach zwei oder drei Jahren als gebrauchte Hardware wieder bei Ebay auftauchen.

Was lässt einen Thin Client denn überhaupt altern?
Mertz:
In erster Linie die Protokolle, die für das Zusammenspiel mit dem Server und den Anwendungen sorgen. Das ist anders als beim Monitor oder beim Drucker, wo die Protokolle fast ausschließlich Display-Funktionen regeln und daher sehr stabil sind.

Alle zwei oder drei Jahre gibt es neue Serverversionen von den einschlägigen Herstellern wie Citrix, Microsoft oder Vmware – und damit ändern sich auch die Protokolle für den Thin Client. Daran muss sich seine Firmware anpassen. Das ist bei manchen Geräten nur schwer oder gar nicht möglich, bei anderen gibt es dafür kaum Support. Das heißt praktisch: Ein Upgrade auf eine neue Serverversion bedeutet den Kauf neuer Thin Clients.

Langlebigkeit sieht anders aus. Deshalb lohnt sich ein genauer Blick auf das Produktportfolio der Thin-Client-Hersteller: Bei einer sehr raschen Modellfolge kann man davon ausgehen, dass auch der Support nur eine begrenzte Zeit aufrecht erhalten wird.

Macht es bei der Langlebigkeit einen Unterschied, ob es sich technisch gesehen um einen Zero Client oder um einen Thin Client handelt?
Mertz:
Thin Clients sind nach meinem Verständnis lüfterlose und platzsparende Minicomputer, die sich dank eines eingebauten Betriebssystems für unterschiedlichste SBC- und VDI-Infrastrukturen eignen. Aufgrund der Verwendung von Industriekomponenten, die einen Lebenszyklus von fünf bis sieben Jahren haben, sind die angebotenen Hardwareplattformen unverändert mehrere Jahre lieferbar. 

Der Begriff Zero Client ist weder geschützt noch eindeutig definiert. Er wird sowohl für Software – das Graphische User Interface GUI – als auch für Hardware verwendet. Bei Hardwarelösungen wurde der Begriff für Geräte ohne Betriebssystem und mit spezieller Hardware-Austattung verwendet, die für eine bestimmte Aufgabe prädestiniert sind.

Man könnte auch Bildschirm oder Terminal sagen?
Mertz:
Genau. Zero Clients sind sehr standardisierte oder proprietäre Endgeräte. Sie machen dem IT-Chef noch weniger Arbeit als Thin Clients. Auch Teradici-basierte Geräte fallen in diese Kategorie; die Firma Teradici hat das Display-Protokoll „PC-over-IP“ – kurz PCoIP – entwickelt, das sowohl in Hardware als auch in Software implementiert ist und 2008 von Vmware für Horizon View lizenziert wurde.

Zero Clients beherrschen aber anders als Thin Clients nicht mehrere Protokolle – also außer PCoIP noch ICA oder RDP – und können daher nicht an Citrix- oder Microsoft-Hosts andocken. Für Verwirrung sorgt, dass mittlerweile einige Thin-Client-Hersteller ihre Geräte – meist kaum verändert – einfach als Zero Clients deklarieren.

Helfen aktuelle Trends wie etwa die Virtualisierung der IT-Infrastruktur oder die von Edward Snowden ausgelöste Sicherheitsdebatte dem Thin Client?
Mertz:
Lassen sich mich eines vorab sagen: Der Thin-Client-Markt wächst zwar seit Jahren kontinuierlich, aber nicht so schnell, dass die Geräte in absehbarer Zeit den PC im Unternehmen verdrängen würden. Und der Sicherheitsaspekt spricht nicht für den Thin Client, sondern ist ein Argument für die zentrale Datenhaltung. Welches Endgerät am Arbeitsplatz genutzt wird, spielt dabei eine Nebenrolle.

Einen Schub hat sicher die Virtualisierung gebracht, eine der wichtigsten Entwicklungen der letzten zehn Jahre in der IT-Branche. Sie hat die Nutzung von IT-Ressourcen flexibilisiert und zugleich vereinfacht – und ist eine notwendige Voraussetzung für VDI-Lösungen.

Werden mobile Endgeräte im Unternehmen so auch zum Argument für die Einführung von VDI-Lösungen?
Mertz:
Mit mobilen Geräten in Unternehmensanwendungen erhält die VDI- und SBC-Technologie eine neue Bedeutung. Als Abstraktionsebene, um Unternehmensanwendungen und Daten auf beliebigen Endgeräten zu nutzen. Dann sind Daten und Anwendungen sogar auf dem privaten Gerät des Users vor Missbrauch und Verlust geschützt.

Daraus resultiert auch ein Vorteil in Bezug auf die Produktivität. Die Anwendungen auf seinem Firmen-Desktop kennt der User. Hier sind alle Funktionen verfügbar, die er zum Arbeiten braucht. Wer aber mit einer funktionell meist eingeschränkten App unterwegs ist, kann nicht mal schnell auf den aktuellen Lagerbestand zugreifen, falls ein Kunde dringend etwas bestellen will oder falls er mehr Informationen braucht als die mitgebrachte Präsentation hergibt.

Wie beeinflusst der Trend zum mobilen Computing die VDI-Infrastrukturen?
Mertz:
Mobile Computing mit Laptops wird meist offline betrieben. In einem Gespräch mit den IT-Verantwortlichen einer großen Unternehmensberatung wurde keine Absicht geäußert, diese Umgebung durch VDI zu ersetzen oder zu ergänzen. Die Nutzung von Businessanwendungen auf mobile Endgeräte, wie Tablets und Smartphones, ist heute noch eine Randerscheinung, die nur als Unterstützung der herkömmlichen Laptops genutzt wird.

Um auch diese Umgebung sinnvoll in den Unternehmensprozess einzubinden, werden heute viele Anwendungen für iOS und An-droid neu entwickelt. Mithilfe von Tools für das Mobile Device Management – kurz MDM – sollen die Zugriffsrechte und der regelkonforme Einsatz der Funktionen kontrolliert werden.

Eine Kombination von mobile Computing und VDI-Lösungen findet bisher aber kaum statt, auch weil noch einige technische Hürden im Wege stehen. Zum Beispiel ist die aktuelle Generation mobiler Endgeräte noch nicht geeignet, per Dockingstation eine übliche Desktopumgebung mit richtiger Tastatur und Maus und zwei Full-HD-Monitore zu unterstützen. Aber es gibt schon verstärkt Nachfrage nach mobilen Tablets, die sich wie ein Thin Client nutzen lassen.

Wo sehen Sie typische Einsatzfelder mobiler Thin Clients?
Mertz:
Vielfach im Vertrieb – auch gerne als Fallbacklösung für Außendienstler, die sich ihr Laptop „zerschossen“ haben und doch noch irgendwie auf ihre Daten zugreifen müssen. Auch in Lager und Produktion werden zunehmend Standard-Tablets verwendet, weil sie leicht zu handhaben sind. Und natürlich sehe ich Potential im Schulungsbereich, denn ein mobiler Thin Client vereinfacht das Handling, wenn die Arbeitplätze nur für eine Schulung auf- und wieder abgebaut werden müssen.

Spezielle Client-Hardware ist eher nicht gefragt – auch nicht für Anwendungen in Lager und Logistik?
Mertz:
Es gibt Smartphones oder Tablets, die „ruggedized“ sind – also unempfindlicher gegen Erschütterungen und Temperaturschwanken oder spritzwassergeschützt. Hier bietet der Markt schon heute für alle Anwendungen die passende Lösung.

BDE-Terminals sind und bleiben gefragt, aber in vielen Bereichen lösen die klassischen Smartphones oder Tablets die Speziallösungen ab. Bei mobilen Clients bewegt sich die Diskussion zwischen den Polen Akzeptanz und Kontrolle.

Wie kann der IT-Chef diese Ziele unter einen Hut bringen?
Mertz:
Ihre Beliebtheit haben mobile Geräte wie Tablets und Smartphones in der Regel zwei Effekten zu verdanken: Erstens sind sie einfach zu handhaben, zweitens erfolgt ihre Einrichtung automatisiert. Anwendungen lassen sich mit einem Klick installieren und leicht personalisieren.

Nun sollen Administratoren die Benutzer kontrollieren, was zwangsläufig die Akzeptanz verringert. Das heißt für den IT-Chef: Die Umstellung einer Abteilung auf die zentrale Desktop-Umgebung will gut und sorgsam vorbereitet sein. Die User müssen in der Einführungsphase das Gefühl haben, dass ihre Änderungswünsche ernst genommen werden.

Und der resultierende Desktop muss mit Blick auf Performanz und Funktionalität „passen“. Wie schafft man das?
Mertz:
Indem man für die Testphase besondere kritische User aussucht – oder Power-User mit sehr vielen oder sehr unterschiedlichen Anwendungen. Dann lassen sich schon in der Testphase die meisten Defizite abstellen. Gelingt es dann auch noch eine positive Stimmung zu erzeugen, steigt die Wahrscheinlichkeit für die Akzeptanz. Dagegen wirkt falsch verstandene Sparsamkeit, etwa bei der Geräteausstattung oder beim Know-how der Administratoren, sehr kontraproduktiv.

Bei einem deutschen Systemhaus wurde die Ausstattung mit Smartphones bei den Mitarbeitern standardisiert – allerdings auf eine ältere Version des eigentlich beliebten iPhone. Mit MDM-Funktionen wird dort der Zugriff auf die Apps kontrolliert. Das sind Gründe dafür, dass viele Mitarbeiter dieses Gerät nicht nutzen und stattdessen lieber mit ihrem eigenen (aktuelleren  oder anderen) Geräten arbeiten.

Eine Lösung sehe ich darin, dass die App-Welt auf dem mobilen Gerät in der Verantwortung der Benutzer bleibt, während die Business-Apps über eine VDI-Umgebung gestreamt werden.

Mit welchen Kosten für Anschaffung und Betrieb ist zu rechnen, auch auf Hardware- und Software-Seite im RZ sowie beim Netzwerk?
Mertz:
Serverbased Computing ist die günstigste Form einen Unternehmensdesktop bereitzustellen. Darauf folgt der Einsatz von PC- und Notebooklösungen, während die aktuell wohl teuerste Form der Desktopbereitstellung VDI ist.

Warum?
Mertz:
Neben den Investitionskosten müssen auch die Mehrkosten für Anwendungen berücksichtigt werden. Microsofts Office kostet auf einem Virtuellen PC doppelt soviel wie auf einem physikalischen. Es gibt keinen Funktionsunterschied. Dazu kommen Subskriptionskosten für die Softwarewartung der Virtualisierungsumgebung und der Betriebsysteme, die ein- oder zweijährlich anfallen – und die es in der physikalischen Welt nicht gibt. Das macht die virtuelle Lösung – auch über mehrere Jahre betrachtet – deutlich teurer als den PC.

Dennoch sollte man sich nicht allein von den Softwarekosten leiten lassen. Es gibt wie gesagt viele Vorteile bei der Nutzung dieser Technologien, vor allem bezüglich Flexibilität und Sicherheit. So kann das Thema IT-Sicherheit auch bei Ratings nach Basel II mit einbezogen werden. Wer bei der IT auf die einfachste Lösung setzt, kann hier wichtige Punkte bei der Risikobewertung verlieren, die den Zins für neue Darlehen beeinflussen. Hier kann eine VDI-Lösung wertvolle Pluspunkte sammeln, weil sogar im Worst Case alle Unternehmensdaten auf Knopfdruck wiederhergestellt werden.

Welche Standards sind beim Aufbau von VDI-Infrastrukturen wichtig?
Mertz:
Diese Infrastrukturen werden mit dem Versprechen umgesetzt, dass danach alles so läuft wie auf dem zuvor verwendeten PC – allerdings mit der besseren Verfügbarkeit eines Servers, d.h. ohne wahrnehmbare Ausfallzeit.

Um die vom PC gewohnte User-Erfahrung zu realisieren, müssen diese Umgebungen sorgsam „gesized“ werden, damit es zu keinen Engpässen bei der CPU-, RAM- und Netzwerkauslastung kommt. Auch Zusatzkomponenten, wie eine Apex2800- oder Nvidia-Grid-Karte, werden nicht jedem Projekt in die Planung mit einbezogen.

Last but not least spielt die Auswahl der Endgeräte eine wichtige Rolle, so dass der IT-Chef hier auf jeden Fall auch die Hersteller mit ins Boot holen sollte. Schließlich sind das die Geräte, an denen die Benutzer jeden Tag sitzen. Kommt es hier zu Problemen, dann nützt die beste Serverumgebung nichts mehr.

Welche Vorgehensweise hat sich bei der Einführung bewährt? Sind bestimmte Abteilungen bzw. Anwendungen prädestiniert – oder  ist ein „Big Bang“ vorzuziehen?
Mertz:
Wichtig ist, das der IT-Chef alle Unternehmensbereiche mit einbezieht, um Neid und damit Produktivitätsverluste zu vermeiden. Auch sollte die Entscheidung von oben gefördert werden, damit Administratoren sich nicht an Kleinigkeiten festfahren und dadurch das gesamte Projekt gefährden.

Der Umstieg mittels eines „Big Bang“ ist zwar erstrebenswert, erfordert aber eine umfangreiche Vorbereitungs- und Testphase. Denn gibt es ja vermutlich gute Gründe, warum SBC und VDI bisher noch nicht praktiziert wird. Vielleicht ist es ja aufgrund der Applikationsvielfalt und des Aufgabenspektrums auch gar nicht möglich, einen einheitlichen Desktop für alle Mitarbeiter zu definieren.

Sinnvoller und praktikabler ist dann eine schrittweise Umstellung, zum Beispiel abteilungsweise. So lassen sich die Wünsche und Probleme der Mitarbeiter besser berücksichtigen und unvorhergesehene Aufgaben effizient abarbeiten.

Für Akzeptanz von Thin Clients sorgen vor allem Performance und Usability. Was kann der IT-Chef tun, um beides zu optimieren?
Mertz:
Das Thema Performance löst sich langsam in Luft auf. Thin Clients der neusten Generation, z.B. auf Basis des Intel Baytrail J1900, bieten mehr Performance als mancher Standardlaptop. Die Server und Netzwerke sind auch selten im oberen Leistungsdrittel ausgelastet.

Die Usability ist also heute schon gegeben, allerdings nur im Bereich der Standardapplikationen. CPU- oder grafiklastige Anwendungen jedoch sind über TCP-basierte Protokolle wie RDS und ICA nur eingeschränkt nutzbar. Citrix steuert hier gegen, indem mit HDX die Wiedergabe von Multimediadaten auf den Client verlagert wird, was allerdings das Konzept des Serverbased Computing aufweicht.

Als Alternative sehe ich PCoIP, das als UDP-basiertes Protokoll deutliche Vorteile bei der Darstellung von Anwendungen und insbesondere Multimediadaten hat. Obwohl Vmware seit Horizon View 6 die Terminalserver-Umgebung ebenfalls unterstützt, werden nach wie vor die meisten Umgebungen mit ICA oder RDS weiter betrieben. Hier macht es durchaus Sinn, neue Technologien zu evaluieren, um die Vorzüge besser einschätzen und bewerten zu können.

Wie geht es weiter mit der Virtualisierung der Desktops?
Mertz:
Während der SBC-Ansatz per Shared Desktop eine große User-Zahl im Standard bedient, ist VDI der nächste Schritt: Jeder User bekommt seinen individuellen Desktop. Das kann sogar Softwarekosten sparen, weil nicht jeder User eine bestimmte CAD- oder Fachanwendung braucht, die bei SBC aber für alle bereitgestellt und damit auch lizenziert wird.

Die Zeit der „Shared Desktops“ geht vorüber – die Zukunft gehört dem persönlichen Desktop. Dabei können Anwendungen von Terminalservern geliefert werden oder als „dockerized Application“ einfach angedockt werden. Das Endgerät wird dabei zu einer Commodity, wie es Nicolas Carr schon 2003 in seinem Artikel „IT doesn‘t matter“ prognostiziert hat.

Das heißt jedoch keineswegs, dass es künftig egal sein wird, welches Gerät wir nutzen oder dass eine Geräteart überflüssig wird. Ziel sollte es sein, dass an jedem Gerät gleichwertig gearbeitet werden kann. Im Büro wird das ein PC, Thin Client oder Zero Client sein, außerhalb ein Smartphone, Tablet oder ein Notebook.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok