Virtualisierung: Interview mit Jürgen Ohlsen, Sycor

Interpretation der Lizenzszenarios

Im Interview bemerkt Jürgen Ohlsen, Leitung Software Asset Management bei der Sycor IQ Solution GmbH, dass neue Technologien die Hersteller antreiben, angepasste Nutzungsrechte in die Lizenzbedingungen zu integrieren.

Jürgen Ohlsen, Sycor

„Fehlinterpretationen findet man immer wieder im Bereich der sogenannten Zugriffslizenzen“, meint Jürgen Ohlsen, Leitung Software Asset Management bei der Sycor IQ Solution GmbH.

ITM: Herr Ohlsen, steigen mittelständische Unternehmen im Lizenzierungsdschungel ihrer verwendeten Softwarelösungen und Applikationen stets durch oder herrscht viel Unwissenheit bzw. Aufklärungsbedarf?
Jürgen Ohlsen:
Unserer Erfahrung nach kapitulieren viele „Lizenzbeauftragte“ in den Unternehmen vor dem Hintergrund sich ständig ändernder Lizenzmodelle. Neue Technologien treiben zudem die Hersteller an, angepasste Nutzungsrechte in die Lizenzbedingungen zu integrieren. Beispiele hierfür sind die cloud-basierten Dienste sowie die immer weiter fortschreitende Virtualisierung von Servern und Desktops und die jüngsten Änderungen im Bereich der Desktopbetriebssysteme. So können Microsoft-Kunden keine Software Assurance mehr auf ihre mit der Hardware neu erworbenen Desktopbetriebssysteme abschließen. Wer beharrlich ist und lizenzrechtlich „up to date“ bleiben möchte, der muss viel Zeit investieren und sich regelmäßig weiterbilden. Dieser „Luxus“ bleibt in der Regel den Lizenzmanagern in den Großunternehmen vorbehalten. Am Ende des Tages zählt jedoch, ob die eigene Interpretation eines Lizenzszenarios auch einem Hersteller-Audit standhalten würde.

ITM: Was sind häufige Irrtümer im Bereich „Lizenzierung“?
Ohlsen:
Fehlinterpretationen findet man immer wieder im Bereich der sogenannten Zugriffslizenzen. In vielen Unternehmen herrscht immer noch die Meinung, dass indirekte Zugriffe auf eine SQL-Datenbank – z.B. über ein Warenwirtschaftssystem – nicht lizenziert werden müssen, man also nur eine Zugriffslizenz für das Warenwirtschaftssystem an sich benötigt und nicht für die Mitarbeiter, die damit arbeiten. Häufige Missverständnisse gibt es auch bei der Lizenzierung von Terminalemulationsdiensten, wo Produkte von zwei Softwareherstellern zum Einsatz kommen, diese jedoch unterschiedliche Nutzungsrechte haben. So kann es durchaus möglich sein, dass eine andere Anzahl an Xenapp-Lizenzen (Citrix) nötig ist als an Remote-Desktop-Services-Lizenzen (Microsoft), obwohl die gleiche Anzahl an Nutzern gegeben ist. Zu guter Letzt findet sich bei der Lizenzierung von Office Suiten immer wieder Klärungsbedarf.

ITM: Was legen die Hersteller/Software-Anbieter den Lizenzierungspreisen in der Regel zugrunde? Sprich: Wie gestalten sich typische Lizenzierungsmodelle in der Softwarewelt?
Ohlsen:
Entwicklersoftware und Onlineservices orientieren sich in der Regel an der Zahl der Nutzer. Eine gerätebasierte Lizenzierung findet man hingegen bei den klassischen Office Suiten und virtualisierten Desktops. Für die Lizenzierung von Serversoftware ist immer häufiger die Anzahl der (genutzten) Cores entscheidend oder auch die Anzahl an Prozessoren selbst. Je leistungsfähiger die Hardware, desto kostspieliger ist in der Regel die darauf betriebene Serversoftware. Daneben werden die Zugriffe auf bestimmte Serversoftware über sogenannte Client-Access-Lizenzen abgedeckt. Diese wiederum können pro Gerät oder pro Nutzer erworben werden.

ITM: Heutzutage werden Serverinfrastrukturen, auf denen verschiedenste Software läuft, verstärkt virtualisiert. Welche Rolle spielt dies für den Bereich „Lizenzierung“?
Ohlsen:
Häufig werden bestehende Server virtualisiert, um die Menge an Hardware zu reduzieren und auch eine einfachere Verwaltung der Server zu ermöglichen. Wichtig ist es dabei zu beachten, ob die damit ebenfalls „umgezogene“ Software auf dem Server in der virtuellen Umgebung lizenzrechtlich ohne weiteres so betrieben werden darf. Zum einen könnte die Lizenz an eine bestimmte Hardware gebunden sein, zum anderen ermöglicht die Virtualisierung den Betrieb der Software auf mehreren sogenannten Hosts (Servern) im Zuge einer dynamischen Lasterverteilung.

ITM: Warum ist die Lizenzierung in virtuellen Umgebungen so schwierig?
Ohlsen:
Die Softwarehersteller haben ein Interesse daran, dass die bestehenden Lizenzbestimmungen ihrer Software eingehalten werden, und passen die Lizenzbestimmungen neuer Software auch an die Tatsache an, dass immer mehr virtualisiert wird. So möchte jeder sicherstellen, dass ihm im Zuge der Hardware-Einsparungen durch Virtualisierung nicht auch die Lizenzumsätze abhandenkommen. Man trifft also in aller Regel auf eine gemischte Lizenzierung bei virtualisierten Serverinfrastrukturen. Einige Software ist bereits nach neuen Richtlinien lizenziert, die der Virtualisierung Rechnung tragen, andere Software wiederum wurde zu Zeiten erworben, wo Virtualisierung noch keine große Rolle spielte. Hier gilt es also, genau zu prüfen, welches Produkt welche Nutzungsrechte in einer virtualisierten Umgebung hat.

ITM: Inwiefern haben die Hersteller/Software-Anbieter bereits die Möglichkeiten der Virtualisierung in ihre Lizenzbedingungen überführt und ihre Modelle entsprechend angepasst?
Ohlsen:
Microsoft hat z.B. für eines seiner wichtigsten Serverprodukte, den SQL Server, eine core-basierte Lizenzierung eingeführt. Diese gilt sowohl für physische Server als auch für virtualisierte Server. Der Unterschied besteht am Ende darin, wie die Anzahl an benötigten Cores berechnet wird. Auch wurde mit Einführung des Windows Server 2012 die Lizenzierung neben den obligatorischen Client-Access-Lizenzen an die Anzahl der verwendeten Prozessoren gekoppelt. Betreibt man in einer virtualisierten Umgebung sehr leistungsstarke Hosts, mit z.B. jeweils vier physischen CPUs, so benötigt man die doppelte Anzahl an Windows-Server-Betriebssystem-Lizenzen, da jede Windows-Server-2012-Lizenz maximal zwei CPUs lizenziert. Früher gab es hier keine Beschränkung dieser Art. Wer für eine bestimmte Software unlimitierte Virtualisierung benötigt, findet auch hierfür immer häufiger Editionen, die zusammen mit einer Wartungskomponente diese Rechte liefern – in der Regel recht kostspielig, unter Umständen jedoch günstiger als in einer nicht virtualisierten Umgebung. Es wird also nicht zwangsweise teurer durch die Virtualisierung. Wer die Lizenzrechte kennt, kann den „Break-even“ für den Kunden ausrechnen.

ITM: Alte Lizenzformen berücksichtigen oftmals nicht die Möglichkeiten der virtuellen Welt. Wie leicht lassen sie sich anpassen?
Ohlsen:
Normalerweise lassen sich die Nutzungsbedingungen von bereits erworbener Software nicht anpassen, da diese Bestandteil des Lizenznachweises zum Zeitpunkt des Erwerbs sind. Hier sind Kunden im Vorteil, die ihre Software mit einer Wartungskomponente versehen haben. Gelten ab einer bestimmten Version neue oder angepasste Nutzungsrechte, so können diese sofort in Anspruch genommen werden. Wer hingegen aus Kostengründen eine Wartungsabdeckung nicht abgeschlossen hat, der kann nur über den Neukauf die neuen Lizenzrechte für sich beanspruchen.

ITM: Wie lässt sich Software in einer beliebigen virtualisierten Umgebung kontrollieren? Welche Verfahren/Tools/Lösungen gibt es zur sinnvollen Verwaltung der Lizenzierung in virtuellen Umgebungen?
Ohlsen:
Zum einen bieten die Softwarehersteller der verschiedenen Virtualisierungsplattformen (Hypervisor) eigene Monitoring-Tools, die in der Regel mit der Software mitgeliefert werden. Von Fall zu Fall kann man dann noch die Monitoring-Software erweitern. Damit haben die IT-Abteilungen der Unternehmen Kontrolle über die konfigurierten virtuellen Maschinen, um wichtige Kennzahlen für die Lizenzierung im Griff zu behalten. Hier sind aus lizenzrechtlicher Sicht Dinge entscheidend: die Anzahl der zugewiesenen virtuellen CPUs einer virtuellen Maschine sowie die Hardware-Ausstattung der darunterliegenden Hosts (Anzahl an CPUs und Kernen). Darüber hinaus unterstützen die klassischen Inventarisierungstools inzwischen auch virtuelle Umgebungen. Selbst kostenfreie Tools wie das Microsoft Assessment und Planning Toolkit bieten gute Möglichkeiten der Bestandsaufnahme, auch beim Einsatz von Nicht-Microsoft-Virtualisierungstechnologien.

ITM: Inwieweit sind diese Überprüfungsverfahren von den Softwareherstellern anerkannt?
Ohlsen:
In der Regel veröffentlichen die Hersteller Listen, welche Inventarisierungstools als geeignet angesehen werden oder gar zertifiziert sind. Das erwähnte Assessment und Planning Toolkit kann offiziell als Unterstützung im Rahmen eines SAM-Projektes verwendet werden. Die Monitoring-Tools der Hersteller von Virtualisierungstechnologien hingegen sind als ergänzende Unterstützung im Inventarisierungsprozess anzusehen. Möchte man sich hier absichern, z.B. wenn die Anschaffung eines Inventarisierungstools geplant ist, dann macht es Sinn, ein Beratungshaus zu konsultieren, das den jeweiligen Softwarehersteller in die Software-Asset-Management-Projekte (SAM) einbezieht und so genau weiß, welche Überprüfungsverfahren anerkannt sind.

ITM: Mit welchen „Strafen“ müssen Mittelständler rechnen, wenn ihre Software nicht ordnungsgemäß lizenziert ist bzw. wie teuer könnte es für einen Mittelständler werden, wenn er in eine Lizenzierungsfalle tappt?
Ohlsen:
In aller Regel werden, wenn der Hersteller eine offizielle Lizenzprüfung anberaumt, Wirtschaftsprüfungsgesellschaften beauftragt, die dann ein Audit durchführen und die erworbenen Lizenzen mit den genutzten abgleichen. Wird ein Lizenzdelta zu Lasten des Unternehmens festgestellt, so muss dieses zum einen nachlizenziert werden und zum anderen kann es sein, dass die Kosten für die Wirtschaftsprüfer ebenfalls durch das geprüfte Unternehmen getragen werden müssen, wenn ein gewisser Prozentsatz an Unterlizenzierung überschritten wird. Hierbei können 5 Prozent Unterlizenzierung schon einen kritischen Wert darstellen. Selbst wenn „nur“ das ermittelte Lizenzdelta nachlizenziert werden muss, sollte man beachten, dass man in einem solchen Fall nicht in der Position ist Preise zu verhandeln. Zu Lizenzprüfungen kommt es unter Umständen auch dann, wenn man zuvor ein Anschreiben des Herstellers mit der Bitte um Selbstauskunft ignoriert hat, und sei es nur deswegen, weil man von der Unmenge an Auskünften die eingefordert wurden, förmlich erschlagen wurde. Hier hilft eine gezielte Beratung durch einen SAM-Partner, der mit dem Kunden nach Absprache mit dem Hersteller ein geordnetes Projekt aufsetzt, um so eine valide Lizenzbilanz abgeben zu können. Noch besser ist es natürlich, wenn man bereits von einem SAM-Partner betreut und zertifiziert wird – Lizenzprüfungen sind dann eher unwahrscheinlich.

ITM: Bedeutet Virtualisierung an sich nicht schon grundsätzlich höhere Lizenzkosten?
Ohlsen:
Das kann man so nicht sagen. Möchte man z.B. einen Lizenzkostenvergleich zwischen sechs einzelnen betriebenen Windows Servern 2012 und sechs virtualisierten Servern auf einem Host anstellen, so liegen die Kosten für das Serverbetriebssystem bei der Hälfte im Vergleich zu denen für die Einzelserver. Das liegt daran, dass man mit einer Windows-Server-2012-Standard-Lizenz bis zu zwei virtuelle Server (VMs) abdecken kann. Die in virtualisierten Umgebungen häufig eingesetzte Windows-Server-Datacenter-Lizenz erlaubt sogar das unlimitierte Erstellen von virtuellen Windows-Servern auf einem Host. Diese Art der Lizenzierung ist beim Betrieb von vielen virtuellen Servern sehr empfehlenswert und im Sinne eines optimierten Software Asset Managements auch leichter zu inventarisieren. Es kann allerdings auch andersherum laufen: Wird ein Applikationsserver virtualisiert und in eine dynamische Lastverteilung einbezogen (der virtuelle Server „wandert“ über mehrere Hosts), dann muss die Lizenz eine sogenannte „Lizenzmobilität“ haben, welche wiederum an eine bestehende Wartung gekoppelt sein kann. In einer nicht virtualisierten Umgebung muss auf so etwas keine Rücksicht genommen werden – hier wären die Lizenzkosten also pragmatisch betrachtet niedriger.

ITM: Wie können sich Mittelständler letztlich am besten einen Überblick über ihre Lizenzen in virtuellen Umgebungen verschaffen? Wenden sie sich am besten direkt an die Hersteller/Software-Anbieter oder an eine unabhängige Beratung?
Ohlsen:
Empfehlenswert ist es, sich an ein unabhängiges Beratungshaus zu wenden. SAM-Berater verfügen über das nötige Know-how, um eine erste Risikoabschätzung vorzunehmen oder einen Workshop im Unternehmen durchzuführen, der für das Thema sensibilisiert, oder auch gleich mit einem SAM-Projekt zu starten, wenn man ohnehin schon weiß, dass man ein internes Audit durchführen möchte, um belastbare Daten zu erhalten.

ITM: Welche Lizenzierungstrends sehen Sie in den kommenden Jahren? Inwiefern wird sich ein einheitliches, auf Virtualisierung abgestimmtes und für den Anwender faires Lizenzmodell durchsetzen? Und wie könnte so ein Modell aussehen?
Ohlsen:
Es ist davon auszugehen, dass sich langfristig cloud-basierte Dienste neben den herkömmlichen „on premise“ (im Haus des Unternehmens) Lösungen immer mehr durchsetzen werden und es dazu wiederum neue Lizenzregeln geben wird. Eine einheitliche Lizenzierung in virtuellen Umgebungen scheint bis dato nicht in Sicht zu sein, dazu sind die einzelnen Interessen und Vorstellungen der Hersteller zu unterschiedlich. Wünschenswert wäre es, wenn wenigstens Einigung darüber erzielt werden könnte, ob künftig die CPU-basierte Lizenzierung der core-basierten weichen wird oder umgekehrt. Denn selbst innerhalb eines Herstellers gibt es hier noch unterschiedliche Modelle. Solange dieser Zustand anhält, ist man gut beraten, sich regelmäßig durch SAM-Berater unterstützen zu lassen, um die wichtigsten Trends mitzubekommen und im besten Falle bei künftigen Anschaffungen schon proaktiv handeln zu können.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok