Über unsMediaKontaktImpressum
Torsten Groll 31. Mai 2016

Dynamik des Lizenzmanagements in Server-Umgebungen

Unsere Computertechnik hat sich in den letzten 75 Jahren so rasant verändert, dass uns nicht die komplexen mechanischen bzw. elektronischen Bauteile und deren Beherrschung, sondern die sich in dieser Zeit rasch entwickelnden Softwareprogramme und -produkte und deren nutzungskonforme und wirtschaftliche Verwendung, heute als Herausforderungen gegenüberstehen.

Haben Sie gewusst, dass die für uns heute so selbstverständliche Unterteilung in Hardware- und Software-Plattformen auf eine Klage gegen IBM zurückgeht? Bis 1969 war es üblich, dass die Hardware-Hersteller ihre Software ohne eine zusätzliche Zahlung an ihre Kunden weitergaben. Darin sahen damals wiederum andere Softwarehersteller eine Wettbewerbsverzerrung und klagten. Dadurch wurde dann im Jahre 1969 durch die US-Regierung Anklage gegen IBM erhoben, um eine Entbündelung von Hard- und Software zu erzwingen. Da die Klage erfolgreich war, mussten nun Hardware- und Softwareprodukte entbündelt zum Kauf angeboten werden. Dies war der Beginn der Entwicklung eines milliardenschweren Marktes für die Software- und Dienstleistungsindustrie, denn nun konnten auch Softwareprodukte unabhängig von den bestehenden Hardwareplattformen entwickelt und verkauft werden. Das bekannteste Beispiel dafür, beginnend im PC-Umfeld, ist wohl Microsoft, der mit Abstand weltweit größte Softwarehersteller. Am 4. April 1975 von Bill Gates und Paul Allen gegründet, entwickelte Microsoft im Auftrag der IBM das Betriebssystem MS-DOS und stellte es 1981 erstmals der Öffentlichkeit vor, hier wurde also schon bereits der Grundstein für einen "lange Zeit" reinen Softwarehersteller gelegt. Auf ähnliche Weise wurden neben IBM auch viele andere heutige Keyplayer in der Softwarebranche, wie Oracle, Adobe, SAP zu dem, was sie heute sind.

Ihre Produkte mit den darauf basierenden Anwendungen bilden heute die Hauptschlagadern unserer digitalen Umwelt. Um den stetigen Daten- und Informationsfluss zu verarbeiten, sind skalierfähige IT-Infrastrukturen gefordert, die verstärkt in virtualisierten Umgebungen abgebildet und auch gesteuert werden müssen. Neben der Herausforderung, dafür Administrations- und Datenbankwerkzeuge zu entwickeln, um "Big Data" und Web 4.0 (IoT) zu meistern, müssen auch immer mehr die dafür anfallenden Lizenz- und Bereitstellungskosten im Blick behalten werden. Im bisherigen Verwalten von Softwarelizenzen entstehen nun – aufgrund der neuen Komplexitäten – weitere Herausforderungen für das gemeinsame Management von klassischen Softwarelizenzen und Softwareprodukten in virtuellen Server- und Cloud-Umgebungen, die schon sehr lange eine der neuen und wichtigsten Hauptpfeiler für die Weiterentwicklung unserer digitalen Welt darstellen.

Aber nicht nur diese Technologien verlangen nach neuen Verfahrensweisen und Prozessen. Der Anspruch, immer und überall und von jedem Gerät unter jedem Betriebssystem auf Geschäftsdaten und -prozesse zugreifen zu können, kann nur durch die weitere Einbindung von mobilen Geräten wie Smartphones oder Tablets erfüllt werden. Diese müssen aber auch als ein weiteres Asset (mit darauf befindlichen Softwareassets) in die Unternehmensarchitektur integrierbar sein und sollen möglichst wenig Kosten erzeugen. Über Virtualisierungstechnologien kann die hierfür erforderliche Flexibilität gewährleistet werden, was aber auch bedeutet, dass auf das Softwareasset- und Lizenzmanagement eine weitere Komplexitätsstufe zukommen wird, denn die mobilen Geräte müssen immer stärker in den gesamten Software-LifeCycle-Prozess mit eingebunden und gesteuert werden. Durch das stetige Wachstum von Servervirtualisierungs- und Cloud-Technologien in den Rechenzentren entstehen im Betrieb neue Aufgaben, aber auch neue Risiken.

Blicken wir einmal kurz auf die in Abb.1 abgebildete Struktur, die dem Ganzen zugrunde liegt. Um die heutigen, durch modernste IT-Komponenten getragenen, Geschäftsprozesse, wirtschaftlich betreiben zu können ist die Einbindung eines Lizenzmanagements in die Unternehmensarchitektur unabdingbar. Denn eine der wichtigsten Aufgaben eines Lizenzmanagements ist es, das Betreiben der Hard- und Softwareressourcen lizenzkonform zu steuern und zu überwachen.

Durch die vielen eingesetzten Softwareprodukte verschiedener Softwarehersteller und deren unterschiedliche Lizenzmodelle und -metriken, fällt es den IT-Verantwortlichen heute immer schwerer, den "lizenzkonformen" Durchblick zu behalten.

Wenn über IT-Architektur gesprochen wird, werden fast immer die jeweiligen Anwendungslandschaften in den Vordergrund gestellt, was primär natürlich richtig ist, da ja die Geschäftsprozesse unterstützt werden sollen und der Einsatz der Ressourcen möglichst wirtschaftlich erfolgen sollen. Oft genug werden aber die Anwendungslandschaften nur in Bezug auf Performance und höhere Verfügbarkeit getrimmt. Systeme bzw. ganze Anwendungslandschaften zu konsolidieren und zu virtualisieren, um Allgemeinkosten (Strom, Kühlung, Räume u. a.) zu sparen, heißt aber noch lange nicht, dass sich damit Softwarekosten einsparen lassen. Sehr häufig entstehen bei den geplanten Konsolidierungs- und Migrationsszenarien Fehler aufgrund unzureichender Kenntnis der Softwareverträge und der darin vereinbarten Nutzungsbedingungen. Genau hier steckt der Teufel oft im Detail. So ist beispielsweise von entscheidender Wichtigkeit, ob ein System als aktives Backupsystem oder vielleicht nur als sogenanntes "Cold-Stand-By"-System dienen soll. Je nachdem kann es lizenzkostenfrei oder lizenzkostenpflichtig sein. Den größten Fehler begeht man, wenn man das Lizenzmanagement in Fällen, in denen es um die Beurteilung von Änderungen an der IT-Architektur geht, nicht oder nicht rechtzeitig mit einbezieht.

Weitere Herausforderungen entstehen dabei aber oft auch durch sich ständig dynamisch ändernde lizenzrelevante Parameter, die damit eine einhergehende hohe Volatilität erzeugen. Um bestehende Hardware-Systeme optimal einsetzen zu können, werden kontinuierliche und in den meisten Fällen vollautomatische Anpassungen an den virtuellen Infrastrukturen durchgeführt. Die dabei laufend entstehenden lizenzrelevanten Veränderungen müssen erkannt und für die Ermittlung des korrekten Lizenzbedarfs immer wieder neu berechnet werden, damit die IT-Abteilungen ihre technischen und finanziellen Ressourcen möglichst optimal verwalten können.

Mit diesen Informationen können nun Aussagen zur lizenzkonformen Nutzung – immer in Bezug auf die vorherrschende IT-Umgebung – getroffen werden. Damit ist aber noch lange nicht eine nutzungsgerechte Optimierung der eingesetzten Softwareressourcen und -lizenzen sichergestellt. Um Lizenzvolatilitäten kostenoptimiert online überwachen zu können, bedarf es der Anwendung neuer Technologien und Vorgehensweisen. Natürlich kann diese Optimierung der virtualisierten Umgebung nach Lizenzgesichtspunkten nicht im luftleeren Raum durchgeführt werden. Hierfür müssen sowohl technische Gegebenheiten beachtet werden als auch die Grenzen für das theoretisch maximal erreichbare Optimierungspotenzial aufgezeigt werden. Herkömmliche auf dem Markt aktuell verfügbare Lizenzmanagement-Werkzeuge sind für diese Aufgabenstellung aber noch nicht umfänglich konzipiert.

Gibt es ein Werkzeug für ein Server-Lizenzmanagement?

Am Markt existieren seit Jahren bereits die vielfältigsten und auch für unterschiedliche Unternehmensgrößen einsetzbaren Lizenzmanagementwerkzeuge. Meist verfügen die Hersteller dieser Werkzeuge über sehr viel Erfahrung, um im Bereich der Clients die Softwareprodukte zu verwalten und lizenztechnisch abzubilden, für Server-Umgebungen gibt es kaum vernünftige Funktionalitäten. Erschwerend kommt hinzu, dass eine Vielzahl der Server-Systeme bereits als virtualisierte Server betrieben werden und oft auch in virtuellen Clustern. Werden diese dann auch noch über entsprechende Managementwerkzeuge in den virtuellen Umgebungen dynamisch verschoben, können die lizenzrelevanten Auswirkungen auf die erlaubte Nutzung der Softwarelizenz ein enormes Ausmaß haben, sowohl monetär als auch lizenzrechtlich.

Ein CIO einer großen deutschen Automarke hat vor nicht allzu langer Zeit in einem Computermagazin gesagt: "Es gibt derzeit kein vernünftig einsetzbares Werkzeug, um Server-Softwareprodukte und deren Softwarelizenzen effizient zu verwalten." Die Erkenntnis erstaunt umso mehr, als dass doch viele der am Markt etablierten Hersteller von Lizenzmanagementwerkzeugen vollmundige Marketingversprechungen bezüglich der Verwaltung von Server-Umgebungen und ihrer Softwarelizenzen abgeben. Nun sind alle diese Lösungen darauf ausgerichtet, über eigene Module selbst ermittelte oder angelieferte Inventarisierungs- bzw. kaufmännische Gesamtdatenbestände zu verarbeiten, um daraus dann den Lizenzbedarf bzw. die Lizenzbilanzen zu ermitteln. Unternehmen können aber oft nur einmal im Monat oder quartalsweise eine entsprechende Lizenzbilanz für die eingesetzten lizenzkostenpflichtigen Softwareprodukte erstellen. Diese Vorgehensweise passt aber nun so gar nicht mit den hohen möglichen Abweichungen von lizenzrelevanten Parametern in virtualisierten Server-Umgebungen zusammen. Softwarehersteller definieren außerdem gerne den höchsten erreichbaren Peak, als den zu lizenzierenden Faktor für die Berechnung bzw. Abrechnung des Lizenzbedarfs. Die damit einhergehenden Berechnungszyklen sind meistens sehr kurz und können mit den bisherigen Werkzeugen schon rein technisch nicht mehr umgesetzt werden.

Das bedeutet, Werkzeuge die nicht in der Lage sind, kurzfristige bzw. dynamische Veränderungen von lizenzrelevanten Parametern in virtualisierten Umgebungen zu entdecken, zu verarbeiten und gegebenenfalls auf bestimmte Grenzwerte mit Alarmmeldungen zu reagieren, sind für die lizenzkonforme Verwaltung von Server-Umgebungen nicht geeignet.

Seit geraumer Zeit gibt es eine Lösung für diese Aufgabenstellung. Ein von der Firma Metrix Consulting GmbH über mehrere Jahre entwickeltes Analysewerkzeug (InsideLicense), welches auf verschiedenen – am Markt seit langem existierenden – IT-Technologien basiert, kann Änderungen von lizenzrelevanten Parametern oder auch die Neuzuordnungen von virtuellen Maschinen und ihrer Hosts nahezu in Echtzeit erkennen und verarbeiten.

In Abb.2 ist grob die Lösungsarchitektur und Arbeitsweise des Analysewerkzeuges dargestellt.

Mit den so erhobenen Werten können unmittelbar Änderungen in eine Gesamtbedarfs- und Gesamtbilanzierung aufgenommen und dargestellt werden. Das entwickelte Produkt ist allerdings nicht als klassisches Lizenzmanagementwerkzeug zu verstehen. Der Schwerpunkt des Produkts liegt vorwiegend auf der Bereitstellung einer hoch flexiblen Möglichkeit, um in verwalteten hoch dynamischen physikalischen und virtualisierten Server-Umgebungen lizenzkonforme Softwarelizenzbedarfe mit den daraus resultierenden Optimierungsmöglichkeiten zur Verfügung zu stellen. Auf Basis von transparenten Echtzeitdaten und Parametern lassen sich so auch komplexere Lizenzmodelle und -metriken verwalten und steuern. So erfordern beispielsweise auch Softwareprodukte mit einer eingeschränkten Lizenzmobilität nicht mehr zwingend die Nutzung von sündhaft teuren "all-you-can-eat"-Softwarelizenzen. Sie sind auch über normale Standardlizenzmodelle und -metriken in dynamischen virtuellen Umgebungen einsetzbar, ohne dass dabei eventuell nicht kalkulierbare Unterlizenzierungsrisiken entstehen. Das Produkt wird direkt bzw. in Form eines Lizenzmanagement-Service angeboten und bereitgestellt.

Es wäre wünschenswert, wenn in der näheren Zukunft weitere professionelle Analysewerkzeuge am Markt zur Verfügung stehen, die durch entsprechende "Echtzeit"-Fähigkeiten in der Lage sind, die realen Anforderungen für das Verwalten von Server-Umgebungen abzubilden, um damit das Verwalten und Steuern eines lizenzkonformen Rechenzentrumsbetriebs zu ermöglichen.

Autor

Torsten Groll

Torsten Groll (Senior Manager Consultant) Inhaber und Geschäftsführer der 1993 gegründeten CTC Computer Training & Consulting, verfügt über mehr als 25 Jahre IT-Erfahrung als Berater, Trainer und Dozent.
>> Weiterlesen
Buch des Autors:

botMessage_toctoc_comments_9210