Open Source und Digitale Transformation
Cloud-Computing ist einer der technischen Eckpfeiler der Digitalen Transformation. Dahinter stecken Open Source und Linux. Warum ist das so und welche Rolle spielt SDI (Software Defined Infrastructure) dabei?
Digitale Transformation bedeutet Umbruch. Alte Strukturen müssen neuen Ideen weichen – Geschäftsmodelle ändern sich ebenso wie die IT-Infrastruktur der Unternehmen. Das ist keine neue Entwicklung, sie ist bereits seit Jahren im Gange, jetzt hat der Wandel jedoch eine Eigendynamik erreicht, die nicht mehr zu ignorieren ist.
Diese Transformation findet dabei parallel an mehreren Stellen statt: Der Niedergang der Monolithen etwa ist ein Aspekt, der Einsatz von mehr und mehr Cloud-Diensten ein anderer. Auch die Zunahme von Software Defined-Architekturen lässt sich beobachten – von Computing über Storage und Networking bis hin zum Datacenter.
Zu diesem Schluss kommen auch die Marktforscher von IDC in Deutschland: Sie hatten sich die Transformation der Rechenzentren angesehen und den Trend der Unternehmen untersucht, Software Defined Infrastructure (SDI) und Datacenter (SDDC) als Lösungsansatz zur Umsetzung von Cloud Computing zu nutzen. Der Vorteil dabei ist offensichtlich: geringere operative Kosten und ein effizienterer Betrieb bei mehr Flexibilität. Gerade Letzteres passt wiederum perfekt zu den Anforderungen der Digitalen Transformation. Interessant ist, dass hinter dem Einsatz von SDI, SDDC und Cloud oft ein gemeinsamer Nenner steckt: Open Source.
Obwohl sich SDI noch in einer frühen Phase befindet, sind Firmen und Organisationen bereit, geschäftskritische Anwendungen auf ihr laufen zu lassen. Dies ist das Fazit der IDC-Studie "Software Defined Infrastructure in Deutschland 2016" [1]. Ziel der von IDC im März 2016 durchgeführten Befragung unter 252 IT-Entscheidern aus Unternehmen in Deutschland mit mehr als 250 Mitarbeitern war es, Einblicke in die Wahrnehmungen, Umsetzungspläne und Erfolgsfaktoren im Hinblick auf Software Defined Infrastructure zu erhalten.
Die Umfrage fand nur unter solchen Firmen statt, die sich bereits mit dem Thema SDI fundiert beschäftigen. Für 85 Prozent der Befragten spielt Open Source bei SDI eine Schlüsselrolle. Open Source, als Garant für offene Standards, ist somit in vielen Fällen ein wichtiger Enabler für SDI in Unternehmen. Dies verdeutlicht das Innovationspotenzial, das in vielen Open Source-Initiativen steckt.
Open Source öffnet das Rechenzentrum
Das Fazit von IDC lautet demnach: Viele Unternehmen arbeiten an der Modernisierung ihres Rechenzentrums, um die Digitale Transformation zu unterstützen oder zu verbessern. Sie betrachten Software Defined Infrastructure als einen Weg, den Fachabteilungen kostengünstig flexible und agile IT-Ressourcen zur Verfügung zu stellen. Die verschiedenen Lösungskomponenten sind in ihrem Lebenszyklus unterschiedlich weit vorangeschritten. Während Virtualisierungs-Tools schon seit vielen Jahren im Einsatz sind, sind nun auch Software Defined Storage, Container und OpenStack als Enterprise-Produkte verfügbar. Die Unternehmen sind bereit, diese Lösungen einzusetzen und agieren damit in einem Spannungsfeld zwischen Innovation und Enterprise-Readiness.
"Software Defined Infrastructure ist ein interessanter Lösungsansatz, der Unternehmen in die Lage versetzt, mittels der Entkopplung von Hardware und Software und auf Basis einer umfassenden Automatisierung und Orchestrierung, IT als Service effizient, schnell und mit hoher Agilität bereitzustellen. SDI wird somit zum Schlüsselfaktor und Kernelement moderner IT-Infrastrukturen", betonte Matthias Zacher, Senior Consultant und Projektleiter bei IDC.
Der erwähnte Wandel zieht sich durch alle Industrien und Branchen. Die IT erhält dabei auch für solche Unternehmen einen erhöhten Stellenwert, die sich bisher recht wenig mit IT-Themen befassen mussten. Und sie haben etwas gemeinsam: Alle werden auf eine Infrastruktur setzen, die auf Basis einer Software-Defined-Architektur aufgesetzt ist – on Premise oder beim Cloud Service-Provider. Für einen sicheren und anbieterunabhängigen Weg in die Zukunft, setzen daher viele auf Mainstream-Lösungen aus der Open Source-Welt.
Open Source definiert Standards
Warum gerade Open Source? Neben den offensichtlichen Vorteilen durch die Community hinter Open Source, sprechen noch wichtige weitere Punkte dafür, dass die Zukunft offen ist. Unternehmen befürchten – gerade bei neuen Investitionen im Rahmen der Digitalisierung – in absehbarer Zeit nicht mehr auf dem neusten Stand zu sein – oder noch schlimmer, in einer herstellerabhängigen Sackgasse zu landen. Beides kann durch Einsatz von Open Source vermieden werden.
Wer heute auf Open Source setzt, weiß, dass die Schnittstellen auch in ein paar Jahren noch funktionieren werden.
Die große Zahl von Anbietern und Anwendern, die im Rahmen von Open Source-Projekten zusammenarbeiten, stellen sicher, dass Unternehmen im Mainstream bleiben, wenn sie auf Open Source-Produkte setzen. Schlicht deshalb, weil ein einzelner Anbieter niemals einen ähnlichen Umfang und Innovationspotenzial garantieren könnte. Das bringt uns bereits zum zweiten Punkt: Projekte wie Linux, das dieses Jahr 25 Jahre alt wird, zeigen deutlich die hohe Innovationsgeschwindigkeit von Open Source.
Vom ersten Enterprise-Linux im Jahr 2000 bis zur Partnerschaft von Linux und Windows sind gerade sechs Jahre vergangen. UNIX hat wesentlich länger gebraucht, um seine Stellung zu erkämpfen, die es seither an Linux verloren hat. Wer heute auf Open Source setzt, weiß, dass die vorhandenen Schnittstellen auch in ein paar Jahren noch funktionieren werden. Offene Standards werden heute ausschließlich über Open Source implementiert.
Früher gab es etwa OSI-Gremien, deren Standards kaum jemand implementierte. Heute wird alles über Best Practice abgehandelt – hat sich etwas Neues bewährt, wird es automatisch zum Standard. Das gewährleistet, dass Unternehmen Industriestandard-Hardware einsetzen können und somit günstig fahren. Außerdem wird sichergestellt, dass unterschiedliche Cloud-Umgebungen kompatibel sind.
Open Source vereint die Cloud
Digitale Transformation bedeutet häufig im ersten Schritt Cloud. Dabei stellt sich die Frage: wie soll das Sourcing-Modell aussehen? Der große Vorteil dabei ist, dass Open Source überall mitmacht. Ein Beispiel aus der Praxis von SAP und SUSE zeigt den Umfang: Wer die Cloud im eigenen Rechenzentrum behalten muss oder möchte, der wird sich für S/4-HANA on Premise entscheiden. Die Grundlage dafür kann entweder Intels x86-Architektur oder IBM Power sein. Damit schaffen sich Unternehmen die klassische Private Cloud mit voller Kontrolle – und vollem Arbeitsaufwand.
Die zweite Option ist ebenfalls eine Private Cloud, jedoch als Managed Service. Die Betreuung wird also von einem Dienstleister übernommen und die Vorteile einer Private Cloud bleiben erhalten. SAP nennt dies HANA Enterprise Cloud (HEC) und legt in dieser Konfiguration ganz besonderen Wert auf die Standardisierung der Applikationen – verständlich, denn es vereinfacht Wartung und Service. Wer dagegen in der Public Cloud zuhause ist, hat noch einmal doppelt so viele Wahlmöglichkeiten.
Die S/4-HANA Public Cloud kann in Form der SAPA HANA Cloud Platform (HCP) kommen, was die von SAP bevorzugte Version wäre. Ebenso können Unternehmen ihre SAP-Cloud jedoch auch auf Amazon Web Services (AWS) hosten lassen, auf Microsoft Azure sowie in Zukunft auch bei weiteren Anbietern wie Telekom oder Google. Die meistgenutzte Form jedoch wird die Hybrid Cloud sein. Teile der SAP-Landschaft – u. a. die Produktion – bleiben dabei genau kontrolliert und inhouse. Andere Teile, wie Test und Entwicklung, liegen dagegen in der Public Cloud und genießen die Vorteile der freien und bedarfsorientierten Skalierung.
Egal wie die Entscheidung ausgeht, Open Source ist überall. Was bedeutet das? In unserem Beispiel ist SUSE Linux Enterprise Server nicht nur das Betriebssystem der SAP HANA Enterprise Cloud (Private Cloud) und der SAP HANA Cloud Platform, sondern arbeitet auch mit AWS und Azure (Public Cloud) und läuft sowohl auf x86 wie auf IBM Power (on Premise). Wie auch immer Unternehmen ihr Betriebsmodell aufstellen und die Sourcingfrage beantworten – eine Antwort, die gerne mehrfach pro Jahr gegeben wird –, sie wären gut beraten, für die eigene Infrastruktur ein Betriebssystem zu wählen, das genau so auch in jeder Cloud-Kombination läuft.
Beispiel OpenStack: Was man beachten sollte
Viele Unternehmen haben bereits verstanden, dass Open Source der richtige Pfad ist. Verdeutlicht wird dies durch den wachsenden Einsatz von entsprechenden Lösungen, etwa im Bereich der Private Clouds. Flexibel, agil und kostensparend soll hier die Software sein – ein Liebling der IT-Entscheider in Deutschland ist die OpenStack Private Cloud: 80 Prozent der deutschen Unternehmen zieht dieses Jahr auf eine OpenStack Private Cloud um oder plant diesen Umzug, wie Anfang des Jahres eine Studie zeigte [2]. 813 IT-Experten aus dem Senior Management wurden dafür befragt.
Nun wurden bereits viele der Vorteile behandelt, die Open Source bietet – doch es gilt auch, auf dem Weg in die Digitalisierung einige Hürden zu überwinden. OpenStack kann einige davon bereithalten. So ist es nicht immer leicht für Unternehmen, auf dem neusten Stand zu bleiben. Die Strategie von OpenStack besteht aus kleinen monatlichen sowie größeren Halbjahresupdates und orientiert sich am Continuous Delivery-Modell. IT-Teams haben mit dieser hohen Taktung jedoch häufig ihre Schwierigkeiten und bleiben ein halbes Jahr oder länger hinter den Updates zurück. Die Anstrengungen der Unternehmen im Bereich DevOps helfen zwar, doch sind sie insgesamt noch nicht wirklich bereit für die Auswirkungen von Continuous Delivery – hier müssen Unternehmen nachlegen. OpenStack Private Cloud-Lösungen, die von Herstellern wie SUSE angeboten werden, bieten hier Abhilfe.
OpenStacks Netzwerkschnittstellen unterliegen einem Wandel. Einzelne Funktionen werden in eigene Module ausgegliedert, wenn sie eine gewisse Größe erreichen. Aus den Anforderungen des Software Defined Networkings, große, komplexe Netzwerke zu orchestrieren, entstand daher ein separates Network-as-a-Service-Module namens Neutron. Neutron hat sich von Release zu Release weiter stabilisiert – seit Juno ist auch IPv6 nutzbar geworden. Im aktuellen Liberty Release sind erste Funktionen für die Einführung von Quality of Service (QoS) integriert worden. Hier sollten Unternehmen mit Nachsicht agieren und die passenden Module wählen.
Software Defined Networking
Traditionelle Netzwerkhardware lässt sich nicht programmieren, daher benötigt OpenStack die Fähigkeit, ein Software Defined Network zu betreiben; es geht dabei um die Befähigung eines Systems, seine Netzwerkinfrastruktur zu automatisieren und Layer-2- bis Layer-7-Dienste zu orchestrieren.
Manche dieser Basiselemente finden sich in den gängigen Overlay- und Underlay-Lösungen am Markt. Am Ende werden Unternehmen beide Lösungsarten benötigen – doch im Moment wenden sie sich von Underlay-Lösungen ab, da diese neue Hardware voraussetzen. OpenStack Neutron ersetzt noch keine umfassende SDN-Lösung, reicht jedoch für kleinere Anwendungsfälle bereits aus; bei der Integration eigenständiger Lösungen bevorzugt Neutron die Overlay-Kategorie.
OpenStack benötigt wie jede Softwarelösung eine ordentliche Sicherheitsprüfung. Unternehmen sollten ihre bestehende Sicherheitsexpertise und -prozesse zum Roll-out von OpenStack nutzen, während sie sich zugleich OpenStack-spezifische Kenntnisse aneignen. Eine große Zahl der Sicherheitslücken ist bereits geschlossen und dokumentiert, und jeder Release bringt aktuelle Sicherheitspatches mit sich.
Distributionen machen das Leben leichter
OpenStack ist eine IaaS-Cloud-Plattform mit minimalen Managementfunktionen, wie es für diese Art der Cloud-Technologie durchaus üblich ist. Unternehmen, die nach den Managementfunktionen einer kompletten Private-Cloud-Suite oder dem IDE-Werkzeugkasten und der Abstraktion einer PaaS-Lösung suchen, werden bei OpenStack nicht fündig werden. OpenStack kann hier als Basis dienen und mit weiteren Tools verbunden werden – etwa mit Docker für Container oder CloudFoundry für die PaaS-Funktion.
Bimodale IT: Unternehmen werden noch eine Weile in zwei Geschwindigkeiten fahren.
Es dauert etwa vier bis sechs Monate, um OpenStack kompetent selbst umsetzen zu können. Auch in großen Unternehmen wie eBay, ComCast, PayPal oder bei CERN ging die Adoption nicht über Nacht. OpenStack ist durch die Vielzahl an Projekten und Optionen ein recht komplexes Gebilde geworden. Es bietet sehr viele Möglichkeiten der Anpassung an die individuellen Anforderungen – dies erhöht aber auch den Aufwand bei der Einführung. Hierbei ist immer spezielles Expertenwissen nötig – OpenStack-Engineers sind daher stark gefragt. OpenStack-Distributionen können diese Komplexität durch Automation bei der Installation und der Konfiguration reduzieren und so die Aufwände bei der Adaption von OpenStack deutlich minimieren.
Einzelne Lösungen aus dem Open Source-Universum sind also bereits sehr gute Bausteine für die digitale Zukunft. Doch wie sieht es mit der IT-Mannschaft aus? Kann Open Source auch hier etwas beisteuern? Ja, in der Tat, auch hier spielt Linux eine Rolle. Zunächst einmal ist klar, dass Unternehmen noch eine Weile in zwei Geschwindigkeiten fahren werden. Analysten wie Gartner nennen es bimodale IT – zusammengesetzt aus der alten, klassischen IT-Landschaft mit ERP, HR-Systemen und der Warenwirtschaft, und daneben der neuen, dynamischen IT, die neue Geschäftsmodelle und damit auch Digitale Transformation bringen soll.
Open Source als Karriere-Boost
Dieser Doppelmodus erfordert neue Kenntnisse – nicht nur für die neue Landschaft, die Cloud, agile Entwicklung und DevOps, sondern auch intime Kenntnisse des eigenen Rechenzentrums. Die Chancen stehen sehr gut, dass das bestehende IT-Team entweder bereits die benötigten Kenntnisse für dynamische Umgebungen erworben hat oder schnell auf den neusten Stand gebracht werden kann. Diese Entwicklung bietet einen interessanten Karrierepfad für Techniker. Anbieter bieten Schulungen und technische Zertifizierungen für Themen wie OpenStack Cloud oder Ceph-Softwarebasierten Storage an. Techniker, die das wahrnehmen, kommen klassischerweise aus einer Linux-Welt. Wieder sind es Open Source-Kräfte, die die Digitalisierung vorantreiben.
Einige Skills sind bereits vorhanden – andere müssen Unternehmen neu einkaufen. Ein Beispiel dafür ist das vermehrte Auftauchen von Cloud-Service-Zentren. Meist schaffen Unternehmen eine neue Position, die direkt an den CIO berichtet und besetzen die Stelle mit jemandem, der bereits Erfahrung in Cloud- und dynamischen Projekten besitzt und weiß, wie man diese Neuerungen im Unternehmen einführt. Dieser neue Manager hält die Verbindung zur Anwendungsentwicklung oder zu den Anwendungsabteilungen, die bisher noch keine IT-Entwicklung gemacht haben und berät diese entsprechend bis hin zur Implementierungsleistung. Er baut auch ein Team auf, das aus der bestehenden Mannschaft rekrutiert werden kann.
Für eine solche Stelle als Kopf der Cloud-Services im Unternehmen werden wiederum gerne Mitglieder der Open Source-Community eingestellt. Sie wissen wie man mit Open Source-Software arbeitet, wie man Chancen und Vorteile von Open Source nutzen kann. Sie haben meist bereits Erfahrung in der agilen Welt gesammelt und in DevOps- oder anderen dynamischen Umgebungen gearbeitet.
Silos auflösen, ein Team bilden
Die klassischen Silos in der IT müssen aufgelöst werden. Was bedeutet das? In großen Unternehmen existieren verschiedene IT-Abteilungen – für Netzwerke, für Storage, für Betriebssysteme. Diese müssen in der Cloud-Umgebung oder durch Software Defined Data Centers in einem Team gemeinsam arbeiten. Die Cloud-Infrastruktur – die SDI – bietet Funktionen für Compute, Network und Storage an.
Das heißt, dieselbe Software-Infrastruktur muss von allen gepflegt werden – dafür müssen die Schranken zwischen Abteilungen fallen und die Mitarbeiter in neuen Teams zusammenarbeiten. Ein Team betreut die klassische IT, ein Team kümmert sich um den Aufbau der dynamischen IT. Letztere beraten dann Erstere, welche Anwendungen auch in der dynamischen Umgebung betrieben werden können. Das funktioniert gut in einem gemeinsamen Cloud-Service-Center, was schon mit drei Mitarbeitern gegründet werden kann – anfangs neben der bestehenden Struktur – und innerhalb weniger Jahre auf 50 oder mehr Mitarbeiter ansteigen kann. Wie schnell und wie weit ein solches zentrales Team wächst, hängt von der Dynamik der Digitalisierung im jeweiligen Unternehmen ab.
Open Source – Gestern, Heute, Morgen
Die Digitale Transformation sorgt für Umdenken, sowohl auf Business-Ebene wie auch in der IT. Die Grundlage bilden Strukturwandel – es entstehen komplett neue Geschäftsmodelle, aus einer alten IT werden mindestens zwei, wenn nicht drei parallele IT-Modelle. Am bekanntesten ist die Vorstellung der IT der zwei Geschwindigkeiten oder Bimodaler IT. Worauf IT, Management und Unternehmen sich verlassen können, ist, dass Open Source eine zentrale Rolle beim Thema Digitale Transformation spielt – auf allen Ebenen.
Unternehmen setzen nicht nur bei Software Defined Infrastructure auf Open Source, sondern auch in der Cloud, bei SAP-Systemen und sogar bei der Weiterentwicklung der Mitarbeiter ist Open Source ein wichtiger Faktor. Der Linux-Geburtstag – ein Vierteljahrhundert dieses Jahr – erinnert uns daran, wie schnell die Innovation voranschreitet. Open Source begleitet Unternehmen seit gut 16 Jahren, seit das erste Enterprise Linux auf den Markt kam und Open Source wird auch in der Digitalisierung die treibende Kraft sein.