Über unsMediaKontaktImpressum
Gregor Hansbuer 11. August 2015

DevOps durch Datenvirtualisierung vereinfachen

Effiziente Anwendungsentwicklung und -betrieb durch die Virtualisierung von Daten

Das kombinierte Konzept für Anwendungsentwicklung und -betrieb (Development & Operations – DevOps) ist in den letzten Jahren zum bevorzugten Ansatz für Enterprise-Anwendungsentwicklung avanciert. Das Konzept beschleunigt die Marktreife und ermöglicht deutlich verbesserte Innovationsergebnisse im Vergleich zu etablierten, sequentiellen Praktiken. Es geht darum, Kosten zu sparen, Pläne zu beschleunigen und Innovation durch einen flexiblen Prozess voranzutreiben.

Da viele Anwendungen wesentlich für Geschäftstransaktionen sind, ist es immer wieder eine Herausforderung für Anwendungsentwickler, moderne, integrierte und wartungsfreie Anwendungen in einem möglichst kurzen Zeitrahmen zu realisieren. Neue Features und Funktionen müssen laufend integriert werden, um Wettbewerbsvorteile zu generieren. Es geht um verbesserte Qualität bei immer kürzerer Entwicklungszeit. Entwickler benötigen dazu einen einfachen und direkten Zugriff auf alle technischen Ressourcen. Und sie brauchen Zugang zu Produktionsdaten. Die Fähigkeit, auf erforderliche Daten schnell und effizient zugreifen zu können, hat somit einen wesentlichen Einfluss auf den Geschäftsfluss, was sich wiederum auf den Umsatz sowie den gesamten Lebenszyklus – und damit das Überleben – eines Unternehmens auswirkt.

DevOps und zugehörige Ansätze für mehr Agilität haben ihre beschleunigende Wirkung in der Praxis bereits mehrfach unter Beweis gestellt. Es wird aber nach wie vor viel darüber diskutiert, wie ein Übergang vom bisherigen Wasserfall-Entwicklungsmodell zu einer agileren Variante aussehen könnte. Das Wasserfall-Modell ist ein linearer Prozess in der Softwareentwicklung, bei dem die Entwicklung in einzelnen, festen Phasen organisiert ist. Die Ergebnisse einer Phase sind bindend für die nächste Phase. Dabei muss jede komplett abgeschlossen sein, bevor die nächste beginnen kann. Wie können nun althergebrachte Fähigkeiten in einem agileren Modell weiter genutzt werden? Wie lassen sich Betriebs- und Entwicklungskompetenz auf produktive Weise vermengen?

Daten spielen eine zentrale Rolle

Neben funktionellen oder technischen Überlegungen geht es bei Anwendungen vor allem um Daten, wie etwa bei der Entwicklung und Erprobung von neuem Programmcode. Für einen einfachen Zugriff auf diese Daten müssen funktionale Zusammenhänge, wie Speicher-, Rechen-, Netzwerk- und Systemverwaltung, neu überdacht werden. Bei Anwendungen, egal ob neuen oder alten, gilt es, die Daten von der physischen Architektur zu trennen. Hierzu sind neue Lösungen für das Datenmanagement erforderlich. Schneller Datenzugriff ist dabei essentiel. Einschränkungen bei der Entwicklungsgeschwindigkeit und Mobilität der Anwendungen bleiben bestehen, solange keine Voraussetzungen für einen einfachen und schnellen Datenzugriff gegeben sind.

Der Zugang zu einer einzigen Datenkopie für Entwicklungszwecke kann auf herkömmliche Weise mehrere Schritte erfordern und Wochen des Wartens mit sich bringen. Die heutigen Kapazitäten im Terabyte- und Petabyte-Bereich bieten dabei keine Erleichterung. Der Datenzugriff erfordert in der Regel die Unterstützung der Verantwortlichen für Speicher, Netzwerk und Betriebssysteme, bevor der Anwendungsentwickler an seine Daten gelangt. Dies hat technische und sicherheitsrelevante Hintergründe, wird aber zunehmend zu einem Business-Problem.

Wie kommt man nun an die Daten? Zumal die Datenquellen variieren: virtuelle und physische Plattformen, Datenbanken, Hypervisors und Betriebssysteme. Wenn Speicher- und Computing-Ressourcen nicht an Ort und Stelle vorgehalten werden, dauert es sogar noch länger und die Kosten erhöhen sich. Ist der Datensatz sehr groß, steigt der Zeitaufwand  zusätzlich. Sensible Daten erfordern weitere intensive manuelle Arbeit für die Datenmaskierung, um die Privatsphäre zu schützen und die Sicherheit zu gewährleisten. Für die Datensicherheit ist eine klare Trennung zwischen Produktion und DevOps-Umgebungen nötig. Ein voll integrierter Workflow gewährleistet, dass nur auf die richtigen – also maskierten – Daten zugegriffen werden kann. Wenn die Maskierung übersprungen oder ignoriert wird, kann es keine Gewissheit geben, dass Daten gegen Hacking oder potenziell schädliche Lecks geschützt werden können.

Zählt man all dies zusammen, sind Unternehmen verständlicherweise ungeduldig. Verpasste Chancen bedeuten verlorene Einnahmen. Ineffizienzen häufen sich, wenn die Zahl der Anwendungen und Entwicklungsteams sich erhöht. Nach der Übernahme von neuen Anwendungen in die Produktion, setzen sich die Verzögerungen im Change Management sowie bei Genehmigungs- und Bereitstellungsprozessen fort.

Zeit für eine Veränderung

Es gibt mittlerweile elegante Lösungen, um die genannten Probleme bereits im Ansatz in den Griff zu bekommen. Eine Datenvirtualisierungs-Plattform verfügt über virtuelle Kopien der Produktionsdaten und kann diese verzögerungsfrei für Entwicklungs- und Testumgebungen unmittelbar bereitstellen. Alle Hardware- und Softwarekomponenten sind praktisch an Ort und Stelle. Sicherheit und Datenmaskierung sind automatisiert, so dass Entwicklungs- und IT-Mitarbeiter nur Zugang zu freigegebenen Daten haben. Datenschutz und alle rechtlichen Fragen sind geklärt.

Die Datenvirtualisierung ist eine natürliche Weiterentwicklung der bereits weit fortgeschrittenen Server- und Netzwerkvirtualisierung: Ein alternativer Ansatz, um eine  schnelle Entwicklung, Prüfung, Freigabe und Aktualisierung von Applikationen zu unterstützen. Mit um bis zu 90% kürzeren Bereitstellungszeiten beschleunigt die Datenvirtualisierung das Entwicklungstempo. Arbeitsabläufe werden automatisiert, On-Demand-Datenzugriff wird möglich und die Zeit für die Datenbereitstellung wird in Minuten statt in Tagen gemessen. Datenvirtualisierung hat auch ein erhebliches Potenzial, um die erforderliche Speicherkapazität zu verringern. Um sensible Daten zu schützen und die Einhaltung von Vorschriften zu gewährleisten, können virtuelle Datenprozesse auch automatisierte Datenmaskierung beinhalten, was teure, zeitraubende manuelle Prozesse überflüssig macht.

Neben der Unterstützung für Anwendungsentwicklung und Tests bieten virtuelle Daten-Plattformen Funktionen, die Datensicherung, Wiederherstellung im Notfall, Analyse, Archivierung und mehr unterstützen. Mit der Bereitstellung virtueller Daten gewinnt DevOps neues Potenzial. Wenn Anwendungsdaten von der Infrastruktur entkoppelt werden, sind die Auswirkungen auf die Geschwindigkeit erheblich. Reduzierte Bandbreiten-, Speicher- und Lizenzkosten sorgen für erhebliche Infrastruktureinsparungen.

Virtualisierte Daten sind auch eine Chance, um Informationslebenszyklen in Unternehmen zu verbessern. Schnellere Entwicklung bedeutet, schneller auf dem Markt zu sein. Virtualisierte Daten schaffen einen besseren Datenzugang mit Vorteilen bei Sicherheit, Kontrolle und Kosten. Vorteile gibt es auch bei der Stilllegung von Anwendungen, da die Beziehung von Daten zu Anwendungen aufrecht erhalten wird.

Entscheidende Kriterien bei der Datenvirtualisierung

Bei der Entscheidung für eine Datenvirtualisierungs-Plattform sind Skalierbarkeit und Performance wichtige Kriterien. Können Größenordnungen von Terabyte bis Petabyte bewältigt werden? Wird die Leistung ohne Auswirkungen auf die Produktion gewährleistet? Welche Betriebssysteme, Datenbanken, physischen und virtuellen Systeme werden unterstützt? Wie sieht es mit Datenbewegungen, -migration und Cloud-Integration aus? Gibt es Industriestandard-Datenmanagement und wie einfach sind die Kontrollinstrumente zu bedienen? Kann die Datenvirtualisierungs-Plattform die Neuentwicklung, Daten und Stilllegung von Anwendungen verwalten, am besten mittels einfacher Orchestrierungswerkzeuge?

Weitere wichtige Funktionen sind:

  • Rollen-basierte Steuerungen, die Self-Service-Datenzugriff ermöglichen, ohne DBA-Beteiligung,
  • Überwachung sensibler Daten, einschließlich Datenmaskierung und rollenbasierten Zugriffs,
  • Konsistente Gruppen, die mehrere Datenträger, Anwendungen, Daten etc. koordinieren,
  • Koordination der Datenbank- und Protokolldateien,
  • Automatische Aktualisierung der Daten,
  • Workflows zur Automatisierung von Prozessen.

Unabhängig von Größe, Branche oder Anwendungsfokus ist die Anwendungsentwicklung immer ein kritisches Thema. Sie verbindet Engineering, Software, Wirtschaft, Märkte und sogar Unternehmensstrategie. Alle Komponenten sind miteinander verbunden und  voneinander abhängig. Die Kosten der Anwendungsentwicklung und der damit verbundenen Unterstützung machen oftmals ein Drittel oder mehr des typischen IT-Budgets aus. Die teuren Anwendungen sind von zentraler Bedeutung für den Geschäftserfolg und Wettbewerbsvorteil, verursachen aber auch immense IT-Kosten. Unternehmen wollen Anwendungen schneller und kostengünstiger entwickeln und sich einen Wettbewerbsvorteil verschaffen.

Nehmen wir das Beispiel eines großen Handelsunternehmens, dass die Entwicklung einer neuen POS-Anwendung abschließen will. Um den ambitionierten Zeitplan zu halten, muss das Unternehmen höhere Personalkosten in Kauf nehmen. Langwierige Ausfallzeiten
kosten Tage bei der Entwicklungszeit. Das Unternehmen muss zudem 18 Datenkopien für Entwicklung, Test, Qualitätsmanagement und Staging vorhalten. Mit einem halben Dutzend komplexen Werkzeugen gelingt es zwar, das aufwändige Projekt abzuschließen, während die Speicherkosten aber in die Höhe schnellen.

Im Gegensatz dazu wäre das Unternehmen durch Datenvirtualisierung in der Lage, mehrere Schwierigkeitsstufen bei der Entwicklung gleichzeitig anzugehen. Mit virtuell bereitgestellten Datenkopien wären statt 18 nur vier Entwicklungskopien nötig. Nach einer Bereinigung der Speicherebenen sowie Kapazitätsreduktionen und Beseitigung des Patchwork-Toolkits sind langfristige Kostensenkungen voraussichtlich um mehr als 80 Prozent möglich.

Datenvirtualisierung spart Zeit.

Der wichtigste Geschäftsvorteil liegt jedoch in der Zeit. Primäres Ziel ist es, einen agilen Entwicklungslebenszyklus zu erreichen, um Zeit zu sparen. Automatisierte Arbeitsabläufe und On-Demand-Datenzugriff sorgen für eine um bis zu 90% reduzierte Bereitstellungszeit. Die Entwicklung wird somit stark beschleunigt und erfordert kein zusätzliches Personal. Die benötigten Daten sind innerhalb von Minuten, nicht erst in Tagen oder Wochen verfügbar. Unternehmen gewinnen dadurch einen immensen Wettbewerbsvorteil. Durch die Reduzierung der Datenkopien sinken Speicherbedarf und -kosten erheblich und die Datenverwaltung wird einfacher. Die Anwendungsentwicklung gewinnt an Agilität und wird vor allem immer effizienter, denn: Datenvirtualisierung spart Zeit.

Zeit- und Kosteneinsparung, höhere Kundenzufriedenheit

Der ROI ist hier riesig. Unternehmen können ihre Infrastruktur vereinfachen und sie kleiner, schneller und agiler gestalten. Anwendungen lassen sich rascher und kreativer entwickeln. Updates, Fehlerbehebungen und Aktualisierungen können mit einer höheren Frequenz durchgeführt werden. Die Entwickler arbeiten zufriedener und produktiver. Die Datenvirtualisierung hat sich bei Anwendungsentwicklung und -betrieb bereits vielfach bestens bewährt – und bietet ein erhebliches transformatives Potenzial mit entscheidenden Geschäfts- und Wettbewerbsvorteilen.

Autor

Gregor Hansbuer

Gregor Hansbuer ist Sales Director DACH bei Actifio. Davor war Gregor Hansbuer 4 Jahre als Area Manager bei IBM Dilligent aktiv und konnte wesentliche Erfahrungen als Geschäftsführer und Vertriebsleiter bei CommVault sammeln. Seit...
>> Weiterlesen
botMessage_toctoc_comments_9210