Über unsMediaKontaktImpressum
Dr. Jürgen Lampe 03. November 2020

Herausforderungen der Digitalisierung

Nicht nur auf die Spitze sehen

Die aktuelle Diskussion über die umfassende Digitalisierung ist stark auf die unmittelbare Umsetzung der Konzepte und die dabei zu erwartenden Ergebnisse konzentriert. Dabei wird vielfach übersehen, dass eine derart grundlegende Umgestaltung aller Lebensbereiche auch Probleme aufwirft, die schwierig zu lösen sind, weil sie über einzelne Projekte weit hinausreichen. Dieser Beitrag illustriert das Thema durch die Diskussion von Fragen und Konsequenzen aus den Bereichen Sicherheit, Resilienz sowie Qualität und Kapitalbedarf.

In diesem Artikel kommen einige übergreifende Fragestellungen zur Sprache, denen bei der Bewältigung konkreter IT-Projekte meist nicht die gebührende Aufmerksamkeit geschenkt wird oder die sich im verfügbaren Rahmen gar nicht bearbeiten lassen. Der Autor greift dabei hauptsächlich auf seine persönlichen Erfahrungen sowie auf Informationen aus Veröffentlichungen zurück. Es ist klar, dass man auf diesem Weg nicht zu einer repräsentativen Darstellung kommt. Eine solche dürfte ohnehin nur schwer zu erreichen sein, weil die erforderlichen Daten im Allgemeinen vertraulich behandelt und selbst für wissenschaftliche Zwecke nur zögerlich herausgegeben werden. Der Einblick in unterschiedlichste Unternehmen und der Austausch im Kollegenkreis machen aber zweifellos deutlich, dass die betrachteten Punkte nicht singulär sind und deshalb nicht einfach ignoriert werden sollten.

Weil die Digitalisierung mehr oder weniger gleichzeitig in den unterschiedlichsten Branchen erfolgt, dürfen die übergreifenden Aspekte nicht außer Acht gelassen werden. Wechselwirkungen sind dabei völlig normal und vielfach sogar erwünscht. Allerdings kann niemand ausschließen, dass es in bestimmten Situationen zur Verstärkung negativer Auswirkungen kommt, die im schlimmsten Fall durch Kaskadierung bis zum Zusammenbruch ganzer Systeme führen können. Sich durch Stop-Loss-Orders selbstverstärkende Börsencrashs sind ein frühes, simples Beispiel für Effekte dieser Art. Dabei ging zwar "nur" Geld verloren – was auch lebensbedrohlich dramatisch sein kann –, aber es liegt auf der Hand, dass in einer volldigitalisierten Welt entsprechende Fehler im schlimmsten Fall unmittelbar Menschenleben fordern können. Je komplexer die Systeme werden, desto unübersichtlicher wird die Situation. Das ist weitgehend analog zur Medikamentenforschung, wo neben der erhofften Wirkung, das heißt dem eigentlichen Projektziel, Risiken durch unerwartete Wechselwirkungen mit anderen Medikamenten beachtet werden müssen.

Insbesondere das im Entstehen begriffene Internet of Things (IoT) wird zu einer heute kaum vorstellbaren Verflechtung mit entsprechenden Chancen und Risiken führen. In der Regelungstechnik weiß man um die Bedeutung einer angemessenen Dämpfung, um das Entstehen zerstörerischer Schockwellen zu verhindern. Beim Ausloten der neuen Digitalisierungsmöglichkeiten wird an diese Fragen jedoch noch zu wenig gedacht. Ein einfaches Beispiel dafür: Intelligente Stromzähler ermöglichen es, Waschmaschinen in Zeiten günstiger Preise zu betreiben. Wenn sich allerdings nach einer Preisänderung Zehntausende Geräte fast gleichzeitig einschalten sollten, wird das zum Risiko für die Netzstabilität. Nicht nur dafür sind intelligente Lösungen gefragt.

Im Folgenden werden drei Bereiche der anstehenden Entwicklungen kritisch betrachtet, die ihrerseits wieder vielfältig miteinander verflochten sind.

Sicherheit

Im Prinzip ist allen die Wichtigkeit des Themas Sicherheit bewusst. Trotzdem wird dieser Aspekt in der Praxis häufig nur halbherzig angegangen. Es ist weit verbreitet, neue Systeme zunächst vorrangig unter funktionalen Gesichtspunkten zu konzipieren und zu implementieren. Erst relativ spät – und damit nachträglich zur Konzeption – wird ein Sicherheitskonzept erstellt. Die Realisierung wird dann gewissermaßen auf den funktionalen Teil aufgesetzt oder angebaut. Sicherheit kann somit gar kein integraler Bestandteil der Lösung werden. Ein – zugegebenermaßen nicht leicht verallgemeinerbares – Beispiel dafür, wie es besser gemacht werden kann, bietet das Bitcoin-System. Da es dabei um Geld geht, ist es wenig überraschend, dass von Anfang an mit Betrugsversuchen gerechnet wurde. Zudem wird nur bei mindestens der Hälfte der teilnehmenden Miner kooperatives Verhalten vorausgesetzt und alle Transaktionen werden durch asymmetrische Verschlüsselung gesichert. Das Ergebnis beeindruckt mit einer in Bezug auf die Sicherheit bemerkenswerten Stabilität.

Gleichzeitig illustriert die verwendete Blockchain-Technologie jedoch die Herausforderungen, die mit einem integralem Sicherheitskonzept einhergehen:

  • Die Anwendung wird durch die tiefe Integration von Funktionalität und Sicherheit komplizierter und ist überdies viel schwieriger zu testen.
  • Die Sicherheitsfunktionen erfordern einen Aufwand, der – wie beim verwendeten Proof-of-work-Verfahren – weit über dem der eigentlichen Basisfunktionalität liegt.
  • Die Weiterentwicklung wird dadurch erschwert, dass sich die Sicherheits- und Funktionalitätsfunktionen in ihrer Flexibilität gegenseitig begrenzen (Für Bitcoin ist das bei den Bemühungen um die Kapazitätserhöhung deutlich zu sehen).
  • Die Integration der Sicherheitsaspekte ist nicht trivial und erfordert spezielle Kompetenzen, für die an vielen Stellen keine ausreichenden Erfahrungen vorliegen.
  • Es entstehen im Resultat spürbar höhere Kosten für Entwicklung, Betrieb und Pflege der Anwendung.

Aus diesen Problemen sollte aber nicht abgeleitet werden, dass Bemühungen um eine stärkere Integration des Sicherheitsaspekts sinnlos sind – ganz im Gegenteil: Es kommt darauf an, einen vernünftigen, der jeweiligen Situation angepassten Mittelweg zwischen den aufgezeigten Extremen zu finden. Denn es ist völlig klar, dass die bisher unternommenen Anstrengungen zur Erhöhung der IT-Sicherheit unter den Bedingungen der weitgehenden Digitalisierung unzureichend sind.

Gerade weil die Gewährleistung der Sicherheit so ein heikles und komplexes Thema ist, wird dabei fast immer auf Standardtools für Verschlüsselung, Firewall oder Einbruchserkennung zurückgegriffen. Das ist einerseits vernünftig, gerade weil es extrem schwierig ist, derartige Funktionen zuverlässig zu implementieren. Andererseits hat das den gravierenden Nachteil, dass in solchen Tools oder in den von ihnen benutzten Betriebssystemfunktionen gefundene Schwachstellen (Exploits) faktisch wie ein Generalschlüssel für alle Schließfächer mit diesem Schlosstyp wirken. Um einen möglichen Schaden zu begrenzen, muss dann im Fall des Falles möglichst schnell ein Update eingespielt werden, und zwar auf allen betroffenen Computern. Das ist für große Systemlandschaften bereits jetzt eine logistische Herausforderung. Die Schwierigkeiten werden jedoch in Zukunft noch wachsen, sodass absehbar ist, dass dieses Vorgehen dauerhaft nicht umfassend praktikabel sein wird. Die wichtigsten Gründe für diese Prognose sind folgende:

  • Der schiere Umfang – Allein die Anzahl der eingesetzten intelligenten Komponenten wird es zunehmend unmöglich machen, jeweils notwendige Updates mit akzeptablem Aufwand und der gebotenen Schnelligkeit einzuspielen.
  • Grenzen der Automatisierbarkeit – Grundsätzlich ist es kein Problem, die eingesetzte Software automatisch aktualisieren zu lassen. Begrenzend wirkt sich dabei eventuell (besonders in technischen Systemen) die verfügbare Kommunikationsbandbreite aus. Schwerwiegender ist aber, dass solche automatischen Updates ihrerseits sehr leicht zum Einfallstor für Schadsoftware werden können.
  • Versionsvielfalt – Technische Systeme leben oft sehr lange. Während ein Smartphone (s. Corona-App) oft schon nach weniger als fünf Jahren hoffnungslos veraltet ist, wird der Besitzer eines Smart Homes zu Recht erwarten, dass sein Heizkessel samt Heizungssteuerung wenigstens 15-20 Jahre funktionsfähig bleibt. In der Industrie sind noch deutlich längere Nutzungszeiten üblich (z. B. Flugzeuge im Schnitt 30 Jahre). Das bedeutet, dass auch für auf alter Hardware laufende Programme sehr lange Sicherheitsupdates bereitgestellt werden müssen, denn die Entwicklungsdynamik soll ja nicht gebremst werden.
  • Ressourcenverbrauch – Je mehr Computer integraler Bestandteil technischer Komponenten werden, desto größer wird die Verschwendung, wenn solche Komponenten ausgetauscht werden müssen, weil benötigte Sicherheitsfunktionen auf den eingebauten Rechnern nicht mehr installiert werden können. Zusätzlich kann der Austausch selbst wiederum erheblichen Aufwand verursachen.

Schon diese Gesichtspunkte zeigen, dass die Digitalisierung das Bohren dicker Bretter erfordert, wenn nach der Euphorie der erfolgreichen Einführung die "Mühen der Ebene" überschaubar bleiben sollen. Es wird notwendig seien, völlig neue Konzepte zu entwickeln und deshalb die Forschung auf diesem Gebiet erheblich zu intensivieren. Angesichts der Wichtigkeit solcher Fragen ist es enttäuschend zu sehen, dass zum Beispiel das unter A. Tanenbaums Leitung entwickelte recht sichere MINIX-Betriebssystem in der Praxis weitgehend unbeachtet geblieben ist [1].

In der Geschichte sind reine Abwehrbauwerke letztlich immer überwunden worden.

Eine wesentliche Schwachstelle der meisten bisherigen Ansätze ist ihr weitgehend passiver Ansatz. Der Begriff Firewall ruft nicht ohne Grund die Assoziation an Stadt- oder Burgmauern hervor. Die rein defensive Abwehr – obwohl unentbehrlich – ist naturgemäß auf bekannte oder zumindest vorstellbare Angriffe begrenzt. Demgegenüber haben potentielle Angreifer alle Möglichkeiten, neue Techniken zu finden und anzuwenden. In der Geschichte sind deshalb reine Abwehrbauwerke letztlich immer überwunden worden. Und wenn es nicht durch neue Waffen war, dann dadurch, dass der Unterhalt der Bollwerke wirtschaftlich untragbar wurde. Die Parallelen zur IT-Welt sind auffallend. Eine dauerhaft erfolgreiche Verteidigung verlangt stets auch eine aktive Komponente. Da ist Kreativität gefragt. Warum sollte man nicht wenigstens einmal prüfen, ob Tarnkappentechniken, wie sie von Computerviren verwendet werden, geeignet sind, interne Netzwerke oder wichtige Teile davon vor Angreifern zu verstecken oder zu verschleiern? Vielleicht ist es ja auch möglich, aktiv nach Angreifern und deren Servern zu suchen. Je mehr verschiedene Techniken bei der Abwehr eingesetzt werden, umso schwerer wird es, komplette Netzwerke mit begrenzten Mitteln zu infiltrieren und umso höher ist die Chance einer frühzeitigen Erkennung. Ganz ohne spürbare Kosten sind derartige Strategien allerdings nicht umzusetzen: Sicherheit gibt es nirgends zum Nulltarif.

Ohne entsprechende Investitionen in ein deutlich gesteigertes Sicherheitsniveau ist es jedoch nur eine Frage der Zeit, bis es in der digitalisierten Gesellschaft zu schwerwiegenden Vorfällen kommen wird. Auf dieses Thema kann deshalb gar nicht nachdrücklich genug hingewiesen werden, denn allzu oft werden einschneidende Maßnahmen oft erst nach schmerzlichen Ereignissen durchgesetzt.

Es gibt auch noch einen weiteren Grund, weshalb alles getan werden sollte, extreme Vorkommnisse zu vermeiden: Die Erfahrung lehrt, dass in der Folge solcher Ereignisse gewöhnlich Vorschriften erlassen werden, die zwar sinnvollerweise eine Wiederholung verhindern sollen, aber den bürokratischen Aufwand bei der Entwicklung drastisch erhöhen.

Resilienz

Mit Resilienz wird die Fähigkeit von Systemen bezeichnet, bei Störungen und Ausfällen nicht vollständig zu versagen und nach Möglichkeit sogar in den normalen Arbeitsmodus zurückzukehren. In der IT ist dieses Thema vor allem durch den Einsatz stark verteilter Systeme (z. B. Microservices) interessant geworden. Dabei liegt der Fokus auf den Problemen, die sich aus Verbindungsunterbrechungen oder der Überlastung einzelner Komponenten ergeben können. Im Zuge der durch die Digitalisierung forcierten Integration von IT und physischer Welt wächst die Bedeutung der Resilienz aber weit darüber hinaus.

Digitalisierung ist ja nicht neu und an vielen Stellen seit Jahren im Gange. Dabei lässt sich eine auf den ersten Blick paradoxe Entwicklung beobachten: Während der Einsatz vollelektronischer, stark integrierter Bauelemente die Zuverlässigkeit und Dauerhaftigkeit der einzelnen Komponenten extrem verbessert hat, zeigt die Resilienz der Gesamtsysteme eher eine abnehmende Tendenz. Das liegt zum einen daran, dass durch die Digitalisierung die Zentralisierung erleichtert wurde, was beispielsweise die Wartungskosten senkt, aber das Schadenspotential bei Störungen vergrößert. Gleichzeitig führt die gestiegene Zuverlässigkeit dazu, dass die Behandlung von möglichen Ausfällen nicht mehr so wichtig erscheint. Die Folgen lassen sich am deutschen Bahnnetz illustrieren. So legte im Oktober 2015 ein Stellwerksbrand "…den Zugverkehr in Nordrhein-Westfalen für mehrere Tage lahm und sorgte darüber hinaus noch monatelang für Verspätungen der Züge" [2]. Ebenso sorgen eigentlich unspektakuläre Ereignisse wie Blitzeinschläge, die vor Jahren schlimmstenfalls kürzere lokale Auswirkungen hatten, immer wieder für großflächige Behinderungen [3]. Ähnliches gilt für Störungen an Triebfahrzeugen. Bisweilen können Zugeinheiten nicht gekoppelt werden, weil die Software nicht mitspielt. Es gab Zeiten, da hatten die Lokführer einen Satz Holzkeile dabei, um sie bei Bedarf unter nicht schaltende Relais klemmen zu können. Niemand wünscht sich solche Zustände, die ja Ausdruck der zu erwartenden häufigen Störungen waren, zurück. Aber es ist unbestreitbar, dass die Resilienz des Systems Bahn in der Vergangenheit höher war. Das Gleiche lässt sich zweifellos über moderne Autos und viele andere Dinge sagen.

Dieses Beispiel führt zu der Frage: Wieso wird die zurückgehende Resilienz einfach hingenommen? Das liegt vor allem daran, dass die bei Störungen entstehenden Verluste schwer zu erfassen sind und überdies weit verteilt auftreten. Sie lassen sich ziemlich leicht ignorieren, besonders wenn Imageschäden nicht wirklich kritisch sind. Die Kosten, um die Stabilität zu erhöhen, sind dagegen klar sichtbar und fallen an einer Stelle, im vorliegenden Fall bei der Bahn, an. Wobei die Bahn hier nur als ein allgemein bekanntes Beispiel steht. Der gleiche Effekt ist in anderen Bereichen zu sehen, und es ist zu befürchten, dass derartige negative Auswirkungen durch die Digitalisierung überproportional wachsen werden. Das sollte niemanden kalt lassen. Ein Unternehmen kann die bei Funktionsausfällen verursachten externen Verluste zwar ignorieren, aber dadurch verschwinden diese nicht. Über ein Land oder einen Wirtschaftsraum betrachtet, summieren sie sich und schwächen damit dessen Produktivität.

Die Anhäufung finanzieller Verluste ist aber nur die weniger bedrohliche Konsequenz ungenügender Resilienz. Schwerwiegender wird es, wenn ganze Teilsysteme kollabieren und dabei möglicherweise auch Menschenleben gefährden. In der modernen vernetzten Wirtschaft hängt fast alles mit allem zusammen. Das macht es immer schwieriger, relevante Funktionen von weniger wichtigen zu unterscheiden. Daran gilt es u. a. zu denken, wenn die Digitalisierung benutzt wird, um gleichzeitig Geschäftsprozesse zu optimieren. Je weniger Reserven, d. h. aus Sicht des Managements unnötige Kostenfaktoren, ein komplexes System enthält, desto anfälliger ist es gegenüber bereits kleinsten Störungen.

Die bisher betrachteten Störungen betreffen hauptsächlich die Anwendungsseite. Man darf jedoch nicht übersehen, dass auch die Basisschichten der IT-Struktur nicht vor Ausfällen gefeit sind. Zuerst ist da als zentraler und mittlerweile oft einziger Kommunikationskanal das Internet zu sehen. Obwohl es von Anfang an auf maximale Resilienz hin entwickelt wurde, kann ein zumindest lokaler Ausfall nicht völlig ausgeschlossen werden. War vor zwanzig, dreißig Jahren noch die Frage vorherrschend, wie lange ein Unternehmen ohne seine zentrale IT auskommen kann, so muss das heute dahingehend erweitert werden, wie lange es ohne funktionierende Internetverbindung überlebensfähig ist. Ein getrenntes Notfall-Rechenzentrum ist an vielen Stellen üblich. Aber wie sieht es mit einer wirklich, auch physisch und großräumig völlig unterbrochenen Internetverbindung aus? Selbst wenn ein längerer und ein größeres Gebiet betreffender Ausfall derzeit wenig wahrscheinlich erscheint, sollte man sich erinnern, dass noch Ende 2019 fast niemand das Ausmaß der Corona-Pandemie für denkbar gehalten hätte. Vor Katastrophen, Sabotage, Terrorismus oder im schlimmsten Fall militärischen Auseinandersetzungen ist niemand völlig sicher. Es geht nicht darum Hysterie zu schüren, aber ein paar Gedanken, wie es nach einem Internet-GAU weitergehen könnte, sollte man sich schon machen.

Über die Größe des Schadens entscheiden gewöhnlich die Handlungen der ersten Minuten.

Ähnliches lässt sich für die unternehmensinterne IT sagen, nur dass hierbei die Eintrittswahrscheinlichkeit von Ausfällen höher ist. Denn selbst wenn es im Sinne der im vorigen Abschnitt diskutierten Bemühungen gelingt, dass Sicherheitsniveau zu steigern, wird der Schutz nie hundertprozentig sein. Konkrete Angaben über verursachte Schäden durch ausgefallene interne IT-Systeme sind kaum zu erhalten. Aber es ist anzunehmen, dass ein Unternehmen einen Vorfall, wie an der Gießener Uni, bei dem das Intranet mehrere Tage lang abgeschaltet war und der die IT-Abteilung vier Monate beschäftigte und direkt Kosten von 1,7 Millionen Euro verursachte, nicht so einfach weg steckt und wie eine Landeseinrichtung um finanzielle Unterstützung bitten kann [4]. Auch auf solche Herausforderungen muss man vorbereitet und trainiert sein. Denn über die Größe des Schadens entscheiden gewöhnlich die Handlungen der ersten Minuten. So wie niemand über Feuerlöscher und Notausgänge, die beide mit Blick auf ihre Gesamtzahl ebenfalls nur äußerst selten gebraucht werden, diskutiert, sollte eine entsprechende Vorbereitung auf Angriffe gegen die interne IT oder deren anderweitig verursachten Ausfall selbstverständlich sein.

Wenn die Systeme durch die Digitalisierung enger zusammenrücken, muss verhindert werden, dass einzelne Fehler sich lawinenartig ausbreitende Folgen hervorrufen können. Dem vorzubeugen, also Resilienz zu erhöhen, verursacht Kosten. Diese müssen in angemessener Weise aufgebracht werden, denn selbst wenn die Wahrscheinlichkeit des Eintritts einer Störung sehr gering ist, können die gesamtgesellschaftlichen Folgekosten enorm sein. Da Letztere aber kaum exakt bestimmbar sind, muss in diesem Punkt an die Verantwortlichkeit der Entscheider appelliert werden. Negative Erfahrungen werden im Laufe der Zeit zu entsprechenden Vorgaben führen. Selbst wenn sich nicht alle Desaster vermeiden lassen werden, sollte sich jeder bemühen, zumindest klar erkennbare Risiken zu minimieren, unabhängig davon, ob zu befolgende Gesetze bereits existieren oder nicht.

Wenn die Welt von morgen nicht hoffnungslos fragil sein soll, führt nichts an der Erkenntnis vorbei: Eine ausreichende Resilienz über alle Systemgrenzen hinweg muss als integraler Teil der Digitalisierung verstanden werden.

Qualität und Kapitalbedarf

Es mag zunächst verwundern, dass die Softwarequalität und der Kapitalbedarf gemeinsam behandelt werden. Im Folgenden wird aber hoffentlich überzeugend gezeigt, dass die beiden Größen eng verbunden sind.

Aus einer willkürlich herausgegriffenen Rundmail: "… die Zahl gescheiterter Entwicklungsprojekte ist erstaunlich hoch, wenn man bedenkt, dass IT noch nie so wichtig war wie in den heutigen digitalen Zeiten. Laut Gartner verzögert sich 1/3 aller Anwendungsentwicklungsprojekte oder überschreitet das Budget. Hinzu kommt, dass viele Ergebnisse nicht den erwarteten Nutzen bringen"[5]. Für Kenner nichts Neues. Derartige Meldungen liest man seit Jahrzehnten. Nur ist es im Zeitalter der Digitalisierung noch hinnehmbar, dass in erheblichem Ausmaß Projekte abgeschlossen und die Ergebnisse in Produktion genommen werden, die die ursprünglichen Projektziele verfehlen? Ganz gleich, wie sorgfältig die Entwickler gearbeitet und getestet haben, eine Software die nicht die erwarteten Ergebnisse liefert, hat ihr Qualitätsziel verfehlt. Nicht zu vergessen ist in diesem Zusammenhang, dass der durch nicht ausreichende Budgets verursachte Kostendruck häufig zu weniger umfangreichen Tests und in der Folge zu schlechter Qualität führt.

Kennen Sie das folgende Szenario? Nach Jahren mehr oder weniger koordinierter Entwicklung ist eine Geschäftsfunktionalität auf n Anwendungen verteilt. Diese sind aufwändig zu pflegen und es kommt durch übersehene Abhängigkeiten immer wieder zu Fehlern. Nach langem Kampf um die benötigten Mittel wird beschlossen, "Nägel mit Köpfen zu machen" und die bestehende Vielfalt durch eine neu zu entwickelnde, integrierte Software abzulösen. Im Verlaufe dieses Projekts stellt sich dann heraus, dass die Mittel nicht reichen, weil von Anfang an zu wenig veranschlagt wurde oder die Aufgabe komplizierter ist als angenommen oder zusätzliche Anforderungen hereingetragen wurden. Viel zu oft endet die Geschichte mit n+1 oder zumindest m>1 Anwendungen, weil die unvollständig umgesetzte Neulösung verhindert, dass ursprünglich geplante Abschaltungen alter Systeme vorgenommen werden können. Und so wächst die Vielfalt und die Unübersichtlichkeit und der Betriebsaufwand, und der nächste Versuch, das zu ändern wird noch kostspieliger ausfallen. Der übliche Euphemismus für derartige Anwendungslandschaften lautet "historisch gewachsen". Dass es unter solchen Umständen schwierig bis unmöglich wird, das notwendige Niveau von Sicherheit und Resilienz zu erreichen, liegt auf der Hand.

Es gibt keine Kapitalknappheit. Knapp sind nur die Phantasie und die Risikobereitschaft der Investoren.

Wie kommt es nun zu diesen massiven Qualitätsproblemen in der IT? Neben den in allen Bereichen zu findenden Ursachen wie organisatorischen Mängeln, ungenügender Qualifikation der Mitarbeiter usw. gibt es zwei Hauptursachen:

  1. Es wird versucht, zu viel Neues, Unerprobtes und zum Teil auch noch nicht ausreichend Verstandenes umzusetzen.
  2. Die benötigten Mittel werden – oft bewusst – unterschätzt und es gibt keine ausreichende Bereitschaft, diesen Fehler später zu korrigieren.

Der zweite Punkt soll hier noch etwas ausführlicher erörtert werden, weil es dazu unterschiedliche Meinungen gibt. So sind immer wieder Kommentare bezüglich der Verwerfungen des Geldsystems zu lesen, die darauf hinauslaufen, dass die Digitalisierung den Kapitalbedarf reduzieren würde. Typisch dafür sind Aussagen wie diese: "Die Digitalisierung könnte ebenfalls zum Zinsschwund beitragen. ‚Wir haben ganze Wertschöpfungsketten, die wegfallen. … Das reduziert den Kapitalbedarf‘" [6]. Stimmt das wirklich? Ist es nicht vielmehr so, dass an vielen Stellen viel zu wenig Kapital eingesetzt wird, mit den beschriebenen Folgen für die Qualität? Digitalisierung ist eine weit in die Zukunft reichende Aufgabe. Wichtige Grundlagen müssen daher mit Weitsicht gelegt und entsprechend großzügig gestaltet werden. Überdies wird sich die Ersetzung oder gründliche Überarbeitung der teils Jahrzehnte alten Kernsysteme nicht beliebig hinauszögern lassen. Das alles kostet Geld, sehr viel Geld. Und die Rendite wird kurzfristig gering oder negativ sein. Langfristig allerdings werden solche Investitionen über Sein oder Nichtsein entscheiden. Es gibt zurzeit keine Kapitalknappheit. Knapp sind nur die Phantasie und die zweifellos benötigte Risikobereitschaft der Investoren. Es ist dringend nötig, nicht nur über die Vorteile und die Notwendigkeit der Digitalisierung zu sprechen, sondern auch über ihre Kosten.

Um zur Veranschaulichung nochmal auf die Bahn zurückzukommen. Der Aufbau des Schienennetzes hatte ebenfalls weit in die Zukunft reichende und tief gehende Auswirkungen auf die gesamte Gesellschaft. Er erforderte gewaltige Investitionen, die zu einem erheblichen Anteil privat aufgebracht wurden. Zahllose Bahngesellschaften gingen bereits beim Bau oder kurz danach pleite. Immer wieder sprangen die betroffenen Kleinstaaten ein, um wichtige Strecken zu retten. Viele Investoren haben dabei Geld verloren. Aber es gab für sie (neben den reinen Spekulanten) keinen anderen Weg als mitzumachen, wenn sie nicht riskieren wollten, von den neuen Verkehrsströmen abgehängt zu werden. Trotz aller Verluste war der Aufbau eine insgesamt gesehen sehr erfolgreiche Unternehmung, von deren Früchten wir noch heute zehren. Ein bemerkenswerter Unterschied zu manchen IT-Projekten soll nicht unterschlagen werden: Bahnstrecken wurden in der Regel trotz aller Hindernisse fertig gebaut.

Die Digitalisierung verlangt in ganz ähnlicher Art den Aufbau einer digitalen Infrastruktur im weiteren Sinn, also einschließlich Software, Schnittstellen, Prozessen usw. Nicht jedes Element wird dabei hinreichend wirtschaftlich zu gestalten sein, wo dann andere, nicht nur der Staat, einspringen sollten. Es müssen Lösungsvarianten erprobt werden, von denen viele nicht überleben werden. Nur so kann wirklich die jeweils beste gefunden werden. Ohne ausreichendes Risikokapital und die Bereitschaft, Verluste zu akzeptieren, ist all das nicht zu machen. Es gibt keinen anderen Weg.

Geld oder Kapital allein wird allerdings auch nicht helfen, obgleich Kostenehrlichkeit von Anfang an schon ein schöner Fortschritt wäre. Die größte Herausforderung besteht darin, Projekte so zu organisieren, dass es nicht zu Verschwendungen kommt und die Ergebnisqualität insbesondere auch in Bezug auf die Punkte Sicherheit und Resilienz in den Mittelpunkt zu stellen.

Zum Schluss eine Warnung

Niemand sollte glauben, einen direkten Weg zur Digitalisierung zu kennen. Systeme ab einer bestimmten Komplexität – und die dürfte in fast allen Fällen vorliegen – können nicht mehr rein konstruktiv gestaltet werden. Es gibt nur den Weg der schrittweisen Entwicklung durch Versuch und Irrtum. Dabei werden ganz verschiedene Lösungen entstehen, die in ihrer Gesamtheit ein resilienteres Ganzes bilden, weil sie eben nicht alle auf die gleiche Weise anfällig sind. Das Scheitern so vieler "auf der grünen Wiese" gestarteten Projekte liegt vorrangig daran, dass sie nicht iterativ oder evolutionär vorgehen, sondern zu viele Dinge gleichzeitig versuchen und die resultierenden Wechselwirkungen dabei unbeherrschbar werden. Das spricht überhaupt nicht dagegen, Altlasten zu entsorgen und Neues zu versuchen. Aber man muss der Verlockung widerstehen, sich in einem Schritt zu weit vom Bewährten und Verstandenen zu entfernen.

Die Digitalisierung wird ohne Zweifel weitergehen. Man darf die im Wege liegenden Stolpersteine jedoch nicht übersehen! Letztlich wird nicht entscheidend sein, wer heute oder morgen der Erste ist, sondern wer von den vorn Liegenden die solidesten Grundlagen hat, um die in der Zukunft mit Sicherheit kommenden Krisen und Katastrophen zu überstehen.

Autor

Dr. Jürgen Lampe

Dr. Jürgen Lampe befasst sich seit mehr als 15 Jahren mit Design und Implementierung von Java-Anwendungen im Bankenumfeld.
>> Weiterlesen

Kommentare (0)

Neuen Kommentar schreiben