Über unsMediaKontaktImpressum
Steffen Schneider 22. Juni 2021

Continuous Intelligence unterstützt Unternehmen bei der Entscheidungsfindung und -automation

Die Echtzeit-Analyse von multiplen Datenströmen wird für Unternehmen immer wichtiger. Ohne die Unterstützung durch eine geeignete Datenbank-Plattform bleibt Continuous Intelligence jedoch nur ein frommer Wunsch.

Wir sind nicht mehr weit von dem Zeitpunkt entfernt, an dem wir die Prognose von Gartner zur wachsenden Bedeutung von Continuous Intelligence auf ihre Validität überprüfen können: 2019 hatte das Marktforschungsunternehmen in einer Studie das Thema in die Liste der wichtigsten Data and Analytics Technology Trends aufgenommen, gleichberechtigt mit Themenfeldern wie Augmented Analytics, Data Fabric oder Blockchain [1]. In Bezug auf Continuous Intelligence wurde postuliert, dass bis 2022 mehr als die Hälfte aller Business-Initiativen darauf angewiesen sein werden, um aus multiplen Datenströmen Echtzeitentscheidungen zu generieren. Die Wichtigkeit von Continuous Intelligence für den operativen Erfolg von Unternehmen ist damit zutreffend beschrieben.

Bevor sie jedoch in Betrieb gehen kann, ist eine Reihe von technischen Herausforderungen zu bewältigen. Es geht darum, Echtzeitanalysen auf Basis historischer und aktueller Daten mit den laufenden Business-Applikationen zu verknüpfen und für die Entscheidungsunterstützung oder sogar -automatisierung zu nutzen. Dafür werden unter anderem Technologien wie Augmented Analytics, Event Stream Processing und Machine Learning eingesetzt und zusammengeführt.

Im Zentrum des Zyklons

Die erste und vielleicht wichtigste Herausforderung entsteht logischerweise da, wo alle Daten zusammenlaufen, quasi im Herzen des Datenstroms: der Datenbank. Früher wurden dort die für die Entscheidungsunterstützung benötigten Daten bestimmt, und über den ETL-Prozess (extract-transform-load) in ein Data Warehouse eingespeist, aus dem dann per Data Mining Analysen generiert wurden. Dieser Ansatz wurde unter dem Label Business Intelligence bekannt, der anfängliche Hype darum ist aber merklich abgekühlt. Und das aus gutem Grund, denn für die Anforderungen moderner Business-Applikationen ist das viel zu aufwändig, zu langsam, zu umständlich, zu unflexibel und damit nicht mehr geeignet. Was liegt näher, als auf diese lange Prozesskette zu verzichten und die Daten direkt an der Quelle zu analysieren? Das klingt plausibel, denn Vereinfachung ist häufig die beste Lösung – aber mindestens ebenso oft auch die anspruchsvollste.

Im Falle der Continuous Intelligence muss die Funktionalität der Datenbank-Plattform weit über die üblichen Anforderungsprofile hinaus gehen. Weiter, als herkömmliche relationale Datenbankmanagementsysteme (RDBMS) und auch viele NoSQL- oder Cloud-Datenbanken folgen könnten. Welche besonderen Qualitäten muss also eine Datenbank mitbringen, um als geeignete Basis für Continuous Intelligence fungieren zu können?

Continuous Intelligence = Realtime Analytics + Predictive Analytics

Continuous Intelligence ist eine Kombination aus Realtime und Predictive Analytics. Die daraus resultierenden Echtzeit-Analysen werden in die laufenden Geschäftsprozesse integriert, um auf Basis aktueller und historischer Daten Prognosen zu erstellen und daraus zielgerichtete Maßnahmen abzuleiten. Datenbank-technisch gesprochen bedeutet das, Online Analytics Processing (OLAP) auf das Online Transaction Processing (OLTP), also die gerade laufenden Read- und Write-Prozesse in der Datenbank, aufzusetzen. Das können beispielsweise Workloads im Kontext einer Waschmaschinenproduktion, eines E-Commerce-Händlers oder einer Reisebüro-Hotline sein.

Für die OLAP-Analyse können in bestimmten dafür geeigneten Datenbanken dedizierte Analytics-Nodes geöffnet werden, die vollständig workload-isoliert zu der OLTP-Datenprozessierung arbeiten und so dem OLTP-Hauptprozess und dessen Ressourcen keine zusätzliche Arbeitslast aufbürden. Sie haben direkten Zugriff auf den Datenstrom und können sowohl kritische interne Größen identifizieren, wie im Falle der Produktion etwa gesteigerte Ausschussraten, aber auch externe Analysedaten einfließen lassen, wie im Tourismusumfeld etwa Implikationen durch Wetterveränderungen. Als Grenzwertparameter dienen dabei rollierende Vergleichszeiträume. In der Regel sind das die letzten zwölf und die letzten drei Monate, zurückgerechnet vom aktuellen Datum.

Aus der BI-Landstraße wird eine CI-Autobahn.

Der Datenstrom kann dabei aus einer gerade in Produktionsbetrieben noch häufig genutzten relationalen SQL-Datenbank kommen und in die Analyse-Datenbank eingespeist werden. Ideal – und technisch möglich – ist jedoch eine Database-Plattform, die die Fähigkeiten von SQL-, NoSQL und Cloud-Datenbanken unter einem Dach vereint, über die notwendigen Erweiterungen für Edge Computing verfügt und in der die Analysefunktionen nahtlos integriert sind. Das minimiert Schnittstellen, Latenzen und mögliche Übergabefehler.

Aus Business Intelligence wird Continuous Intelligence

Klassische BI-Tools oder Big-Data-Plattformen wie Tableau, MicroStrategy, Qlik Sense oder Splunk werden damit nicht überflüssig. In ihrer Funktion als Abfrage-Layer werden bei Continuous Intelligence die im jeweiligen Tool generierten SQL-Abfragen nicht mehr in ein Data Warehouse, sondern als Select-Statements direkt in die Datenbank geleitet und dort ausgeführt. Als Visualisierungs-Layer übernehmen sie zudem weiterhin die grafische Darstellung der Daten, die ebenfalls direkt in der Datenbank analysiert wurden und von dort zugeliefert werden. Das vereinfacht und beschleunigt den Prozess der Analyse und deren Umsetzung in entscheidungsunterstützende Informationen enorm. Aus der BI-Landstraße wird so eine CI-Autobahn.

Über diese Beschleunigung der Datenstrom-Analyse hinaus bereichert Künstliche Intelligenz die bislang vorhandenen Fähigkeiten und Möglichkeiten von BI-Prozessen. Während Realtime Analytics den analytischen Blick in Echtzeit zurück auf historische Daten um den Blick auf aktuelle Daten erweitert, kann KI den Blick nach vorne auf die zu erwartende Zukunft und daraus abgeleitete Prognosen auf zukünftiges Verhalten beisteuern. Predictive Analytics ist damit der zweite wichtige Baustein von Continuous Intelligence.

In sechs Schritten zu Continuous Intelligence

Ein typischer Implementierung-Prozess für Continuous Intelligence könnte aus sechs Schritten bestehen und folgendermaßen aussehen:

  1. Generierung der Daten: Mit einem JSON-Generator werden JSON-Dokumente für die jeweils typischen Datenbank-Transaktionen erstellt.
  2. Import in die Datenbank: Diese JSON-Dokumente werden in den Datenbank-Cluster geladen.
  3. Generierung und Test des Datensets: Die JSON-Dokumente werden mit einem Replika des dort definierten Datensets getestet.
  4. Aufsetzen der Verbindung mit dem BI-, respektive Big-Data-Tool: Bei der Konfiguration der Verbindung zwischen Datenbank und BI-Tool ist es essenziell, dass das Tool die REST-Calls der Datenbank richtig versteht.
  5. Import der Daten aus der Datenbank in das Tool: Über den entsprechenden Standardtreiber interagiert das BI-Tool mit der Datenbank und übernimmt den Dateninput.
  6. Aufsetzen der Dashboards und der ML-Unterstützung im Tool: Im letzten Schritt werden die Dashboards erstellt und die ML-Modelle definiert.

Ab diesem Zeitpunkt übernehmen die BI-/Analytics-Engine und die Datenbank-Plattform gemeinsam die Analyse der Datenströme und generieren daraus Echtzeit-Analysen mit prognostischen Fähigkeiten. Die aus diesem analytischen Rundumblick auf historische, aktuelle und zukünftig zu erwartende Daten resultierenden Vorteile für die Entscheidungsfindung und -unterstützung lassen den berechtigen Schluss zu, dass die Gartner-Prognose nicht nur erfüllt, sondern voraussichtlich sogar übererfüllt wird. Eine mit Hilfe von Continuous Intelligence aktualisierte Vorhersage würde dies mit hoher Wahrscheinlichkeit bestätigen.

Autor
Kommentare (0)

Neuen Kommentar schreiben