Über unsMediaKontaktImpressum
Jannis Stegmann 09. November 2021

Datensilos adé: Wie dank Adaptive Analytics mehr Mitarbeiter Echtzeit-Analysen nutzen können

Für die Analyse von Daten nutzt jeder Mitarbeiter sein bevorzugtes Werkzeug, greift auf eine unternehmensweit einheitliche Datenbasis zurück, die obendrein die bestmögliche Datenqualität bietet.

Das ist die Idee hinter der Lösung Adaptive Analytics, die eine virtuelle Datenmodellschicht schafft und für eine gemeinsame Abfragesprache sorgt. Grundlage der Lösung ist eine zentrale Datenplattform, die sich durch umfassende Interoperabilität auszeichnet.

Daten, Daten und noch mehr Daten – die immer weiter fortschreitende Digitalisierung stellt Unternehmen vor eine große Herausforderung. Branchenübergreifend müssen sie die Flut an Informationen aus internen Prozessen und externen Quellen bewältigen, wenn sie fundierte Entscheidungen treffen und schnell auf Veränderungen reagieren wollen. Gerade vor dem Hintergrund der COVID-19-Pandemie und den damit verbundenen Herausforderungen im Hinblick auf Supply-Chain-Management, Neukundengewinnung oder Produktionsanpassungen mussten viele Unternehmen feststellen, dass sie nicht schnell genug auf neue Entwicklungen im Markt reagieren können.

Der Erfolg von Unternehmen hängt also zunehmend davon ab, jederzeit über eine direkte Einsicht in und einen unmittelbaren Zugriff auf alle relevanten Daten zu verfügen. Nur so lässt sich die aktuelle Situation genau überblicken und maximaler Nutzen aus den Informationen ziehen. Das gilt für alle Fachbereiche der Unternehmen und bedeutet, dass eine große Anzahl von Mitarbeitern die Erkenntnisse aus den eigenen Daten gewinnen können muss. Vor diesem Hintergrund steigt der Wunsch nach einer Lösung, die es Mitarbeiterinnen und Mitarbeitern unabhängig von ihren persönlichen Analytics- und Business-Intelligence-Kenntnissen ermöglicht, unkompliziert und schnell eigene aufschlussreiche Analysen durchzuführen. Eine innovative Antwort für diese Aufgabenstellung liefert das Konzept der Adaptive Analytics, das auf einer zentralen Datenplattform aufbaut.

Datenplattform als grundlegende Voraussetzung

Um ihre Daten umfassend analysieren zu können, müssen Unternehmen diese zuvor zusammenführen. Erst dann kann aus den bislang im Verborgenen liegenden Daten echter Mehrwert für den Geschäftsbetrieb geschaffen werden. Ein Beispiel: Die Verknüpfung von Daten zum historischen Einkaufsverhalten, aktuellem Lagerbestand und Wetterprognose führt zu einer besseren Vorbereitung des Einzelhändlers auf die nächste Grillsaison. Als ideale Basis für Adaptive Analytics dient eine moderne Datenplattform. Mit ihr können Unternehmen in Echtzeit alle eigenen Daten überblicken, sie harmonisieren sowie miteinander verknüpfen und dadurch auswert- und nutzbar machen – ganz gleich, ob sie in strukturierter oder unstrukturierter Form vorliegen. Damit legt die Datenplattform die notwendige Grundlage für die Umsetzung des Adaptive-Analytics-Konzepts.

Im Idealfall bringt die Datenplattform bereits eigene integrierte Funktionen für die Analyse von Daten, Business Intelligence (BI) und den Einsatz von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) mit. Der Grund: Je weniger zusätzliche Werkzeuge benötigt werden und je näher am Datenursprung die Analyse ansetzen kann, desto schneller stehen die Informationen zur Verfügung. Um für jeden Anwendungsfall eine außerordentlich hohe Leistung und Effizienz für Multi-Workloads in Echtzeit zu garantieren, sollte die Datenplattform Hybrid Transactional/Analytical Processing (HTAP) unterstützen. Dann ist es möglich, große Mengen transaktionaler Daten unmittelbar mit historischen Daten zu verknüpfen, so dass Entscheidungen anhand aktueller Informationen nahezu in Echtzeit gefällt werden können.

Mithilfe von Predictive Modeling, BI und den entsprechenden Dashboards sowie durch den ergänzenden Einsatz von KI und ML lassen sich außerdem unkompliziert und schnell Muster, Trends und Beziehungen in den Datensätzen identifizieren.

Adaptive Analytics für noch bessere BI

Mit der vollständig integrierten Lösung Adaptive Analytics steht eine Referenzimplementierung zur Verfügung, die im Folgenden als Beispiel dienen soll [1]. Der Fokus liegt darauf, in großem Maßstab genaue und schnelle Analysen von Daten zu ermöglichen und diese für eine breite Nutzerbasis verfügbar zu machen. Dazu ist es im ersten Schritt notwendig, dass BI- und Analytics-Spezialisten die Grundlage für eine übergreifende gemeinsame Datennutzung legen. Dafür wird zwischen der Datenplattform und gängigen Werkzeugen für BI, KI und ML eine virtuelle Datenmodellschicht eingefügt. Eine intuitive Benutzerschnittstelle verschafft Datenwissenschaftlern den Zugang zu dieser Schicht und dient ihnen zur Entwicklung eines semantischen Datenmodells in Form eines virtuellen Würfels. In diesem Würfel lassen sich Daten organisieren, einheitliche Kenngrößen über vorhandene Anwendungs- und Datensilos hinweg festlegen und Datenfelder eindeutig kennzeichnen. Ein zentralisiertes Datenmodell hilft Unternehmen dabei, das Problem unterschiedlicher Definitionen beziehungsweise abweichender Berechnungen zu lösen sowie ihren Mitarbeitern einen einheitlichen, konsistenten Überblick über relevante Informationen und Kennzahlen bereitzustellen.

Um einen virtuellen Würfel zu gestalten, steht den Experten eine Entwicklungsumgebung zur Verfügung, in der sich alle nötigen Schritte per Drag-and-Drop ausführen lassen. Das umfasst unter anderem die Bestimmung der Dimensionen und die Festlegung der Kennzahlen. Gesichert wird am Ende alles in einem Projekt, wobei jedes Projekt mehrere virtuelle Würfel enthalten kann.

Erstklassige Performance, kontinuierliche Optimierung und Self-Service-BI

Für die bestmögliche Performance verbleiben alle Daten stets in der darunter liegenden Datenplattform. Dadurch wird zeitaufwändiges und ressourcenhungriges Kopieren und Verschieben überflüssig. Adaptive Analytics greift in Echtzeit auf alle verfügbaren Daten zu, was inhaltliche Lücken und den Abruf veralteter Informationen verhindert. Änderungen am Datenmodell stehen umgehend in der semantischen Schicht zur Verfügung, ohne Stillstände auf der Seite der Nutzer hervorzurufen. Damit gehört das Warten auf einen langwierigen Neuaufbau eines Würfels der Vergangenheit an.

Anhand der eingehenden Abfragen lernt Adaptive Analytics kontinuierlich dazu. So erfasst die Lösung häufig gestellte Abfragen und erstellt automatisch Aggregate, die ihrerseits die Geschwindigkeit und Effizienz des Systems enorm erhöhen, indem sie die Zugriffszeiten minimieren. Im Gegensatz zum herkömmlichen Caching werden die Abfragen an das physische Modell der Datenplattform zudem um weitere Datenfelder ergänzt, die eventuell für Abfragen in der Zukunft relevant sind. Ein Beispiel: Wenn ein Mitarbeiter bestimmte Daten in einer monatlichen Ansicht verlangt, speichert das System sie auch pro Jahr als Aggregat. Diese Maßnahme verkürzt die Zugriffszeiten zusätzlich. Entsprechende Aggregate selbst zu erstellen, würde eine IT-Abteilung im Vergleich weitaus mehr Zeit kosten. Abgelegt werden die einzelnen Aggregate ebenfalls auf der Datenplattform.

Adaptive Analytics unterstützt Self-Service-BI, damit Mitarbeiter in Unternehmen eigenständig und ohne Einbindung der IT-Abteilung interaktive und mehrdimensionale Analysen durchführen und Dashboards erstellen beziehungsweise verändern können. Welches Werkzeug sie dafür verwenden, steht den Nutzern offen. Das Konzept erlaubt die Einbindung unterschiedlicher BI-Tools von Drittanbietern, wie zum Beispiel Microsoft Excel, Power BI, Tableau oder Qlik, um über diese auf das einheitliche Online Analytical Processing Model (OLAP) zuzugreifen. Das erfolgt stets unabhängig vom jeweiligen Abfragedialekt der Werkzeuge, sodass konkrete Abfragen immer identisch beantwortet werden.

Entscheidend ist nicht die Hardware, sondern die konzeptionelle Vorarbeit

An sich benötigt Adaptive Analytics nur wenig Hardware. In der Regel reicht ein Server mit einer einzelnen virtuellen Maschine, da die Daten dort nicht gespeichert werden, sondern in der Datenplattform verbleiben. Auf Wunsch lässt sich auch ein Cluster mit mehreren virtuellen Maschinen einrichten, falls das eigene Unternehmen sehr viele Nutzer aufweist und/oder das zum Plan für die Disaster Recovery passt.

Bei der Projektumsetzung ist sorgfältige Vorarbeit im konzeptionellen Bereich ratsam. Zunächst müssen die Unternehmen eine Antwort darauf finden, wie ihr Datenmodell aussehen soll und welche konkreten Ziele verfolgt werden. Besteht hier Einigkeit zwischen den Entscheidern, ist der anschließende Prozess rund um die Installation und Integration der Lösung relativ unkompliziert. Die Verbindung mit den Werkzeugen für BI, KI und ML wird über ODBC und JDBC beziehungsweise mithilfe von MDX oder einer TDS-Datei realisiert. Zugleich nutzt Adaptive Analytics die universale Abfragesprache SQL auch für die Kommunikation mit der Datenplattform.

Viele Vorteile für die Zielgruppen

Der Einsatz von Adaptive Analytics führt in Unternehmen zu mehr Produktivität, Effektivität und Effizienz, was sich positiv auf den Geschäftserfolg auswirkt. Da sich die Time-to-Insight maßgeblich verkürzt, erhalten Unternehmen dank des umfassenden Einblicks in Echtzeit schneller genaue Erkenntnisse. Dadurch bleiben sie wettbewerbs- und zukunftsfähig.

Darüber hinaus ergeben sich für die drei hauptsächlichen Anwendergruppen innerhalb von Unternehmen – Fachanwender in den Abteilungen, Data Stewards und Modellierer sowie Datenbankadministratoren und -entwickler – unterschiedliche Vorteile. Mit Adaptive Analytics lassen sich unkompliziert und schnell virtuelle Datenmodelle erstellen, die über alle Fachbereiche hinweg bessere und zeitnahe Geschäftsentscheidungen ermöglichen. Fachanwender benötigen dazu kein umfassendes technisches Verständnis und können für die Abfragen ihre jeweils bevorzugte Anwendung wählen, was zu mehr Autonomie und Flexibilität führt. Eine durchgängige semantische Schicht macht auch Backend-Datenstrukturen besser zugänglich.

Ist Adaptive Analytics erst einmal implementiert, lässt es sich in zahlreichen Szenarien gewinnbringend nutzen.

Für Data Stewards und Modellierer besteht der Vorteil darin, dass sie eine intuitive Benutzerschnittstelle erhalten, um per Drag-and-Drop ein Datenmodell zu erstellen und die Feldnamen zu optimieren. Die Experten können außerdem alle Informationen unternehmensintern oder öffentlich zugänglich machen, ohne komplexe Datenstrukturen, Tabellen oder Beziehungen offenlegen zu müssen. Zugleich haben sie genauso wie die Datenbankadministratoren und -entwickler mit Adaptive Analytics eine einfache Lösung zur Hand, um das gemeinsame Datenmodell und den Zugriff darauf zentral zu überwachen und zu verwalten. Vertrauliche Daten können leicht vor unberechtigtem Zugriff geschützt werden.

Darüber hinaus bleibt für die Datenbankadministratoren und -entwickler dank Adaptive Analytics mehr Zeit für die Bearbeitung anderer komplexer Aufgaben und die Erschließung weiterer Datensätze.

Konkreter Einsatz von Adaptive Analytics

Grundsätzlich eignet sich Adaptive Analytics für Unternehmen jeder Größe, spielt ihre Stärken aber in besonderem Maße aus, wenn große, verteilte Datenmengen analysiert werden. Ob sich der Einsatz von Adaptive Analytics lohnt, hängt also weniger von der Größe eines Unternehmens ab, sondern von der Frage, wie viele Datenquellen vorliegen und wie hoch die Komplexität der zu verarbeitenden Informationen ist. Gerade wenn Unternehmen durch Übernahmen wachsen, ergibt sich schnell eine ohne Adaptive Analytics kaum mehr beherrschbare, verteilte Architektur. Zudem hilft Adaptive Analytics auch dann, wenn es im Unternehmen nicht ausreichend viele Analytics- und BI-Spezialisten gibt, um den Fachanwendern bedarfsgerechte Analysen zeitnah aufzubereiten und zur Verfügung zu stellen. Stattdessen sind die Anwender mit Adaptive Analytics in der Lage, ihre Analysen eigenständig durchzuführen.

Ist Adaptive Analytics erst einmal implementiert, lässt es sich in zahlreichen Szenarien gewinnbringend nutzen. Ein klassischer Anwendungsfall beschäftigt sich genau mit der zuvor beschriebenen verteilten Architektur: Ein Unternehmen hat mehrere Standorte, wie beispielsweise Lager oder Forschungseinrichtungen, deren Mitarbeiter vor Ort unabhängig voneinander eigene Berechnungen und Berichte erstellen wollen. Aber trotzdem sollen übergreifend alle Daten in die Auswertungen einbezogen und eine gemeinsame Abfragesprache verwendet werden. Hier setzt Adaptive Analytics an und hilft in Kombination mit der Datenplattform, die Daten zusammenzuführen und eine durchgängige semantische Schicht zu schaffen.

Ein anderer Anwendungsfall von Adaptive Analytics ist der effiziente Umgang mit verschiedenen Datenmodellen und -formaten eines Unternehmens. Einzelne Fabriken eines Unternehmens schicken beispielsweise Daten an die Zentrale, die einen umfassenden Überblick über den Geschäftsbetrieb geben können. Allerdings sind diese aufgrund unterschiedlicher Datenmodelle und -formate nicht direkt verknüpfbar. Das verhindert ihre Zusammenführung und Analyse. Mit Adaptive Analytics gelingt es Unternehmen, auch diese Daten unterschiedlichen Nutzern einheitlich bereitzustellen.

Analytics nicht nur für Datenprofis

Anwender, die Entscheidungen von großer Tragweite treffen müssen, erhalten somit unmittelbaren Zugang zu relevanten Daten, wenn sie diese benötigen – mit den Tools ihrer Wahl. Dafür kann eine große Bandbreite von Datenbeständen herangezogen werden – aus dem Unternehmen selbst, von seinen Zulieferern und Partnern sowie aus externen Quellen. Genauso wichtig, wie die auf Silos verstreuten Datenbestände in den Griff zu bekommen, ist es, eine reibungslose und unmittelbare Konnektivität herzustellen. So entsteht ein Netzwerkeffekt, der zu einer umfassenden Vereinfachung der Datenarchitektur führt.

Auch wenn oft IT-Teams die Projektführung übernehmen – die Implementierung einer Analyse-Plattform ist keine reine IT-Initiative. Stattdessen müssen Personen aus jedem Bereich des Unternehmens intensiv zusammenarbeiten. Für eine erfolgreiche Implementierung sollten verschiedene Teams iterativ zusammenarbeiten und konstant evaluieren, welchen Nutzen die Einführung von Adaptive Analytics bietet.

Im Finanzsektor, wo abgeschottete Datensysteme eine datenbasierte Abwägung von Entscheidungen erschweren, können Manager beispielsweise Kreditanträge wesentlich schneller und zielsicherer bewerten. Beim Lieferkettenmanagement sind Planer in der Lage, sofort auf Lieferengpässe oder logistische Herausforderungen zu reagieren, um bestehende Lieferfristen nicht zu gefährden.

Adaptive Analytics ist somit ein wichtiger Schritt, damit "Analytics Für Alle" Realität werden kann.

Quellen
  1. Als Beispiel dient hier die Datenplattform Intersystems IRIS

Autor

Jannis Stegmann

Jannis Stegmann ist seit Anfang 2021 als Sales Engineer bei InterSystems tätig und kümmert sich in dieser Rolle vorwiegend um datengetriebene Kundenprojekte in der Fertigungs- sowie Finanzdienstleistungsbranche.
>> Weiterlesen
Das könnte Sie auch interessieren
Kommentare (0)

Neuen Kommentar schreiben