KI-Projekte systematisch zum Erfolg führen
Künstliche Intelligenz ist an einem Punkt angekommen, wo sich unsere Gesellschaft und ihre Werkzeuge nicht mehr ohne sie entwickeln werden. Über die letzten zwei bis drei Jahrzehnte folgte Hype auf Hype und die Technologie hat durch die zunehmende Aufmerksamkeit ihren Weg in die Praxis gefunden. Dennoch verspüren viele Unternehmen, trotz zahlreicher Erfolgsgeschichten, nach wie vor Unsicherheit dabei, KI im eigenen Unternehmen einzuführen. Das könnte daran liegen, dass immer noch mehr Projekte scheitern als gelingen (ca. 70 Prozent), wenn man aktuellen Studien glauben darf [1]. Die dabei genannten Gründe sind vielfältig, so werden beispielsweise fehlende Kompetenzen, schlechte Kommunikation, unzureichendes Daten- und Projektmanagement sowie schlechte Wirtschaftlichkeit genannt. Auch unrealistische Erwartungen wurden nachgewiesen.
Viele dieser Herausforderungen und Gründe zum Scheitern können wir aus eigener Erfahrung bestätigen. So ist z. B. in den Köpfen vieler Menschen noch das Bild von Matrix oder Terminator fest verankert, welches über viele Jahrzehnte durch Romane und Filme geprägt wurde. Somit ist es nicht verwunderlich, wenn Menschen Angst vor oder zu hohe Erwartungen an KI haben. Insbesondere für diese zentralen Herausforderungen empfehlen wir, gezielt Potenziale und Grenzen von KI zu schulen, um eine realistische Entscheidungsgrundlage zu haben.
Als Fortbildung kann das bereits in einem bis wenigen Tagen erfolgen, der Aufwand ist also überschaubar. Neben der Akzeptanz sehen wir aber tatsächlich oft eine oberflächlich schlechte Datenqualität, eine Planung bis zum Prototyp statt bis zur Lösung im Betrieb und kurzsichtiges Projektmanagement als die häufigsten Gründe für das Scheitern von KI-Projekten. Während das Herstellen einer sauberen Datengrundlage durchaus teuer und aufwändig sein kann, so ist es zumindest bei oberflächlichen Qualitätsmängeln wie großen Lücken, groben Falschwerten und zu geringer Datenmenge schnell zu erkennen. Schlechtes Projektmanagement oder Vergessen, dass eine geschaffene Lösung auch in den Betrieb überführt werden muss, ist kein neues Thema, denn auch klassische Projekte können daran scheitern, weshalb dies nicht der KI angelastet werden sollte. Das können wir aus Erfahrung bestätigen: Selten haben wir ein Projekt an der Technologie scheitern sehen, insbesondere nicht bei guter Planung und passenden Daten.
Vorgehensmodelle können helfen
Vorgehensmodelle sind methodische Unterstützungen, welche im Fall von Projektmanagement je nach Art die Organisation der Arbeit oder auch die inhaltliche Struktur eines Projekts unterstützen können. Im einfachsten Fall können sie selbst als Checkliste verwendet werden, um das Risiko des Vergessens wichtiger Arbeitsschritte zu minimieren. Tiefergehende Modelle liefern Details zu Inhalten und können für einzelne Herausforderungen wiederum weiterführende Checklisten oder Methoden vorschlagen, welche ein Projektmanagement direkt verwenden oder als Beispielgrundlage nehmen kann, um selbst angemessene Lösungswege zu finden.
KI-Projekte sind nicht zwingend, aber meistens datenbasiert. Damit einher geht die zentrale Herausforderung, dass durch die komplexe Verarbeitung der Daten, bspw. durch Modelltraining, vor der Umsetzung oft nicht klar ist, ob die gewünschte Information hinreichend gut in den Daten vorhanden ist und ob man sie auch mit vertretbarem Aufwand herausbekommt. Aus diesem Grund sind mehr noch als in der Software-Technik bei Vorgehensmodellen für KI- und datenbasierte Projekte iterative oder sogar agile Planungen vorgesehen. Rückschritte und Anpassungen sind einzuplanen und es wird üblicherweise auch eine Evaluation vor der Überführung in die Praxis vorgeschlagen, welche auch einen Abbruch ergeben kann, wenn Ziele nicht erreicht wurden oder die Nutzung nicht wirtschaftlich wäre. Um große Ressourcen nicht unnötig zu riskieren, empfiehlt sich eine Machbarkeitsstudie, die mit möglichst geringem Aufwand die Frage der Realisierbarkeit beantwortet. Die Aufwände eines solchen Vorprojekts können bei positivem Ergebnis zu großen Teilen später verwendet werden, um die Aufwände des "richtigen" Projekts zu reduzieren. Es ist im positiven Fall also ein vergleichsweise geringer Overhead und im negativen Fall werden Enttäuschungen sowie umfangreiche Ressourcen gespart.
In der Software-Entwicklung gibt es seit längerer Zeit zahlreiche Vorgehensmodelle. Für KI und Datenverarbeitung ist die Auswahl geringer und das Feld jünger: KDD Process (Knowledge Discovery in Databases) wurde 1996 veröffentlicht und wird als das erste entsprechende Vorgehensmodell gehandelt [2]. Kurz darauf wurde der CRISP-DM (Cross Industry Standard Process for Data Mining) herausgegeben, welcher sich als Industriestandard durchgesetzt hat [3]. Mittlerweile gibt es auch einige weitere Modelle, allerdings ist unserer umfassenden Analyse nach keines dabei, welches Mensch, Technik und Organisation im Einklang, durchgängig (also von der Idee bis zum Einsatz in der Praxis) und mit umfangreichen Werkzeugempfehlungen unterstützt [4].
Mensch und Prozess integriert in die Technologie betrachten
Aus diesem Grund haben wir den DSPG (Data Science Project Guide) entwickelt. Der DSPG bringt Praxis und Wissenschaft zusammen, indem die Bedarfe der Praxis durch die Erkenntnisse aus der Wissenschaft untermauert werden: Unsere beiden Doktorarbeiten widmen sich diesem Thema, wobei die Ergebnisse anschließend zusammen mit 30 Unternehmenslaboren im Forschungsprojekt KI-ULTRA des Bundesministeriums für Arbeit und Soziales evaluiert wurden. Der DSPG bietet den Nutzenden herstellerunabhängige Unterstützung in Form von Erklärungen, Methoden, Werkzeugen und Leitfragen für eine durchgängige Projektdurchführung von der Idee bis zum Einsatz der neuen Anwendung im Realbetrieb an. Der Hauptunterschied zu den bereits vorhandenen Modellen besteht darin, dass die Anforderungen des Menschen sowie der Unternehmensprozesse einen zentralen Anteil ausmachen und wir besonderen Wert auf Praxisnähe, Durchgängigkeit und das Vorschlagen von Referenzwerkzeugen gelegt haben. Wir sprechen dabei explizit von Data Science anstelle von KI, da es der umfassendere Begriff ist, KI-Projekte fast ausschließlich datenbasiert sind und die Rolle der Daten zentral für den Projekterfolg ist.
Als iteratives Vorgehensmodell, bestehend aus vier Phasen (s. Abb. 1), leitet der DSPG durch insgesamt 21 Schritte, welche nicht stringent abzuarbeiten sind, sondern eher als eine Art Checkliste verstanden werden sollten. So kann es je nach Projekt angebracht sein, Schritte gleichzeitig, in anderer Sortierung oder ggf. sogar in anderen Phasen zu bearbeiten. Außerdem kann es in manchen Projekten sinnvoll sein, einzelne Schritte sogar vollständig auszulassen bzw. nicht detailliert zu bearbeiten. Unabhängig von der Phase sollte das verantwortliche Projektmanagement frühzeitig alle Phasen und Arbeitsschritte planen, um Vorlaufzeiten und Abhängigkeiten entsprechend berücksichtigen zu können.
Bei datenbasierten Projekten ist eine besonders kritische Prüfung der Zwischenergebnisse (Inkremente) bis zur finalen "Evaluation" jederzeit sehr zu empfehlen. Grund dafür ist erneut die oben bereits erwähnte Unsicherheit, in welchem Maße die wesentlichen Informationen in den Daten enthalten sind und extrahiert werden können. So können neue Erkenntnisse eine erneute Detaillierung des Anwendungsfalles oder Analyse der Anforderungen notwendig machen, wenn sich die ursprünglichen Ziele nicht ohne Weiteres erreichen lassen.
Phase 1 – Definition der Ziele und Anforderungen an das Projekt
Um eine gute Ausgangsbasis für den späteren Betrieb der Anwendung im Unternehmenskontext zu schaffen, empfehlen wir dringend, eine ausführliche Projektvorbereitung vorzunehmen. Das heißt für alle Beteiligten, die Ziele und Visionen klar zu definieren und die zugehörigen Anforderungen strukturiert zu erfassen. Dadurch kann systemisch bedingten Barrieren (z. B. Zeitmangel, fehlenden Freiräumen, Vorschriften) oder auch menschlichem Verhalten (wie aktiven Handlungen gegen die Einführung neuer Anwendungen durch Widerspruch, Kritik, Manipulation) vorgebeugt werden. Gerade bei KI- und datenbasierten Projekten ist dies noch viel wichtiger als bei klassischen Softwareprojekten, da nach wie vor häufig die Akzeptanz fehlt und somit Projekte schon sehr frühzeitig scheitern können. Aus diesem Grund empfehlen wir nachdrücklich, die Menschen im Prozess mitzunehmen und sich möglicher Bedenken anzunehmen. Besonders wichtig ist dabei, dass Fachabteilung und Geschäftsführung an einem Strang ziehen.
Zentrales Ziel ist, dass potenzielle Nutzende der Anwendung und ihren Entscheidungen zukünftig vertrauen und diese akzeptieren. Aus diesem Grund empfehlen wir mehr noch als bei klassischen Projekten, frühzeitig die Anforderungen aller relevanten Stakeholder aufzunehmen. Neben den Stakeholdern gibt es die Perspektiven der Prozesse und Tätigkeiten der durch das Projekt betroffenen Arbeiten. Diese sollten möglichst realitätsnah analysiert werden, wobei insbesondere der Abgleich von IST vs. SOLL bereits abgeleitet und dargestellt werden kann. Prozesse sowie Tätigkeiten können hinzukommen, andere ersetzen oder verändern, meistens durch eine Art der datenbasierten Automatisierung oder Augmentierung. Hier gilt dieselbe Regel wie bei allgemeiner Digitalisierung: Auch ein schlechter, daten- bzw. KI-gestützter Prozess ist immer noch ein schlechter Prozess. Abschließend können noch rechtliche und regulatorische Aspekte sowie die Datensicherheit beeinflussende Faktoren sein, die zum Scheitern führen können. Zusammenfassend findet in der ersten Phase parallel zu einer Wirtschaftlichkeitsabschätzung eine ausführliche Anforderungsanalyse für das Projekt statt.
Phase 2 – Rahmenbedingungen festzurren
Nachdem die Anforderungen und Ziele erfolgreich definiert und aufgenommen sowie auf ihre Wirtschaftlichkeit hin überprüft wurden, gilt es, grundsätzliche Rahmenbedingungen für ein gut vorbereitetes Projekt inklusive Konzeptions- und Entwicklungsphase sowie der Überführung in den Betrieb zu definieren. Ziel ist hierbei, Risiken wie Verzögerungen oder gar falsch eingesetzte Ressourcen zu minimieren und somit die Erfolgschancen zu maximieren. Im Rahmen der Datenbereitstellung geht es nicht nur um den technischen und organisatorischen Zugriff, sondern zusätzlich auch darum, ob die konkret benötigten Daten rechtlich verwendet werden dürfen bzw. von relevanten Partnern bereitgestellt werden. Zudem empfehlen wir, eine geeignete agile oder zumindest iterative Projektmanagementmethode zu wählen, um auf eventuell notwendige Anpassungen angemessen reagieren zu können.
Zur Durchführung des Projektes werden Programmiersprachen, Frameworks, Technologien etc. benötigt. Dazu empfehlen wir, die bestehende IT-Landschaft, insbesondere aber auch die existierenden und zu implementierenden Schnittstellen zu betrachten. Ziel ist es, eine weitsichtige Auswahl von Technologien zu treffen, Wildwuchs zu vermeiden und die nötigen Kompetenzen für das Projekt sauber planen zu können. Damit können mögliche Kostentreiber in der Regel frühzeitig identifiziert und spätere Überraschungen vermieden werden.
Als letzter Punkt in dieser Phase gilt es, das benötigte Personal für das Projekt zu definieren. Wer sind die Wissensträger im Unternehmen und wie steht es um deren Kapazität? Oft stehen Unternehmen vor der Herausforderung, dass die benötigten Fähigkeiten unzureichend verfügbar sind und externe Expertise eingekauft werden muss, um alle benötigten Rollen angemessen besetzen zu können [6]. Aus diesem Grund ist es auch so wichtig, in Phase 1 die Anforderungen klar zu definieren, um entsprechend dem Projektfortschritt eine geeignete personelle Besetzung und die Definition von Verantwortlichkeiten innerhalb des Projektteams vornehmen zu können.
Phase 3 – Erstellung von Konzepten und Entwicklung
In der eigentlichen Implementierungsphase des Projekts empfehlen wir, zwei parallele Stränge zu bearbeiten, ehe eine abschließende Evaluation über die Überführung in die Praxis entscheidet. Technische Integrationsaufwände wie das Schaffen neuer Schnittstellen sowie Software-Entwicklungsanteile bereits anzugehen, ehe die abschließende Evaluation durchgeführt wurde, bedeutet bei datenbasierten Projekten ein erhöhtes Risiko. Daher raten wir an dieser Stelle neben dem Kern der Datenverarbeitung auch Konzepte für die technische Überführung in die Praxis zu erstellen.
Besonders wichtig ist die Konzeption der Systemarchitektur, welche relevante Bestandteile des entstehenden (Teil-)Systems und ihre Schnittstellen beschreibt. Die Komponenten der Datenarchitektur sind zwar ein Teil Systemarchitektur, doch empfehlen wir eine detailliertere Ausgestaltung wegen der hohen Relevanz bei datenbasierten Projekten. Es sollte bedacht werden, dass die Betrachtung innerhalb des Projektes größere Herausforderungen in der generellen Systemlandschaft des Unternehmens selten wirtschaftlich lösen wird. Solche übergreifenden Themen sind üblicherweise der Inhalt von strategischen Projekten. Vielmehr geht es bei diesen Konzepten darum, wie die bestehende System- und Datenlandschaft sauber genutzt und erweitert wird, um technische und organisatorische Schulden zu vermeiden, die bei Wildwuchs fast automatisch entstehen.
Neben den Konzepten für die Überführung in die Praxis findet in dieser Phase die eigentliche Datenverarbeitung statt. Dabei sind die ersten Schritte normalerweise ein Eintauchen in die Daten, das Verstehen derselben und damit einhergehend ein erstes Aufbereiten. Selten kommt es in der Praxis vor, dass Daten in der gewünschten Menge, Qualität und Form vorliegen, daher kann dieser Aufwand durchaus erhebliche Teile der Phase einnehmen. Auf Basis des erhaltenen Verständnisses, welches mittels Statistik und Visualisierung der Daten aufgebaut wird, kann die eigentliche Nutzung der Daten beginnen. Um zu passenden (KI-)Modellen zu kommen, finden üblicherweise in mehreren Iterationen Modellauswahl und Modellbau statt. Dabei wird mit einem möglichst einfachen Modell begonnen, um eine Baseline zu setzen und ein Gefühl für die Komplexität der gegebenen Zielsetzung zu bekommen. Sind ein oder mehrere vielversprechende Modelle ausgewählt, so können diese durch Aufbereitung der Daten (Feature Engineering) sowie Anpassungen der Modelle selbst (durch Ändern sog. Hyperparameter) optimiert werden.
Ein gegenüber klassischen Projekten neues Thema ist das der Robustheit und KI-Sicherheit. Dabei geht es nicht um klassische IT-Sicherheit, sondern eine neue Angriffsfläche auf Ebene der Daten. Eben jene Daten können gefälscht werden, um Fehlverhalten datenbasierter Anwendungen hervorzurufen. Im besseren Fall wird damit nur Schaden durch das Ausbleiben der Funktion erzeugt, im schlimmeren kann gezieltes Fälschen ernste Sicherheitslücken, Qualitätsmängel oder Gefährdungen für Menschen bedeuten. Dieser Aspekt kann verteilt über die gesamte Datenverarbeitung betrachtet werden, denn Schwächen sowie Gegenmaßnahmen können sowohl auf der Datenebene, durch zusätzliches Vor- oder Nachbearbeiten der Daten sowie auch auf Modellebene entstehen. Nicht in jedem Projekt spielt dieser Aspekt eine Rolle – sollen Werkstücke in hoher Geschwindigkeit in einer Produktionsstraße sortiert werden, so sind vermutliches Interesse sowie auch die Realisierbarkeit eines Angriffsszenarios höchst gering. Vergisst man diesen Aspekt jedoch in einem Projekt, wo die Relevanz gegeben ist, können massive Schäden entstehen. Wir empfehlen also, diesen Punkt auf Ebene des Projektmanagements abzuwägen, seine Relevanz zu bewerten und zu dokumentieren, falls er nicht bereits in den Anforderungen explizit geklärt wurde.
Phase 4 – Nutzbarmachung der Ergebnisse
In dieser Phase geht es um das Nutzbarmachen der Ergebnisse, sofern die abschließende Evaluation der Ergebnisse in Phase 3 positiv ausgefallen ist. Sie macht den Unterschied zwischen einem Prototyp und einer produktiven Lösung und wird nur zu gerne in der Planung zu wenig oder gar nicht berücksichtigt. Während ein funktionierender Prototyp eine überwiegend technische Machbarkeit zeigt, stellt sich erst durch die Überführung in die Praxis heraus, ob ein Umsetzungsprojekt tatsächlich erfolgreich war.
Kompetenzen im Bereich von Data Science, KI und verwandten Bereichen sind aktuell gefragter als je zuvor.
Menschen, Technik und Prozesse empfehlen wir in dieser Phase gezielt zu betrachten und frühzeitig zu planen. Auf Seite der Technik geht es um die Integration in die Betriebsumgebung. Die Konzepte aus Phase 3 sollten an dieser Stelle realisiert werden. Neben neuen Teilsystemen und Schnittstellen kann dabei auch MLOps (Machine Learning Operations, also Systeme zu automatisierter Bereitstellung, Monitoring und Wartung von KI-Modellen) beinhaltet sein, insbesondere, wenn zukünftige Weiterentwicklungen oder Veränderungen erwartet werden. Bzgl. der Mitarbeitenden stellt sich die Frage, ob neue Kompetenzen benötigt werden. Im einfachsten Fall funktioniert eine datenbasierte Lösung "unter der Haube" und es müssen keine Anpassungen vorgenommen werden. Eventuell müssen jedoch Mitarbeitende geschult oder sogar völlig neue Rollen besetzt werden, um mit der neuen Lösung arbeiten zu können. Kleinere Schulungen mit einem überschaubaren inhaltlichen Umfang und Kreis an zu Schulenden lassen sich unter Umständen kurzfristig vom Projektteam selbst umsetzen. Bei umfangreicheren Schulungsmaßnahmen, in welche möglicherweise projektunabhängige Abteilungen oder externe Unternehmen eingebunden sind, ist zu bedenken, dass größerer Planungsaufwand und Vorlauf erforderlich sein können. Dasselbe gilt für die Suche und Einstellung neuen Personals, denn Kompetenzen im Bereich von Data Science, KI und verwandten Bereichen sind aktuell gefragter als je zuvor.
Auf der Organisationsseite sollte bedacht werden, dass oftmals Arbeit in Form von Prozessen und Tätigkeiten angepasst werden muss. Menschen sind Gewohnheitstiere, was Vorteil und Herausforderung gleichermaßen ist: Eine Gewohnheit sorgt bei häufig wiederholten Tätigkeiten für Effizienz und Effektivität, jedoch ist das Ändern ohne akuten Zwang oder triftigen Grund dadurch etwas, was bei den Betroffenen auf Widerstand stößt. Bei KI kommen leicht weitere Aspekte wie Angst vor der neuen Technologie oder Datenschutzvorbehalte hinzu, wodurch sich die Herausforderung weiter vergrößern kann. Es handelt sich um eine Form des Change-Managements, für das hinreichend viel Zeit zur Kommunikation der Änderungen, Akzeptanzschaffung und auch zur tatsächlichen Anpassung der Arbeit eingeplant werden sollte. Ein Parallelbetrieb von alten und neuen Prozessen ist dabei nicht ungewöhnlich und zu empfehlen, wenn ein fließender Übergang ermöglicht werden soll.
KI-Projekte sind herausfordernd, aber kein Hexenwerk
Viele der beschriebenen Inhalte sind nichts Neues für projekterfahrene Mitarbeitende. Dennoch gibt es vereinzelt völlig neue Aspekte bei KI-Projekten, wie beispielsweise den Kern der Technologie (Modellbau etc.) oder Robustheit und KI-Sicherheit. Zudem haben viele der Tätigkeiten KI-spezifische Besonderheiten. Darunter können Konsequenzen aus Angst vor der Technologie bei Mitarbeitenden oder KI-spezifische Anforderungen wie die Erklärbarkeit eines Modells (Handelt es sich um eine funktionierende "Black Box" oder lassen sich Modellentscheidungen nachvollziehen?) fallen.
Zusammenfassend sind wir der Meinung, dass KI-Projekte zwar viel Neues bringen und nicht ohne guten Plan und Kenntnis des Themenfelds angegangen werden sollten. Dennoch sind sie kein Hexenwerk und mit einer guten Systematik lassen sich die Risiken überschaubar halten und die wirklichen Potenziale der Technologie zielführend und wirtschaftlich nutzen. Wir empfehlen einen systematischen Ansatz mit Vorgehensmodell.
Hinweis: Der in diesem Artikel thematisierte DSPG steht der Öffentlichkeit unter der Lizenz CC-BY-SA frei zur Verfügung, es darf also auch im kommerziellen Umfeld kostenfrei damit gearbeitet werden. Lediglich wollen wir als Autoren genannt werden und fordern, dass eine etwaige Weiterentwicklungen des Modells an sich zu denselben Bedingungen der Öffentlichkeit verfügbar gemacht werden.
- Westenberger, J.; Schuler, K.; Schlegel, D. (2022): Failure of AI projects: understanding the critical factors. In: Procedia Computer Science 196, S. 69–76. DOI: 10.1016/j.procs.2021.11.074.
- Fayyad, Us.; Piatetsky-Shapiro, G.; Smyth, P. (1996): The KDD process for extracting useful knowledge from volumes of data. In: Commun. ACM 39 (11), S. 27–34. DOI: 10.1145/240455.240464.
- Chapman, P.; Clinton, J.; Kerber, R.; Khabaza, T.; Reinartz, T.; Shearer, C.; Wirth, R. (2000): CRISP-DM 1.0. Step-by-step data mining guide.
- Kutzias, D.; Dukino, C.; Kötter, F.; Kett, H. (2023): Comparative Analysis of Process Models for Data Science Projects. In: Proceedings of the 15th International Conference on Agents and Artificial Intelligence. 15th International Conference on Agents and Artificial Intelligence. Lisbon, Portugal, 22.02.2023 - 24.02.2023: SCITEPRESS - Science and Technology Publications, S. 1052–1062.
- Kutzias, D.; Dukino, C.; Leuteritz, J.-P. (2023): Leitfaden zur Durchführung von KI-Projekten. Menschenzentrierung von der Idee bis zur Anwendung
- Rammer, C.; Fernández, G. P.; Czarnitzki, D. (2022): Artificial intelligence and industrial innovation: Evidence from German firm-level data. In: Research Policy 51 (7), S. 104555. DOI: 10.1016/j.respol.2022.104555.