KI macht uns alle zu Managern: Eine kybernetische Perspektive zur Zukunft des Managements

Die vorliegenden Überlegungen analysieren die zunehmende Verbreitung autonomer KI-Systeme, sogenannter KI-Agenten (aka Agentic AI), aus der Perspektive der Managementkybernetik. Die zentrale These lautet, dass die Interaktion zwischen einem Anwender und einem KI-Agenten funktional der Beziehung zwischen einem Manager und einem Mitarbeiter entspricht. Jeder Nutzer wird somit zur Steuerungsinstanz — zum Manager — eines digitalen Akteurs. Diese Entwicklung erfordert nicht nur neue Kompetenzen auf individueller Ebene ("AI Literacy"), sondern transformiert Management von einer hierarchischen Funktion zu einer kollektiven Fähigkeit der gesamten Organisation und einer individuellen Kompetenz jedes Mitarbeitenden, der KI operativ einsetzt. Wie dieser Wandel die Prinzipien der Selbstorganisation stärkt und etablierte Führungsrollen fundamental verändert, wird nachfolgend erörtert. Anhand des Viable System Models (VSM) von Stafford Beer wird ein Bezugsrahmen für die Gestaltung zukünftiger, lebensfähiger Mensch-KI-Organisationen skizziert. Der Ausblick widmet sich der Evolution von Kooperationsstrukturen in Unternehmen, die sich zu hybriden (Mensch-KI-Interaktion), kollektiv intelligenten Systemen entwickeln.
- Die unsichtbare Beförderung — Wie KI-Agenten jeden Nutzer zum Manager machen
- Teil I: Das Fundament — Managementkybernetische Prinzipien als Brille für die digitale Transformation
- Die Kunst des Steuerns: Grundprinzipien der Managementkybernetik
- Das Viable System Model (VSM) als Blaupause für lebensfähige Organisationen
- Teil II: Der neue Mitarbeiter — Der KI-Agent als autonomes Subsystem
- Vom Werkzeug zum Akteur: Die Evolution von Software zu KI-Agenten
- Die Manager-Mitarbeiter-Analogie im Detail
- Teil III: Die organisatorische Implikation — Management als kollektive Fähigkeit
- Die Demokratisierung des Managements: Jeder wird zum Manager
- Selbstorganisation als kybernetische Notwendigkeit im KI-Zeitalter
- Ausblick: Die Zukunft der Kooperation in hybriden Mensch-KI-Organisationen
- Exkurs: Die Schattenseiten — Kognitive Regression und Selbstentmündigung
- Kognitive Regression: Der "Use it or lose it"-Effekt im KI-Zeitalter
- Selbstentmündigung und erlernte Hilflosigkeit
Die unsichtbare Beförderung — Wie KI-Agenten jeden Nutzer zum Manager machen
Die technologische Landschaft der modernen Arbeitswelt wird derzeit durch eine Entwicklung von fundamentaler Tragweite umgestaltet: die Einführung und Verbreitung autonomer Systeme der Künstlichen Intelligenz (KI), die als "KI-Agenten" bezeichnet werden. Diese Systeme sind weit mehr als passive Werkzeuge; sie sind in der Lage, eigenständig Ziele zu verfolgen, komplexe Aufgaben in Teilschritte zu zerlegen, zu planen und Aktionen in der digitalen oder physischen Welt auszuführen.[1] Mit jeder Interaktion, in der ein Wissensarbeiter einem solchen Agenten ein Ziel vorgibt, dessen Ressourcen definiert und dessen Ergebnisse überwacht, findet eine stille, aber tiefgreifende funktionale Veränderung statt: Der Nutzer wird zum Manager. Diese "unsichtbare Beförderung" ist keine bloße Metapher, sondern eine präzise Beschreibung einer neuen Arbeitsrealität, in der Managementaufgaben dezentralisiert und auf jeden Einzelnen übertragen werden.
Diese Entwicklung stellt eine fundamentale Herausforderung für etablierte Managementmodelle dar. Traditionelle Organisationsstrukturen basieren auf der Annahme, dass Management eine spezialisierte, in der Hierarchie verankerte Rolle ist, die von einer dedizierten Gruppe von Führungskräften ausgeübt wird. Die massenhafte Verfügbarkeit von quasi unendlich skalierbaren "digitalen Mitarbeitern", die jedem Angestellten zur Verfügung stehen, untergräbt dieses Paradigma im Kern. Es entsteht ein dringender Bedarf an einem neuen theoretischen Rahmen, der es ermöglicht, die Konsequenzen dieses Wandels nicht nur zu verstehen, sondern auch aktiv zu gestalten.
Die zentrale Fragestellung lautet: Wie müssen Organisationen strukturiert sein, um in einer Welt zu bestehen, in der Management keine exklusive Funktion mehr ist, sondern eine universelle Fähigkeit wird?
Die Managementkybernetik bietet den idealen analytischen Bezugsrahmen für diese Fragestellung. Als "Wissenschaft von der effektiven Organisation" und der Steuerung komplexer Systeme unter Bedingungen der Unsicherheit liefert sie die notwendigen Konzepte und Modelle, um die Dynamik der Mensch-KI-Interaktion und die daraus resultierenden organisationalen Transformationen zu analysieren.
Der vorliegende Text ist aus fünf Teilen aufgebaut:
- Teil I legt das theoretische Fundament, indem die Grundprinzipien der Managementkybernetik, insbesondere Ashbys Gesetz der erforderlichen Vielfalt und Stafford Beers Viable System Model (VSM), erläutert werden.
- Teil II analysiert den KI-Agenten als autonomes Subsystem und arbeitet die Parallelen zwischen der Steuerung eines Agenten und den klassischen Aufgaben einer Führungskraft detailliert heraus.
- Teil III untersucht die tiefgreifenden organisatorischen Implikationen dieser Entwicklung, insbesondere die Demokratisierung von Managementfunktionen und die daraus resultierende Notwendigkeit der Selbstorganisation.
- Der Ausblick skizziert, wie sich Kooperationsstrukturen in Zukunft zu hybriden, kollektiv intelligenten Systemen entwickeln werden, in denen menschliche Führungskräfte primär die Rolle von Systemarchitekten übernehmen — Arbeit am System anstatt Arbeit im System.
- Ein Exkurs greift abschließend einige Überlegungen auf, die auf Perspektiven zu weitergehenden, negativen und paradoxen Aspekten der Mensch-KI-Interaktion hinweisen und kritisch bewertet werden sollten.
Teil I: Das Fundament — Managementkybernetische Prinzipien als Brille für die digitale Transformation
Um die tiefgreifenden Veränderungen zu verstehen, die KI-Agenten in Organisationen auslösen, ist ein robuster theoretischer Rahmen nötig, der in der Lage ist, betroffene Aspekte wie Komplexität, Kommunikation und Steuerung zu modellieren. Die Managementkybernetik, eine Disziplin, die oft als abstrakt wahrgenommen wird, erweist sich hier als das präziseste, relevanteste und bewährteste Analyseinstrument. Sie wurde exakt für die Art von Herausforderungen entwickelt, die nun durch autonome KI-Systeme im großen Stil in Unternehmen Einzug halten: die effektive Steuerung komplexer, dynamischer und nur teilweise prognostizierbarer Systeme.[2] Ein KI-Agent ist kein deterministisches, aus statischen Algorithmen konfiguriertes Programm, sondern ein solches komplexes System, dessen Verhalten durch Ziele, Daten und Feedback-Schleifen gesteuert wird.[3] Konzepte wie Rückkopplung, Varietät und Selbstorganisation sind keine neuen Phänomene der KI, sondern Kernkonzepte der Kybernetik. Sie bietet daher eine bereits existierende, wissenschaftlich fundierte Sprache und ein Set an Werkzeugen, um die Interaktion zwischen Mensch und KI sowie die daraus resultierenden Organisationsstrukturen zu analysieren und zu gestalten.
Die Kunst des Steuerns: Grundprinzipien der Managementkybernetik
Die Kybernetik, deren Begriff vom griechischen Wort kybernetes (Steuermann) abgeleitet ist, wurde von Norbert Wiener Mitte des 20. Jahrhunderts als die "Lehre von der Regulierung/Steuerung und Kommunikation im Lebewesen und in der Maschine" definiert. Ihr zentrales Anliegen ist die Frage, wie Systeme — seien sie biologischer, technischer oder sozialer Natur — ihre Stabilität wahren und ihre Ziele in einer sich verändernden Umwelt erreichen können. Die Managementkybernetik überträgt diese Prinzipien auf menschliche Organisationen wie Unternehmen, Behörden oder Vereine. Sie ist die Wissenschaft der effektiven Organisation und zielt darauf ab, die Steuerbarkeit von Systemen selbst unter Bedingungen extremer Komplexität, geringer Prognostizierbarkeit und unvollständiger Informationslage zu gewährleisten.[2]
Drei Kernkonzepte sind für das Verständnis der Interaktion mit KI-Agenten von entscheidender Bedeutung:
- Rückkopplung (Feedback): Kybernetische Systeme sind durch Regelkreise gekennzeichnet. Ein klassisches Beispiel ist der Thermostat, der die Raumtemperatur (Istwert) mit der gewünschten Temperatur (Sollwert) vergleicht und bei einer Abweichung die Heizung aktiviert oder deaktiviert, um den Sollwert wieder zu erreichen. Die Interaktion zwischen einem Nutzer und einem KI-Agenten folgt exakt diesem Muster: Der Nutzer gibt ein Ziel vor (Sollwert), der Agent liefert ein Ergebnis (Istwert), und der Nutzer bewertet dieses Ergebnis und gibt korrigierendes Feedback, um den Agenten zu einer besseren Leistung zu veranlassen. Diese Rückkopplungsschleife ist der zentrale Mechanismus der Steuerung.
- Selbstregulation und Selbstorganisation: Lebensfähige Systeme besitzen die Fähigkeit zur Selbstregulation, um einen stabilen inneren Zustand (Homöostase) aufrechtzuerhalten.[4] Selbstorganisation beschreibt die Fähigkeit eines Systems, ohne externe Anweisungen spontan Strukturen und Ordnung zu bilden. Ein KI-Agent, der ein komplexes Ziel in Teilschritte zerlegt und einen eigenen Lösungsplan entwickelt, zeigt Züge der Selbstorganisation. Auf organisationaler Ebene bedeutet dies, dass Teams, die mit autonomen Werkzeugen ausgestattet sind, ihre Arbeitsweise zunehmend selbst regulieren können.
- Ashbys Gesetz der erforderlichen Vielfalt (Law of Requisite Variety): Dieses fundamentale Gesetz der Kybernetik, formuliert von W. Ross Ashby, besagt, dass die Vielfalt eines Reglers (seine Anzahl an möglichen Zuständen oder Aktionen) mindestens so groß sein muss wie die Vielfalt der Störungen, die auf das zu regelnde System einwirken. Einfacher ausgedrückt: "Only variety can absorb variety."[2] Für das Management bedeutet dies, dass eine Führungskraft mehr Handlungs- und Entscheidungsoptionen (Varietät) haben muss als das von ihr geführte System (z. B. ein Team oder ein Prozess), um es effektiv steuern zu können. Übertragen auf die Steuerung eines KI-Agenten impliziert dieses Gesetz, dass der Nutzer (der Regler) über eine höhere Varietät an Steuerungsmöglichkeiten verfügen muss — durch präzise Anweisungen, die Auswahl von Werkzeugen, die Anpassung von Parametern –, um das komplexe und teils unvorhersehbare Verhalten des Agenten (des Systems) in die gewünschte Richtung zu lenken. Ein vager Befehl an einen mächtigen Agenten führt zu unkontrollierbaren Ergebnissen, weil die Varietät des Reglers zu gering ist.
Das Viable System Model (VSM) als Blaupause für lebensfähige Organisationen
Aufbauend auf diesen kybernetischen Prinzipien entwickelte Stafford Beer das Viable System Model (VSM), ein umfassendes Modell zur Diagnose und Gestaltung von Organisationen, die in einer dynamischen Umwelt überlebens- und anpassungsfähig bleiben sollen. Das VSM ist keine starre Blaupause, sondern ein konzeptioneller Rahmen, der auf der Architektur des menschlichen Gehirns und Nervensystems basiert und die notwendigen Funktionen und Kommunikationskanäle für die Lebensfähigkeit (viability) eines jeden autonomen Systems beschreibt.[9]
Das Modell besteht aus fünf interagierenden Subsystemen, die für die effektive Funktion einer Organisation unerlässlich sind:
- System 1 (Operations): Dies sind die primären operativen Einheiten, die die Kernfunktionen und die produktive Arbeit der Organisation ausführen. Jede System-1-Einheit (z.B. ein Team, eine Abteilung, ein Wertstrom) ist selbst ein lebensfähiges System, das für die Bereitstellung einer bestimmten Leistung oder ein Produkt verantwortlich ist und direkt mit seiner lokalen Umgebung oder Nische interagiert.
- System 2 (Coordination): Dieses System ist für die Koordination der Aktivitäten mehrerer System-1-Einheiten verantwortlich. Seine Hauptaufgabe besteht darin, Oszillationen zu dämpfen und Konflikte zwischen den operativen Einheiten zu verhindern, um eine reibungslose Koordination zu gewährleisten. Es koordiniert routinemäßige Interaktionen und den Informationsfluss zwischen den System-1-Einheiten.
- System 3 (Management; inkl. System 3* Monitoring): Dieses System überwacht und optimiert die operativen Aktivitäten der System-1-Einheiten. Es bietet eine "Inside and Now"-Perspektive, die sich auf interne Effizienz, Ressourcenallokation, den Kapazitätsbedarf und Synergiebildung konzentriert. System 3* übernimmt hierzu ein kontinuierliches Monitoring und führt Audits durch, um das Leistungsniveau zu überprüfen, Überlastungen frühzeitig zu erkennen und gezielt Verbesserungspotenziale aufzudecken.
- System 4 (Development): System 4 konzentriert sich auf das "Outside and Then" und befasst sich mit der Zukunft der Organisation und ihrer externen Umgebung. Es interpretiert externe Anforderungen, führt Marktforschung durch, überwacht neue Entwicklungen und entwickelt strategische Optionen. Seine Aufgabe ist es, die langfristige Anpassungs- und Reaktionsfähigkeit der Organisation gegenüber Umweltveränderungen zu sichern und künftige Anforderungen mit den vorhandenen Kompetenzen abzugleichen — Stichwort: Strategic Gap.
- System 5 (Governance): Dies ist die höchste Managementebene, die für die Definition der gesamten Identität, von Sinn und Zweck und der Politik der Organisation verantwortlich ist. System 5 gleicht die Anforderungen der Gegenwart (System 3) mit den Bedürfnissen der Zukunft (System 4) durch Politikformulierung ab und gewährleistet so die ultimative Viabilität und Kohärenz der Organisation.[9]
Ein entscheidendes Merkmal des VSM ist das Prinzip der Rekursion: Jedes lebensfähige System enthält lebensfähige Systeme, die wiederum lebensfähige Systeme enthalten, bis hinunter zur Ebene des Individuums. Eine Organisation ist ein lebensfähiges System, das aus Abteilungen (lebensfähige Systeme) besteht, die aus Teams (lebensfähige Systeme) bestehen. Diese fraktale, sich selbst wiederholende Struktur ist der Schlüssel zur Bewältigung von Komplexität. Sie ermöglicht maximale Autonomie auf den operativen Ebenen (System 1 — Operations), während die Kohäsion des Ganzen durch die übergeordneten Systeme sichergestellt wird. Dieses Prinzip wird für die spätere Argumentation, dass Mensch-KI-Teams als autonome, lebensfähige Einheiten agieren können, von zentraler Bedeutung sein.
Weitergehende Details zum Viable System Model, der Managementkybernetik und deren Anwendung in der Unternehmenspraxis finden Sie in meinem Buch "Liquid Leadership — Managementhandbuch für selbstorganisierte Zusammenarbeit".[9]
Teil II: Der neue Mitarbeiter — Der KI-Agent als autonomes Subsystem
Die kybernetische Perspektive liefert das Rüstzeug, um die wahre Natur der Veränderung zu erkennen: KI-Agenten sind nicht einfach nur eine Weiterentwicklung von Software-Tools. Sie repräsentieren einen qualitativen Sprung hin zu autonomen Akteuren innerhalb des organisationalen Systems. Ihre Steuerung erfordert daher nicht mehr nur Anwenderkompetenz, sondern genuine Managementfähigkeiten. Dieser Abschnitt etabliert die Kernanalogie des Artikels, indem er die funktionalen Äquivalenzen zwischen der Führung eines menschlichen Mitarbeiters und der Steuerung eines KI-Agenten detailliert aufzeigt. Dabei ist ausdrücklich zu betonen, dass Mensch und KI-Agent nicht gleichgesetzt werden.
Vom Werkzeug zum Akteur: Die Evolution von Software zu KI-Agenten
Um die Notwendigkeit eines Management-Ansatzes zu verstehen, muss zunächst der Unterschied zwischen traditioneller Software und KI-Agenten klar definiert werden. Während klassische Programme und auch einfache Chatbots nach vordefinierten Regeln operieren und auf spezifische Nutzereingaben reagieren, agieren KI-Agenten proaktiv und zielorientiert.
Ein KI-Agent ist ein System, das autonom Aufgaben im Namen eines Nutzers, Erstellers oder Autors ausführt, indem es seinen eigenen Workflow gestaltet und verfügbare Werkzeuge einsetzt. Er fungiert als digitaler "Vertreter" oder Stellvertreter des Menschen.
Seine Anatomie besteht typischerweise aus drei Kernkomponenten:
- Ein steuerndes Sprachmodell (LLM): Das LLM fungiert als "Gehirn" des Agenten. Es interpretiert das vom Nutzer formulierte Ziel, zerlegt es in logische Teilschritte und entwickelt einen Plan zur Erreichung dieses Ziels.
- Zugang zu Wissen: Der Agent kann auf interne Wissensdatenbanken und das Internet zugreifen, um Informationen zu sammeln, die für die Aufgabenerledigung notwendig sind.
- Fähigkeit zur Werkzeugnutzung (Tool Use): Dies ist der entscheidende Schritt zur Handlungsfähigkeit. Ein Agent kann autonom externe IT Tools aufrufen und nutzen, wie z. B. eine Suchmaschine für Recherchen, einen Code Interpreter für Berechnungen oder eine API (oder MCP), um Aktionen in anderen Systemen auszulösen.
Der fundamentale Unterschied liegt in der Autonomie und Zielorientierung. Der Nutzer gibt nicht mehr eine Kette von detaillierten Befehlen ein, sondern formuliert nur noch ein übergeordnetes Ziel, beispielsweise: "Führe eine umfassende Marktanalyse zu den aktuellen Trends bei Elektrofahrzeugen in Europa durch, identifiziere die drei wichtigsten Wettbewerber und erstelle eine SWOT-Analyse für jeden von ihnen." Der Agent plant daraufhin selbstständig die notwendigen Schritte — wie Internetrecherche, Datenextraktion, Analyse und Textgenerierung — und führt diese aus, bis das Ziel erreicht ist. Er wird vom passiven Befehlsempfänger zum aktiven Problemlöser.
Die Manager-Mitarbeiter-Analogie im Detail
Betrachtet man die Interaktion mit einem solchen autonomen Akteur durch die Brille der Managementtheorie, werden die Parallelen zur Führung eines menschlichen Mitarbeiters unübersehbar. Die Aufgaben des Nutzers entsprechen den Kernfunktionen des Managements.
Hinweis: Dieser Text bezieht sich auf das klassisch hierarchische Managementmodell, bei dem die Mitarbeitenden den Vorgaben ihrer Führungskräfte folgen. Managementmodelle, die aus der agilen Transformation stammen, sind hierbei explizit ausgenommen.
- Zielsetzung und Delegation (Management by Objectives): Das Prinzip des "Führens mit Zielen" besagt, dass eine Führungskraft klare Ziele vorgibt und dem Mitarbeiter die Freiheit lässt, den Weg zur Erreichung dieser Ziele selbst zu gestalten. Genau dies geschieht bei der Interaktion mit einem KI-Agenten. Der Nutzer definiert das Ziel, die Qualitätskriterien und die Randbedingungen in seinem "Briefing" — dem Prompt. Die Qualität dieser Zielvorgabe bestimmt maßgeblich die Qualität des Ergebnisses. Ein vager, unklarer Auftrag an einen Mitarbeiter führt zu schlechten Resultaten; ein unpräziser Prompt an einen KI-Agenten ebenso. Die Fähigkeit, Ziele präzise und unmissverständlich zu formulieren — das sogenannte Prompting — wird zur entscheidenden Kompetenz.
- Kompetenz- und Ressourcen-Management: Ein effektiver Manager wählt für eine Aufgabe den Mitarbeiter mit den passenden Fähigkeiten und Erfahrungen aus und stellt ihm die notwendigen Ressourcen zur Verfügung. Analog dazu muss der Nutzer eines KI-Agenten dessen Fähigkeiten und Ressourcen managen. Er muss entscheiden, welcher Agent oder welche Konfiguration für eine bestimmte Aufgabe am besten geeignet ist. Er muss dem Agenten die notwendigen Kompetenzen verleihen, indem er ihm Zugriff auf die richtigen Werkzeuge (Tools) und Wissensquellen (Datenbanken, APIs) gewährt. Die Zuweisung dieser Ressourcen ist eine klassische Managemententscheidung.
- Prozessüberwachung und Qualitätskontrolle: Trotz der Autonomie des Mitarbeiters obliegt dem Manager die Überwachung des Fortschritts und die finale Qualitätskontrolle. KI-Agenten arbeiten zwar selbstständig, doch menschliche Aufsicht bleibt unverzichtbar, um Fehler zu vermeiden und die Verantwortung zu wahren. Dieses Prinzip wird als "Human in the Loop" bezeichnet und stellt u.a. eine Anforderung des EU AI Acts dar. Der Nutzer muss die vom Agenten generierten Zwischenschritte und Endergebnisse validieren. Er muss sie auf sachliche Korrektheit, logische Konsistenz und das Fehlen von KI-typischen Fehlern wie "Halluzinationen" (das Erfinden von Fakten) prüfen. Diese Kontrollfunktion ist eine der zentralsten Aufgaben einer jeden Führungskraft.
- Onboarding und Training: Ein neuer Mitarbeitender muss eingearbeitet werden, um die spezifischen Anforderungen seiner Rolle und die Kultur des Unternehmens zu verstehen. In ähnlicher Weise müssen auch KI-Agenten für spezifische Aufgaben "eingearbeitet" werden. Dies geschieht nicht durch Programmierung, sondern durch die Bereitstellung von Kontext, relevanten Beispielen, Stilrichtlinien und vor allem durch iteratives Feedback. Der Nutzer agiert hier als Trainer, der die Leistung des Agenten durch gezielte Rückmeldungen kontinuierlich verbessert.
- Haftungsfrage — Konsequenzen bei Fehlern und Fehlverhalten: Eine wesentliche Ausnahme oder ein kritischer Sonderfall ist die Frage der Haftung im Schadensfall oder bei Fehlverhalten der Mitarbeitenden. Die rechtlichen Vorgaben, beispielsweise in Deutschland, regeln sehr umfassend, welche Aspekte in die Haftungsverantwortung des Arbeitgebers und welche in die des Arbeitnehmers fallen. Da ein KI-Agent in keine der beiden Kategorien fällt, verbleibt die Verantwortung für etwaige Fehler und daraus resultierende Schäden bei dem anwendenden Mitarbeitenden oder der zuständigen Führungskraft. Wer für KI haftet, ist ein eigenes juristisches Gebiet, auf das hier nicht tiefer eingegangen werden kann. Im Kontext der Nutzung von KI-Agenten sind regulatorische Fragen und ebenso ethische Aspekte der KI-Nutzung konsequent zu prüfen und zu beachten. Beispielsweise sind die rechtlichen Vorgaben der DSGVO und des EU AI Acts in Deutschland bzw. Europa maßgeblich zu beachten.
Die Effektivität eines Managers hängt entscheidend von seiner Fähigkeit ab, Aufgaben klar, unmissverständlich und mit ausreichendem Kontext zu delegieren. Ein KI-Agent, insbesondere ein generativer, ist ein System, das auf Basis von Wahrscheinlichkeiten operiert und dessen Output direkt von der Qualität des Inputs abhängt. Die Disziplin des "Prompt Engineering" — die "Kunst", Anweisungen an eine KI so zu formulieren, dass das gewünschte Ergebnis mit hoher Wahrscheinlichkeit erzielt wird — ist daher keine rein technische Fähigkeit mehr. Sie ist die "Reinkarnation" der Management-Fähigkeit zur präzisen Delegation. Ein guter Prompt definiert das Ziel, legt Randbedingungen fest, liefert Kontext und gibt das gewünschte Format vor — exakt die gleichen Elemente wie bei einem professionellen Arbeitsauftrag an einen Menschen. Wer gut "prompten" kann, kann gut delegieren und steuern.
Die folgende Tabelle fasst diese Parallelen systematisch zusammen:
Management-Aufgabe | Manager-Mitarbeiter-Interaktion | Nutzer-KI-Agent-Interaktion |
Zieldefinition | Festlegung von Zielen, KPIs und erwarteten Ergebnissen in einem Mitarbeitergespräch. | Formulierung eines klaren, präzisen Ziels und der Erfolgskriterien in einem Prompt. |
Ressourcen-Zuweisung | Bereitstellung von Budget, Werkzeugen, Informationen und Zeit für die Aufgabenerfüllung. | Gewährung von Zugriff auf APIs (z. B. MCP), Datenbanken, Dateisysteme, ausgewählte Dateien (RAG) und Rechenleistung. |
Qualitätskontrolle | Überprüfung der Arbeitsergebnisse auf Konformität mit bestehenden Qualitätsstandards und Zielen. | Validierung des Outputs auf Korrektheit, Relevanz und das Fehlen von "Halluzinationen"; "Human-in-the-Loop"-Prüfung. |
Onboarding & Training | Einarbeitung neuer Mitarbeiter in Prozesse, Kultur und spezifische Aufgaben. | Einarbeitung des Agenten durch Bereitstellung von Kontext, Beispielen und Richtlinien; agiert als "Trainer". |
Tabelle1: Parallelen zwischen klassischem Management und KI-Agenten-Management
Teil III: Die organisatorische Implikation — Management als kollektive Fähigkeit
Die Erkenntnis, dass jeder Nutzer eines KI-Agenten zu dessen Manager wird, hat weitreichende Konsequenzen, die über die individuelle Arbeitsebene hinausgehen. Sie löst eine Kaskade von Veränderungen aus, die die Struktur, Kultur und das Wesen von Management in Organisationen fundamental transformieren. Wenn Steuerung und Kontrolle dezentralisiert werden, verlagert sich Management von einer exklusiven Position, die in der Hierarchie verankert ist, zu einem verteilten Prozess, der von allen Mitgliedern der Organisation getragen wird. Dies macht die Prinzipien der Selbstorganisation nicht mehr zu einer optionalen Kulturfrage, sondern zu einer betrieblichen Notwendigkeit.
Die Demokratisierung des Managements: Jeder wird zum Manager
Die digitale Nutzung von KI-Agenten ist keine triviale Aufgabe. Sie erfordert eine neue Bündelung von Kompetenzen, die traditionell dem Management zugeschrieben wurden. Diese "AI Management-Kompetenzen" müssen nun von jedem Wissensarbeiter entwickelt werden. Der EU AI-Act antizipiert diese Entwicklung, indem er von Unternehmen explizit den Aufbau von "KI-Kompetenz" bei ihren Mitarbeitern fordert. Diese umfasst nicht nur die technische Bedienung, sondern vor allem die Fähigkeit, Chancen und Risiken zu erkennen und auf dieser Basis verantwortungsvolle Entscheidungen zu treffen.[5] Zu diesen neuen Kernkompetenzen gehören:
- Strategisches Denken: Mitarbeiter müssen ihre Fähigkeiten erweitern, über ihre unmittelbaren Aufgaben hinauszudenken und zu identifizieren, wo und wie KI-Agenten eingesetzt werden können, um Prozesse zu überarbeiten und neue Wertschöpfungspotenziale zu erschließen.
- Risikomanagement: Jeder Nutzer wird zum Risikomanager. Er muss die Grenzen der KI verstehen, die Ergebnisse kritisch auf Bias, Ungenauigkeiten und Falschinformationen hinterfragen und die Verantwortung für das Ergebnis übernehmen, als wäre es ohne KI erstellt worden. Dies erfordert ein hohes Maß an Urteilsvermögen, kritischem und analytischem Denken sowie Datenkompetenz.
- Ressourcenmanagement: Die Auswahl des richtigen KI-Tools für die richtige Aufgabe, die Konfiguration der benötigten Fähigkeiten und die Bereitstellung der notwendigen Daten ist eine Ressourceneffizienz-Entscheidung, die früher oft von Vorgesetzten oder IT-Abteilungen getroffen wurde.
- Ethisches Urteilsvermögen: Da KI-Agenten mit sensiblen Daten operieren und ihre Ergebnisse weitreichende Folgen haben können, muss jeder Autor von KI-Agenten oder Nutzer ein Bewusstsein für ethische Implikationen, Datenschutz und Fairness entwickeln und im Einklang mit den Unternehmensrichtlinien handeln.
Diese Verlagerung von Managementaufgaben auf die operative Ebene in Unternehmen führt zwangsläufig zu einer Transformation der klassischen Führungskraft. Wenn Mitarbeitende ihre eigenen "digitalen Assistenten" managen, verliert das Mikromanagement an Bedeutung und wird sogar kontraproduktiv. Die Rolle der menschlichen Führungskraft verschiebt sich vom Anweiser und Kontrolleur zum Architekten und Coach, da die Arbeitsweise an Relevanz verliert und die Ergebnisqualität im Vordergrund steht.
Ihre neuen Hauptaufgaben sind nunmehr:
- Sinnstiftung und Kontextgebung: Anstatt einzelne Aufgaben zu delegieren, definieren Führungskräfte den strategischen Rahmen, die übergeordneten Ziele und die ethischen Leitplanken, innerhalb derer die hybriden Mensch-KI-Teams autonom operieren können. Sie werden zu Sinnstiftenden und zur Orientierungskraft.[9]
- Befähigung und Kompetenzentwicklung (Enablement): Eine zentrale Führungsaufgabe wird es, die Mitarbeiter zu befähigen, ihre neuen Managementaufgaben effektiv wahrzunehmen. Dies beinhaltet die Organisation von Schulungen zur Förderung der AI Literacy und die Schaffung einer Kultur des Experimentierens und kontinuierlichen Lernens.[5] Um ein entsprechendes Arbeitsumfeld zu schaffen, treten die Aspekte der psychologischen Sicherheit noch stärker in den Vordergrund.[9]
- Orchestrierung hybrider Teams: Führungskräfte managen nicht mehr nur Menschen, sondern die Dynamik und die Schnittstellen in hybriden Teams. Sie fördern eine effektive Zusammenarbeit zwischen menschlichen Kollegen und digitalen Assistenten und intervenieren bei komplexen Problemen, die die Kompetenz eines einzelnen hybriden Teams übersteigen.
Selbstorganisation als kybernetische Notwendigkeit im KI-Zeitalter
Die Dezentralisierung der Managementfunktion ist nicht nur ein organisatorischer Wandel, sondern eine kybernetische Notwendigkeit. Traditionelle Hierarchien bündeln Steuerungs- und Entscheidungsgewalt bei Managern. KI-Agenten verteilen die Werkzeuge zur autonomen Aufgabenerledigung und damit die Notwendigkeit zur Steuerung an jeden einzelnen Mitarbeiter.[1] Ein zentraler Manager kann unmöglich die Tausenden von täglichen Interaktionen zwischen Mitarbeitern und ihren KI-Agenten mikromanagen. Ein solcher Versuch würde zwangsläufig an Ashbys Gesetz der erforderlichen Vielfalt scheitern: Die Komplexität und Vielfalt der dezentralen Interaktionen übersteigt die Steuerungs- und Verarbeitungskapazität (die Varietät) jeder zentralen Instanz bei weitem.
Die einzig logische und funktionale Konsequenz zur Bewältigung dieser Komplexität ist die Dezentralisierung der Steuerung. Die Steuerung muss dorthin verlagert werden, wo die Arbeit erledigt wird und die Informationen anfallen: zum einzelnen Nutzer und seinem Team. Diese dezentrale Steuerung ist die operative Definition von Selbstorganisation. Teams und Individuen regulieren sich und ihre (digitalen) Ressourcen selbst, um ein übergeordnetes, von der Führung vorgegebenes Ziel zu erreichen.
Ein Rückbezug auf das eingangs kurz eingeführte Viable System Model verdeutlicht diese Dynamik:
Die mit KI-Agenten ausgestatteten Mitarbeiter und Teams agieren als hochgradig autonome und anpassungsfähige "System 1"-Einheiten. Sie besitzen die interne Fähigkeit, ihre Aufgaben zu managen, auf unvorhergesehene Ereignisse zu reagieren und ihre Prozesse zu optimieren, ohne auf ständige Anweisungen von "oben" (System 3) warten zu müssen. Diese erhöhte Autonomie auf der operativen Ebene steigert die Agilität, Resilienz und Lerngeschwindigkeit der gesamten Organisation.
In einem solchen Modell wird Management zu einer emergenten bzw. integrierten Eigenschaft des Systems. Es ist keine Funktion mehr, die einer bestimmten Personengruppe vorbehalten ist, sondern eine Fähigkeit, die im gesamten Netzwerk der Organisation verteilt ist. Die "kollektive Intelligenz" der Organisation entsteht aus der effektiven Interaktion und Selbstregulation dieser vielen dezentralen Management-Knoten. Die Fähigkeit einer Organisation, diese kollektive Managementkompetenz zu entwickeln und zu kultivieren, wird somit zum entscheidenden Wettbewerbsfaktor im Zeitalter der KI.[9] Der Wandel zur Selbstorganisation ist daher keine ideologische Entscheidung mehr, wie sie oft im Kontext von "New Work" diskutiert wird, sondern eine direkte und unausweichliche Konsequenz der Technologie. Unternehmen, die an starren, zentralisierten Steuerungsmodellen festhalten, werden an der durch KI erzeugten Komplexität scheitern.
Ausblick: Die Zukunft der Kooperation in hybriden Mensch-KI-Organisationen
Die beschriebene Transformation von der individuellen Interaktion bis hin zur organisationalen Struktur mündet in einer Neudefinition von Arbeit und Zusammenarbeit. Die Integration von KI-Agenten ist nicht nur ein weiterer Schritt der Automatisierung, sondern der Beginn einer Ära, in der Organisationen selbst zu intelligenten, lernenden Systemen werden. Die Zukunft der Arbeit wird in hybriden Strukturen gestaltet, in denen die Symbiose von menschlicher und künstlicher Intelligenz zur Norm wird.
Die zukünftige Wertschöpfung wird primär in hybriden Mensch-KI-Teams stattfinden. In diesen Teams agieren KI-Agenten nicht mehr nur als Werkzeuge, sondern als eingebettete "digitale Kollegen". Diese Zusammenarbeit geht über eine reine Augmentation (Erweiterung menschlicher Fähigkeiten) hinaus und entwickelt sich zu einer echten Kollaboration. Dabei werden die komplementären Stärken beider Seiten systematisch genutzt: menschliche Fähigkeiten wie Kreativität, kritisches und strategisches Denken, ethisches Urteilsvermögen und Empathie werden mit der Geschwindigkeit, Skalierbarkeit, Mustererkennung und unermüdlichen Analysefähigkeit der KI kombiniert. Fallstudien aus Bereichen wie der medizinischen Diagnostik[7] oder der Softwareentwicklung[8] zeigen bereits heute, dass solche hybriden Teams sowohl menschlichen Experten als auch reinen KI-Lösungen überlegen sind.
Diese neue Form der Zusammenarbeit wird zu fluiden Kooperationsstrukturen führen. Starre Abteilungsgrenzen und fest definierte Hierarchien verlieren an Bedeutung und werden durch dynamische, projektbasierte Netzwerke ersetzt. Innerhalb dieser als "Hybrid Minds" bezeichneten Teams können KI-Agenten flexibel verschiedene Rollen einnehmen, die an die jeweilige Aufgabenstellung angepasst sind.
Basierend auf Vorschlägen von Siemon (2022)[6] können Agenten als Koordinator agieren, der die Teamarbeit organisiert, als Perfektionist, der hochspezialisierte Aufgaben wie komplexe Datenanalysen durchführt, oder als Macher, der Ideen umsetzt und die Erledigung von Aufgaben vorantreibt.[7] Die Zusammensetzung dieser Teams wird sich je nach Projektphase und Anforderung dynamisch und selbstorganisierend ändern.
Letztlich führt dieser Prozess zur "Kybernetisierung" der Organisation selbst. Eine Organisation, die KI auf diese Weise tief in ihre Prozesse integriert, entwickelt die Eigenschaften eines lernenden, kybernetischen Systems. Die unzähligen dezentralen Regelkreise, die aus den täglichen Nutzer-Agent-Interaktionen entstehen, erzeugen einen kontinuierlichen Strom an Metadaten darüber, wie Arbeit tatsächlich erledigt wird. Fortgeschrittene KI-Systeme können diese Daten analysieren, um organisationale Engpässe, Ineffizienzen und Optimierungspotenziale in Echtzeit zu identifizieren. Dies ermöglicht es der Organisation, ihre eigene Struktur, ihre Kommunikationskanäle (System 2 im VSM) und ihre internen Regeln (System 3) datengestützt und dynamisch anzupassen. Die Organisation hört auf, eine statische Struktur zu sein, die alle paar Jahre in aufwendigen Restrukturierungsprojekten neu konfiguriert wird. Stattdessen wird sie zu einer Form eines adaptiven, sich selbst optimierenden Organismus, der kontinuierlich aus seiner Umwelt und seinen eigenen Operationen lernt. Sie realisiert damit die Ideale eines lebensfähigen Systems nach Stafford Beer: Sie kann Informationen aufnehmen, diese verwerten, sich an ihre Umgebung anpassen und dabei ihre übergeordnete Identität und ihre Ziele bewahren.
In diesem Szenario erfährt die Rolle der menschlichen Führung ihre finale Transformation. Die ultimative Aufgabe der Führungskraft ist nicht mehr die direkte Steuerung von Menschen oder Prozessen, sondern die des System-Architekten und Kultivators. Ihre Verantwortung liegt in der Gestaltung und Pflege des organisationalen Systems — der Kommunikationskanäle, der Entscheidungsregeln, der technologischen Infrastruktur, der Kultur und der ethischen Leitplanken—, innerhalb dessen diese kollektive, hybride Intelligenz entstehen und gedeihen kann. Führung wird zur Kunst, die Rahmenbedingungen für eine effektive Selbstorganisation zu schaffen. Die Frage ist daher keinesfalls, ob KI Führung übernimmt. Die Frage ist, wie Führungskräfte die Zukunft so gestalten, dass Mensch und Maschine gemeinsam ihr volles Potenzial entfalten.
Exkurs: Die Schattenseiten — Kognitive Regression und Selbstentmündigung
Die Vision einer durch KI-Agenten erweiterten und effizienteren Arbeitswelt ist verlockend, doch sie birgt auch erhebliche Risiken für die menschliche Psyche und kognitiven Fähigkeiten. Die nahtlose Integration autonomer Systeme in den Arbeitsalltag kann, wenn sie unreflektiert geschieht, zu einer schleichenden, aber tiefgreifenden Abhängigkeit führen. Diese Entwicklung manifestiert sich in zwei zentralen Gefahren: der kognitiven Regression durch den Abbau von Fähigkeiten ("Deskilling") und einer Form der Selbstentmündigung, die dem psychologischen Phänomen der "erlernten Hilflosigkeit" ähnelt.
Kognitive Regression: Der "Use it or lose it"-Effekt im KI-Zeitalter
Das Phänomen des "Deskilling", also des Kompetenzverlusts durch technologische Automatisierung, ist nicht neu und wurde bereits während der industriellen Revolution beobachtet. Die aktuelle KI-Revolution unterscheidet sich jedoch fundamental, da sie nicht primär manuelle, sondern kognitive und kreative Fähigkeiten ersetzt. Grundlegende Fertigkeiten wie kritisches Denken, statistische Analyse oder das Verfassen komplexer Texte erfordern ständige Übung. Werden diese Aufgaben dauerhaft an KI-Systeme delegiert, droht ein Verkümmern dieser Fähigkeiten nach dem Prinzip "Use it or lose it".
Psychologen bezeichnen die menschliche Neigung, anspruchsvolle Denkprozesse zu vermeiden und an Werkzeuge auszulagern, als "kognitives Offloading". Während dies kurzfristig effizient erscheint, kann es langfristig zu einem Verfall kognitiver Fähigkeiten führen. Ein bekanntes Beispiel ist der "Google Maps"-Effekt": Wer sich blind auf Navigationssysteme verlässt, verliert die Fähigkeit, sich selbstständig zu orientieren. Dieser Effekt wurde bereits in kritischen Berufsfeldern nachgewiesen. Eine Studie mit Ärzten zeigte, dass deren diagnostische Fähigkeiten bei der Durchführung von Koloskopien ohne KI-Unterstützung nachließen, nachdem sie sich über Monate hinweg regelmäßig auf ein KI-System verlassen hatten. Die Forscher führten dies auf eine geringere Motivation und Konzentration sowie eine geschwächte visuelle Mustererkennung zurück. Ähnliche Beobachtungen wurden bei Studierenden gemacht, die durch die ständige Nutzung von ChatGPT ein schwächeres Erinnerungsvermögen und geringere Originalität zeigten. Die Bequemlichkeit der KI wird so zur "Abkürzung, die mehr als nur Zeit kostet" und mentale Passivität fördert.
Selbstentmündigung und erlernte Hilflosigkeit
Eng mit dem Kompetenzverlust verbunden ist die Gefahr der Selbstentmündigung. Das psychologische Konzept der "erlernten Hilflosigkeit" beschreibt einen Zustand, in dem ein Individuum nach wiederholten negativen Erfahrungen die Überzeugung entwickelt, keine Kontrolle mehr über Ereignisse und deren Ausgänge zu haben. Dies führt zu Passivität, Abhängigkeit und dem Unvermögen, eigenständig Probleme zu lösen.
Übertragen auf die Mensch-KI-Interaktion entsteht eine ähnliche Dynamik: Wenn ein KI-Agent wiederholt schnellere und scheinbar bessere Lösungen liefert, kann der Nutzer die Motivation verlieren, eigene Lösungswege zu entwickeln. Die ständige Delegation von Entscheidungen an die Maschine untergräbt das Vertrauen in die eigenen Fähigkeiten und die Selbstwirksamkeitserwartung. Der Mensch wird vom aktiven Gestalter zum passiven Überwacher und Abnehmer von KI-generierten Ergebnissen. Diese Entwicklung wird durch die "Blackbox"-Natur vieler KI-Systeme verstärkt, bei der die Entscheidungsprozesse des Agenten für den Nutzer intransparent bleiben. Dies erschwert eine kritische Auseinandersetzung und fördert blindes Vertrauen.
Darüber hinaus kann die reibungslose und konfliktfreie Interaktion mit KI-Agenten zu einer Verkümmerung sozialer und emotionaler Fähigkeiten führen. Menschliche Beziehungen sind oft "unordentlich", aber genau diese Auseinandersetzungen fördern Resilienz, Empathie und Einflussnahme — Fähigkeiten, die in einer rein KI-vermittelten Kommunikation nicht trainiert werden. Die natürliche Neigung des Menschen, KI-Systeme zu vermenschlichen, kann zudem zu übermäßigem Vertrauen, Abhängigkeit und einer erhöhten Anfälligkeit für Manipulation führen.
Dem Zustand der Selbstentmündigung kann man sich allerdings auch konstruktiv nähern, wie das Prof. Dr. Ziad Mahayni in seinem Podcast "Auf der Kippe" getan hat. In der Folge #33 "Was sind KI-Agenten, und warum ist Selbstentmündigungskompetenz ein Key Skill im KI-Zeitalter?"[10] wird die Selbstentmündigungskompetenz als zentrale Fähigkeit im Umgang mit KI-Agenten thematisiert.
Der Begriff entsteht im Kontext der Frage, wo die Grenze zwischen Entlastung durch Künstliche Intelligenz (KI) und Entmündigung durch KI verläuft. Mahayni erörtert, was Menschen eigentlich noch selbst tun sollten und warum. Die Folge behandelt dabei auch die Frage, ob Lernen in diesem Zusammenhang noch wichtig ist.
Die Antwort auf diese Herausforderungen liegt nicht in der Ablehnung der Technologie, sondern in der bewussten Gestaltung der Mensch-KI-Interaktion. Es bedarf einer Stärkung der "Critical AI Literacy", also der Fähigkeit, KI-generierte Ergebnisse kritisch zu hinterfragen und die Grenzen der Technologie zu verstehen. Unternehmen und Führungskräfte tragen die Verantwortung, eine Kultur zu schaffen, die menschliche Expertise nicht nur bewahrt, sondern aktiv fördert und den Einsatz von KI als Werkzeug zur Augmentation begreift — nicht als Ersatz für menschliches Denken und Entscheiden.
Auf den IT-Tagen im Dezember hält Andreas Slogar einen Vortrag zum Thema:
Hyperautomatisierung durch KI – Die Entwicklung unserer technologischen und ökonomischen Realität
Die Konferenz findet vom 08. - 11.12.2025 in Frankfurt statt.
- KI-Agenten vs. KI-Assistenten — IBM.com | 20.2.2025
- Managementkybernetik — Wikipedia, 19.6.2025 (Abruf)
- Was sind AI Agents? — IBM.com | 3.7.2024
- Kybernetik — Wikipedia, 21.6.2025 (Abruf)
- Verpflichtung im AI-Act: KI-Kompetenz im Unternehmen — IHK Köln | Nr. 6438472 | 2025
- Elaborating Team Roles for Artificial Intelligence-based Teammates in Human-AI Collaboration | Dominik Siemon | 2022
- Mensch-KI-Kollektive stellen die besseren medizinischen Diagnosen • DGP — DeutschesGesundheitsPortal | 20.6.2025
- KI in der Softwareentwicklung: Auswirkungen, Risiken und Trends — Brainhub.eu | 20.6.2025 (Abruf)
- Liquid Leadership — Managementhandbuch für selbstorganisierte Zusammenarbeit | Andreas Slogar | Schäffer-Poeschel | 2024
- Podcast "Auf der Kippe — Philosophie für das digitale Zeitalter", Prof. Dr. Ziad Mahayni, Folge 33 "Was sind KI-Agenten, und warum ist Selbstentmündigungskompetenz ein Key Skill im KI-Zeitalter?" | 7.7.2025