Über unsMediaKontaktImpressum
Sven-Torben Janus 22. April 2026

Softwarequalität neu denken: Architektur im Zeitalter von KI

Qualitätseigenschaften, Architektur-Reviews und System-Governance in KI-vermittelten Entwicklungsprozessen

Qualitätseigenschaften wie Lesbarkeit, Modularität oder strukturelle Klarheit gelten gemeinhin als universelle Merkmale gut entworfener Softwaresysteme. In der Praxis sind viele dieser Eigenschaften jedoch als Anpassungen an menschliche kognitive Grenzen entstanden - in Entwicklungsumgebungen, in denen Menschen die primären Autoren, Leser und Veränderer von Code waren. Mit der zunehmenden Beteiligung künstlicher Intelligenz (KI) an der Erstellung, Transformation und Erklärung von Software geraten die zugrunde liegenden Annahmen dieser Qualitätseigenschaften ins Wanken.

Der Artikel unterscheidet zwischen anthropozentrischen Qualitätseigenschaften, die primär der menschlichen Verständlichkeit dienen, und systemischen Invarianten, die das Verhalten eines Systems unabhängig vom Implementierungsstil definieren. Er argumentiert, dass KI die historische Rolle von Code-Struktur als Stellvertreter für Systemqualität schwächt und architektonische Praxis  von Artefakt-Inspektion hin zu expliziter Governance verschiebt - und damit Verständlichkeit als primäres architektonisches Anliegen durch Beherrschbarkeit ersetzt.

Einleitung

Architekturdiskussionen in der Softwareentwicklung kreisen seit jeher um Qualität. Architektonische Entscheidungen werden regelmäßig mit Eigenschaften wie Wartbarkeit, Lesbarkeit, Modularität oder Klarheit begründet. Architektur-Reviews behandeln diese Merkmale oft als selbstverständliche Indikatoren für gutes Design. In der Praxis fungieren sie zugleich als Bewertungskriterien und als Koordinationsmechanismen zwischen Teams.

Warum diese Eigenschaften eine derart zentrale Rolle eingenommen haben, wird dabei jedoch selten hinterfragt. Qualitätseigenschaften werden häufig so diskutiert, als seien sie inhärente Merkmale von Softwaresystemen - weitgehend unabhängig von den Bedingungen, unter denen Software entwickelt und weiterentwickelt wird. Diese implizite Annahme hat sich über Jahrzehnte technologischen Wandels als bemerkenswert stabil erwiesen.

Künstliche Intelligenz stellt diese Stabilität infrage. Wenn KI-Systeme zunehmend an der Erstellung, Veränderung und Erklärung von Softwareartefakten beteiligt sind, verlieren lang etablierte Annahmen darüber, wie Qualität entsteht und beurteilt wird, an Verlässlichkeit. Das bedeutet nicht, dass Qualität an Bedeutung verliert. Es bedeutet jedoch, dass die Begründung vieler Qualitätseigenschaften neu betrachtet werden muss. Dieser Wandel vollzieht sich graduell und ungleichmäßig. Er betrifft unterschiedliche Kontexte, Teamgrößen und Reifegrade der KI-Integration in sehr unterschiedlichem Maß. Er ist dennoch strukturell, nicht vorübergehend.

Dieser Artikel schlägt eine Neubewertung von Softwarequalität vor, die zwischen Eigenschaften unterscheidet, die primär der menschlichen Kognition dienen, und solchen, die das Systemverhalten unabhängig vom Implementierungsstil definieren. Auf dieser Grundlage wird untersucht, wie sich Architektur-Reviews und Governance-Praktiken in einem KI-vermittelten Entwicklungsprozess verändern müssen.

Qualitätseigenschaften als kontextabhängige Anpassungen

Die meisten heute allgemein akzeptierten Qualitätseigenschaften sind weder aus formalen Berechnungstheorien noch aus abstrakten Designprinzipien hervorgegangen. Sie sind aus Erfahrung entstanden - genauer gesagt aus der Erfahrung von Menschen, die versucht haben, Systeme zu bauen und zu betreiben, deren Komplexität das individuell Begreifbare überstieg.

Lesbarkeit, konsistente Struktur, explizite Trennung von Verantwortlichkeiten und disziplinierte Namenskonventionen reduzieren kognitive Last. Sie ermöglichen es Entwicklerinnen und Entwicklern, sich in fremdem Code zu orientieren, Änderungen zu verstehen und unter Zeitdruck mit anderen zu koordinieren. Code-Duplizierung ist nicht deshalb problematisch, weil sie eine theoretische Eigenschaft von Software verletzt, sondern weil Menschen über längere Zeiträume hinweg nur schwer zuverlässig über mehrere Kopien ähnlicher Logik hinweg denken können.

Diese Eigenschaften waren Antworten auf eine konkrete Einschränkung: menschliche kognitive Begrenztheit. Sie halfen Teams, mit Skalierung, Fluktuation und langen Systemlebenszyklen umzugehen. In diesem Sinne waren Qualitätseigenschaften keine universellen Wahrheiten, sondern kontextabhängige Anpassungen.

Solange Menschen die ausschließlichen oder dominanten Akteure der Softwareentwicklung waren, waren diese Anpassungen unverzichtbar. Wenn sich diese Bedingung ändert, muss auch ihre Rolle neu bewertet werden.

Anthropozentrische Qualitätseigenschaften

Um diese Unterscheidung explizit zu machen, ist es hilfreich, den Begriff der anthropozentrischen Qualitätseigenschaften einzuführen.

Anthropozentrische Qualitätseigenschaften sind solche, deren primärer Zweck darin besteht, menschliche Kognition, Kommunikation und Koordination während Entwicklung und Wartung zu unterstützen. Sie schränken das Systemverhalten nicht direkt ein, sondern machen Systeme für menschliches Denken handhabbar.

Dazu zählen Lesbarkeit, stilistische Konsistenz, explizite strukturelle Symmetrien, idiomatische Nutzung von Mustern sowie geringe Duplizierung als Schutz vor menschlichen Fehlern. Diese Eigenschaften haben sich in menschenzentrierten Entwicklungsprozessen als unverzichtbar erwiesen und bleiben überall dort wertvoll, wo Menschen weiterhin direkt an der Implementierung beteiligt sind. Einige Eigenschaften - Modularität ist das deutlichste Beispiel - lassen sich nicht eindeutig einer Kategorie zuordnen. Sie dienen sowohl der menschlichen Orientierung als auch der technischen Entkopplung. Solche Doppelrollen erfordern im Einzelfall eine explizite Einordnung.

Anthropozentrische Qualitätseigenschaften sind jedoch nicht invariant. Ihre Bedeutung hängt davon ab, in welchem Maß Menschen die Implementierung im Detail verstehen müssen, um sie sicher verändern zu können. Sie als universelle Eigenschaften zu behandeln, verdeckt diese Abhängigkeit.

Künstliche Intelligenz macht diese Abhängigkeit sichtbar.

KI als Veränderung der Entwicklungsumgebung

KI verändert die Entwicklungsumgebung nicht, indem sie Qualitätsfragen eliminiert, sondern indem sie die Bedingungen verschiebt, unter denen diese Fragen entstehen. KI-Systeme können große Codebasen analysieren, transformieren und regenerieren, ohne auf die visuellen und strukturellen Hinweise angewiesen zu sein, die Menschen benötigen. Sie können große Kontexte ermüdungsfrei verarbeiten und Erklärungen unabhängig von der konkreten Code-Organisation liefern.

Damit ist detailliertes menschliches Verständnis der Implementierung nicht mehr in jedem Fall Voraussetzung für Veränderung. In vielen Situationen wird Veränderung durch KI-Systeme vermittelt, die auf Repräsentationen operieren, die für Menschen schwer oder ineffizient direkt nachvollziehbar wären.

Dies schwächt die historische Notwendigkeit bestimmter anthropozentrischer Qualitätseigenschaften. Eigenschaften, die früher sichere Veränderung ermöglichten, fungieren zunehmend als Optimierungen für menschliche Zusammenarbeit - nicht mehr als zwingende Voraussetzungen für Evolution.

Wichtig ist: Diese Veränderung ist weder abrupt noch gleichmäßig. Menschliche Beteiligung verschwindet nicht, sie verschiebt sich. Architektonische Praxis muss daher unterschiedliche Grade menschlich-KI-vermittelter Entwicklung berücksichtigen, anstatt von einem stabilen, einheitlichen Entwicklungsmodell auszugehen.

Architektonische Repräsentationen und historische Parallelen

Die Trennung von Implementierung und Kommunikation ist keine neue Idee. Architektur als Disziplin entstand gerade deshalb, weil Code allein nicht ausreichte, um Systemintentionen, Einschränkungen und Abwägungen auszudrücken. Architekturdarstellungen, Sichten, Modelle und Entscheidungsdokumente waren Versuche, Bedeutung jenseits des Implementierungsartefakts zu externalisieren.

Historisch litten diese Repräsentationen unter strukturellen Schwächen. Sie waren teuer in der Pflege, divergierten leicht vom Code und waren selten ausführbar oder erzwingbar. Entsprechend dienten sie primär der Erklärung, nicht der Steuerung. Der Code blieb die letztgültige Wahrheit.

KI verändert die Wirtschaftlichkeit dieser Trennung. Übersetzungen zwischen Repräsentationen werden günstig, kontinuierlich und automatisierbar. Erklärungen lassen sich bei Bedarf erzeugen, Konsistenz kann maschinell überwacht werden. Das ist kein neues architektonisches Konzept, verändert aber die operative Relevanz lang etablierter Praktiken.

In der Folge können architektonische Repräsentationen wieder Autorität gewinnen - nicht, indem sie Code ersetzen, sondern indem sie ihn regieren.

Trainingsdaten und Pfadabhängigkeit

Ein häufiges Gegenargument lautet, dass heutige KI-Systeme auf großen Mengen von menschenlesbarem, von Menschen geschriebenem Code trainiert wurden. Das ist korrekt – bedeutet aber nicht, dass anthropozentrische Qualitätseigenschaften strukturell notwendig bleiben.

Trainingsdaten spiegeln historische Produktionsbedingungen wider. Modelle lernen Muster, die mit früherem Erfolg korrelierten, nicht die kognitiven Einschränkungen, die diese Muster einst rechtfertigten. Sobald KI zuverlässig zwischen Repräsentationen übersetzen kann, verliert die Anforderung, dass Produktionscode selbst menschenlesbar sein muss, an Zwangsläufigkeit.  

Menschenlesbarer Code wird damit zu einer Repräsentation unter mehreren. Er bleibt wichtig für Kommunikation und Kontrolle, aber nicht mehr identisch mit der operativen Wahrheit des Systems.

Lernen aus der Vergangenheit bedeutet nicht, an sie gebunden zu bleiben.

Systemische Invarianten

Nicht alle Qualitätseigenschaften sind anthropozentrisch. Einige beschreiben Eigenschaften, die Systeme unabhängig davon erfüllen müssen, wer (oder was) sie implementiert.

Performance, Skalierbarkeit, Verfügbarkeit, Sicherheit, Safety und Compliance sind systemische Invarianten. Sie definieren akzeptables Systemverhalten unter bestimmten Bedingungen. Diese Eigenschaften sind keine Stilfragen, sondern Einschränkungen mit realen Konsequenzen.

In KI-vermittelten Entwicklungsprozessen verlieren systemische Invarianten nicht an Bedeutung. In vielen Kontexten gewinnen sie sogar an Gewicht, da Systeme schneller und autonomer evolvieren. Was sich ändert, ist die Art und Weise, wie Vertrauen in diese Invarianten hergestellt wird.

Historisch wurden systemische Eigenschaften oft indirekt aus der Code-Struktur abgeleitet.
Wenn diese Ableitung an Zuverlässigkeit verliert, werden explizite Verifikations- und Durchsetzungsmechanismen unerlässlich.

Architektur-Reviews jenseits der Artefakt-Inspektion

Architektur-Reviews waren traditionell stark auf Artefakt-Inspektion ausgerichtet. Struktur, Schichtung, Abhängigkeitsrichtungen und Muster wurden bewertet, um Eigenschaften wie Wartbarkeit oder Evolvierbarkeit abzuleiten. Diese Praxis funktionierte, solange Code-Struktur zuverlässig mit Systemverhalten und zukünftiger Änderbarkeit korrelierte. 

Mit der Abschwächung dieser Korrelation reicht Artefakt-Inspektion allein nicht mehr aus. Architektur-Reviews müssen sich stärker auf Governance konzentrieren: auf die explizite Definition und Durchsetzung von Regeln, die das Systemverhalten begrenzen.

Dazu gehört die Bewertung nichtfunktionaler Anforderungen, die Erkennung von Regelverletzungen sowie die Beobachtbarkeit von Systemverhalten unter normalen und außergewöhnlichen Bedingungen. Der Fokus verschiebt sich von ästhetischem Urteil zu operativer Absicherung.

Strukturelle Diskussionen verlieren dadurch nicht ihren Wert, werden aber von der primären Grundlage architektonischer Sicherheit zu einem von mehreren Inputs.

Governability als architektonisches Anliegen

In menschenzentrierter Entwicklung war Verständlichkeit ein zentrales architektonisches Anliegen. Systeme mussten verstanden werden, weil Verständnis das wichtigste Mittel zur Steuerung von Veränderung war.

In KI-vermittelten Prozessen verschiebt sich dieses Verhältnis. Systeme können sich durch Transformationen entwickeln, die Menschen auf Implementierungsebene nicht vollständig nachvollziehen. Architektonische Sicherheit hängt in solchen Kontexten weniger von Verständnis als von Beherrschbarkeit ab.

Beherrschbarkeit bezeichnet die Fähigkeit, Regeln über Zeit hinweg zu definieren, durchzusetzen und zu überprüfen. Sie erfordert explizite Invarianten, kontinuierliche Überwachung und Mechanismen, die Regelverletzungen sichtbar und handhabbar machen. Erklärbarkeit kann Governance unterstützen, sie aber nicht ersetzen.

Aus architektonischer Sicht wird Beherrschbarkeit zur Eigenschaft, die sichere Evolution bei fluider Implementierung ermöglicht.

Günstige Veränderung und architektonische Kohärenz

KI senkt die Kosten von Veränderung erheblich. Das ermöglicht schnelle Anpassung, bringt aber neue Risiken mit sich. Systeme, die häufig regeneriert werden, können lokal korrekt bleiben und dennoch schrittweise ihre ursprüngliche Intention verlieren.

Architektonischer Drift ist kein neues Phänomen, wird durch günstige Veränderung jedoch verstärkt. Wenn Modifikationen einfach sind, wird es schwieriger, langfristige Struktur und Zweck zu bewahren.

Das erhöht die Bedeutung expliziter architektonischer Erinnerung: Regeln, Entscheidungen und Grenzen, die unabhängig von konkreten Implementierungen Bestand haben. Architektur muss Anpassungsfähigkeit und Kontinuität austarieren – insbesondere in langlebigen Systemen.

Verantwortung und Rechenschaft

Wenn Menschen weniger Code lesen, verschwindet Verantwortung nicht. Sie verlagert sich.

Rechenschaft verschiebt sich von einzelnen Implementierungen hin zur Definition, Durchsetzung und Überwachung architektonischer Regeln. Dies ist besonders relevant in regulierten oder sicherheitskritischen Kontexten, betrifft aber auch Enterprise-Systeme allgemein.

Architektur wird damit zum Ort der Verantwortung für Systemverhalten – nicht nur für Code-Organisation. Das verändert die Rolle von Architektinnen und Architekten, ohne sie zu entwerten.

Konsequenzen für die architektonische Praxis

Insgesamt deuten diese Beobachtungen auf eine Verschiebung architektonischer Praxis hin, nicht auf eine Abkehr von etablierten Prinzipien. Architektinnen und Architekten müssen sich stärker auf die Definition von Invarianten, die Auswahl von Durchsetzungsmechanismen und die Bewahrung von Intention über kontinuierliche Transformation hinweg konzentrieren.

Anthropozentrische Qualitätseigenschaften bleiben relevant, werden jedoch kontextabhängig statt absolut. Systemische Invarianten bleiben unverhandelbar, erfordern jedoch explizitere Formen von Governance.

Architektur wird zur Disziplin, die Systeme in einer Welt fluider Implementierungen begrenzt, verantwortbar und kohärent hält.

Fazit

Viele Qualitätseigenschaften waren nie universelle Wahrheiten. Sie waren wirksame Anpassungen an menschliche kognitive Begrenzungen in einer menschenzentrierten Entwicklungsumgebung.

KI verändert diese Umgebung.

Die zentrale architektonische Frage ist nicht mehr, ob ein System verstanden werden kann, sondern ob es beherrscht werden kann.

Autor
Das könnte Sie auch interessieren
Kommentare (0)

Neuen Kommentar schreiben