Über unsMediaKontaktImpressum
Tino Fliege 13. November 2025

Die Ära von "Buy vs. Build" ist vorbei

Die Frage, ob man Software kaufen oder selbst entwickeln sollte, gehört zu den Klassikern in der IT-Welt. Aspekte wie Time-to-Market, Wartungsaufwand, Sicherheitsanforderungen und Skalierbarkeit spielen bei der Entscheidungsfindung in dieser Debatte eine zentrale Rolle. Doch IT-Abteilungen, die sich strikt an diese Zweiteilung halten und sich ausschließlich für eine der beiden Optionen entscheiden, verzichten auf eine wertvolle Chance, die eigene Software-Systemlandschaft gezielt zu optimieren. Mehr noch: In Zeiten wachsender Anforderungen und KI-getriebener Innovation riskieren sie, den Anschluss im Wettbewerb zu verlieren. Wie also findet man den richtigen Weg? Die Antwort liegt in einer durchdachten Kombination beider Ansätze.

Lange Zeit galt der Zukauf kommerzieller Standardsoftware – sogenannter Commercial-off-the-shelf-Software, kurz COTS – als bevorzugter Weg für Unternehmen, um digitale Prozesse effizient abzubilden. Individuelle Softwareentwicklung war teuer, langwierig und erforderte spezialisiertes Know-how, das intern oft nicht vorhanden war. Warum also eigene Ressourcen binden, wenn etablierte Softwareanbieter bereits vielfach erprobte Lösungen bereitstellen?

Dieses Vorgehen war lange sinnvoll und ist es in bestimmten Szenarien auch heute noch, etwa wenn es darum geht, klar umrissene manuelle Prozesse zu digitalisieren. Denn sowohl die Eigenentwicklung als auch der Zukauf von Software bringen jeweils spezifische Vor- und Nachteile mit sich.

COTS-Lösungen für standardisierte Geschäftsprozesse

Standardlösungen "von der Stange" sind vorgefertigt und vorkonfiguriert. Sie sind in der Regel auf breite Anwendungsfälle ausgelegt und decken daher primär generische Anforderungen ab. Für den Zukauf spricht, dass die Implementierung meist schneller erfolgt, die Einstiegskosten geringer sind und der laufende Betrieb samt Wartung und Updates in der Verantwortung des Anbieters liegt – was den internen Ressourcenbedarf deutlich reduziert. Diese Faktoren sind meist ausschlaggebend für die Entscheidung zugunsten einer Standardlösung.

Dabei darf jedoch nicht übersehen werden, dass Standardsoftware kaum Spielraum für individuelle Anpassungen bietet. Sie ist naturgemäß wenig flexibel: Geschäftsprozesse müssen eher an die Software angepasst werden statt umgekehrt. Gerade deshalb eignet sich der Zukauf besonders für Funktionen, die nicht unternehmensspezifisch sind, wie zum Beispiel im Bereich CRM oder ERP. In diesen Fällen decken Standardlösungen in der Regel einen Großteil der branchenüblichen Anforderungen zuverlässig ab. Unternehmen entscheiden sich hier für eine COTS-Lösung, weil sie entweder nur minimale Anpassungen benötigen oder ein komplexer Geschäftsprozess automatisiert werden soll, dessen individuelle Entwicklung zu teuer oder aufwendig wäre.

Maßgeschneiderte Software als Differenzierungsfaktor

Doch der wachsende Druck, Geschäftsprozesse effizienter zu gestalten und sich über individuelle Kundenerlebnisse zu differenzieren, hat immer mehr Unternehmen dazu veranlasst, maßgeschneiderte Lösungen vorzuziehen. Viele IT-Teams entwickeln hierbei eigenständig Lösungen, um sie flexibel an ihre Organisationsstrukturen anzupassen. Anstelle des reinen Effizienzdenkens wird auch eine weitere Frage omnipräsent: Wie gelingt es, besser und schneller als die Konkurrenz zu sein und ihr stets einen Schritt voraus zu bleiben?

Klar ist: Mit reiner Standardsoftware ist das nur schwer zu erreichen. Denn lässt sich ein echter Vorsprung erzielen, wenn man auf vorgefertigte Lösungen setzt, die genauso aussehen und funktionieren wie die der Konkurrenz? Maßgeschneiderte und innovative Lösungen hingegen können den entscheidenden Unterschied machen. So wie jedes Unternehmen einzigartig ist, erfordern auch bestimmte Prozesse spezifische Funktionen, die in Standardlösungen schlicht nicht vorgesehen sind. Das können beispielsweise Backend-Prozesse in der Datenverarbeitung oder bei Genehmigungsabläufen sein.

Die Praxis, lediglich das Frontend als sichtbare Kundenschnittstelle zu individualisieren, war lange Zeit weit verbreitet. Die dahinterliegenden Backend-Systeme liefen dabei oft unverändert weiter. Dieses Vorgehen ist heute nicht mehr tragfähig, denn ineffiziente Prozesse im Hintergrund wirken sich direkt auf das Nutzererlebnis aus. In hochintegrierten IT-Landschaften genügt bereits ein schwaches Glied und die Anwendung verliert an Stabilität, Performance und Akzeptanz.

Ein Technologie-Stack, der sowohl nach innen als auch außen gezielt auf die eigenen Anforderungen ausgerichtet ist, schafft hingegen Raum für Innovation und die Chance, sich mit Produkten und Services klar vom Wettbewerb abzusetzen.

Der "Blend"-Ansatz

Die Entweder-oder-Entscheidung zwischen Zukauf und Eigenentwicklung – bzw. zwischen Standardprozessen und Innovation – hat in den heutigen hybriden IT-Landschaften jedoch kaum noch Bestand. Organisationen betreiben längst komplexe Systemlandschaften, in denen eigenentwickelte Anwendungen, angepasste Standardsoftware und SaaS-Lösungen aus der Cloud parallel existieren. Während SaaS vielfach zur Abbildung standardisierter Prozesse eingesetzt wird, laufen geschäftskritische Anwendungen oft in Private Clouds, On-Premises-Umgebungen oder Colocation-Rechenzentren.

Der Blend-Ansatz ist eine strategische und flexible Kombination aus Build und Buy.

Besonders deutlich wird dieser Wandel im Umgang mit Künstlicher Intelligenz: Laut IDC wird der globale Markt für generative KI bis 2027 mit einer jährlichen Wachstumsrate von 73,3 Prozent auf 143 Milliarden US-Dollar anwachsen. Moderne KI-Anwendungen entstehen dabei meist durch eine Kombination aus bestehenden Datenquellen, individuell entwickelten Komponenten und externen Sprachmodellen. An dieser Stelle kommt agentische KI zum Einsatz. Denn diese neue Technologie nutzt KI nicht einfach nur, sondern orchestriert Daten und komplexe Modelle proaktiv, um autonom zu unterstützen. Ihren größten Wert entfaltet KI dort, wo sie konkrete Probleme löst – und das nicht durch generische Funktionen. KI lässt sich damit von vornherein nicht mehr klar in die Kategorien "Build" oder "Buy" einordnen und erfordert ganz neue Bewertungsmaßstäbe. Statt wie bisher primär über Kosten oder Entwicklungszeit zu entscheiden, müssen Organisationen hier auch Kriterien wie Datenzugriff, Modellintegration und Governance berücksichtigen.

Die Debatte um "Build vs. Buy" hat sich damit zu einer multidimensionalen Fragestellung weiterentwickelt. Heute geht es darum zu bewerten, wie gut sich Eigenentwicklungen und Standardsoftware sinnvoll kombinieren lassen. Immer mehr Organisationen entscheiden sich daher für einen dritten Weg: den sogenannten Blend-Ansatz – eine strategische und flexible Kombination aus Build und Buy, angepasst an konkrete Anforderungen und Ziele.

Composable Architectures: Modularität statt Monolith

Entscheidend ist also die richtige Balance – ein differenzierter, hybrider Ansatz, also die Kombination von Zukauf und Eigenentwicklung an den jeweils passenden Stellen, der mehr Flexibilität, Kontrolle und Zukunftsfähigkeit ermöglicht. Organisationen können so gezielt die Stärken beider Welten nutzen und ihre IT-Landschaft strategisch ausbalancieren. Um einen hybriden Ansatz zu verfolgen, benötigen Organisationen auch entsprechende Architekturen, die sich aus eigenentwickelten, zugekauften und cloudbasierten Modulen flexibel zusammensetzen lassen. Genau hier setzt das Konzept der Composable Architecture an.

Composable Architectures stehen für einen Paradigmenwechsel in der Softwareentwicklung: weg vom monolithischen System, hin zu modularen, wiederverwendbaren Funktionsbausteinen. Solche Composable Architectures bestehen aus klar definierten, wiederverwendbaren Bausteinen, sogenannten Packaged Business Capabilities (PBCs). Diese packen einzelne Geschäftsfunktionen (z. B. Kundenservice, Buchhaltung oder Lieferkettenmanagement) in eigenständige Module mit klar definierten Schnittstellen, die unabhängig voneinander entwickelt, bereitgestellt und in verschiedene Anwendungen integriert werden können. Anpassungen können so gezielt in einzelnen Modulen vorgenommen werden, ohne das Gesamtsystem zu beeinträchtigen. In Kombination mit dem Einsatz von agentischer KI können diese Module sogar dynamisch orchestriert werden. Systeme treffen dann kontextbezogene Entscheidungen und agieren selbstständig.

Mehr Anpassungsfähigkeit, weniger Entwicklungsaufwand

Das Prinzip der Composable Architecture steigert jedoch nicht nur die technische Flexibilität, sondern bringt auch organisatorische Vorteile mit sich: Kleine, funktionsübergreifende Teams übernehmen die vollständige Verantwortung für ihre jeweiligen Module, von der Konzeption bis zum Betrieb. Das beschleunigt Entwicklungszyklen, reduziert Risiken und erlaubt eine deutlich agilere Reaktion auf sich verändernde Markt- oder Kundenanforderungen. Gleichzeitig stärkt der modulare Aufbau die Zusammenarbeit zwischen IT und Fachbereichen: Anwendungen lassen sich näher an realen Geschäftsbedürfnissen konzipieren, da sich einzelne PBCs exakt auf konkrete Aufgaben zuschneiden lassen.

Aus Entwicklungsperspektive können Composable Architectures nachhaltig die Produktivität von Entwicklern steigern, denn neue Projekte starten so nicht mehr bei null: Funktionen, Logikbausteine oder Datenbankdienste lassen sich mehrfach in anderen Anwendungen nutzen, was die Effizienz und Qualität deutlich erhöht. Je mehr ein Unternehmen also mit dieser Architektur aufbaut, desto weniger muss es künftig noch entwickeln.

Low Code als Enabler für Composable Architectures

Die Umsetzung einer Composable Architecture erfordert nicht nur ein neues Architekturverständnis, sondern auch geeignete Werkzeuge. Mit Low-Code-Plattformen lässt sich die modulare Denkweise durch visuelle Entwicklung, Wiederverwendbarkeit von Komponenten und beschleunigte Release-Zyklen konkret umsetzen. Teams können auf einer gemeinsamen Plattform arbeiten, schnell produktive Ergebnisse erzielen und einzelne Funktionseinheiten flexibel kombinieren.

Durch modulare Schnittstellen lassen sich auch unterschiedliche Systeme und Datenquellen integrieren, ohne die Stabilität der bestehenden Infrastruktur zu gefährden. Dass Low Code längst mehr als nur ein Nischenthema ist, zeigt eine Prognose von Gartner [1]: Demnach werden bis 2029 80 Prozent aller geschäftskritischen Anwendungen weltweit von Low-Code-Plattformen betrieben werden – ein drastischer Anstieg gegenüber lediglich 15 Prozent im Jahr 2024.

Neue Dynamik durch agentische KI

Die Integration generativer KI in Low-Code-Ansätze hat dabei noch einmal eine ganz neue Technologiekategorie hervorgebracht: sogenannte Application Generation Platforms. Klassische Low-Code-Plattformen beschleunigten Softwareentwicklung bislang vor allem durch visuelle Entwicklungsoberflächen, wiederverwendbare Komponenten und eingebaute Automatisierung. Durch die Integration generativer KI geht intelligenter Low Code nun weit über bisherige Funktionen hinaus.

KI wird die klassische Softwareentwicklung in naher Zukunft nicht vollständig ersetzen. 

Mit generativer KI als fester Bestandteil moderner Entwicklungsplattformen wird die Eigenentwicklung heute noch deutlich einfacher und kostengünstiger und die Einstiegshürde für Eigenentwicklung sinkt damit spürbar. Dennoch wird KI die klassische Softwareentwicklung in naher Zukunft nicht vollständig ersetzen. Sie kann zwar mittlerweile Code auf Basis von natürlicher Sprache generieren und damit die Entwicklungszeit deutlich verkürzen – in größeren, komplexeren Projekten mangelt es jedoch oft an Kohärenz. So brauchen Unternehmen auch weiterhin Fachleute, um Code zu strukturieren, zu debuggen und gezielt weiterzuentwickeln – nur eben mit einem anderen Einsatzgebiet, als es bisher der Fall war. Es wird einen großen Bedarf an überwachenden Modellen geben, was eine prägende Charakteristik von agentischer KI ist. Menschliche Entwickler übernehmen dabei zunehmend die Rolle des Supervisors, der das Ergebnis steuert, verfeinert und überwacht, während die KI Initiative ergreift und die Ausführung weitgehend autonom übernimmt.

Dieser technologische Sprung ist ein Symptom für den grundlegenden Wandel in der Art und Weise, wie Unternehmen Software entwickeln. KI-gestützte Low-Code-Plattformen beschleunigen nicht nur bestehende Prozesse – sie transformieren sie grundlegend, indem sie Zeit, Expertise und Ressourcenbedarf zur Bereitstellung von Enterprise-Anwendungen massiv reduzieren.

Build, Buy, Blend – ein strategischer Entscheidungsrahmen

Die klassische "Build vs. By"-Logik lässt sich in modernen Softwarelandschaften kaum noch eindeutig anwenden – insbesondere nicht im Kontext wachsender Anforderungen an Flexibilität, Differenzierung und Geschwindigkeit. Stattdessen hat sich der Entscheidungsrahmen zu einer dreigeteilten Diskussion weiterentwickelt: Build, Buy, Blend.

Ein Blend-Ansatz ermöglicht es, diese Optionen strategisch zu kombinieren. Gekauft wird dort, wo Standardisierung genügt. Gebaut wird dort, wo spezifische Anforderungen oder Differenzierung gefragt sind. Eingebettete KI kommt zum Einsatz, wenn sie konkrete Aufgaben sinnvoll automatisiert. Ein nachhaltiger Ansatz besteht nicht darin, sich für eine Option zu entscheiden, sondern darin, die richtige Balance zu finden und auf hilfreiche Architekturprinzipien wie Composable Architectures und die notwendigen Werkzeuge wie Low-Code-Plattformen zu setzen.

Blend ist damit kein Kompromiss, sondern ein pragmatischer Architekturansatz: Er passt sich der Realität heterogener Systemlandschaften an, bietet einen Rahmen, um neue Technologien wie agentische KI gezielt einzubinden und sichert so einen nachhaltigen Wettbewerbsvorteil.

Autor
Das könnte Sie auch interessieren
Kommentare (0)

Neuen Kommentar schreiben