Kommentar von Dr. Konstantin Wemhöner, Kemb Warum Datenarchitektur 2026 oft zum Engpass wird

Von Dr. Konstantin Wemhöner 6 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz (KI), Analytics, Automatisierung: Diese Schlagworte begegnen uns heute täglich und in kaum einem Unternehmen werden sie strategisch gesetzt. Allein die zugrunde liegenden Datenarchitekturen sind für diese Anforderungen oft nicht ausgelegt.

Dr. Konstantin Wemhöner ist Mitgründer der Kemb GmbH und Experte für Business Intelligence, Datenarchitekturen und datenbasierte Unternehmenssteuerung.(Bild:  Kemb GmbH)
Dr. Konstantin Wemhöner ist Mitgründer der Kemb GmbH und Experte für Business Intelligence, Datenarchitekturen und datenbasierte Unternehmenssteuerung.
(Bild: Kemb GmbH)

Etliche Unternehmen können KI noch nicht unternehmensweit skalieren, wie jüngst in einer McKinsey-Studie bestätigt. Was folgt, ist ein wachsender Widerspruch zwischen technologischem Anspruch und operativer Realität: Was im Pilot funktioniert, skaliert im Alltag oft nicht.

Das vermeintlich unsichtbare Fundament „Datenarchitektur“ wird nicht selten zum limitierenden Faktor für Wachstum, Effizienz und Geschwindigkeit. Der Engpass liegt dabei zumeist nicht in der Verfügbarkeit von Tools, sondern in der Fähigkeit, Daten konsistent, integriert und belastbar bereitzustellen.

Warum Datenarchitektur ein Business-Thema ist

Datenarchitektur wird häufig als technische Detailfrage behandelt. Tatsächlich entscheidet sie darüber, wie handlungsfähig ein Unternehmen ist. Architektur legt fest, wie schnell neue Fragestellungen beantwortet werden können, wie verlässlich Kennzahlen sind und wie hoch der operative Aufwand für datenbasierte Entscheidungen ausfällt.

Fragmentierte Architekturen verlängern die Time-to-Insight, erhöhen Kosten durch manuelle Korrekturen und erschweren konsistente Steuerung. Ein IBM-Befund aus dem letzten Jahr zeigt anschaulich, wie viele Unternehmen mit solchen Altlasten kämpfen. 50 Prozent der CEOs beklagen fragmentierte Insellösungen. Ist eine Architektur veraltet oder schwach integriert, entstehen Datensilos und der Informationsfluss verlangsamt sich.

Unter den wirtschaftlichen gegenwärtigen Rahmenbedingungen (Kostendruck und knappe Margen sind laut Gartner-Umfrage die Top-Risiken aus Sicht von CFOs im Jahr 2025, steigende Effizienzanforderungen ein weiterer Faktor) wird diese Reibung zum echten Business-Risiko.

Technische Schulden wirken dabei wie ein Verstärker. Eine McKinsey-Analyse von 2023 spricht vom „stillen Killer“ und schätzt, dass 20 bis 40 Prozent des IT-Wertes in Altlasten gebunden sind . Jede neue Anforderung erhöht die Komplexität, den Aufwand und die Fehleranfälligkeit. Typische Folgen sind manuell harmonisierte Monats- und Quartalsreports, unterschiedliche KPI-Definitionen in einzelnen Fachbereichen und Managementdiskussionen, die sich stärker um Datenherkunft als um Entscheidungen drehen.

Typische Symptome überforderter Datenarchitekturen

In vielen Unternehmen ist die Datenarchitektur historisch gewachsen. Systeme wurden eingeführt, um konkrete operative Probleme zu lösen, nicht um eine integrierte, unternehmensweite Nutzung von Daten zu ermöglichen. Diese Entstehungsgeschichte prägt die Datenlandschaft bis heute – und wird spätestens dann zum Problem, wenn Skalierung, Automatisierung oder KI produktiv eingesetzt werden sollen.

Nicht selten existieren in Unternehmen mehrere „Single Sources of Truth“, die jeweils für sich plausibel sind, einander aber in Details widersprechen. Kennzahlen stimmen innerhalb eines Fachbereichs, brechen jedoch im übergreifenden Vergleich auseinander. Zudem sind Datenpipelines häufig intransparent, schlecht dokumentiert und vom impliziten Wissen Einzelner abhängig. Die Folge: Neue Anforderungen führen nicht etwa zu Erweiterungen, sondern zu Sonderlösungen und Workarounds. Änderungen werden riskant, weil unklar ist, welche Abhängigkeiten betroffen sind. Stabilität entsteht so nicht etwa durch Robustheit, sondern durch Zurückhaltung bei Anpassungen.

Solche strukturellen Defizite zeigen sich besonders deutlich im Alltag von Analytics- und BI-Teams. Ein Großteil der Arbeit entfällt auf Datenaufbereitung, Plausibilisierung und manuelle Korrekturen. Neue Datenquellen erfordern individuelle Integrationslogiken, da ein konsistentes Modell fehlt. Excel-Exporte und manuelle Nachbearbeitung bleiben fester Bestandteil zentraler Reports, selbst in technologisch gut ausgestatteten Organisationen.

Architekturprinzipien, die sich in der Praxis bewährt haben

Erfolgreiche Datenarchitekturen unterscheiden sich weniger durch eingesetzte Technologien als durch klare Leitprinzipien. Gerade unter den Anforderungen von Skalierung, KI und Automatisierung gewinnen diese Prinzipien 2026 an Bedeutung.

  • Architektur folgt Nutzung, nicht Technologie: Ausgangspunkt einer belastbaren Architektur sind konkrete Entscheidungs- und Steuerungsprozesse, nicht Datenverfügbarkeit oder Tool-Auswahl. Datenmodelle sollten sich aus den Fragen ableiten, die regelmäßig beantwortet werden müssen. Nur so entstehen Strukturen, die Orientierung schaffen, statt Datenvolumen zu produzieren.
  • Klare Schichten statt vermischter Logik: Um Komplexität zu reduzieren, braucht es eine saubere Trennung von Ingestion, Transformation, Business-Logik und Bereitstellung. Vermischte Logiken (z. B. Business-Regeln in ETL, BI-Tools und Excel) führen langfristig zu Inkonsistenzen. Saubere Schichten erhöhen demgegenüber die Austauschbarkeit von Komponenten und reduzieren Abhängigkeiten, was auch Weiterentwicklungen beherrschbar macht. Stichwort „Separation of Concerns“.
  • Konsistente Semantik als Skalierungsfaktor: Ohne einheitliche Definitionen von Kennzahlen und Dimensionen skaliert keine datenbasierte Initiative. Eine zentrale semantische Ebene reduziert den Abstimmungsaufwand, erhöht Vertrauen und ist insbesondere für KI-gestützte Analysen unverzichtbar.
  • Governance als Enabler, nicht als Bremse: Der Wert von Governance kann nicht hoch genug gehängt werden. Klare Verantwortlichkeiten, definierte Qualitätsstandards und nachvollziehbare Regeln beschleunigen die Nutzung, weil weniger Rückfragen und Korrekturen erforderlich sind. Ownership-Modelle (Data Owner, Data Steward) erweisen sich zudem oft als deutlich effektiver als rein technische Kontrollen.

Diese Prinzipien bilden die Grundlage für jede pragmatische Modernisierung bestehender Datenplattformen. Ohne sie bleiben technologische Erneuerungen punktuell – und der strukturelle Engpass bestehen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Datenplattformen pragmatisch modernisieren

Viele Unternehmen stehen 2026 vor derselben Herausforderung: Die bestehende Datenplattform trägt das Tagesgeschäft, ist aber nicht in der Lage, neue Anforderungen effizient zu unterstützen. Der Reflex, diese Situation mit einer vollständigen Ablösung zu lösen, erweist sich in der Praxis jedoch selten als erfolgreich.

Warum Big-Bang-Modernisierung scheitert

Komplettmodernisierungen unterschätzen regelmäßig die organisatorische Realität. Abhängigkeiten zwischen Systemen, parallele Reporting-Verpflichtungen und laufender Betrieb lassen sich nicht einfach abschalten. Insbesondere dann, wenn neue Plattformen zwar technisch eingeführt, nicht aber fachlich angenommen werden. Der laufende Betrieb bindet stattdessen Ressourcen, die für tatsächlich radikalere Umstellungen fehlen. In der Folge arbeiten Fachbereiche oft weiterhin mit ihren alten Reports, während parallel eine neue Architektur aufgebaut wird, der das Vertrauen fehlt. Der Aufwand steigt, der Nutzen bleibt begrenzt. Gerade unter dem wirtschaftlichen Druck unserer Zeit fehlt vielen Organisationen schlichtweg der Spielraum für solche Parallelwelten. Was sich in der Praxis oft deutlich besser bewährt, ist ein evolutionärer Ansatz.

Evolutionäre Modernisierung als realistischer Ansatz

Bestehende Plattformen werden nicht einfach ersetzt, sondern schrittweise entkoppelt und ergänzt, wobei initial kritische Use Cases im Fokus stehen und nicht eine architektonische Vollständigkeit. Schritt für Schritt kann die Architektur so entlang von Wertströmen weiterentwickelt werden. Neue Komponenten übernehmen peu à peu mehr Verantwortung, während bestehende Strukturen kontrolliert entlastet werden. Das reduziert Risiko, schafft früh sichtbaren Nutzen und erlaubt es, Architektur entlang realer Anforderungen weiterzuentwickeln, statt sie theoretisch neu zu entwerfen.

Fokus auf Wertströme statt Systeme

Modernisierung beginnt dort, wo Entscheidungen und Steuerung stattfinden, nicht bei Infrastruktur und Tools. Datenprodukte sollten entlang konkreter Geschäftsprozesse definiert werden. So entsteht schneller messbarer Nutzen, was sich wiederum positiv auf Akzeptanz auswirkt. Statt also auf eine vollständige Datenharmonisierung zu setzen, sollte der Fokus zuallererst auf schnellen Effekten für Fachbereiche liegen, also bspw. Kosten- oder Umsatzoptimierung.

Technische Schulden sichtbar und steuerbar machen

Technische Schulden werden häufig erst dann sichtbar, wenn Geschwindigkeit, Skalierung oder neue regulatorische Anforderungen gefordert sind. Transparenz über Abhängigkeiten, manuelle Schritte und Redundanzen schafft die Grundlage für Priorisierung. Architekturentscheidungen sollten bewusst getroffen und dokumentiert werden, um spätere Weiterentwicklung zu erleichtern.

Die Organisation einbeziehen

Auch die beste Architektur scheitert ohne Akzeptanz. Transparenz, Verständlichkeit und Einbindung der beteiligten Teams sind entscheidend. Perfektion ist dabei weniger wichtig als Nachvollziehbarkeit. Architektur muss erklärbar sein, nicht nur technisch korrekt.

Was moderne Datenarchitektur leisten kann und was nicht

Eine moderne Datenarchitektur schafft vor allem eines: Verlässlichkeit. Sie ermöglicht schnellere und konsistentere Entscheidungen, reduziert manuelle Aufwände und senkt die Abhängigkeit von individuellen Workarounds. Daten werden nicht nur verfügbar, sondern nutzbar. Und das über Fachbereiche hinweg und in einer Qualität, die operative Steuerung erlaubt.

Gleichzeitig ersetzt Architektur weder strategische Entscheidungen noch fachliches Verständnis. Sie ist kein Selbstzweck und kein Garant für Innovation, sondern die Voraussetzung dafür, dass datenbasierte Ansätze skalieren, reproduzierbar werden und im Alltag Wirkung entfalten. Doch auch die beste Architektur liefert keine Antworten, wenn die zugrunde liegenden Fragestellungen unklar sind.

Fazit

2026 ist kein Jahr für neue Features, sondern für stabile Grundlagen. Viele Unternehmen stehen unter dem Druck, datengetriebene Initiativen aus der Experimentierphase in den produktiven Betrieb zu überführen. Ob das gelingt, entscheidet sich weniger an neuen Technologien als an der Qualität der zugrunde liegenden Datenarchitektur.

Wer Datenarchitektur bewusst als Business-Faktor gestaltet, gewinnt an Steuerungsfähigkeit, Geschwindigkeit und Resilienz und schafft die Voraussetzungen, um KI, Analytics und Automatisierung wirksam einzusetzen.

Artikelfiles und Artikellinks

(ID:50688043)