Warum liefern KI-Initiativen trotz moderner Plattformen oft keinen messbaren Mehrwert? Der Beitrag zeigt, dass die Ursachen seltener in Modellen oder Rechenleistung liegen, sondern in architektonischen und organisatorischen Entscheidungen, bei denen Analytics, Integration und Datenverantwortung nachgeordnet behandelt werden.
Der Autor: Stefan Maxones ist selbständiger Senior-Berater an der Schnittstelle von Datenarchitektur, Analytics und Unternehmenssteuerung. Er begleitet komplexe Transformationsprojekte im SAP-Umfeld für namhafte Großunternehmen. Durch seine langjährige Erfahrung bei Branchengrößen wie Capgemini, IBM und Tieto kennt er die strukturellen Herausforderungen in Konzernen aus der Innenperspektive.
(Bild: Stefan Maxones)
Künstliche Intelligenz (KI) ist in vielen Unternehmen kein Neuland mehr. Modelle sind verfügbar, Plattformen eingeführt, Budgets genehmigt. Projekte laufen, Demos funktionieren, Präsentationen überzeugen. Im Alltag ändert sich dennoch wenig. Entscheidungen bleiben vorsichtig, Automatisierungen fragmentiert, Vertrauen in Zahlen brüchig. Der Eindruck technischer Reife täuscht häufig über strukturelle Defizite hinweg. Das liegt selten an den Algorithmen. Was fehlt, ist meist schon früher entstanden – oder bewusst ausgeklammert worden: in der Architektur. In der Art, wie Daten strukturiert, integriert und verantwortet werden.
Viele heutige Datenlandschaften sind das Ergebnis jahrzehntelanger Optimierung auf operative Effizienz. Analytische Nutzbarkeit wurde dabei oft implizit angenommen, aber selten explizit gestaltet. In großen Transformationsprogrammen steht operative Stabilität im Vordergrund. Das ist nachvollziehbar. Systeme müssen laufen, Prozesse vergleichbar werden, Releases dürfen nicht eskalieren. Analytische Anforderungen werden reduziert, vereinfacht oder zeitlich verschoben. Man will erst einmal sauber live gehen. Reporting, historische Auswertungen oder datengetriebene Automatisierungen gelten als nachgelagerte Themen.
Nach dem Go-live zeigt sich dann, was dabei verloren ging. Historien fehlen oder sind nur eingeschränkt verfügbar. Kennzahlen sind anders definiert als früher, oft ohne dokumentierte Übergangslogik. Automatisierte Auswertungen existieren nicht mehr oder liefern andere Ergebnisse. Fachbereiche reagieren irritiert. Zahlen schwanken, ohne dass sich operativ etwas geändert hätte. Für das Management bleibt dies oft abstrakt – für Architektur- und Analytics-Teams ist es tägliche Realität.
Der Denkfehler liegt im Ansatz
Spätestens an diesem Punkt wird KI schwierig. Modelle benötigen stabile Zeitreihen, klare Logiken und reproduzierbare Grundlagen. Genau das fehlt. Der Denkfehler liegt nicht im Detail, sondern im Ansatz. Operative Architektur und analytische Architektur werden getrennt behandelt. KI gilt als spätere Ausbaustufe. Als etwas, das man oben aufsetzt, wenn alles andere steht. Architekturentscheidungen werden damit getroffen, ohne ihre analytischen Konsequenzen mitzudenken.
Relevante KI-Anwendungen entstehen jedoch fast nie in einem einzelnen System. Sie entstehen zwischen Systemen. Transaktionale Daten liefern fachlichen Kontext. Ereignis- oder Sensordaten liefern zeitliche Dynamik. Externe Daten ergänzen Markt-, Umwelt- oder Lieferketteninformationen. Diese Daten passen nicht automatisch zusammen. Zeitbezug, Granularität und Bedeutung unterscheiden sich – oft historisch gewachsen und nur implizit bekannt. Ohne saubere Entkopplung entstehen Abhängigkeiten, die im Betrieb kaum beherrschbar sind. Kleine Änderungen schlagen an unerwarteten Stellen durch. Modelle liefern andere Ergebnisse, ohne dass klar ist warum. Vertrauen geht verloren.
Technisch äußert sich das häufig in nicht versionierten Schnittstellen, fehlenden Data Contracts, impliziten Annahmen in Transformationen oder fachlich nicht dokumentierten Kennzahlenlogiken. In der technischen Umsetzung bedeutet ein Data Contract dabei weit mehr als eine bloße Schnittstellenbeschreibung. Er definiert die Qualität, das Schema und vor allem die Semantik der Daten. In einer modernen Datenarchitektur wird dieser Vertrag maschinenlesbar hinterlegt. Ändert sich beispielsweise in einem Quellsystem eine Feldlogik, schlägt das Monitoring sofort Alarm, bevor die fehlerhaften Daten das Modell erreichen. Dieser „Shift-Left“-Ansatz der Datenqualität sorgt dafür, dass Fehler dort korrigiert werden, wo sie entstehen – in den operativen Systemen – und nicht erst mühsam in der Analytics-Schicht bereinigt werden müssen.
Praxisbeispiel
Ein Beispiel aus der Praxis: In einem Instandhaltungsprojekt sollte ein Modell Maschinenausfälle vorhersagen. Technisch funktionierte alles. Die Sensorwerte liefen stabil, das Modell lernte. Nach einem Release änderten sich jedoch die Material- und Standortlogiken im ERP-System. Für die Fachbereiche blieb alles gleich. Für das Modell nicht. Vorhersagen drifteten, ohne dass ein Fehler sichtbar war. Wochenlang wurde diskutiert, ob das Modell ungeeignet sei. Tatsächlich lag die Ursache in einem Integrationsbruch. Eine fachlich relevante Änderung war nirgends versioniert oder kommuniziert worden. Niemand fühlte sich zuständig.
Generative KI verschärft dieses Problem. Sprachbasierte Modelle sind besonders abhängig von konsistentem Kontext und historisierten Informationen. Wenn Daten bei jedem Release ihre Bedeutung ändern oder nicht versioniert sind, bleiben Ergebnisse oberflächlich. Ohne stabile semantische Grundlagen wird generative KI zur rhetorischen Unterstützung, nicht zum Entscheidungsinstrument.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Echtzeit wird in diesem Zusammenhang häufig missverstanden. Für lernende und validierende KI ist nicht die Reaktionsgeschwindigkeit entscheidend, sondern die Qualität der Persistenz. Modelle, die primär auf aktuellen Streams reagieren, verlieren historische Kontexte und saisonale Muster. Ohne reproduzierbare, historisierte Datenbasis bleibt Lernen kurzfristig und anfällig für Verzerrungen.
Altlasten
Viele Organisationen kämpfen zudem mit Legacy-Systemen, die sich nur begrenzt vereinheitlichen lassen. Oft wird versucht, dies durch den Aufbau einer „Business Data Cloud“ zu lösen. Doch ohne klare Architektur-Strategie wird die Cloud schnell zum „Data Swamp“. Der entscheidende Hebel ist hier nicht die Speichertechnologie, sondern die Fähigkeit zur Entkopplung. Eine moderne Architektur erlaubt es, operative Systeme zu aktualisieren, ohne die analytische Konsistenz zu gefährden. Das gelingt nur, wenn wir Daten als eigenständige Produkte (Data Products) mit definiertem Lebenszyklus behandeln.
Ein Punkt, der selten offen angesprochen wird, ist die Organisation. Datenverantwortung ist unklar oder projektbezogen verteilt. IT optimiert auf Systembetrieb, während Fachbereiche stabile Zahlen erwarten. Um eine echte fachliche Ownership zu verankern, müssen Rollen wie der „Data Domain Owner“ geschaffen werden. Diese Person kommt aus dem Business und trägt die Verantwortung dafür, dass die Daten ihrer Domäne korrekt und verständlich bereitgestellt werden. Das erfordert ein Umdenken: Weg von der projektbezogenen Budgetierung hin zu einer dauerhaften Produktverantwortung für Daten. Nur so entsteht eine Governance, die nicht nur auf dem Papier existiert.
Schlussfolgerungen
Für 2026 lassen sich daraus klare Schlussfolgerungen ableiten: Analytische Anforderungen müssen frühzeitig Teil von Architekturentscheidungen werden – als gleichwertige Dimension neben der operativen Stabilität. Data Contracts und explizite Semantik sind keine akademischen Konzepte, sondern praktische Voraussetzungen für verlässliche Modelle. Geschwindigkeit bleibt wichtig, ist aber selten der Engpass. Reproduzierbarkeit, Nachvollziehbarkeit und Vertrauen sind es. Wer den Unterbau jetzt aufräumt, gewinnt ein Unternehmen, das nicht nur bereit für KI ist, sondern das seine eigene Realität endlich präzise steuern kann.