Kommentar von Dr. Marcel Mikl, Codecentric Warum erfolgreiche Datenstrategien bei den Entscheidungen beginnen

Von Dr. Marcel Mikl 7 min Lesedauer

Anbieter zum Thema

„Data-first“ lautet die Devise in vielen Management-Etagen. Doch wer Daten nur sammelt, landet schnell in einer Sackgasse: Ohne klare Strategie bleiben Informationen ungenutzt und enden in teuren Datenfriedhöfen. Echten Mehrwert schaffen Unternehmen erst, wenn sie ihre Datenstrategie konsequent an konkreten Entscheidungen ausrichten.

Der Autor: Marcel Mikl ist promovierter Mathematiker und Service Lead Data, ML & AI bei Codecentric(Bild:  Codecentric AG)
Der Autor: Marcel Mikl ist promovierter Mathematiker und Service Lead Data, ML & AI bei Codecentric
(Bild: Codecentric AG)

„Lasst uns erst einmal schauen, welche Daten wir haben, und dann fangen wir an.“ Dieser Satz markiert häufig den Beginn von Dateninitiativen, die ihr Potenzial nie ausschöpfen werden. In vielen Unternehmen dominiert noch immer die Vorstellung, Datenprojekte führten automatisch zum Erfolg, wenn nur genügend Informationen gesammelt, technisch konsolidiert und anschließend mit KI analysiert werden.

Die Erfahrung lehrt jedoch etwas anderes: Daten entfalten erst dann messbaren Mehrwert, wenn ihre strategische Nutzung von Anfang an darauf ausgerichtet ist, Entscheidungen künftig fundierter, schneller und verlässlicher zu treffen. Ziel jeder Datenstrategie sollte daher „Data Effectiveness“ sein. Gemeint ist die konsequente Fokussierung aller Dateninitiativen auf messbaren Geschäftswert.

Decision-first Thinking: Die Perspektive umkehren

Mit dieser Logik verändert sich auch die Perspektive. Im Fokus steht nicht mehr, was Unternehmen mit ihren Daten anstellen können, sondern welche Daten sie brauchen, um ihre wichtigsten Geschäftsentscheidungen zu treffen.

Zu Beginn sollten sich Unternehmen vier Fragen stellen:

  • 1. Welche konkrete Entscheidung adressieren wir mit unserer Dateninitiative?
  • 2. Wie messen wir den Effekt (z. B. Zielmetriken, Messansatz, Zeitfenster, Baseline)?
  • 3. Wer trägt die Verantwortung für a.) Entscheidung und b.) Umsetzung?
  • 4. Was wird nach dem Go-live der neuen Lösung abgeschaltet oder weggelassen und wie setzen wir das durch?

Wer diese Fragen für sich beantwortet, verschiebt gleichzeitig die Perspektive: weg vom passiven „Was können wir mit unseren Daten tun?“ hin zum strategischen „Welche Daten brauchen wir, um die Entscheidungsfindung in den für uns wichtigsten Bereichen zu verbessern?“

Um die Decision-first-Logik in den eigenen Abläufen zu verankern, folgen Unternehmen am besten vier Prinzipien.

Prinzip #1: Vom Entscheidungsprozess zur Technologie: Der Startpunkt ist alles: Wenn sich zu Beginn einer neuen Dateninitiative alles nur um die Wahl der richtigen Technologie dreht, ist das ein Warnsignal. Kreisen bereits die ersten Meetings um Plattformvergleiche – etwa zwischen Databricks, Snowflake oder verschiedenen Cloud-Stacks – ist das oft ein Hinweis darauf, dass die fachliche Perspektive noch fehlt.

Statt bei der Technik anzusetzen, sollten Unternehmen überlegen, welche die kritischsten Entscheidungen sind, die sie treffen müssen. Es geht darum, echte Schmerzpunkte zu identifizieren: „Wo verlieren wir Geld, Zeit oder sogar Kunden durch schlechte Entscheidungen?“

Diese gilt es anschließend zu analysieren. Alle beteiligten Personen und Prozessschritte sollten dafür klar benannt werden. Der nächste Schritt besteht darin, sich zu überlegen, wie der Ablauf optimiert werden kann. Denn wer einen schlechten Prozess digitalisiert, hat am Ende einen schlechten digitalen Prozess.

Gleichzeitig gilt: Es gibt Situationen, in denen ein Data-first-Start unvermeidlich ist – etwa bei regulatorischen Anforderungen, Sicherheitsrisiken oder im Zuge von M&A-Integrationen. Solche Initiativen schaffen eine notwendige technische Basis. Geschäftlicher Mehrwert entsteht jedoch meist erst, wenn darauf aufbauend konkrete Entscheidungsprozesse verbessert werden.

Erst wenn der optimierte Prozess steht, kommt Technologie ins Spiel. Erfolgsmetrik sind dann nicht Gigabytes, sondern Kennzahlen, die den direkten Einfluss auf die betreffende Entscheidung abbilden. Das kennzeichnet den Übergang von reiner Output-Orientierung hin zu nachweisbarer Data Effectiveness. Die Plattform wird so zum Nebenprodukt des Erfolgs, nicht zu dessen Voraussetzung. Diese Transparenz über Entscheidung und Prozess hilft zudem, zu erkennen, ob und wo KI echte Wirkung entfalten kann.

Prinzip #2: KI ist die Konsequenz, nicht die Abkürzung: KI kann ein wirkungsvolles Tool sein, um gute Entscheidungen zu skalieren. Liegen ihr jedoch eine fehlerhafte Logik oder mangelhafte Datenbasis zugrunde, skaliert sie mit derselben Effizienz jedoch auch schlechten Entscheidungen.

Der bekannte Grundsatz „Garbage in, Garbage out“ gilt dabei weiterhin – mit dem Unterschied, dass KI auch fehlerhafte Ergebnisse überzeugend präsentiert. Den Schritt der Datenaufbereitung im Vorfeld des KI-Einsatzes können Unternehmen also leider nicht überspringen.

Ein Proof-of-Concept (PoC) im Sinne des Decision-first Thinking muss den Nachweis erbringen, dass er eine spezifische Entscheidung, z. B. durch den Einsatz von KI, messbar optimieren kann.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Am Anfang sollte daher die Frage stehen, wo das Unternehmen konkret dazu gewinnen will. Erst im nächsten Schritt leiten sich daraus die kritischen Entscheidungen ab, die in Hinblick auf dieses Ziel exzellent getroffen werden müssen. Danach definiert sich der Datenbedarf.

Abschließend steht außerdem die Frage, ob die beste Lösung für das definierte Problem überhaupt KI braucht. In vielen Fällen reichen bereits robuste Daten- und Prozesslösungen aus, um deutliche Verbesserungen zu erzielen.

Prinzip #3: Datenqualität entsteht durch Ownership, nicht durch Tools: Ein bekanntes Szenario: Das Vertriebs-Dashboard meldet für den vergangenen Monat andere Umsatzzahlen als das Controlling-System, die Logistik-Software liefert sogar eine dritte Variante. Dieses Chaos verdeutlicht: Datenqualität ist keine Frage der Technik, sondern der Organisation. Neue Tools allein reichen nicht, um dieses Problem zu lösen. Moderne Konzepte wie Data Mesh setzen genau hier an: Sie verstehen Daten nicht als zufälliges Abfallprodukt, sondern als eigenständiges Gut mit klaren Qualitätsstandards und verantwortlichem Owner.

Dies trägt dazu bei, Silodenken zwischen IT- und Fachbereichen zu überwinden. Denn nach dieser Betrachtung ist der Fachbereich nicht länger ein passiver Konsument von Daten, die die IT aktiv bereitstellt. Er selbst produziert Daten und gewährleistet deren Qualität.

Vor diesem Hintergrund entsteht mit dem Data Product Owner eine Schlüsselrolle an der Schnittstelle zwischen IT- und Fachabteilungen: Als Vermittler zwischen beiden Welten versteht er den Geschäftsprozess und kann den monetären Wert einer Entscheidung eindeutig beziffern. Das ist entscheidend, wenn es darum geht, Daten von einem Nebenprodukt zum verlässlichen Werttreiber zu machen – und damit als Faktor, um nachhaltige Data Effectiveness im Unternehmen zu verankern.

Dieses Umdenken können Unternehmen bereits anstoßen, bevor sie umfassende Technologieinitiativen in Angriff nehmen.

Prinzip #4: Strategische Vereinfachung – Abschalten ist eine Kunst: Das konsequente Abschalten von Altsystemen ist die Königsdisziplin des Datenmanagements. Viel zu oft werden diese wie ein Schatz gehütet, obwohl sie Compliance- und Sicherheitsrisiken sowie Betriebskosten verursachen und zu Abhängigkeiten von einzelnen Schlüsselpersonen führen.

Zudem binden Legacy-Systeme wertvolle Ressourcen: Fachkräfte verbringen ihre Zeit damit, fragile Workarounds und Schnittstellen zu bauen, statt neue Wertschöpfung zu ermöglichen. Damit ist das Festhalten an alten Lösungen mehr als eine Marotte: Es bremst Modernisierungsvorhaben aus, indem es das Misstrauen in neue Systeme nährt und überholte Arbeitsweisen zementiert.

Ein Unternehmen, das sich gezielt von Altsystemen trennt, reduziert Komplexität und setzt Ressourcen für wertschöpfende Tätigkeiten frei. Am Anfang jeder neuen Dateninitiative sollte daher die Frage stehen: „Was genau schalten wir ab, wenn dieses Projekt erfolgreich ist? Und wie setzen wir diesen Schritt durch?“

Vom Planen zum Handeln: den ersten Schritt wagen

Data Effectiveness entsteht, wenn aus Daten echter Geschäftswert wird. Der Weg dorthin erfordert Zeit, Ausdauer und volle Rückendeckung von der Führungsebene. Denn Decision-first Thinking bedeutet nicht nur eine technologische, sondern vor allem eine organisatorische und kulturelle Veränderung. Doch ist dieser Wandel einmal gelungen, gewinnen Unternehmen strategische Handlungsfähigkeit zurück und sichern sich nachhaltige Wettbewerbsvorteile.

Den richtigen Startpunkt finden sie, wenn sie nach den richtigen Entscheidungen suchen – denen, die heute am meisten kosten, die meiste Zeit binden und den größten Einfluss auf strategische Ziele haben. Dieser Fokus bildet das Zentrum einer ganzheitlichen Daten- und KI-Strategie. Und daraus leitet sich die Frage ab: „Welche Entscheidung wollen wir als Erstes verbessern?“

Praxisbeispiel

Wie sich diese Fragen in der Praxis beantworten lassen, zeigt das Beispiel eines fiktiven Fashion-Retailers. Das Unternehmen betreibt ein zentrales Warenlager, von dem aus sowohl der Online-Shop als auch mehrere Filialen beliefert werden.
Welche Entscheidung adressieren wir? Eine wiederkehrende geschäftskritische Entscheidung ist, welche Mengen an Kleidungsstücken in welcher Farbe und Größe eingekauft werden. Auch die Auswahl der Lieferanten sowie der Bestellzeitpunkt spielen dabei eine zentrale Rolle. Ziel ist es, die Kundennachfrage laufend bedienen zu können, ohne dass einzelne Artikel ausverkauft sind (Out of Stock) oder Überbestände entstehen, die später mit Rabatten abgebaut werden müssen.
Wie messen wir den Effekt? In diesem Fall sind drei Metriken relevant:
● Out-of-Stock-Tage bei Topartikeln (Tage ohne Verfügbarkeit je Filiale / Channel)
● Vollpreis-Abverkaufsquote (Anteil der Verkäufe zum vollen Preis)
● Entscheidungsdurchlaufzeit (Zeit bis zur Bestellfreigabe)
Als Messansatz bietet sich ein Test- und Kontroll-Cluster an, in dem beispielsweise ausgewählte Artikelgruppen den neuen Prozess vollständig durchlaufen. Die Daten der vorherigen Saison-Kollektion bieten eine gute Baseline. Als Bewertungszeitraum eignen sich etwa 90 Tage ab dem Go-live.
Wer trägt die Ende-zu-Ende-Verantwortung? Die Entscheidungsverantwortung liegt in diesem Fall beim Head of Merchandising, der für den Geschäftserfolg der Einkaufsentscheidung verantwortlich ist. Die Umsetzungsverantwortung liegt bei einer klar benannten Person für Lösung und Prozessumsetzung (Planung, Qualität, Integrationen, Rollout).
Was wird nach Go-live abgeschaltet – und wie setzen wir das durch? Im Zuge des Projekts werden alle manuellen Excel-Buy-Sheets sowie veraltete Forecast-Jobs ohne Größenauflösung ersetzt. Nach einer vierwöchigen Übergangsphase können Bestellungen nur noch über das neue System aufgegeben werden. Ausnahmen bedürfen der Genehmigung des Head of Merchandising.

Artikelfiles und Artikellinks

(ID:50789785)