Kommentar von Andreas Engel, Syniti So gelingen Datenqualitätsinitiativen
Anbieter zum Thema
Vertrauen ist wichtig. Die Welt der Daten stellt da keine Ausnahme dar. Datenqualität und die Durchsetzung von Datenverwaltungsstandards sind zu einem Hauptanliegen vieler Führungskräfte geworden.

Doch während 90 Prozent der Führungskräfte der Fortune-2000-Unternehmen Daten als entscheidenden Erfolgsfaktor für ihr Unternehmen bezeichnen, vertrauen schlussendlich nur 5 Prozent dieser Führungskräfte den Daten, über die sie verfügen. Bei der Optimierung des Potenzials von Daten tun sich viele Unternehmen immer noch erstaunlich schwer.
Klassische Missverständnisse als Hemmschuh
Während qualitativ hochwertige Daten offensichtlich zu besseren Erkenntnissen, Arbeitsabläufen, Kundenerfahrungen etc. führen, können sich weit verbreitete, falsche Vorstellungen darüber, wie diese Daten tatsächlich zu verwalten sind, nachteilig auswirken. Trotz wiederholter Bemühungen, Daten zu verbessern und zu standardisieren, scheitern 43 Prozent der Datenprojekte. Und obwohl jedes Datenqualitätsprojekt anders ist, liegen die Gründe für das Scheitern oft in denselben falschen Vorstellungen begründet. Daher ist es für Unternehmen wichtig, ihre individuellen Probleme zu klären sowie Lösungen anzubieten.
Daran scheitern Datenqualitätsinitiativen – die Top 5
- 1. Tolerieren minderwertiger Daten als Norm: Untersuchungen der Harvard Business Review (HBR) haben ergeben, dass lediglich 3 Prozent der Datenqualität eines Unternehmens als akzeptabel eingestuft werden, was im Umkehrschluss bedeutet, dass 97 Prozent der Daten qualitativ nicht das Mindestmaß erreichen. Laut HBR deuten diese Ergebnisse auf eine „ungesunde organisatorische Toleranz gegenüber schlechten Daten hin und unterstreichen das Ausmaß der Verbesserungen, die Unternehmen vornehmen müssen, um in der wissensbasierten Wirtschaft wirklich effektiv zu sein.“
- 2. 99+ % Datenqualität als Utopie abgetan: Das soll nicht heißen, dass die meisten Unternehmen eine schlechte Datenqualität für eine gute Sache halten. Sie sind vielleicht „betriebsblind“ gegenüber ihren infizierten Daten oder (was noch häufiger vorkommt) Sie glauben, dass eine Datenqualität von 99+ Prozent schlicht unrealistisch ist. Da sie sich mit ihrer Niederlage abgefunden haben, nehmen diese Unternehmen die neuen Fortschritte bei der Datenqualität gar nicht mehr wahr.
- 3. Verwechslung teurer Analysen mit Datenqualitätsplattformen: Stakeholder verwechseln häufig Business-Analytics-Plattformen, CRMs sowie Data-WarehousesS mit dynamischen Lösungen, die hochwertige Daten optimal verwalten und pflegen. Anspruchsvolle CRM- oder ERP-Lösungen sind zwar wertvoll, werden aber nicht mit Blick auf diese Geschäftsanforderungen entwickelt. Selbst im Falle von großen Data Warehouses ist die Lösung für bereits saubere und validierten Daten konzipiert – etwas, das idealerweise außerhalb der Lösung geschehen muss.
- 4. Trau, schau, wem: den richtigen Partner finden: Die Komplexität und der Umfang, in dem wir heute Daten erfassen, erfordern eine speziell entwickelte Software zur Verwaltung des konstanten Datenflusses im gesamten Unternehmen. Partner mit ganzheitlichen, langfristig angelegten Lösungen sind diesen Anforderungen gewachsen. Durch die Nutzung eingebetteter Best Practices sowie überlegener Technologien ist es einfacher als je zuvor, aus unterschiedlichen Daten einen Wettbewerbsvorteil zu generieren.
- 5. Fehlende Ressourcen im Kontext der Datenhygiene: Laut einem aktuellen HFS-Bericht geben CXOs an, dass ein hohes Maß an Datenqualität für den Erfolg eines Unternehmens noch wichtiger ist als kluge Entscheidungen des Managements. Fast die Hälfte der Befragten ist gar der Meinung, dass sie individuelle Datenressourcen aufgrund einer fehlenden, effektiven Datenmanagement-Strategie nicht ausreichend nutzen können.
Data Governance: der Impuls hinter Datenqualitätsinitiativen
Die Entwicklung eines Data-Governance-Plans kann Benutzer dazu befähigen, über ihre alltäglichen Aufgaben hinaus zu denken. Die Unterstützung von Datenqualitätsinitiativen durch Data Governance schafft einen kollaborativen Rahmen für die Verwaltung und Definition von Richtlinien, Geschäftsregeln und Assets, um das erforderliche Maß an Datenqualitätskontrolle zu gewährleisten.
Qualität, die bleibt: das Interesse an guten Daten pflegen
Es liegt auf der Hand, dass bei jeder vorrangigen Initiative die frühzeitige Einbindung der Stakeholder entscheidend ist, um die Initiative im gesamten Unternehmen voranzutreiben. Es ist jedoch nicht immer so klar, wie man das gesamte Unternehmen auf Dinge wie Datenqualität, Data Governance oder Metadatenmanagement ausrichtet.
Große und kleine Unternehmen benötigen eine zielgerichtete Planung, um eine Datenqualitätsstrategie von der anfänglichen Zustimmung zu einem langfristigen Programm zu entwickeln, das mit wertvollen Kennzahlen verbunden ist. In einem kürzlich geführten Interview erklärt Diane Schmidt, Head of Enterprise Data Governance bei der London Stock Exchange Group (LSEG), wie man alle Beteiligten, von den Hauptakteuren bis hin zu den Endnutzern, für ein neues Datenmanagementprogramm gewinnen kann. Laut Schmidt kommt es vor allem auf eines an: eine klare, umsetzbare Strategie. „Wenn Sie in der Lage sind, auf eine Strategie zurückzugreifen und dabei erleben, wie diese die geschäftlichen Vorteile unterstützt, beginnt sich der Dialog zu verändern“, so Schmidt. Durch die Feinabstimmung des Datenqualitätsprogramms mit den übergeordneten Unternehmenszielen wird es einfacher, einen echten Wert und eine Investitionsrendite nachzuweisen.
Aufschieberitis als Kostenfalle
Das Aufschieben einer ordnungsgemäßen Datenbereinigung und Datenaktualisierung kann auf lange Sicht mehr Zeit, Geld und Ressourcen beanspruchen. In den USA gehen 30 Prozent des Umsatzes aufgrund fehlerhafter Daten verloren. Dieser Wert steigt exponentiell an, je größer das Unternehmen ist. Darüber hinaus hat Gartner herausgefunden, dass sich die durchschnittlichen Kosten im Kontext schlechter Datenqualität für Unternehmen auf 9,7 bis 14,2 Millionen US-Dollar jährlich belaufen.
Tick, Tack: Zeitverschwendung rächt sich
Auch wenn die meisten Führungskräfte heute die Bedeutung der Datenqualität erkennen, ist es leicht, andere Datenverwaltungsprojekte wie Migrationen, Archivierung oder Katalogisierung als Antworten auf die Problemstellung zu betrachten. In Wirklichkeit sollten Datenqualitätsprüfungen als Bestandteil dieser zusätzlichen Workflows integriert werden, um Risiken, Latenzzeiten sowie kostspielige, nachgelagerte Integrationsfehler zu vermeiden. Die frühzeitige Etablierung von Datenqualitätsverfahren in der Unternehmenskultur kann Umsatzeinbußen verhindern und den Wert der Daten optimieren.
Eine gute Strategie zahlt sich aus
Die besten Lösungen auf dem Markt ermöglichen es Unternehmen, ihren Datensätzen auf der Metadatenebene einen Kontext zu geben und die Kontrolle über ihre Daten zu behalten. Eine schnelle, Cloud-basierte Datenqualitätsanalyse, die Unternehmen dabei hilft, die Auswirkungen der Datenqualität zu verstehen, verringert das Risiko und maximiert den Wert wichtiger Initiativen wie etwa Fusionen und Übernahmen, oder auch digitale Transformationen.
- Kontinuierliche Verbesserung des Vertrauens in Unternehmensdaten, Befähigung der Benutzer im gesamten Unternehmen
- Vorhersage und Vermeidung von Geschäftsunterbrechungen durch Initiierung der richtigen Workflows mit den richtigen Dateneigentümern
- Beschleunigung von Geschäftsinitiativen mit zuverlässigen Integrations-, Replikations- und Migrationsprojekten, die die Datenqualität beeinflussen
- Unterstützung globaler Vorschriften und Analyseanforderungen in einer skalierbaren, zuverlässigen Weise
- Beschleunigung künftiger Transformationen und Dateninitiativen durch Verringerung des Risikos bei fortgeschrittenen Datenmigrationsprojekten
Um Maßnahmen gegen Datenqualitätsmängel ergreifen zu können, ist es wichtig, alle möglichen Probleme im Voraus systematisch zu identifizieren und Abhilfemaßnahmen zu ergreifen.
Artikelfiles und Artikellinks
Link: Syniti im Web
(ID:48573769)