Kommentar von Jean-Paul Otte, Precisely Überlegungen zu Data Governance, Observability und Qualität

Von Jean-Paul Otte 5 min Lesedauer

Anbieter zum Thema

Die Entscheidungsträger von heute sind auf eine Vielzahl von Informationen aus dem gesamten Unternehmen angewiesen, um die komplexe Landschaft, in der sie tätig sind, zu verstehen. Die meisten Unternehmen verwenden eine Mischung aus Vertriebsberichten, Marketinganalysen und operativen Berichten, um ihre Manager bei täglichen Entscheidungen und der strategischen Planung zu unterstützen.

Der Autor: Jean-Paul Otte ist Leiter der EMEA-Datenstrategie bei Precisely(Bild:  Precisely)
Der Autor: Jean-Paul Otte ist Leiter der EMEA-Datenstrategie bei Precisely
(Bild: Precisely)

Doch was geschieht, wenn sich diese Berichte als ungenau erweisen? Das ist eine Herausforderung, der sich Unternehmensleiter zunehmend stellen wollen. Eine kürzlich durchgeführte Studie des LeBow College of Business der Drexel University hat gezeigt, dass 77 Prozent der Unternehmen datengestützte Entscheidungsfindung als ein wichtiges Ziel ihrer Datenprogramme angeben.

Tatsache ist, dass die Genauigkeit von Berichterstattungs- und Business-Intelligence-Systemen nur so gut ist wie die Daten, mit denen sie versorgt werden. Unternehmen müssen einen konstanten Fluss an vertrauenswürdigen und zeitnahen Daten sicherstellen, um sichere, datengestützte Entscheidungen treffen zu können. Die Antwort auf diese Frage liegt in der Nutzung von Daten mit hoher Integrität, die konsistent, genau und kontextbezogen sind. Im Folgenden wird erklärt, wie Unternehmen robuste Datenintegritätsstrategien einführen können, die sich auf eine effektive Datenverwaltung, Beobachtbarkeit und Qualität konzentrieren, um Datenausfälle zu vermeiden und strategische Entscheidungen zu treffen.

Was ist Datenausfallzeit?

Die Daten durchlaufen von verschiedenen Quellsystemen aus eine Vielzahl von ETL- und Datenqualitätsprozessen, bevor sie schließlich in diese Dashboards und Berichte einfließen. Diese Systeme entwickeln sich oft im Laufe der Zeit weiter und werden immer komplexer. Da die Daten aus verschiedenen Quellen stammen und komplexen Transformationen unterzogen werden, kann es schwierig sein, ein Problem rechtzeitig zu seiner Ursache zurückzuverfolgen. Das führt zu weiterer Frustration bei den Endbenutzern, die sich bei wichtigen Geschäftsentscheidungen auf diese Daten verlassen.

Das ist die eigentliche Definition von „Datenausfallzeiten“. Sie tritt auf, wenn die Benutzer in ihrem Unternehmen keinen direkten Zugang mehr zu den genauen, aktuellen Daten haben, die sie für effektive Geschäftsentscheidungen benötigen. Wenn ein Bericht nicht mehr richtig funktioniert, ist das Unternehmen einfach nicht mehr in der Lage, optimal zu arbeiten.

Ein proaktiver Ansatz für Vertrauenswürdigkeit

Was können Datenverantwortliche tun, um das Problem der Datenausfallzeiten zu lösen? Wie können sie die negativen Auswirkungen minimieren, indem sie proaktive Maßnahmen ergreifen, um Probleme von vornherein zu vermeiden?

Für Unternehmen, die sich auf komplexe Datenintegrationsprozesse verlassen, beginnt die Antwort mit einem klaren Verständnis der Pipelines, die die Daten vorbereiten und an verschiedene Analyseplattformen liefern. Datenverantwortliche müssen den laufenden Zustand dieser Pipelines überwachen, verwalten und formale, skalierbare Mechanismen zur proaktiven Verwaltung der Datenqualität entwickeln.

Unternehmen müssen auch die Fähigkeit entwickeln, Probleme schnell zu erkennen, wenn diese entstehen. Wie reagiert ein typisches Unternehmen auf das Problem mit dem Bericht über die Vertriebspipeline? Die Vertriebsleitung schickt eine E-Mail an ihren Hauptansprechpartner in der IT-Abteilung, was zu einem regen Hin und Her zwischen den Teammitgliedern führt.

Im ersten Schritt ist herauszufinden, woher die Daten kommen und wem sie gehören. Die Unternehmen beschäftigen sich mit der Frage, was mit den Daten auf ihrem Weg von einem oder mehreren Quellsystemen zur Analyseplattform für die Vertriebsberichte geschieht. Was wird gebraucht, um das Vertrauen in die Daten und den Bericht über die Vertriebspipeline wiederherzustellen?

Welche Tabellen und Felder und welche Datenzeilen sind die Ursache für Ungenauigkeiten? Die Ursachenanalyse nimmt in der Regel viel Zeit in Anspruch, und das führt zu Frustration bei den Geschäftsanwendern, die genaue Informationen erwarten, um rechtzeitig Entscheidungen treffen zu können.

Die leistungsstärksten Unternehmen von heute sind darauf angewiesen, dass Datenverwalter, Dateningenieure und Datenanalysten zusammenarbeiten, um Vertrauen zu schaffen und zu erhalten:

  • Datenverantwortliche sind für die Sicherung der Datenqualität verantwortlich, indem sie organisatorische Standards festlegen und die unternehmensweite Konsistenz aufrechterhalten.
  • Dateningenieure sind dafür verantwortlich, dass die Daten für alle Beteiligten zugänglich sind. Sie erstellen und pflegen die Datenpipelines, die die Daten umwandeln und sie an die gewünschten Stellen bringen.
  • Datenanalysten sind letztlich die Nutzer der Daten, aber sie spielen eine wichtige Rolle im Lebenszyklus der Daten. Sie tragen dazu bei, dass die Daten genau und von hoher Qualität sind und dass sie für die Zwecke, für die sie verwendet werden, verfügbar und geeignet sind.
  • Diese drei Rollen müssen zusammenarbeiten, um Datenausfälle zu vermeiden. In einer tatsächlich datengesteuerten Organisation kann es keine Dateninseln geben.

Die entscheidende Rolle von Data Governance, Überwachbarkeit und Qualität

Die Verhinderung von Datenausfällen muss letztlich ein kontinuierlicher Prozess sein. Dieser Prozess ist in drei verschiedene Tätigkeitsbereiche zu unterteilen:

  • Vorbereiten: Data Governance beginnt mit dem Verständnis Ihrer Datenlandschaft, der Identifizierung der für das Unternehmen wichtigsten Informationen und der eindeutigen Zuweisung von Dateneigentum. Eine wirksame Data Governance erfordert einen strukturierten Rahmen und klar definierte Prozesse.
  • Identifizieren und Beobachten: Bei der Datenbeobachtung geht es darum, klare Geschäftsregeln zur Validierung von Datenbeständen festzulegen und die Fähigkeit zu entwickeln, die Ursache eines Problems sehr schnell zu finden.
  • Beheben: Um die Datenintegrität in großem Umfang zu entwickeln und aufrechtzuerhalten, müssen Prozesse eingerichtet werden, mit denen Probleme schnell und proaktiv beheben werden können, wenn sie auftreten. Zu einer wirksamen Problemlösung gehört es, Anomalien zu verstehen und skalierbare Geschäftsprozesse zu entwickeln.

Geschäftsdaten ändern sich regelmäßig; die Art der Unternehmensberichte wird sich im Laufe der Zeit weiterentwickeln. Die Datenlandschaft muss fortlaufend bewertet und Ihre Data Governance-, Datenbeobachtungs- und Bereinigungsprozesse angepasst werden, um mit diesen Veränderungen Schritt zu halten.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die Herausforderung der Datenintegrität meistern

Viele Unternehmen kämpfen damit, aus ihren Data-Governance-Programmen einen klaren, messbaren Nutzen zu ziehen. Um erfolgreich zu sein, müssen die Verantwortlichen für Datenmanagement Menschen, Prozesse und Technologien so aufeinander abstimmen, dass sie letztlich den strategischen Geschäftszielen ihres Unternehmens dienen. Es ist wichtig, eine klare Data-Governance-Strategie festzulegen, die Unterstützung der Geschäftsleitung zu gewinnen und die Zusammenarbeit zwischen Geschäftsanwendern und der IT-Abteilung zu fördern.

Leistungsstarke Unternehmen erkennen auch den Wert der Datenbeobachtung, wobei Gartner feststellt, dass „die Datenbeobachtung jetzt unerlässlich geworden ist, um bestehende und moderne Datenarchitekturen zu unterstützen und zu erweitern“. Darüber hinaus war die Nachfrage nach qualitativ hochwertigen Daten noch nie so wichtig wie heute. Jüngste Ergebnisse des LeBow College of Business der Drexel University zeigen, dass 70 Prozent der Unternehmen mit geringem Vertrauen in ihre Daten die Datenqualität als größtes Problem bei der Entscheidungsfindung nennen.

Um das Vertrauen in ihre Daten aufzubauen und zu erhalten, müssen Unternehmen einen ganzheitlichen Ansatz für diese Herausforderungen wählen. Eine solide Datenintegritätsstrategie, die sich auf eine wirksame Datenverwaltung, Beobachtbarkeit und Qualität konzentriert, ist ein wichtiger Schritt auf dem Weg zu vertrauenswürdigen Daten und letztlich zu einer datengestützten Entscheidungsfindung, auf die wirklich vertraut werden kann.

(ID:50059185)