Kommentar von Frank Schuler, BackOffice Associates

Data Cleansing – so sichern Unternehmen den Wert von Daten

| Autor / Redakteur: Frank Schuler / Nico Litzel

Der Autor: Frank Schuler ist SAP-Mentor und Vice President SAP Technical Architecture bei BackOffice Associates
Der Autor: Frank Schuler ist SAP-Mentor und Vice President SAP Technical Architecture bei BackOffice Associates (Bild: BackOffice Associates)

Daten sind erst dann wirklich wertvoll, wenn sie sauber, akkurat und vollständig sind. Doch das Data Cleansing kann wie eine Mammutaufgabe erscheinen.

Explodierende Datenvolumen und die wachsende Anzahl von Systemen, die Daten sammeln, verarbeiten und analysieren, machen das Thema Datenqualität zu einer komplexen Aufgabe. Den Kopf in den Sand zu stecken, kann sich kaum noch ein Unternehmen leisten: Die Zuverlässigkeit und Relevanz von Unternehmensentscheidungen steht und fällt mit der Zuverlässigkeit und Relevanz der darunterliegenden Daten. Mit der zunehmenden Digitalisierung – ob im Marketing, in der Produktion oder in der Logistik – bergen lückenhafte oder fehlerbehaftete Datensätze das Risiko, dass Prozesse schieflaufen, sich verzögern, unsinnige Ergebnisse produzieren oder ganz zum Erliegen kommen.

Probleme manuell zu finden und zu beseitigen oder gar per temporärer Behelfslösung zu überbrücken, ist nicht nur zeitraubend und frustrierend, sondern auch teuer. Einer Gartner-Studie zufolge kostet schlechte Datenqualität Unternehmen im Schnitt 15 Millionen US-Dollar pro Jahr. Höchste Zeit also, das Thema zur Chefsache zu erklären.

Viele Unternehmen nehmen eine Datenbereinigung erst in Angriff, wenn sie eine Migration in die Cloud oder zu In-Memory-Technologien wie SAP S/4HANA planen. In größeren Unternehmen kann das Data Cleansing jedoch Jahre dauern. Vorausschauend zu handeln, lohnt sich. Firmen, die Schritt für Schritt vorgehen, also zuerst eine umfassende Datenbereinigung vornehmen und dann die System-Migration, reduzieren die Komplexität einer solchen Umstellung deutlich und beugen Problemen vor.

Fünf Stufen der Datenqualität

Es lassen sich fünf Level der Datenqualität definieren:

  • Technisch gültige Daten erfüllen die rein technischen Speicheranforderungen des Systems. Sie liegen im verarbeitbaren Format vor, haben die richtige Länge und beinhalten die nötigen alphanumerischen Charakter.
  • Geschäftsrelevante Datensätze enthalten alle Informationen, die von den Geschäftsprozessen zwingend benötigt werden, etwa bei SAP-Systemen den Buchungskreis. Lückenhafte Daten sowie redundante Informationen, die für den Prozess nicht vorgesehen sind, zählen nicht als geschäftsrelevant.
  • Business Ready sind Daten, die zusätzlich vollständig, aktuell, akkurat und konsistent sind. Das heißt etwa, dass Attribute wie Adressen immer im gleichen Format und der gleichen Schreibweise vorliegen. Dubletten, inaktive Datensätze und Schreibfehler sind beseitigt.
  • Abgeglichen und harmonisiert sind die Daten dann, wenn sie über die gesamte Unternehmensarchitektur hinweg denselben Standards genügen – also über unterschiedliche Systeme, Unternehmensbereiche und Standorte hinweg. Produktcodes sind konsistent, Datenfelder eins zu eins miteinander vergleichbar.
  • Idealerweise sind die Daten auch validiert und autorisiert, also von den entsprechenden Stakeholdern innerhalb des Unternehmens geprüft worden. Dafür sind Validierungsprozesse definiert.

Der letzte Schritt fehlt in vielen Unternehmen noch. Rollen wie die des Chief Data Officer oder Chief Data Architect werden in dieser Hinsicht immer wichtiger. Auch weil sich „Qualität“ unterschiedlich definieren lässt – je nachdem, was ein Prozess von den betreffenden Daten benötigt. Selbst von Abteilung zu Abteilung können die Qualitätsvorstellungen erheblich voneinander abweichen.

Schritt für Schritt zu sauberen Daten

Eine strukturierte Datenbereinigung verbessert nicht nur die Richtigkeit und Zuverlässigkeit der Informationen. Sie schafft auch mehr Transparenz in der Datenlandschaft, indem sie prüft, woher die Daten stammen, ob und wie oft sie tatsächlich benötigt werden und wer auf sie zugreift.

Wie also vorgehen? Zunächst einmal heißt es, die Qualitätsziele festzulegen. Welche Daten sind zentral für die Prozesse im Unternehmen? Welche Anforderungen hat das Unternehmen an die von ihm gesammelten und verarbeiteten Daten sowie an Daten, die von Dritten stammen? Wie können Daten dabei helfen, die Geschäftsziele zu erreichen? Welche Standards müssen sie dazu erfüllen?

Der nächste Schritt ist ein umfassender Datenaudit, der bewertet, wie nah das Unternehmen den definierten Zielen ist und wo die schwerwiegendsten Lücken sind. Gibt es Probleme, die wiederholt auftreten? Bekannte Fehler in den Datenbeständen? Analysen, die nicht möglich sind? Daten, die gelöscht werden könnten? Für ein solches Assessment sollten durchaus ein paar Wochen eingeplant werden.

Eine detaillierte Analyse der vorhandenen Schwächen hilft schließlich dabei, gezielt die Bereiche zu priorisieren, in denen die größten positiven Resultate zu erwarten sind. Auf dieser Basis lässt sich die beste Strategie für eine nachhaltige Verbesserung der Datenqualität finden.

Die Messlatte nicht zu hoch legen

Bei der Festlegung der Datenqualitätsziele hilft es, sich an etablierten Best Practices vergleichbarer Unternehmen und Branchenstandards anzulehnen. Auch Compliance-Anforderungen sind zu beachten. Die Datenqualität ist oft auch eine Schnittstellenfrage, denn Daten sollten sich reibungslos zwischen Systemen und Unternehmensbereichen sowie mit Lieferanten und Kunden austauschen lassen.

Es macht aber wenig Sinn, Perfektion anzustreben. Letztendlich sind die Daten Mittel zum Zweck. Sie müssen nur den notwendigen Grad an Qualität erreichen, um Prozesse zu ermöglichen und Ergebnisse zu liefern.

Für den Bereinigungsprozess selbst und die Automatisierung vieler Datenqualitätsaufgaben existieren am Markt zahlreiche Tools – unter anderem auch von SAP. Diese reichen von rein technischen Werkzeugen, die Daten quasi in Isolation behandeln, über Migrationshilfen, die Datenquelle und Datenziel kennen und ihre technischen Anforderungen verstehen bis hin zu umfassenden Lösungen, mit denen sich maßgeschneiderte Prozessanforderungen und die dazu gehörigen Workflows definieren und umsetzen lassen.

Diese Highend-Tools bieten flexible Optionen zur Behebung von Datenfehlern, zur Abarbeitung von Ausnahmefällen und zur Datenvalidierung. Detaillierte Reportingfunktionen und automatische Warnmeldungen, wenn Mindestanforderungen nicht eingehalten werden, erlauben jederzeit den Überblick über den aktuellen Zustand der Daten. Eine solche Plattform mit Schnittstellen zur bestehenden Systemlandschaft ermöglicht eine kontinuierliche Qualitätssicherung und wird auch mit wachsenden Datenmengen fertig.

Die Datenbereinigung ist erst der Anfang

Ist der Idealzustand erreicht, geht es darum, die Datenqualität langfristig aufrecht zu erhalten. Täglich werden Unmengen neuer Daten generiert. Eine automatische Monitoring-Lösung ist wesentlich, um Mängel in Datensätzen schnell aufzudecken. Solche Tools können schlechte Daten automatisch finden und korrigieren, bevor Probleme auftreten. Sie helfen zudem zu lokalisieren, woher die Fehler stammen und dann vorbeugende Qualitätsrichtlinien zu formulieren. Diese wiederum lassen sich in die Software mit einprogrammieren, so dass sie schon bei der Dateneingabe Fehler und inkonsistente Werte aufzeigt.

Sind solche Regeln in simpler Sprache definiert – etwa „Postleitzahl muss fünf Ziffern enthalten“ – dann kann jeder Nutzer den Datensatz reparieren, auch ohne die spezifischen Anforderungen des darunter liegenden Prozesses zu verstehen. Die Daten müssen nicht von der IT-Abteilung bereinigt werden, sondern werden zur Korrektur direkt an den Nutzer in der entsprechenden Fachabteilung weitergereicht.

Eine solche Monitoring-Lösung dient als zentraler Ort für die Definition aller Datenregeln im Unternehmen. Sie macht die Datenqualität permanent messbar, etwa indem sie anzeigt, welcher Prozentsatz der Unternehmensdaten noch lückenhaft ist oder welcher Fachbereich die Anforderungen nicht ausreichend erfüllt.

Fazit

Daten sind das Lebenselixier jedes Unternehmens. Datenbasierte Erkenntnisse lassen Firmen effizienter, relevanter, schneller und wettbewerbsfähiger handeln. Daten sind zudem das Element, das im digitalen Zeitalter Menschen, Prozesse und Technologien verbindet. Wie sie zwischen Personen und Systemen fließen, Abläufe fördern und in technischen Plattformen zum Einsatz kommen, entscheidet letztendlich den Erfolg digitaler Transformationsprojekte. Alle drei – Menschen, Prozesse und Technologien – müssen deshalb Teil einer Lösung sein, die eine kontinuierliche Datenverbesserung unterstützt.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45756230 / Analytics)