Qualitätsmanagement-Strategien und Automatisierungsprozesse, Teil 1

Die Datenqualität entscheidet über den Erfolg

| Autor / Redakteur: Marco Geuer und Achim Kern / Nico Litzel

Framework zur Data-Quality-Monitoring-Implemetierung
Framework zur Data-Quality-Monitoring-Implemetierung (Grafik: Marco Geuer, ACT)

Seit einigen Jahren investieren Unternehmen in Qualitätsmanagementsysteme, um ihre Prozesse und Abläufe auf die Kunden auszurichten und zu optimieren. Überraschend ist jedoch, dass das Thema Datenqualität in dieser Entwicklung bisher eher vernachlässigt wurde.

Inzwischen weisen diese Regelwerke zwar auf die Bedeutung guter Datenqualität hin, vernachlässigen aber, wie diese zu sichern ist oder gar eine Verschlechterung präventiv verhindert werden kann. Doch mittlerweile tut sich etwas. Den Anfang macht dabei die Norm DIN EN ISO 9001, die in einer überarbeiteten Version mit Veröffentlichung in 2015 auf das Thema Datenqualität verstärkt hinweisen wird (aktuelle Informationen aus der Normung – Revision DIN EN ISO 9001/14001:2015 und Struktur für neue Systemnormen/DGQ).

Der Faktor Mensch

Wenn man genauer hinschaut, wird schnell klar, warum mangelhafte Datenqualität lange nicht als problematisch erkannt wurde: Hinter vielen Schnittstellen verbirgt sich immer noch der Mensch, der ständig korrigierend eingreifen kann und dies auch meistens tut, solange das noch möglich ist. Dass aber viele Prozesse mit zunehmender Verschlechterung der Datenqualität auch ineffizienter wurden, ist lange nicht aufgefallen. Denn die ständigen kleinen Korrekturen tauchen in keiner Kostenrechnung auf.

Erst wenn massive Probleme bei einem Kunden auftreten und auf eine schlechte Datenqualität zurückzuführen sind, werden entsprechend groß angelegte Korrekturmaßnahmen durchgeführt. Das machte schon vielen Unternehmen schmerzhaft deutlich, was schlechte Datenqualität wirklich kostet. Doch sobald das Problem Datenqualität scheinbar wieder behoben ist, ist es auch schon wieder vergessen.

Industrie 4.0

Seit etwa zehn Jahren, stark bedingt durch den Einzug der verstärkten Automatisierung von Geschäftsprozessen unter Einbindung der entsprechenden Internettechnologie, ändert sich diese Haltung nach und nach. Denn am Ende von Geschäftsprozessen steht ein Kunde, der mangelhafte Produktqualität aufgrund von Datenqualitätsmängeln negativ zu spüren bekommt.

Das ist sicherlich nicht das Ziel des Erfinders gewesen. So verschwinden allmählich jene menschlichen Schnittstellen, die korrigierend eingreifen. In Zukunft sollen Maschinen automatisiert miteinander „sprechen“. Die kennen aber das Problem Datenqualität nicht und können daher nicht korrigieren, solange der Mensch, der die Maschinen, Schnittstellen und Prozesse entwickelt, keine datenqualitätssichernde Maßnahmen berücksichtigt und integriert.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 42841437 / Best Practices)