IoT-Analytics Wie Industrieunternehmen von guter Datenqualität profitieren

Von Yvonne Röber* |

Anbieter zum Thema

Digitale Geschäftsmodelle werden für die Industrie immer wichtiger. Doch sind die Daten fehlerhaft oder veraltet, können Kunden schnell verärgert oder sogar vergrault werden. Wie Datenchaos entsteht und wie Fehlerquellen aufgedeckt werden.

Schon Tippfehler oder länderspezifische Schreibweisen können die Datenqualität verschlechtern. Für noch größere Herausforderungen sorgen jedoch Datensilos und -Migrationen.
Schon Tippfehler oder länderspezifische Schreibweisen können die Datenqualität verschlechtern. Für noch größere Herausforderungen sorgen jedoch Datensilos und -Migrationen.
(Bild: gemeinfrei // Unsplash)

Falsche, fehlerhafte, veraltete und doppelte Daten sind auch für Industrieunternehmen ein Problem, denn eine mindere Datenqualität schädigt die Aussagekraft und Belastbarkeit der Daten und kann zu Fehlern im Vertrieb und der Logistikplanung führen. Wenn Kunden und Geschäftspartner nicht eindeutig identifiziert werden können, kann dies zu ineffizienteren Prozessen innerhalb des Unternehmens führen. Zum Beispiel kann eine veraltete Adresse zu einer fehlgeleiteten Lieferung führen. Die Retoure und ein erneuter Versand sind Schritte, die sich jedes Unternehmen sparen kann. Doch auch die Kundenbindung kann durch minderwertige Daten ins Wackeln kommen. Ein kleiner Schreibfehler im Nachnamen kann ausreichen, um Kunden zu verärgern, gar zu verlieren.

Immer mehr Industrieunternehmen setzen auf den Vertrieb über ihren eigenen Webshop. Dies bringt neue Herausforderungen mit sich, und zwar unter anderem die Optimierung der Datenqualität. Hochwertige Kundendaten bieten nicht nur die Möglichkeit, die Kundschaft gezielt anzusprechen und individualisierte Angebote vorzuschlagen. Für einen reibungslosen und kosteneffizienten Vertrieb sind sie unerlässlich, um Retouren und Fehlversände zu vermeiden. Derzeit kämpfen Industrieunternehmen mit dem Datenmanagement. Laut einer Uniserv-Umfrage, welche unter Maschinenbauern und Industrieunternehmen durchgeführt wurde, schätzten 44 Prozent der Befragten die Datenqualität in ihrem Unternehmen als „eher niedrig“ oder „sehr niedrig“ ein. Fast jedes zweite Unternehmen hat also eine minderwertige Datenbasis und kann nur begrenzt Mehrwert aus allen vorhandenen Daten ziehen.

Wie kommt es zum Datenchaos?

Schlechte Datenqualität kann viele Ursachen haben. Einer der Hauptgründe sind Datensilos. In vielen Unternehmen liegen die Geschäftspartnerdaten in verschiedensten abteilungs- oder systemspezifischen Silos vor und werden nicht zentral und einheitlich konsolidiert und verwaltet. Zum Teil sind die Datensilos geografisch und technologisch voneinander getrennt. Das hat zur Folge, dass Datensätze doppelt oder gar mehrfach vorgehalten sind. Es kommt vor, dass ungepflegte Datenbestände in den Unternehmen bis zu 50 Prozent Dubletten enthalten. Aber auch bei gut gepflegten Beständen sind im Schnitt oft noch 5 Prozent redundante Datensätze vorhanden. Laut einer IDC Studie von 2021 verzeichnen knapp ein Drittel der befragten Unternehmen in Deutschland ein jährliches Datenwachstum zwischen 31 und 60 Prozent. Dabei handelt es sich sowohl um Daten aus bereits vorhandenen, aber auch aus neuen Workloads und der Nutzung zusätzlicher Datenquellen und Datentypen. Durch dieses Wachstum und das resultierende dynamische und heterogene Datenumfeld können ohne den richtigen Lösungsansatz Fehler unterlaufen. Wenn diese Daten auch noch in unterschiedlichen Datensilos abgespeichert werden, kommt es zum Datenchaos.

Fehler schleichen sich ein

Grundsätzlich können fehlerhafte Datensätze recht schnell schon bei der Eingabe entstehen, zum Beispiel durch Zahlendreher oder unterschiedliche Schreibweisen von Namen oder Adressen. Bei weltweit operierenden Industrieunternehmen kann es zusätzlich zu fehlerhaften Datensätzen und Dubletten durch die länderspezifischen Adressierungsregeln kommen. Im Vergleich kommen unterschiedliche Konventionen zur Schreibweise und Formatierung von Adressdaten, sowie unterschiedliche Standards vor. So wird beispielsweise in Deutschland zuerst der Straßenname und dann die Hausnummer genannt, in Großbritannien ebenso wie in Frankreich jedoch zunächst die Hausnummer und danach der Straßenname. Während deutsche Adressen einem feldweisen Aufbau folgen, sind französische Adressen zeilenweise strukturiert. Genau solche Feinheiten machen etwa bei der Adressvalidierung den Unterschied in punkto Ergebnisqualität. Damit wird auch deutlich, warum ein global agierendes Unternehmen gut beraten ist, die Formulare etwa für die Eingabe von Rechnungs- und Lieferadresse an die jeweiligen länderspezifischen Adressiergepflogenheiten anzupassen.

Entsprechende Data-Governance-Richtlinien, etwa Vorgaben für die Datenoptimierung, ergänzen auf strategischer Ebene die operativen Bemühungen zur Sicherung der Datenqualität. Diese Vorgaben zielen darauf ab, die Qualität der Daten von Kunden und Geschäftspartner langfristig zu sichern. Wenn Daten nicht konzernweit konsistent sind und unterschiedliche Qualitätsstandards herrschen, führt das zu unterschiedlich gepflegten und somit inkonsistenten Datensätzen.

Systemwechsel oder Systemerneuerungen als weitere mögliche Fehlerquelle

Systemwechsel oder die Zusammenführung unterschiedlicher Systeme können die Datenqualität ebenfalls negativ beeinflussen. Das kommt etwa bei Zusammenschlüssen oder Übernahmen mehrerer Industrieunternehmen vor. Bei einer Fusion ohne fundierte Datenharmonisierungs- und Konsolidierungsstrategie und ohne den Einsatz entsprechender Tools droht auch hier schnell eine unübersichtliche Datenlage. Im gesamten Prozess der Zusammenführung unterschiedlicher Systeme hat die Qualität der Daten einen großen Einfluss darauf, wie reibungslos diese abläuft. Und wie hoch am Ende der wertschöpfende Business-Nutzen im künftigen laufenden Betrieb ausfällt, was wiederum direkt den ROI (Return on Investment) beeinflusst.

Systeme haben unterschiedliche Release-Stände

Zwischen zwei fusionierenden Industrieunternehmen, aber auch zwischen Mutter- und Tochterkonzern kann es außerdem zu unterschiedlichen Release-Ständen eingesetzter Systeme kommen. Man denke etwa an SAP R/3 und SAP S/4HANA mit den verschiedenen Datenmodellen. Das erschwert, einen einheitlichen, konsistenten, zentralen Datenbestand zu schaffen. Eine Migration allein verbessert die Datenqualität noch nicht. Dazu bedarf es im Migrationsprozess gezielter Datenqualitätsmaßnahmen, wie beispielsweise eine vorbereitende Datenanalyse sowie Schritte zur Datenbereinigung. Eine schlechte Qualität wirkt sich auch auf das neue System aus. Das Potenzial kann nicht voll ausgeschöpft werden. Für einen Datenmigrationsprozess mit schlechter Datenqualität gilt ganz einfach gesagt: „Crap in, Crap out“. Laut der Uniserv-Umfrage, stecken derzeit 44 Prozent der Maschinenbau-Unternehmen bereits in der S/4 HANA-Migration oder haben diese abgeschlossen. Jedoch schätzen viele dieser Unternehmen ihre Datenqualität als eher unzureichend ein.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Gerade eine Migration stellt jedoch eine Chance für Industrieunternehmen dar, ihre Datenqualität zu überprüfen, Datenbestände zu bereinigen und somit die Datenqualität zu verbessern. Im Zuge einer Migration gelingt somit die Zusammenführung der Daten mit einem strukturierten Vorgehen, das auf die langfristige Sicherstellung und Erhaltung der Datenqualität ausgerichtet ist. Unternehmen müssen dafür sorgen, ihre Kundendaten laufend gepflegt und aktuell zu halten.

Qualitativ hochwertige Daten für den maximalen Nutzen

Mit einer hochwertigen Datenbasis sind Industrieunternehmen in der Lage, bessere Geschäftsentscheidungen zu treffen, ihre Wettbewerbsfähigkeit zu steigern und Kosten, die durch fehlende oder falsche Daten verursacht werden können, zu minimieren. Die Datenpflege sollte kontinuierlich als fest installierter Prozess ablaufen und in der Strategie und den Geschäftsprozessen eines jeden Unternehmens verankert sein. Dafür müssen Industrieunternehmen ihre Kunden- und Geschäftspartnerdaten als Wissensschatz und Teil des Unternehmensvermögens betrachten. Nur gut gepflegte Daten erlauben es, das Wertschöpfungspotenzial vollständig auszuschöpfen. Unzuverlässige Daten können sich produzierende Unternehmen auf lange Sicht nicht leisten. Denn sie können einen enormen finanziellen und imageseitigen Schaden verursachen.

Dieser Artikel stammt von unserem Partnerportal Industry of Things.

* Yvonne Röber ist als beratende Expertin für die Industriebranche bei Uniserv tätig.

(ID:48427248)