Suchen

Kommentar von Andreas Ploeger, Assecor, zu Datenqualität Effizient mit Big Data umgehen – Fehler vermeiden

| Autor / Redakteur: Andreas Ploeger / Nico Litzel

In den vergangen 20 Jahren hat sich die Menge digitaler Daten in Unternehmen mehr als verzehnfacht. Dem trägt der Terminus „Big Data“ Rechnung und verdeutlicht damit eine Entwicklung, die auch in den kommenden Jahren anhalten wird.

Firmen zum Thema

Der Autor: Andreas Ploeger arbeitet im Team Engineering & MCCS bei der Unternehmensberatung Assecor
Der Autor: Andreas Ploeger arbeitet im Team Engineering & MCCS bei der Unternehmensberatung Assecor
(Bild: Assecor)

Insbesondere das Konzept der Industrie 4.0, die damit einhergehende Automatisierung vorhandener Prozesse und die daraus resultierende autonome Kommunikation zwischen Einzelkomponenten, werden zu einem weiteren rasanten Zuwachs an Daten führen.

Je größer und komplexer Datenbestände werden, desto höher ist auch die Wahrscheinlichkeit, dass sich Fehler einschleichen. Umso wichtiger ist es dafür Sorge zu tragen, dass die Sicherung der Datenqualität einen hohen Stellenwert im Unternehmen einnimmt. Neben automatisierten Maßnahmen erweisen sich zusätzliche Kontrollen als sinnvoll, auch weil automatisierte Bewertungen und Fehlereinschätzungen unter Umständen nicht den qualitativen Anforderungen entsprechen.

In diesem Zusammenhang müssen sich Unternehmen fragen, welche Folgen fehlerhafte Daten für sie haben und wie diese vermieden werden können. Wie lassen sich also Qualitätssicherungen effizient umsetzen und fehlerhafte Massendaten bereinigen?

Notwendige Basis: hohe Datenqualität

Oft bleibt unklar, welche konkrete, messbare Bedeutung die Daten für ein Unternehmen haben. Ungeachtet dessen bleiben sie in jedem Fall als Aggregat der gesammelten Erfahrungen unverzichtbar, um positive Entwicklungen im gesamten Unternehmen voranzutreiben.

Um dies zu erreichen, muss die Datenqualität allerdings stetig auf einem hohen Niveau gehalten werden. Das ist mitunter keine leichte Aufgabe. Immerhin sind die Ursachen beispielsweise für die Entstehung von Datenfehlern vielfältig. Darunter fallen menschliche Eingabefehler ebenso wie Programmfehler, fehlerhafte Annahmen und Ausgangsdaten.

Werden Daten aus analogen Beständen digitalisiert, kann bereits eine fehlerhafte Konvertierungsregel in einem unbrauchbaren Datenbestand resultieren. Legen die Verantwortlichen nicht von Beginn an Wert auf ein konsistentes Datenmodell und ein konsequentes Datenmanagement, sind anschließende Korrekturen und Bereinigungsmaßnahmen innerhalb des Datenbestandes notwendig.

Datenqualität erfolgreich sichern

Um fehlerhafte Daten zu vermeiden, kommen verschiedene Möglichkeiten in Betracht: Qualitätssicherungen, Prozessanpassungen, Schulungen und Updates der Soft- und Hardware. Jede für sich genommen, hat mit Sicherheit ihre Berechtigung. Welche Kombination der verschiedenen Maßnahmen allerdings die passende ist, hängt sehr vom Unternehmen ab. Entscheidend bleibt aber deren regelmäßige Durchführung.

Im Rahmen der Qualitätssicherung sollten Daten in drei Schritten bearbeitet werden. Im Fokus des ersten Schrittes steht die Analyse der Daten. Im zweiten Schritt geht es um die Bewertung der Daten auf Korrektheit, Relevanz für den Betriebsablauf, Alter, Zugehörigkeit zu anderen Daten etc. Eine Darstellung der Bewertung dient dazu, Empfehlungen für durchzuführende Maßnahmen aufzuzeigen. Diese gilt es dann im dritten Schritt umzusetzen. Dabei werden einerseits gefundene Fehler beseitigt. Anderseits muss aber die Fehlerursache identifiziert und ausgeräumt werden.

Prozessanpassungen werden notwendig, wenn sich die in einem Unternehmen gelebten Prozesse als nicht (mehr) optimal erweisen. Regelmäßige Überprüfungen im Rahmen der Qualitätssicherung bringen deshalb den Anpassungsbedarf an die aktuellen Gegebenheiten und Anforderungen ans Licht. So lassen sich auffällig gewordene, typische Datenfehler vermeiden und die Effizienz steigern.

Auch der Bedarf an Schulungen kann Ergebnis einer Datenqualifizierung sein. Doch in diesem Feld lohnt sich auch proaktives Handeln. Sowohl die Möglichkeit, Kenntnisse an bereits verwendeten Systemen aufzufrischen, als auch vor deren Einführung an neuen Systemen zu schulen, nehmen Mitarbeiter in der Regel dankbar an.

Als weitere, unverzichtbare Maßnahme für den Erhalt einer hohen Datenqualität stellt sich die regelmäßige Aktualisierung der vorhandenen IT-Systeme – sowohl software- als auch hardwareseitig – dar. Dies wird gern vernachlässigt, was die durchaus realistische Gefahr eines Totalausfalls, z. B. durch Inkompatibilitäten, birgt.

Wer den Schaden hat …

Für die Bereinigung fehlerhafter Daten stehen grundsätzlich zwei Methoden mit ihren spezifischen Vor- und Nachteilen zur Verfügung: die händische und die softwaregestützte Bereinigung sowie deren Kombination. Welche Vorgehensweise am sinnvollsten ist, hängt von verschiedenen Faktoren wie beispielsweise der Art der Daten, deren Umfang und der zur Verfügung stehenden Zeit ab.

Entscheiden sich Unternehmen für den manuellen Weg, sind sie dadurch deutlich flexibler. Zum einen können unabhängig von der eigenen Personalsituation, je nach Bedarf und zur Verfügung stehender Zeit, externe Mitarbeiter eingesetzt werden. Zum anderen lässt sich die Verfahrensanweisung, welche diesen Mitarbeiter Grundlage der ausgeführten Tätigkeit ist, nötigenfalls auch kurzfristig anpassen. Durch die Aufteilung einer komplexen Aufgabe in ein-fache Schritte, kann so eine große Menge Daten binnen kurzer Zeit gesichtet und bereinigt werden.

Die Assecor GmbH hat beispielsweise durch die Bereitstellung ihres Personals und Know-hows in diesem Bereich vielen Kunden bei der Planung, Realisierung, Durchführung und Nachbereitung von Bereinigungen erfolgreich zur Seite stehen können. In der Regel können selbst die komplexesten Vorgänge in einzelne Teilschritte untergliedert werden, die sich parallel umsetzen lassen und so auch in kurzer Zeit zu einem guten Ergebnis führen.

Bei einer automatisierten Durchführung einer solchen Bereinigungsmaßnahme analysiert und bewertet eine Software die Daten und führt entsprechende Schritte durch (Korrektur, Sicherung, Löschung etc.). Die erforderlichen vorbereitenden Maßnahmen entsprechen in ihren Grundzügen denen analoger Bereinigungen. Dennoch stellt die Vorbereitung in diesem Fall den höheren Anteil der Aufwände dar. Denn in Abhängigkeit von System und Datentyp wird ein Skript, eine Routine oder Software entwickelt, sodass die Vorbereitungs- und Entwicklungszeit die einer manuellen Bereinigung um ein Vielfaches übersteigen kann.

Fazit

Eine intensive Auseinandersetzung mit den Themen Daten, Datensicherheit und Datenmanagement ist in den Zeiten von Big Data unerlässlich. Zunächst steht dabei die Entwicklung eines einheitlichen und funktionalen Datenmodells im Vordergrund. Ist dieses implementiert, müssen Prozesse und Datenbestände regelmäßig auf Aktualität, Qualität und Funktionalität geprüft und bei Bedarf angepasst und bereinigt werden.

Verschiedene Maßnahmen, von der regelmäßigen Aktualisierung vorhandener IT-Systeme bis hin zu kontinuierlichen Schulungen der Mitarbeiter, unterstützen dieses Ziel. Finden diese Punkte Beachtung, erhöht sich nicht nur die Effizienz der betroffenen Prozesse. Die geschaffene Datenordnung hat auch Auswirkungen auf Aufwände und Kosten: Deren Reduktion wiederum schafft wertvolle Wettbewerbsvorteile.

Artikelfiles und Artikellinks

(ID:43210507)