Kommentar von Nathan Jagoda, Information Builders

Mit Self-Service-BI ungenutzte Potenziale erschließen

Seite: 2/4

Firmen zum Thema

Es kommt vor allem auf vier Punkte an, die für valide Daten und damit für eine sichere Entscheidungsgrundlage sorgen: Stammdaten-Management, Data Governance, Analyse der Informationszugriffe und Metriken zur Bewertung der Datenqualität:

  • Data Governance: Eine langfristig konstant hohe Datenqualität beginnt bei der Festlegung von unternehmensweiten Richtlinien für den Umgang mit Rohdaten. Verbindliche Regelungen für die Aufbereitung der Daten, das Verarbeiten der Daten und für welche Mitarbeiter welche Zugangsrechte bereitstehen müssen sind eine wichtige Grundlage. Je genauer und bindender die Regelungen sind, desto stabiler die Datenqualität. Diese Regelungen betreffen jedoch nicht allein das Datenmanagement. Auch der Schutz sensibler Informationen ist hierbei von großer Bedeutung. Von der versehentlichen Weitergabe von Informationen über Datenlecks bis hin zur Wirtschaftsspionage: Mit den richtigen Regelungen und der entsprechenden Infrastruktur lassen sich viele Gefahren von vornherein eindämmen oder sogar ausschließen.
  • Stammdaten-Management: Ein effizientes, durchdachtes Stammdaten-Management ist eine wichtige Grundlage für die Datenqualität, die einem Unternehmen zur Verfügung steht. Je besser die Stammdaten gepflegt werden, desto größer ist ihr Wert für ein Unternehmen. Die Bedeutung dieser Daten ist den meisten Unternehmen durchaus bewusst. Leider hat das jedoch oft nicht zur Folge, dass sie effizient genutzt werden. Vielmehr lässt sich häufig ein duplizieren der Stammdaten beobachten, das in seiner letzten Konsequenz dazu führt, dass ein unübersichtlicher Datenwust entsteht, der Entscheidungen verlangsamt, blockiert oder sogar in die falsche Richtung beeinflusst. Das Stammdaten-Management sollte daher unbedingt harmonisch und einheitlich organisiert und über unternehmensweit bindende Leitlinien geregelt sein. Darüber hinaus sollten Tools für das Stammdaten-Management zwingend über Funktionen für die Validierung und das Identitätsmanagement, die Integration sowie die Konsolidierung der Daten verfügen. Für spezielle Aufgaben bieten sich Tools an, die branchenspezifische Datenmodelle berücksichtigen, etwa für das Gesundheitswesen, den Handel oder das produzierende Gewerbe.
  • Analyse der Informationszugriffe: Um eine stabile Grundlage für eine hinreichende Datenqualität und damit für eine effiziente Self-Service-BI zu schaffen, ist es wichtig zu untersuchen, woher die Daten stammen und was mit Ihnen geschieht. Entscheidend ist hier nicht nur, in welchen Bereichen des Unternehmens Anwender und Applikationen Daten erzeugen. Ebenso wichtig ist, wer von welchem Ort im Unternehmen auf die Daten zugreift, sie bearbeitet, aktualisiert oder löscht. Neben der Sicherung der Datenqualität können auf diesem Weg bereits erste Muster erkannt werden, die später zu einer effizienteren Organisation der Prozesse herangezogen werden können. Gibt es beispielsweise unnötige Schleifen bei der Bearbeitung von Daten können diese abgekürzt werden. Wird hingegen ein wichtiger Schritt bei der Datenverarbeitung übergangen oder laufen sogar Prozesse ins Leere, kann interveniert werden. Dies geschieht idealerweise nach dem Subsidiaritätsprinzip zu einem möglichst frühen Zeitpunkt in den Fachabteilungen. So wird sichergestellt, dass die Daten korrekt, konsistent, eindeutig und zuverlässig sind. Nur Daten, die diesen Anforderungen entsprechen, werden im internen Informationspool bereitgestellt.
  • Metriken zur Bewertung der Datenqualität: Selbst wenn alle Abläufe optimiert sind, ist eine ständige Überprüfung der Daten ein grundlegender Faktor für eine dauerhaft hohe Datenqualität. Unternehmen müssen hierfür individuell angepasste Metriken und Standards zur Bewertung ihrer Datenqualität entwickeln. Diese werden durch eine grundsätzliche Untersuchung der Unternehmensdaten zum Beispiel durch Data-Profiling-Tools gewonnen. Mithilfe von Geschäftsregeln hilft das Profiling, die Aktualität oder die Vollständigkeit und damit den Status der Daten einzuschätzen, Fehler zu ermitteln, zu priorisieren, zu korrigieren und die Ursachen von Qualitätsproblemen schnell zu beheben.

Artikelfiles und Artikellinks

(ID:43029029)