Kommentar von Dr. Andreas Böhm, One Data Warum Datenprodukte der Schlüssel zum Unternehmenserfolg sind
Anbieter zum Thema
Datenprodukte – der Begriff prägt seit einiger Zeit die Diskussion rund um die Frage, wie Unternehmen einen umfassenden Nutzen aus ihren Daten ziehen können. Doch was ist dran am „Hype“ und wie lässt sich das Prinzip in die Unternehmenswirklichkeit umsetzen?

Um das Konzept „Datenprodukte“ zu verstehen, ist ein kurzer historischer Exkurs hilfreich: Während sich Agilität und Flexibilität als effiziente und zielführende Arbeitsform in vielen Unternehmen etabliert haben, war der Umgang mit Daten lange Zeit vor allem von Zentralität geprägt. Technologisch zeigt sich das am Siegeszug von Lösungen wie beispielsweise Data Warehouses oder Data Lakes. Sie sind ein wohlgemeinter Single-Point-of-Truth. Jedoch drohen mit der Zunahme von Daten, Datenquellen und -formaten entweder ungenutzte Daten (Data Warehouses) oder ein „Informationssumpf“ (Data Lakes), dem das wertvolle Datenwissen aus den Fachbereichen fehlt.
Die irrige Annahme: Der Wert der Daten lasse sich für das gesamte Unternehmen zentral bestimmen und erheben. Aus diesem Grund ist die Vernetzung von IT- und Datenteams mit Fachbereichen, die die Daten erzeugen, eine ständige Herausforderung. Das betrifft auch die Nutzer der Daten – sei es aus den Geschäftsbereichen oder Data Science, denn es fehlt das unmittelbare Wissen über den Ursprung und die konkrete Verwendbarkeit der Daten. Zudem verengt sich die Perspektive oftmals auf die eigenen Unternehmensdaten. Daten von Kunden und Zulieferern oder unabhängige Marktdaten bleiben außen vor.
In der Folge entstehen Datensilos mit inkompatiblen, unzugänglichen und redundanten Daten in unbekannter oder unzureichender Qualität. Das erschwert den Go-Live von datengetriebenen Lösungen, die Nutzung von Daten bleibt deutlich unter den eigentlichen Wertschöpfungspotenzialen.
Mit Data Mesh zu einer neuen Denk- und Arbeitsweise
Hier setzt das Data-Mesh-Konzept von Zhamak Dehghani an – sowie das ihm innewohnende Prinzip von „Data as a Product“. Demnach liegt der Ursprung der Probleme in einer zentralisierten Dateninfrastruktur in Kombination mit einer zentralisierten Daten-Ownership, weil die Data- und IT-Teams abgekoppelt vom Business arbeiten. Dadurch fehlt ein echtes Datenverständnis. Gleichzeitig sinkt die Qualität und der Datenkontext fehlt. Letztlich kommt es zu einer Art „Entfremdung“ von den Daten bei den Erzeugern – also Data Engineers oder Verantwortliche aus Fachbereichen wie Produktion, HR, Finance oder Sales. Sie betrachten und behandeln Daten nicht als „selbsterklärendes Datenprodukt“.
:quality(80):fill(efefef,0)/p7i.vogel.de/wcms/63/bf/63bfbd20df859/onedata-datamesh-ebook-cover.png)
Deswegen fordert Dehghani einen Sinneswandel: Man sollte Daten als „echte Produkte“ behandeln und die Ownership zu denjenigen verlagern, die „ihre“ Daten am besten kennen. In der Folge werden Daten fachbereichsgetrieben aufbereitet und bereitgestellt. Kurzum: Der Schlüssel, um den tatsächlichen Wert von Daten zu entfalten, liegt in „Distributed Data Ownership“ kombiniert mit übergreifenden Technologien. So wird – trotz dezentraler Datenhaltung durch eine zentrale Infrastruktur – die fachbereichsübergreifende Kollaboration im Sinne eines „Marketplace“ möglich. Datenprodukte sind dabei der Dreh- und Angelpunkt.
Warum Datenprodukte ein Wertschöpfungsturbo sind
Was Datenprodukte von „normalen“ Daten unterscheidet, ist im Data-Mesh-Konzept präzise definiert: Sie müssen auffindbar, adressierbar, verständlich, vertrauenswürdig, zugänglich, interoperable (verknüpfbar), nutzwertig sowie sicher sein. Letztlich sorgen diese Gütekriterien dafür, dass Daten ihr Wertschöpfungs- und Erkenntnispotenzial entfalten, weil sie immer hochwertig und universell anschlussfähig sind. Darauf aufbauend startet die reibungslose Entwicklung von Business-Lösungen. Aber wie lässt sich diese Gütequalität (technologisch) überhaupt erreichen?
Ein Teil der Antwort hat nicht selten mit Anpassungen in der Organisationsstruktur (für mehr Datenverantwortung) zu tun – keine einfache Aufgabe, was allerdings auch für die technologische Sicherstellung gilt. Auf diese Themenfelder kommt es dabei an:
1. Datenvisualisierung für umfassende Transparenz
Daten stammen oftmals aus intransparenten Quellen und enthalten fehlerhafte Verknüpfungen. Eine Voraussetzung für Datenprodukte ist es deshalb, die Zusammenhänge und Beschaffenheiten sichtbar zu machen. Dies lässt sich beispielsweise über die Erstellung einer replikationsfreien „Datenlandkarte“ über alle Quellsysteme und Fachbereiche hinweg sicherstellen, wie sie beispielsweise One Data Cartography erzeugt.
Dadurch können Dateneigentümer sowie -nutzer den Datenbestand eigenständig überprüfen, verwalten und lokalisieren – und zwar unabhängig von der Datenkomplexität und Menge. Werden die Datenbestände nun über hierarchische Zoomstufen und visuelle Ebenen nach ihren Eigenschaften gruppiert, gelingt eine stark vereinfachte Navigation durch die Datenlandschaft.
2. Qualität automatisch sicherstellen
Der Erfolg von datengetriebenen Lösungen hängt maßgeblich von ihrer Interoperabilität und Nutzwertigkeit ab. Deswegen sollten Fachbereiche – unterstützt durch ein entsprechendes Rechtemanagement – ihre Datenprodukte auf Basis von definierten Qualitätskriterien bereinigen und aufbereiten. Hierbei haben sich KI-basierte Verfahren bewährt – etwa zur Anomalie-Detektion, für automatisierte Qualitätschecks und zur Anreicherung mit Metadaten. Anschließend lassen sich per Metadaten-Suche beispielsweise spezifische Daten und ihre Verbindung auffinden (Verknüpfbarkeit) und das Ganze in einem übergreifenden Inventar veröffentlichen.
3. Automatisiert inventarisieren und klassifizieren
Objektive und unvoreingenommene Entscheidungen erfordern vollständige Daten. Deshalb sollte man mit Konnektoren auf viele verschiedene Quellen zugreifen – auch außerhalb des Unternehmens. Fortschrittliche Algorithmen und automatisierte Pipelines sind hierbei in der Lage, ein kontinuierliches „Bild“ der Datenlandschaft erzeugen – inklusive Klassifizierung, um etwa personenbezogene Informationen zu erkennen.
4. Daten systemübergreifend tracken und verknüpfen
Record-Linkage ermöglicht das lückenlose Tracking über Systemgrenzen hinweg, um beispielsweise Silos automatisiert zu verbinden. Hierzu erkennt ein Algorithmus auf Basis von Metadaten identische und ähnliche Spaltenbezeichnungen in getrennten Datensätzen und verknüpft sie miteinander. Zusammengehörige Informationen – etwa der Preis eines Produktes sowie die abgesetzte Menge – werden also dem Objekt zugeordnet und es entsteht ein Maximum an Daten-Transparenz.
Insgesamt steigt so die Gütequalität der Datenprodukte immer weiter an, denn das Ganze ist ein laufender Prozess. Letztlich hat das weitreichende Folgen für den gesamten Unternehmenserfolg, der nicht zuletzt an einer Reihe von IT-Systemen hängt – von Power BI über SAP bis hin zu selbstentwickelten Lösungen. Sie arbeiten genauer, reibungsloser und umfassender, wenn Datenprodukte zur Verfügung stehen. Die gesamte Wertschöpfung steigt an. Umgekehrt heißt das auch: Ohne die Schaffung und Nutzung von Datenprodukten droht ein Wettbewerbsnachteil. In diesem Sinne sind Datenprodukte eine nachhaltige Investition in die Zukunftsfähigkeit.
Artikelfiles und Artikellinks
Link: Webseite von One Data
(ID:49324649)