Kommentar von Alessandro Chimera, Tibco Digitale Zwillinge – nur so gut wie die Daten
Anbieter zum Thema
Digitale Zwillinge versprechen ein riesiges Wertschöpfungspotenzial. Es zu heben, hängt jedoch nicht von der Datenmenge, sondern von deren Qualität ab. Sonst drohen Misserfolg und Geldverschwendung.

Immer mehr Unternehmen wollen digitale Zwillinge für die Simulation und Überwachung von Aktivitäten in der echten Welt nutzen. Doch können die dabei verwendeten Daten aus mit Sensoren nachgerüsteten Maschinen, von verschiedenen IoT-Geräten unterschiedlicher Hersteller und aus Event-Streams sowie ihr schieres Volumen Probleme verursachen und die mit diesem Ansatz verfolgten Ziele gefährden.
Der Grund dafür liegt in den Daten selbst: Viele davon sind inkonsistent, fehlerhaft oder unvollständig und zerstören damit die Basis für Simulationen: das Vertrauen. Mangelnde Datenqualität stellt ein großes Risiko für Unternehmen dar, das sie schnell beseitigen sollten, um kein Budget zu vergeuden und vor allem schlechten Entscheidungen vorzubeugen.
Schlechte Datenqualität ist die Achillesferse digitaler Zwillinge. IDC schätzt im Studienbericht „Global DataSphere“, dass sich das generierte Datenvolumen von 2021 bis 2026 jährlich mehr als verdoppeln wird. Sollte die Problematik also nicht adressiert werden, dürfte sich die Situation zwangsläufig weiter verschärfen, schließlich würde die Datenqualität mit steigendem Volumen immer weiter sinken.
Datenqualität schafft Vertrauen
Für den aufstrebenden Digital-Twin-Markt dürfte das gravierende Folgen haben. Denn digitale Zwillinge werden branchenübergreifend in großem Umfang eingesetzt: in der Fertigung, im Bauwesen, in der Stadtplanung, bei der Umweltüberwachung, im Verkehrs- und Gesundheitswesen sind sie längst zuhause – und werden weiter an Bedeutung gewinnen.
Zahl und Umfang der digitalen Doppelgänger werden zunehmen, ihre Einsatzgebiete ebenso, sodass dieser Ansatz für noch mehr Branchen und Unternehmen geschäftskritisch werden wird. Dabei sind digitale Zwillinge für die Replikation, Messung, Überwachung, Vorhersage, Überprüfung und Echtzeit-Simulation von „Dingen“ und ihrem Verhalten in der realen Welt auf korrekte Daten unabdingbar angewiesen.
Man kann sich leicht vorstellen, was passiert, wenn ein Unternehmen den Ausschuss in seinen Produktionsanlagen senken will, die zugrundeliegenden Algorithmen für maschinelles Lernen und KI jedoch unter Einsatz von Daten mit mangelhafter Qualität entwickelt werden. Dann nutzen die digitalen Zwillinge der Produktionsmaschinen und -anlagen dieselben qualitativ minderwertigen Daten. Die Folge: Fehlerhafte Anomalieerkennung und Vorhersagen, die im Grunde keine sind. In solche Ergebnisse können und dürfen die Menschen in der Produktion kein Vertrauen setzen. So verursacht ein Ansatz, der dazu gedacht ist, Ressourcen zu sparen, höhere Kosten und vergeudet wertvolle Zeit.
Potenziale ausschöpfen
Das Nutzenpotenzial zeigt sich am Beispiel des spanischen Fertigers CAF. Dieser entwickelte einen digitalen Zwilling, um seine Kunden im Bereich Bahnbetrieb und -instandhaltung darin zu unterstützen, durch agile Entscheidungsfindung operative Spitzenleistungen zu erzielen. Der digitale Zwilling ermöglicht CAF die Automatisierung von Aufgaben, sodass das Unternehmen keine Mitarbeiter zur Überprüfung der Flotten oder bestimmter Züge entsenden muss. Zudem kann CAF damit seine Technikerteams mit echten Daten versorgen, mit denen sie die Flotten besser betreiben und instand halten können.
Was brauchen Unternehmen also, um bessere, akkuratere und weniger riskante digitale Zwillinge entwickeln zu können? Antwort: Werkzeuge, mit denen sie eine hohe Datenqualität erzielen und dauerhaft halten können, indem sie die Daten kontinuierlich überwachen, prüfen und optimieren. Dabei handelt es sich um eine zentrale Charakteristik moderner Datenarchitekturen und viele Plattformen sind bereits in der Lage, die Datenqualität kontinuierlich zu verbessern.
Risikofaktoren beheben
Dabei kommt es darauf an, Silos aufzubrechen, um ein breites Spektrum kontextbezogener Datenquellen einzubeziehen, die Daten miteinander zu integrieren und die Ergebnisse bei der Entscheidungsfindung zu verbessern. In einer Datenarchitektur stellt die Steigerung der Datenqualität einen iterativen fünfstufigen Prozess dar:
- 1. Integration von Datenquellen diverser Systeme mittels Datenvirtualisierung und Echtzeitquellen
- 2. Data Profiling, um herauszufinden und zu analysieren, wo Quelldaten repariert oder verbessert werden müssen
- 3. Manuelle Datenbereinigung, um Probleme aus den vorherigen Schritten zu beheben
- 4. Automatisierung der Datenbereinigung und -deduplikation auf der Basis von Modellen und Regeln
- 5. Kontinuierliches Daten-Monitoring und Bereitstellung von KPIs, um Datentrends nachzuvollziehen
Darüber hinaus besteht die Möglichkeit, eine Art „Firewall“ für Datenqualität zu schaffen. Denn auf keinen Fall möchte ein Unternehmen nach der Bereinigung eines Systems erneut qualitativ mangelhafte Daten dorthin zurückspielen. Diese „Firewall“ bietet die für den Schutz des digitalen Zwillings notwendige Fehlererkennung und -behebung in Echtzeit und sorgt dafür, dass alle verwendeten Daten vorgegebenen Qualitätsstandards genügen. Daten, egal aus welcher Art von Datenquelle sie stammen, lassen sich in der Tat bereinigen und korrigieren – und eine gute Plattform ist dazu in Echtzeit in der Lage.
Ferner kann die Datenbereinigung auch im Nachgang stattfinden, mit der Möglichkeit, wiederholt fehlerbehaftete Datenquellen zu sperren. Angesichts der weiten Verbreitung von Legacy-Geräten und -Technologien ist das ein wichtiger Punkt: Um schnellstmöglich von digitalen Zwillingen zu profitieren, wollen Unternehmen vorhandene Maschinen und Systeme nicht durch neue ersetzen müssen, sondern mit ihnen arbeiten oder es zumindest versuchen.
Es ist eine Tatsache, dass immer mehr Unternehmen Entscheidungen auf Basis der Simulation digitaler Zwillinge treffen wollen. Zu diesem Zweck müssen sie jedoch die Datenqualität ins Zentrum ihres Denkens und Handelns stellen, vor allem wenn KI- und ML-Modelle damit trainieren und deren Ergebnisse einem ganzheitlichen Entscheidungsfindungsprozess dienen. Schließlich könnten sich die Entscheidungen auf das Leben eines Patienten auswirken, einen Fertigungsprozess verlangsamen, Zugverspätungen verursachen oder der Grund für unnötige Instandhaltungsaufträge an Außendiensttechniker sein.
Die Wahrheit ist: Datenqualität ist ein Muss. Abstriche davon erzeugen Probleme.
(ID:48868251)