Digitale Transformation KI trifft auf digitale Zwillinge: Von der Datengenerierung bis zum Testing

Von Thomas Guntschnig 5 min Lesedauer

Anbieter zum Thema

Autonome Fahrzeuge, Drohnen und Roboter agieren zunehmend selbstständig. Damit sie sicher funktionieren, müssen sie unter verschiedensten Bedingungen erprobt werden – noch bevor sie real zum Einsatz kommen. Digitale Zwillinge, also virtuelle Abbilder von Systemen und Umgebung, gelten dafür als Schlüsseltechnologie.

Digitaler Zwilling: Geteilte Darstellung einer Robotik-Anlage – links als digitale Simulation, rechts in der realen Produktionsumgebung.(Bild:  KI-generiert)
Digitaler Zwilling: Geteilte Darstellung einer Robotik-Anlage – links als digitale Simulation, rechts in der realen Produktionsumgebung.
(Bild: KI-generiert)

In Kombination mit Künstlicher Intelligenz (KI) ermöglichen digitale Zwillinge eine schnelle, risikofreie und kosteneffiziente Validierung. Durch sie lassen sich massenhaft Testdaten erzeugen, kritische Szenarien durchspielen und die Leistungsfähigkeit systematisch überprüfen – lange bevor ein Prototyp auf die Straße, in die Luft oder in die Produktion gelangt. Besonders hilfreich ist dieses Vorgehen bei der Prüfung selten auftretender, aber sicherheitskritischer Edge Cases, die andernfalls im realen Betrieb nur schwer oder gar nicht gefahrlos testbar wären. Aber wie entstehen die dafür notwendigen Daten – und wie sieht die Rolle von KI konkret aus?

Wie der digitale Zwilling wirklichkeitsnah wird

Doch zunächst stellt sich eine grundlegende Frage: Welche Anforderungen müssen die Daten erfüllen? Die Voraussetzung für präzise, wirklichkeitsnahe – also tatsächlich brauchbare – simulierte Testergebnisse sind Simulationsplattformen mit physikbasierten, realitätsnahen Modellen. Der Anspruch dieser Simulationen ist nichts Geringeres als Verkehrsflüsse und Sensorverhalten unter verschiedenen Umweltbedingungen, verschiedene Sensoren (Kamera, Radar, LiDAR etc.) sowie Wetter- und Lichtverhältnisse und weitere Umwelteinflüsse realitätsgetreu nachzubilden. Zudem muss das zugrundeliegende System in der Lage sein, bei großskaliger Szenariengenerierung eine hohe Reproduzierbarkeit von Tests zu gewährleisten – kritisch für belastbares Regressionstesting und Leistungs-Benchmarks.

Der Trend zur simulationsgestützten Validierung schlägt sich auch in neuen Sicherheitsnormen nieder: Die ISO 21448 („Safety of the Intended Functionality“, SOTIF) verlangt eine systematische Prüfung potenzieller Gefährdungen – selbst bei nominal fehlerfrei arbeitenden Systemen. Standardisierte Formate wie ASAM OpenX (z. B. OpenSCENARIO, OpenDRIVE) bieten die Grundlage, um Szenarien formell und übergreifend zu beschreiben.

KI als Voraussetzung in allen Bereichen der Simulation

Angesichts dieser hohen Ansprüche ist die Herausforderung offensichtlich: Eine solche Simulationsplattform benötigt immens viele Datenpunkte – und die Kapazitäten, diese sinnstiftend zu verarbeiten. An dieser Stelle kommt KI ins Spiel, ohne die diese Technologie wohl nicht denkbar wäre. Sie spielt in der Simulation und Nutzung digitaler Zwillinge eine entscheidende Rolle in vielerlei Hinsicht: bei der Generierung und Anreicherung realistischer Testdaten über die Szenarienplanung bis zur Validierung und dem anschließenden kontinuierlichen Training.

Datengenerierung: Viele Trainings- und Testdaten lassen sich nicht in der Realität erfassen. KI hilft, synthetische Daten zu erzeugen, die physikalisch realistischen Sensordaten entsprechen. Moderne Simulatoren generieren fotorealistische Kamera-Streams, LiDAR-Punktwolken und Radar-Echos mit korrekten Wetter-, Beleuchtungs- und Bewegungseffekten z. B. bei der Erkennung von Fußgängern bei Dämmerung. Die Herausforderung besteht dabei darin, die Reality Gap – also Abweichungen zwischen virtuellen und realen Daten – minimal zu halten. Anhand von Metriken wie dem mAP-Wert (mean Average Precision) oder dem nuScenes Detection Score lässt sich sicherstellen, dass die Ergebnisse höchsten Ansprüchen genügen, denn die Qualität der Daten bestimmt die Qualität der Simulation.

Szenarienplanung: Vielfalt und Komplexität der virtuellen Testszenarien entscheiden maßgeblich über die Aussagekraft der Tests. KI-Methoden kommen zum Einsatz, um automatisch Szenarien zu generieren oder aus realen Daten abzuleiten. So können aus aufgezeichneten Fahrdaten realitätsnahe Tests abgeleitet oder mit algorithmischer Unterstützung besonders kritische Edge Cases identifiziert werden. Eine strukturierte Vorgehensweise ist dabei entscheidend, wobei sich mittlerweile eine Reihe von Standards etabliert haben: Das PEGASUS-Projekt – ein deutsches Forschungsprojekt zur Erarbeitung einheitlicher Gütekriterien für autonome Fahrzeuge – beispielsweise beschreibt ein Szenario als Modell zunehmend komplexerer Schichten, die sich aus einer Reihe von Macro- und Micro-Daten zusammensetzen. Die Europäische Association for Standardization of Automation and Measuring Systems (ASAM) hat zudem den OpenX-Standard als Grundlage für einen strukturierten Szenario-Test-Workflow entwickelt.

Erst testen, dann verbessern

Validierung: In der Validierungsphase stellt KI sicher, dass die gewonnenen Testergebnisse richtig interpretiert und genutzt werden. KI-basierte Analysemodelle werten also die virtuellen Testdurchläufe in den zuvor definierten Szenarien aus, um automatisch Risiken oder Anomalien zu erkennen. Beispielsweise lassen sich mit Machine-Learning-Methoden Vorhersagemodelle trainieren, die aus Sensorstreams drohende Fehlentscheidungen frühzeitig erkennen. Außerdem unterstützen KI-Systeme adaptive Regelungen, die im Simulator gegen unvorhergesehenes Verhalten getestet werden – zum Beispiel ein KI-gestütztes Notfallsystem, das im Simulator lernen kann, wie es auf neue Gefahrenmuster reagiert. Nicht zuletzt gewährleistet KI die Rückverfolgbarkeit und Wiederholbarkeit der Tests: durch automatisierte Ausführung (etwa mittels Cloud-basiertem Batch Testing) können identische Szenarien immer wieder abgespult werden, um die Wirkung von Softwareänderungen exakt zu vergleichen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Training und kontinuierliche Verbesserung: In virtuellen Umgebungen lassen sich KI-Algorithmen risikofrei trainieren – etwa durch Reinforcement Learning. Auch kontinuierliches Lernen kann sicher umgesetzt werden: Neue Softwarestände werden vor dem Rollout simulativ geprüft, um ungewollte Nebenwirkungen zu vermeiden. Auch Flottenbetreiber nutzen Simulation, um ihre autonomen Systeme in Betrieb zu optimieren – etwa, indem sie neue Routen oder Strategien vor der Umsetzung in der Realität zunächst ausgiebig am digitalen Flotten-Zwilling durchspielen.

Aufwand und Nutzen im Gleichgewicht

Die Integration digitaler Zwillinge in bestehende Entwicklungsprozesse ist anspruchsvoll. Der Aufbau realistischer Simulationen erfordert detaillierte Daten, präzise Sensorkalibrierung und erhebliches Expertenwissen. Der Nutzen zeigt sich oft erst mittelfristig – das kann anfangs abschreckend wirken.

Zudem ist die Simulation nur so gut wie die Daten, die sie antreiben. Eine konsistente Datenstrategie ist deshalb unerlässlich – von hochauflösenden Karten über realistische Verkehrsmodelle bis zu präzisen Sensordaten. Um die angesprochene Reality Gap zu vermeiden, ist ein ständiger Abgleich mit realen Fahrdaten und das Einlesen von echten Sensor-Logs daher zwingend nötig. Und auch kulturell ist die Einführung von simuliertem Testing eine Herausforderung: Ingenieurteams müssen lernen, virtuelle Tests genauso ernst zu nehmen wie reale. Auch Silo-Denken in Unternehmen kann die Akzeptanz hemmen, wenn etwa Software-, Test- und Sicherheitsabteilungen nicht eng zusammenarbeiten.

Trotz aller Hürden berichten Unternehmen, die auf simulationsgestützte Entwicklung setzen, von messbaren Vorteilen: kürzeren Entwicklungszeiten, geringeren Kosten und höherer Systemzuverlässigkeit. Mit einem erfahrenen Technologiepartner lässt sich der Weg in die autonome Zukunft planvoll gestalten.


Über den Autor: Thomas Guntschnig ist Managing Director für den EMEA-Raum bei MORAI Inc., einem führenden Anbieter simulationsbasierter Validierungslösungen für autonome Systeme. Das koreanische Technologieunternehmen entwickelt hochpräzise Digital-Twin-Plattformen zur virtuellen Absicherung von autonomen Fahrzeugen und anderen autonomen Mobilitätssystemen. In seinem Heimatmarkt arbeitet MORAI unter anderem mit Hyundai, Samsung Heavy Industries und der südkoreanischen Regierung zusammen und kooperiert eng mit renommierten Forschungseinrichtungen in Asien und Europa.

In seiner Rolle treibt Guntschnig die internationale Expansion von MORAI voran und engagiert sich im Rahmen der IAMTS (International Alliance for Mobility Testing and Standardization) für die Entwicklung globaler Standards und Partnerschaften im Bereich simulationsgestützter Sicherheitstests.

Dieser Artikel stammt von unserem Partnerportal ELEKTRONIKPRAXIS.

(ID:50398079)