Mit Künstlicher Intelligenz (KI) lassen sich komplexe Aufgabenstellungen im Alltag lösen, bei denen herkömmliche Algorithmen versagen. Einblicke in den Entwicklungsstand der KI im Automobilsektor verdeutlichen, dass für ihr Adaptieren eine geeignete Datenarchitektur und signifikante Rechenkapazität unerlässlich sind.
Der Autor: Christian Ott ist Director Solution Engineering Global Automotive bei NetApp
(Bild: NetApp)
Wer heute über KI redet, meint in der Regel eine sehr spezifische Form: das maschinelle Lernen (ML). Diese KI-Teildisziplin erkennt Muster in sehr großen Datenmengen, leitet Zusammenhänge ab und liefert so die Grundlage, Entscheidungen zu treffen. Aber selbst beim ML gibt es gravierende Unterschiede. Am verbreitetsten sind künstliche neuronale Netze, die über Software das menschliche Gehirn in Ansätzen nachbilden und simulieren.
Eine Form davon ist das Deep Learning (DL), das mehrere Lagen künstlicher Neuronen zwischen einer Ein- und einer Ausgabeschicht nutzt. Ein Neuron wird hierbei als Funktion (Algorithmus) modelliert, einschließlich Input, Parametern und Output. Beim Lernen verändert sich die Gewichtung von Parametern und damit die Verknüpfungen im System – am Ende lässt sich nicht mehr nachvollziehen, wie ein Ergebnis zustande gekommen ist.
ML & Co. will und muss auch die Automobilbranche einsetzen, die aufgrund von Nachhaltigkeitsdebatten, dem Trend zur E-Mobilität und nun nicht zuletzt mit dem Bewältigen der Coronakrise zu kämpfen hat. KI ist da ein Mittel für den technologischen Fortschritt. Zum Einsatzspektrum von KI im Automobilsektor gehören Fahrerassistenzsysteme, die den Weg zu autonom fahrenden und vernetzten Autos bereiten, die wiederum Teil eines intelligenten Verkehrsmanagements in der Smart City werden. Allerdings wird es noch dauern, bis Autos sich völlig selbstständig durch den normalen Verkehr bewegen. Aus diesem Grund gewinnt die Nutzung von KI an anderer Stelle stetig an Bedeutung. Denn mit ihr ist die Verbesserung des Kundenerlebnisses, bessere Planung der Lieferketten, effizientere Gestaltung von Produktionsprozessen in der Smart Factory und das Erreichen von Nachhaltigkeitszielen verbunden.
Das Drei-Stufen-KI-Modell
Je nachdem, wie Unternehmen KI einsetzen, lässt sich die Technologie in die nachfolgenden drei Stufen unterteilen:
Level 1: Analytik – durch Sammeln und Korrelieren von Daten
Level 2: Muster erkennen – durch Erfassen und Interpretieren von Zuständen
Level 3: perfekter Algorithmus – durch Verhalten wie ein Mensch und Annähern an eine Null-Fehlerquote
Ein Beispiel für die höchste Stufe ist das autonome Fahren, das sich durch eine sehr niedrige Fehlertoleranz auszeichnet. Um dieses Level zu erreichen, verlangt es noch viel Forschungs- und Entwicklungsarbeit. Mehr Praxisrelevanz besitzen daher zurzeit die Level 1 und 2.
So spielen beispielsweise Mustererkennungen eine wesentliche Rolle für das Umsetzen eines Smart-Factory-Ansatzes. Allerdings besteht in vielen Produktionsstätten noch eine digitale Lücke zwischen dem Edge, Business und den Enterprise Apps. Diese können Unternehmen mit der branchenübergreifenden Lösung Shopfloor 4.0 schließen. Entwickelt haben sie das Fraunhofer-Institut für Experimentelles Software Engineering (IESE), NetApp und Objective Partner. Das Prinzip: Eine containerisierte Middleware (BaSys) agiert als Virtualisierungsschicht zwischen Maschine und Data Lake. Das ermöglicht das vereinheitlichte Auslesen von Daten aus Maschinen und Konfigurieren von Produktionsprozessen – und zwar so, dass eine wandelbare Produktion möglich werden kann. Zusätzlich ist die Dateninfrastruktur mit dem ERP verknüpft, sodass Unternehmen wie Automobilzulieferer alle Vorgänge von der Bestellung über die Fertigung bis zur Auslieferung durchgehend digitalisieren können.
Kriterien für eine Datenpipeline
In solch einer vernetzten Produktionsumgebung besteht bereits eine Datenpipeline, die Autohersteller und -zulieferer erweitern müssen. Dabei geht es vor allem darum, die Daten in einem standardisierten Data Lake für KI-Anwendungen zur Verfügung zu stellen. Dafür gilt es, bisherige Datensilos aufzubrechen und die Daten zu vereinheitlichen. Dadurch gewinnen Unternehmen verschiedene Einsichten: So senkt das Korrelieren verschiedener Sensormesswerte, historischer Daten und Umgebungsparameter das Risiko von Qualitätsmängeln. Das Erkennen von Mustern eröffnet Chancen wie das Automatisieren komplexer Vorgänge, das Anwenden vorausschauender Wartung oder das Optimieren des Fertigungsprozesses.
Ausgehend von diesem Smart-Factory-Szenario lassen sich die wesentlichen Anforderungen an eine Datenpipeline ableiten: Sie muss durchgehend etabliert sein – was nur mit einem konsistenten Datenmanagement gelingt, mit dem sich Daten effizient erfassen, auswerten und speichern lassen. Dabei gilt es, folgende Schritte bei der KI-Adaption abzubilden:
Datenaufnahme am Edge und erste Datenkonsolidierung
Datenvorbereitung für das jeweilige Training in einem Data Lake
Bereitstellen der Daten vom Data Lake im Trainingscluster
Kombinieren mit externen Datensätzen für das ML- oder DL-Training
Parallelisierung bestimmter Trainingsprozesse
Implementieren des entwickelten KI-Modells in eine Test- und anschließend in eine Produktivumgebung
Monitoring der Ergebnisse
Einspeisen von Feedback und neuen Daten in Data Lake für nächsten Trainingsdurchlauf
Wiederholender Workflow
Eine durchgehende Datenpipeline schafft auch die Voraussetzung, um KI-Software für autonomes Fahren entwickeln zu können. Der typisch iterative Workflow umfasst auch hier die Schritte Datenerfassung, -verarbeitung, Modelltraining, Validierung und Verifizierung. Generell interagieren bei einem KI-gestützten Fahrerassistenzsystem (ADAS – Advanced Driver Assist Systems) Sensoren, Prozessoren, Algorithmen, Mapping-Lösungen und Aktoren, um die Ebenen der Datenerfassung und -verarbeitung, Datenfusion und Entscheidungsfindung sowie das Einleiten von Maßnahmen zu realisieren. Die Optimierungs- und Vorhersagegenauigkeit, die sich mit dem Modell erreichen lässt, hängt von der Qualität der unveränderlichen Datensätze, den angewandten Techniken für das Multi-GPU-Training und der Präzision ab. Der Weg zum autonomen Fahren führt über mehrere KI-Modelle für ADAS, die jeweils komplexe neuronale Netze aufweisen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Durchgehende Datenschicht für Entwickler
Arbeiten Entwickler an KI-Software für vernetzte Produktionsumgebungen und ADAS, benötigen sie einen durchgehenden Data Layer. Den können sie sich mit der NetApp ONTAP AI-Architektur schaffen, die auf DGX-Systemen und NetApp-Cloud-Lösungen basiert. Dann lassen sich die Daten vom Edge über das eigene Rechenzentrum bis hin zur Cloud zur richtigen Zeit, im richtigen Format und mit den richtigen Eigenschaften zur Verfügung stellen.
Eine wichtige Rolle spielt eine „Control Plane“, damit man die Applikationen, die typischerweise Container-basiert sind, vollautomatisiert entwickeln und installieren kann. Über die Control Plane erfolgt auch die Integration der Speicherorte und Datenquellen in die Applikation. Das wollen Entwickler als „Infrastructure as a Code“ direkt aus der Anwendung tun. Diese agile Bereitstellung unterstützen offene APIs (RESTFUL API).
Skalierbare Dateninfrastruktur im einfachen Design
Ob in der Autoindustrie oder anderen Branchen: Eine durchgehende Datenpipeline ist nötig, um KI entwickeln und adaptieren zu können. Das kostete bisher jedoch viel Aufwand und produziert am Ende eine komplexe IT-Umgebung. Gefragt ist daher eine Dateninfrastruktur, die weniger komplex designt wurde. Denn Unternehmen müssen klein anfangen und ihre Systeme unterbrechungsfrei erweitern können, während sie gleichzeitig Daten vom Edge über ein zentrales Rechenzentrum bis in die Cloud und zurück intelligent managen. Offene Schnittstellen (APIs) in der Datenpipeline befähigen Entwickler dazu, gleich Infrastructure as a Code zu erzeugen und anzuwenden. Schließlich müssen die Software-Ingenieure ihre maßgeschneiderte Umgebung erschaffen und betreiben können. Dann haben sie ideale Voraussetzungen, um agil neue KI-Applikationen zu entwickeln. Das schließt insbesondere Datenmanagement-Lösungen, welche die ganze Datenpipeline abdecken, sowie Container-Lösungen für die App-Entwicklung ein.