Kommentar vom Christian Ott, NetApp KI erfordert eine durchgehende Datenpipeline

Von Christian Ott

Anbieter zum Thema

Mit Künstlicher Intelligenz (KI) lassen sich komplexe Aufgabenstellungen im Alltag lösen, bei denen herkömmliche Algorithmen versagen. Einblicke in den Entwicklungsstand der KI im Automobilsektor verdeutlichen, dass für ihr Adaptieren eine geeignete Datenarchitektur und signifikante Rechenkapazität unerlässlich sind.

Der Autor: Christian Ott ist Director Solution Engineering Global Automotive bei NetApp
Der Autor: Christian Ott ist Director Solution Engineering Global Automotive bei NetApp
(Bild: NetApp)

Wer heute über KI redet, meint in der Regel eine sehr spezifische Form: das maschinelle Lernen (ML). Diese KI-Teildisziplin erkennt Muster in sehr großen Datenmengen, leitet Zusammenhänge ab und liefert so die Grundlage, Entscheidungen zu treffen. Aber selbst beim ML gibt es gravierende Unterschiede. Am verbreitetsten sind künstliche neuronale Netze, die über Software das menschliche Gehirn in Ansätzen nachbilden und simulieren.

Eine Form davon ist das Deep Learning (DL), das mehrere Lagen künstlicher Neuronen zwischen einer Ein- und einer Ausgabeschicht nutzt. Ein Neuron wird hierbei als Funktion (Algorithmus) modelliert, einschließlich Input, Parametern und Output. Beim Lernen verändert sich die Gewichtung von Parametern und damit die Verknüpfungen im System – am Ende lässt sich nicht mehr nachvollziehen, wie ein Ergebnis zustande gekommen ist.

ML & Co. will und muss auch die Automobilbranche einsetzen, die aufgrund von Nachhaltigkeitsdebatten, dem Trend zur E-Mobilität und nun nicht zuletzt mit dem Bewältigen der Coronakrise zu kämpfen hat. KI ist da ein Mittel für den technologischen Fortschritt. Zum Einsatzspektrum von KI im Automobilsektor gehören Fahrerassistenzsysteme, die den Weg zu autonom fahrenden und vernetzten Autos bereiten, die wiederum Teil eines intelligenten Verkehrsmanagements in der Smart City werden. Allerdings wird es noch dauern, bis Autos sich völlig selbstständig durch den normalen Verkehr bewegen. Aus diesem Grund gewinnt die Nutzung von KI an anderer Stelle stetig an Bedeutung. Denn mit ihr ist die Verbesserung des Kundenerlebnisses, bessere Planung der Lieferketten, effizientere Gestaltung von Produktionsprozessen in der Smart Factory und das Erreichen von Nachhaltigkeitszielen verbunden.

Das Drei-Stufen-KI-Modell

Je nachdem, wie Unternehmen KI einsetzen, lässt sich die Technologie in die nachfolgenden drei Stufen unterteilen:

  • Level 1: Analytik – durch Sammeln und Korrelieren von Daten
  • Level 2: Muster erkennen – durch Erfassen und Interpretieren von Zuständen
  • Level 3: perfekter Algorithmus – durch Verhalten wie ein Mensch und Annähern an eine Null-Fehlerquote

Ein Beispiel für die höchste Stufe ist das autonome Fahren, das sich durch eine sehr niedrige Fehlertoleranz auszeichnet. Um dieses Level zu erreichen, verlangt es noch viel Forschungs- und Entwicklungsarbeit. Mehr Praxisrelevanz besitzen daher zurzeit die Level 1 und 2.

So spielen beispielsweise Mustererkennungen eine wesentliche Rolle für das Umsetzen eines Smart-Factory-Ansatzes. Allerdings besteht in vielen Produktionsstätten noch eine digitale Lücke zwischen dem Edge, Business und den Enterprise Apps. Diese können Unternehmen mit der branchenübergreifenden Lösung Shopfloor 4.0 schließen. Entwickelt haben sie das Fraunhofer-Institut für Experimentelles Software Engineering (IESE), NetApp und Objective Partner. Das Prinzip: Eine containerisierte Middleware (BaSys) agiert als Virtualisierungsschicht zwischen Maschine und Data Lake. Das ermöglicht das vereinheitlichte Auslesen von Daten aus Maschinen und Konfigurieren von Produktionsprozessen – und zwar so, dass eine wandelbare Produktion möglich werden kann. Zusätzlich ist die Dateninfrastruktur mit dem ERP verknüpft, sodass Unternehmen wie Automobilzulieferer alle Vorgänge von der Bestellung über die Fertigung bis zur Auslieferung durchgehend digitalisieren können.

Kriterien für eine Datenpipeline

In solch einer vernetzten Produktionsumgebung besteht bereits eine Datenpipeline, die Autohersteller und -zulieferer erweitern müssen. Dabei geht es vor allem darum, die Daten in einem standardisierten Data Lake für KI-Anwendungen zur Verfügung zu stellen. Dafür gilt es, bisherige Datensilos aufzubrechen und die Daten zu vereinheitlichen. Dadurch gewinnen Unternehmen verschiedene Einsichten: So senkt das Korrelieren verschiedener Sensormesswerte, historischer Daten und Umgebungsparameter das Risiko von Qualitätsmängeln. Das Erkennen von Mustern eröffnet Chancen wie das Automatisieren komplexer Vorgänge, das Anwenden vorausschauender Wartung oder das Optimieren des Fertigungsprozesses.

Ausgehend von diesem Smart-Factory-Szenario lassen sich die wesentlichen Anforderungen an eine Datenpipeline ableiten: Sie muss durchgehend etabliert sein – was nur mit einem konsistenten Datenmanagement gelingt, mit dem sich Daten effizient erfassen, auswerten und speichern lassen. Dabei gilt es, folgende Schritte bei der KI-Adaption abzubilden:

  • Datenaufnahme am Edge und erste Datenkonsolidierung
  • Datenvorbereitung für das jeweilige Training in einem Data Lake
  • Bereitstellen der Daten vom Data Lake im Trainingscluster
  • Kombinieren mit externen Datensätzen für das ML- oder DL-Training
  • Parallelisierung bestimmter Trainingsprozesse
  • Implementieren des entwickelten KI-Modells in eine Test- und anschließend in eine Produktivumgebung
  • Monitoring der Ergebnisse
  • Einspeisen von Feedback und neuen Daten in Data Lake für nächsten Trainingsdurchlauf

Wiederholender Workflow

Eine durchgehende Datenpipeline schafft auch die Voraussetzung, um KI-Software für autonomes Fahren entwickeln zu können. Der typisch iterative Workflow umfasst auch hier die Schritte Datenerfassung, -verarbeitung, Modelltraining, Validierung und Verifizierung. Generell interagieren bei einem KI-gestützten Fahrerassistenzsystem (ADAS – Advanced Driver Assist Systems) Sensoren, Prozessoren, Algorithmen, Mapping-Lösungen und Aktoren, um die Ebenen der Datenerfassung und -verarbeitung, Datenfusion und Entscheidungsfindung sowie das Einleiten von Maßnahmen zu realisieren. Die Optimierungs- und Vorhersagegenauigkeit, die sich mit dem Modell erreichen lässt, hängt von der Qualität der unveränderlichen Datensätze, den angewandten Techniken für das Multi-GPU-Training und der Präzision ab. Der Weg zum autonomen Fahren führt über mehrere KI-Modelle für ADAS, die jeweils komplexe neuronale Netze aufweisen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Durchgehende Datenschicht für Entwickler

Arbeiten Entwickler an KI-Software für vernetzte Produktionsumgebungen und ADAS, benötigen sie einen durchgehenden Data Layer. Den können sie sich mit der NetApp ONTAP AI-Architektur schaffen, die auf DGX-Systemen und NetApp-Cloud-Lösungen basiert. Dann lassen sich die Daten vom Edge über das eigene Rechenzentrum bis hin zur Cloud zur richtigen Zeit, im richtigen Format und mit den richtigen Eigenschaften zur Verfügung stellen.

Eine wichtige Rolle spielt eine „Control Plane“, damit man die Applikationen, die typischerweise Container-basiert sind, vollautomatisiert entwickeln und installieren kann. Über die Control Plane erfolgt auch die Integration der Speicherorte und Datenquellen in die Applikation. Das wollen Entwickler als „Infrastructure as a Code“ direkt aus der Anwendung tun. Diese agile Bereitstellung unterstützen offene APIs (RESTFUL API).

Skalierbare Dateninfrastruktur im einfachen Design

Ob in der Autoindustrie oder anderen Branchen: Eine durchgehende Datenpipeline ist nötig, um KI entwickeln und adaptieren zu können. Das kostete bisher jedoch viel Aufwand und produziert am Ende eine komplexe IT-Umgebung. Gefragt ist daher eine Dateninfrastruktur, die weniger komplex designt wurde. Denn Unternehmen müssen klein anfangen und ihre Systeme unterbrechungsfrei erweitern können, während sie gleichzeitig Daten vom Edge über ein zentrales Rechenzentrum bis in die Cloud und zurück intelligent managen. Offene Schnittstellen (APIs) in der Datenpipeline befähigen Entwickler dazu, gleich Infrastructure as a Code zu erzeugen und anzuwenden. Schließlich müssen die Software-Ingenieure ihre maßgeschneiderte Umgebung erschaffen und betreiben können. Dann haben sie ideale Voraussetzungen, um agil neue KI-Applikationen zu entwickeln. Das schließt insbesondere Datenmanagement-Lösungen, welche die ganze Datenpipeline abdecken, sowie Container-Lösungen für die App-Entwicklung ein.

(ID:46725199)