Suchen

Supercomputer für Künstliche Intelligenz Nvidia DGX werkelt bei Continental

| Redakteur: Ulrike Ostler

Continental hat einen eigenen Supercomputer mit „Nvidia-DGX“-Technologie zum Training von KI-Systemen in Betrieb genommen, um die Entwicklungsleistung im Bereich des autonomen Fahrens zu steigern.

Firmen zum Thema

Der globale Automobilzulieferer Continantal skaliert die KI-Entwicklung mit einem Supercomputer mit mehr als 50 „Nvidia DGX“-Systemen, die mit „Mellanox Infiniband“ verbunden sind und auf der „SuperPOD“-Referenzarchitektur basieren.
Der globale Automobilzulieferer Continantal skaliert die KI-Entwicklung mit einem Supercomputer mit mehr als 50 „Nvidia DGX“-Systemen, die mit „Mellanox Infiniband“ verbunden sind und auf der „SuperPOD“-Referenzarchitektur basieren.
(Bild: Nvidia)

Die Automobilindustrie ist im Wandel, die Entwicklungszyklen werden kürzer: Um neue Technologien noch effizienter und schneller zu entwickeln, hat Continental Anfang 2020 in Frankfurt am Main einen eigenen Nvidia-DGX-Supercomputer für Künstliche Intelligenz (KI) in Betrieb genommen.

Das System stellt Entwicklern an Standorten weltweit sowohl Rechenleistung als auch Speicherplatz zur Verfügung. Mit dem Einsatz von KI-Lösungen will Continental beispielsweise Fahrerassistenzsysteme verbessern und die Mobilität sicherer machen.

Assistenzsysteme brauchen Künstliche Intelligenz

Fortschrittliche Fahrerassistenzsysteme nutzen KI, um Entscheidungen zu treffen, den Fahrer zu unterstützen und im letzten Schritt autonom operieren zu können. Diese Systeme verarbeiten die Rohdaten von Umfeldsensoren wie Radar und Kamera und erstellen auf dieser Basis ein umfassendes Modell der Fahrzeugumgebung; gleichzeitig entwickeln sie eine Strategie für die Interaktion mit der jeweiligen Umgebung.

Continental CEO Dr. Elmar Degenhart (links) und Nvidia-Gründer und CEO Jensen Huang (rechts) einigen sich auf gemeinsame Entwicklung Künstlicher Intelligenz für selbstfahrende Fahrzeuge.
Continental CEO Dr. Elmar Degenhart (links) und Nvidia-Gründer und CEO Jensen Huang (rechts) einigen sich auf gemeinsame Entwicklung Künstlicher Intelligenz für selbstfahrende Fahrzeuge.
(Bild: © Continental AG)

Da die Systeme jedoch immer komplexer werden, stoßen die traditionellen Methoden der Softwareentwicklung und des maschinellen Lernens an ihre Grenzen. Deep Learning und Simulationen sind zu grundlegenden Methoden bei der Entwicklung von KI-basierten Lösungen geworden.

Neuronale Netze schneller trainieren

„Der Supercomputer ist eine Investition in unsere Zukunft”, sagt Christian Schumacher, Leiter Program Management Systems in der Geschäftseinheit Fahrerassistenzsysteme bei Continental. „Das hochmoderne System reduziert die Zeit für das Training neuronaler Netze, da mindestens 14-mal mehr Experimente gleichzeitig durchgeführt werden können.”

Der Hochleistungsrechner besteht aus mehr als 50 „Nvidia-DGX“-Systemen, die mit dem Nvidia „Mellanox-Infiniband“-Netzwerk verbunden sind. Außerdem wurde ein hybrider Ansatz gewählt, um bei Bedarf Kapazität und Speicherplatz durch Cloud-Lösungen erweitern zu können. Der Computer nimmt laut der aktuellen Liste der Top-500-Supercomputer der Welt den Spitzenplatz in der Automobilindustrie ein (siehe: Die Top500 ist da und Nvidia ist f a s t überall dabei, ISC 2020 Digital: Der erste Exascale-Computer).

Mit „Nvidia DGX“ und „Mellanox Infiniband“ kann Continental neuronale Netzwerke in Formel 1-Geschwindigkeit trainieren - so schnell, dass das Unternehmen mit seinem neuen Supercomputer 14 Mal mehr Experimente durchführen kann, um die Forschung im Bereich des autonomen Fahrens voranzutreiben.
Mit „Nvidia DGX“ und „Mellanox Infiniband“ kann Continental neuronale Netzwerke in Formel 1-Geschwindigkeit trainieren - so schnell, dass das Unternehmen mit seinem neuen Supercomputer 14 Mal mehr Experimente durchführen kann, um die Forschung im Bereich des autonomen Fahrens voranzutreiben.
(Bild: Continental)

Deep Learning und Simulation

Deep Learning ermöglicht ein künstliches, neuronales Netz einer Maschine, durch Erfahrung zu lernen und neue Informationen mit vorhandenem Wissen zu verbinden. Dabei wird im Wesentlichen der Lernprozess des menschlichen Gehirns nachgeahmt.

Doch während ein Kind in der Lage ist, ein Auto zu erkennen, nachdem ihm ein paar Dutzend Bilder verschiedener Autotypen gezeigt wurden, sind mehrere Tausend Stunden Training mit Millionen von Bildern und damit enorme Datenmengen notwendig, um ein neuronales Netz zu trainieren, das später einem Fahrer assistieren oder sogar ein Fahrzeug autonom steuern kann. Der „Nvidia DGX POD“ verkürzt die Zeit, die für diesen komplexen Prozess benötigt wird und auch die Zeit bis zur Markteinführung neuer Technologien.

Die Bewältigung komplexer Fahrszenarien ist eine der größten Herausforderungen auf dem Weg zur autonomen Mobilität.
Die Bewältigung komplexer Fahrszenarien ist eine der größten Herausforderungen auf dem Weg zur autonomen Mobilität.
(Bild: Continental)

„Wir gehen davon aus, dass sich die Zeit, die für das vollständige Training eines neuronalen Netzes benötigt wird, von Wochen auf Stunden verkürzen wird”, sagt Balázs Lóránd, Leiter des KI-Kompetenzzentrum von Continental in Budapest, Ungarn, der zusammen mit seinen Teams an der Entwicklung der Infrastruktur für KI-basierte Innovationen arbeitet.

Daten sind das A und O

Bis heute stammen die Daten, die für das Training dieser neuronalen Netze verwendet werden, hauptsächlich aus der Flotte von Versuchsfahrzeugen bei Continental. Derzeit fahren sie täglich rund 15.000 Testkilometer und sammeln dabei rund 100 Terabyte an Daten. Das entspricht einer Spielfilmdauer von 50.000 Stunden.

Bereits heute können die aufgezeichneten Daten für das Training neuer Systeme genutzt werden, indem sie abgespielt und damit physikalische Testfahrten simuliert werden. Mit dem Supercomputer können die Daten jetzt synthetisch erzeugt werden. Das ist ein rechenintensiver Anwendungsfall, bei dem Systeme durch virtuelles Durchfahren einer simulierten Umgebung lernen können.

Ergänzendes zum Thema
Nvidia-Leistungsrekorde

Ende Juli ist eine Revision der MLPerf-Benchmarks veröffentlicht worden. Die MLPerf-Benchmark-Suite misst die Zeit, die benötigt wird, um eines von acht maschinellen Lernmodellen auf eine Zielgenauigkeit zu trainieren. Diese Version von MLPerf enthält 5 der früheren Benchmarks (zwei für Übersetzung, zwei für Objekterkennung und einen für Bildklassifikation), einen modifizierten Benchmark (für Reinforcement Learning) und zwei neue Benchmarks (für die Verarbeitung natürlicher Sprache und für Empfehlungssysteme für das Tiefenlernen).

Die jüngste GPU-Entwicklung von Nvidia trägt die Bezeichnung „Ampere 100“; sie wurde im Juli vorgestellt.
Die jüngste GPU-Entwicklung von Nvidia trägt die Bezeichnung „Ampere 100“; sie wurde im Juli vorgestellt.
( Bild: Nvidia )

Nvidia lieferte mit der jüngsten Grafikprozessor-Entwicklung „Ampere 100“ (A100) „Tensor Core“ zeigte bei allen acht MLPerf-Benchmarks die schnellste Leistung pro Beschleuniger. Das „DGX Super POD“-System, ein massiver Cluster von DGX A100-Systemen, die mit HDR Infiniband verbunden sind, setzte ebenfalls acht neue Leistungsmeilensteine.

Artikelfiles und Artikellinks

(ID:46806666)