Alles Künstliche Intelligenz - erst recht Recht im Auto Nvidia-Chef ruft die KI-Ära aus

Autor Ulrike Ostler |

Wer in dieser Woche die „GTC Europe 2017“, die GPU Technology Conference von Nvidia, besucht hat, hätte meinen können, man betrete einen Autosalon. Denn das autonome Fahren ist das Paradebeispiel für die Anwendung Künstlicher Intelligenz (KI) und von Audi bis Post, von Uni Stuttgart bis Tesla zeigte die Automobilbranche, was es bereits zu bestaunen gibt. Was es dafür braucht, ist Software und jede Menge Rechen-Power, am besten für den Hersteller mithilfe der Nvidia-GPUs.

Anbieter zum Thema

Auf der "GTC Europe"(GPU Technology Conference) von GPU-Hersteller Nvidia, die diese Woche in München Stattfand, stellte Jensen Huang, CEO von Nvidia, das "Holodeck" vor: Die virtuellen Figuren repräsentieren Personen, die sich an ganz anderen, verschiedenen Orten befinden können, sie können die fotorealistischen Objekte im virtuellen Labor entwickeln, zerlegen, anschauen, verändern und sich dabei von Künstlicher Intelligenz helfen lassen.
Auf der "GTC Europe"(GPU Technology Conference) von GPU-Hersteller Nvidia, die diese Woche in München Stattfand, stellte Jensen Huang, CEO von Nvidia, das "Holodeck" vor: Die virtuellen Figuren repräsentieren Personen, die sich an ganz anderen, verschiedenen Orten befinden können, sie können die fotorealistischen Objekte im virtuellen Labor entwickeln, zerlegen, anschauen, verändern und sich dabei von Künstlicher Intelligenz helfen lassen.
(Bild: Nvidia)

In seiner Eröffnungsrede machte Nvidia-Gründer und jetziger -CEO Jensen Huang deutlich: Die Performance von GPUs nimmt deutlich stärker zu als Moore´s Law für die CPU-Entwicklung errechnet, nämlich um 1,5x pro Jahr. Somit würden GPUs in 15 Jahren 1.000-mal schneller als CPUs sein. Die aktuelle Variante der „Tesla GV100“-Karte „Volta“ besteht aus über 21 Milliarden Transistoren (xtors), enthält 5120 „Shader“-Rechenkerne und leistet 120 Tflops (Tera floating point operations per second). Das entspricht laut Huang unter Umständen der Leistung eines Server-Rack.

Abbildung 1: Nvidia Volta ist die jüngste "Tesla VG100"-Variante.
Abbildung 1: Nvidia Volta ist die jüngste "Tesla VG100"-Variante.
(Bild: Nvidia)

Eine solche Leistung kommt jedoch lediglich zustande, wenn die 640 als „Tensor-Core“ bezeichneten, auf Deep-Learning-Computing optimierte Einheiten die dafür spezialisierten „CUDA TensorOP“-Instruktionen verarbeiten. Ansonsten besteht die Gleitkommaleistung in 7,5 TFlops bei doppelter Genauigkeit (Double Precision).

Dennoch: Der Erfolg der GPUs scheint unaufhaltsam. So stecken die Nvidia-Karten in nahezu jeder Hypercloud – AWS, Google, Azure, Baidu, Alibaba zum Beispiel, und in fast jedem Supercomputer. Somit sieht Huang die jüngsten Nobelpreise in Chemie und Physik auch ein bisschen als Nvidia-Erfolg.

Auf diesem Bild lässt sich erkennen, wie die Verschmelzung von zwei schwarzen Löchern Wellen erzeugt.
Auf diesem Bild lässt sich erkennen, wie die Verschmelzung von zwei schwarzen Löchern Wellen erzeugt.
(Bild: Nvidia)

Den Nobelpreis für Physik erhielten die US-Forscher Rainer Weiss, Barry Barish und Kip Thorne. Sie konnten den ersten direkten Nachweis im All entstehender Gravitationswellen erbringen (siehe: Abbildung).

Abbildung 3: „Kryo-Elektronenmikroskopis“ lassen sich dreidimensionale Bilder von gefrorenen Biomolekülen anfertigen, seit 2013 in atomarer Auflösung.
Abbildung 3: „Kryo-Elektronenmikroskopis“ lassen sich dreidimensionale Bilder von gefrorenen Biomolekülen anfertigen, seit 2013 in atomarer Auflösung.
(Bild: Nvidia)

Der Nobelpreis für Chemie ging in diesem Jahr an den Schweizer Jacques Dubochet, den gebürtigen Deutschen Joachim Frank (USA) und Richard Henderson aus Großbritannien. Sie entwickelten die „Kryo-Elektronenmikroskopie“. Damit lassen sich dreidimensionale Bilder von gefrorenen Biomolekülen anfertigen (siehe: Abbildung 3).

Damit ist Nvidia nun auf vier Anwendungsgebieten präsent: 1. Computer-Grafik, 2. Wissenschaft und Forschung. 3. Deep Learning und 4. Datenanalyse – und überall spielt Künstliche Intelligenz eine zunehmend bedeutsame Rolle. „KI ist die Killerapplikation für GPUs“, so Huang.

Dass Grafiken immer besser werden, ist eh klar. Dass sie animiert werden, auch schon. Doch nun landen die Simulationen in einem virtuellen 3D-Labor. Huang stellte auf der GTC Europe das „Nividia Holodeck“ vor, derzeit mit 90 Frames pro Sekunde. Im Mittelpunkt lässt sich ein neues, fotorealistisches McLaren-Modell erkennen. Das „Design-Lab der Zukunft“, so der Nvidia-Chef, soll den Konstrukteuren und Designern physische Beschaffenheiten simulieren. Als Avatare können sie die Außenhülle durchdringen und Änderungen vornehmen, etwa Lack und Form und das Auto zerlegen.

Bildergalerie
Bildergalerie mit 16 Bildern

KI-Anwendungen im Hintergrund kann dabei helfen. So sei es grundsätzlich möglich, neue Bauteile, die ein Hersteller entwickelt hat, mitsamt der jeweiligen Eigenschaften, nicht nur in das Modell einzufügen, sondern auch im Zusammenspiel mit den anderen Bauteilen die damit einhergehenden Veränderungen zu simulieren. Im Falle des McLaren sind das um die 30.000 Bauteile, die Nvidia in einer Explosionsdarstellung zeigte.

KI findet zum einen im Rechenzentrum statt: etwa durch das Trainieren von neuronalen Netzen. Die Gegenseite, dort wo die Ergebnisse zur Anwendung zur Ausführung kommen, nennt sich Inference, in Deutsch Inferenz. Genügend Leistung auf all die Maschinen und Devices zu bringen, dass diese 'Endgeräte' auch funktionieren, ist eine „Herausforderung“, so Huang. Zum einen müssen die mehr oder weniger fest verdrahteten Rechner sehr hohe Leistung bringen, zum anderen dürfen sie nicht unendlich Strom schlucken. Er spricht von Tausenden Milliarden autonomer Maschinen, von denen nun die ersten entwickelt werden.

Die Nvidia-Technik für die Beschleunigung in Inferenz-Bereich besteht aus acht GPUs und TensorRT.
Die Nvidia-Technik für die Beschleunigung in Inferenz-Bereich besteht aus acht GPUs und TensorRT.
(Bild: Nvidia)

In dieses Umfeld gehört der programmierbare Inference Accelerator „TensorRT". Nach Firmenangaben lässt sich damit die Performance sowohl von Servern als auch von Edge-Devices von selbstfahrenden Autos bis zu Robotern beschleunigen. Für die Programmierung benötigen die Entwickler „Tensor RT”, mittlerweile in Version 3 verfügbar. Laut Huang sind Nvidia-GPUs im Zusammenspiel mit TensorRT, die alle AI-Services unterstützen – Sprach- und Bilderkennung, Empfehlungsapplikationen zum Beispiel – bis zu 40 mal schneller zu einem Zehntel der Kosten von CPU-basierten Anwendungen.

Die einzelnen Module des Inferenz-Akzelerators.
Die einzelnen Module des Inferenz-Akzelerators.
(Bild: Nvidia)

JD.com setzt die Technik im Bereich inference etwa im Rechenzentrum ein. Andy Chen, Senior Director zuständig für AI und Big Data erläutert: „Wir können nun simultan 1.000 HD-Video-Streams in Echtzeit abspielen, mit 20 mal weniger Server.“

Der GPU-Supercomputer

Allerdings verfügt Nvidia seit etwa einem Jahr über einen eigenen Server: Das System, dass für Wissenschaftsanwendungen und KI-Anwendungen gedacht ist, trägt die Bezeichnung „HGX“. Ursprünglich sei das System hauptsächlich dafür gedacht gewesen, zu zeigen, was alles mit den Grafikkarten gemacht werden kann. „Doch tatsächlich kaufen die Firmen das“, klingt Jim McHugh, Vice President und General Manager DGX Systems noch erstaunt.

Im Datacenter wären ohne den Booster 160 CPU-Server für die Erkennung von 45.000 Bildern pro Sekunde bei einem Strombedarf von 65 Kilowatt notwendig.
Im Datacenter wären ohne den Booster 160 CPU-Server für die Erkennung von 45.000 Bildern pro Sekunde bei einem Strombedarf von 65 Kilowatt notwendig.
(Bild: Nvidia)

Jedenfalls landet das „Raiden GPU-Subsystem“ des Center for Advanced Intelligence Project, “RIKEN”, das unter anderem auf Nvidia DGX-q, den Intel-Prozessor E5-2698v4 20C und 2,2 Gigahertz, Infiniband EDR und Fujitsu-Technik basiert auf Platz 4 der „Green500“-Liste.

Und so sieht derselbe Platz im Rechenzentrum mit einer HGX-Einheit bestückt mit 8 Tesla V100 GPUs aus, die 3 Kilowatt pro Sekunde benötigt bei derselben Arbeitslast: Die Auswertung von 45.000 Bildern pro Sekunde.
Und so sieht derselbe Platz im Rechenzentrum mit einer HGX-Einheit bestückt mit 8 Tesla V100 GPUs aus, die 3 Kilowatt pro Sekunde benötigt bei derselben Arbeitslast: Die Auswertung von 45.000 Bildern pro Sekunde.
(Bild: Nvidia)

Übrigens stammen 19 Prozent des Umsatzes aus dem Segment Enterprise-Computing, zu dem Hughs neben der üblichen Rechenzentrumsausstattung auch Supercomputing und professionelles Visualisieren zählt. Er fügt hinzu: „Der Bereich ist stark wachsend.“

Nvidia im selbstfahrenden Auto

Einen ähnlichen Effekt habe es, wenn Nvidia-Technik im Auto eingesetzt werde. Wer jetzt an einen Industrie-PC denkt, ist völlig falsch gewickelt. Um KI im Auto tatsächlich jederzeit nutzen zu können, brauche es kein 5G-Netz und keine Rechenzentren an den Straßen, so Johann Jungwirth, COO der Volkswagen AG. Das Auto der Zukunft ist eben nur autonom, wenn die Technik vor Ort ist und bleibt.

Gut aufgeraäumte KI-Umgebung für ein Auto ohne Nvidia-Technik .....
Gut aufgeraäumte KI-Umgebung für ein Auto ohne Nvidia-Technik .....
(Bild: Nvidia)

Das aber bedeutet nach heutigen Maßstäben; Das Fahrzeug muss mit einem Supercomputer ausgestattet sein. Die zugehörige Technik heißt etwa „Robotaxi Drive PX“ (siehe: Abbildung). Die Leitungsdaten für den Inferenz-Rechener: 320 TOPS CUDA Tensor Core, 16 x GMSL, 4 x 10 Gigabyte, 8x 1 Gigabyte, 16 x 10 Gigabyte, Auto-grade, ASIL D und Strombedarf: 500 Watt.

.... und derselbe Kofferraum mit Nvidia-Technik.
.... und derselbe Kofferraum mit Nvidia-Technik.
(Bild: Nvidia)

Das nun vorgestellte jüngste „Pegasus“-System ist nicht wie ursprünglich angekündigt flüssigkeitsgekühlt, sondern soll durch Luftkühlung auf Temperatur gehalten werden. Für COO Hughs ist der Supercomputer-Status der mobilen Rechner jedoch nur ein vorübergehender. Schließlich passe die Leistung eines Superrechners aus den Sechzigern längst auf jedes Smartphone.

Bildergalerie
Bildergalerie mit 16 Bildern

So wird die Deutsche Post DHL Group zusammen mit dem Zulieferer ZF eine Flotte von selbstfahrenden, elektrisch betrieben Lieferfahrzeugen mit „Nvidia Drive PX“ ausstatten. 2018 sollen bereits erste Fahrzeuge dieser Klasse Pakete liefern. Die Auslieferung auf der so geannten „letzten Meile“, also von einem Verteilzentrum bis zur Haustür gilt als eine der komplexesten, aber auch am wenigsten gewinnbringenden Ausgaben eines Logistikdienstleisters.

Die elektrischen „Scooter“, von denen die Post gegenwärtig rund 3.400 betreibt, sollen mit den ZF-Sensoren ausgestattet werden, also Kameras, Lidar- und Radar-Sensoren, die in das „ProAI“-System von ZF passen. Der Prototyp besitzt sechs Kameras, einen Radar- und zwei Lidar-Sensoren.

Die Deutsche Post DHL Group will seine eElektrik-Flotte schon bald autonom fahren lassen.
Die Deutsche Post DHL Group will seine eElektrik-Flotte schon bald autonom fahren lassen.
(Bild: Nvidia)

Schon um die Lieferwagen zu entwickeln, nutzte DPDHL bereits Nvidia-Technik. Im Rechenzentrum kamen die DGX-1 Computer zum Einsatz, um Neuronale Netze zu trainieren. Die damit entwickelten KI-Modelle werden nun auf das Inferenz-System Drive PX übertragen.

Die Software

Dennoch ist die Auto-Hardware längst nicht alles, was Nvidia für Mobility jeder Art entwickelt. „Bei Nvidia arbeiten mehr Software- als Hardware-Entwickler“, so Hughs. So benötigt eine Auto-Applikation etwa ein Betriebssystem. VW-CDO Jungwirth sagt etwa: „Volkswagen will Software-, Hardware-Hersteller sein und Services bieten“ - man könnte vermuten, das sei das Profil eines klassischen IT-Systemhauses.

Die Software-Plattform für Nvidia-ermöglichtes autonomes Fahren.
Die Software-Plattform für Nvidia-ermöglichtes autonomes Fahren.
(Bild: Nvidia)

Das „Intelligence Experience Toolkit“ von Nvidia jedenfalls soll für erste Anwender noch in diesem Quartal verfügbar sein. Darüber hinaus strickt der GPU-Hersteller noch an vielen weiteren Anwendungen mit, etwa für die neue Branche selbstfahrender Taxen.

Das Projekt "Isaak" stellt Trainingswilligen einen virtuellen Roboter zur Verfügung.
Das Projekt "Isaak" stellt Trainingswilligen einen virtuellen Roboter zur Verfügung.
(Bild: Nvidia)

Aber auch zur Unterstützung autonom agierender Roboter macht das Unternehmen Angebote. Eines der interessantesten ist das Projekt „Isaak“. Der Roboter ist nämlich virtuell. Und das erspart allen denjenigen, die die Anfertigung von Robotern, etwa aus Kostengründen scheuen, eine Alternative zur Verfügung. Auf der GTC Europe zeigte Huang unter anderem, wie der Roboter trainiert wurde, um mit dem Hockey-Schläger einen Ball ins Tor zu befördern.

Isaac basiert auf einer weiterentwickelten Version von Epic Games' „Unreal Engine 4“ und nutzt die Simulationstechnik von Nvidia, Rendering und Deep-Learning-Techniken. Dazu gehört zudem ein Set an Referenz-Designs.

(ID:44949432)