KI-Projekt Trillium ARM und NVIDIA entwickeln gemeinsam KI-Chips

Sebastian Gerstl

Anbieter zum Thema

Um die Entwicklung des eigenen KI-Projekts Trillium voranzutreiben, hat Prozessorentwickler ARM eine Partnerschaft mit dem GPU-Hersteller NVIDIA geschlossen. Dessen Deep-Learning-Architektur NVDLA wird fortan in die Trillium-Plattform integriert.

NVIDIA-CEO Jensen Huang kündigte auf der NVIDIA GPU Technology Conference (GTC) eine Kooperation mit Prozessorhersteller ARM an. Dieser wird die Deep Learning Architektur NVDLA künftig in all seine KI-Chips der Trillian-Plattform integrieren.
NVIDIA-CEO Jensen Huang kündigte auf der NVIDIA GPU Technology Conference (GTC) eine Kooperation mit Prozessorhersteller ARM an. Dieser wird die Deep Learning Architektur NVDLA künftig in all seine KI-Chips der Trillian-Plattform integrieren.
(Bild: NVIDIA)

ARM und NVIDIA haben eine gemeinsame Partnerschaft zur Entwicklung von Deep-Learning-Prozessoren geschlossen. Das gab NVIDIA-CEO Jensen Huang im Rahmen der NVIDIA GPU Technology Confernce (GTC) in San José in seiner Keynote Ende März öffentlich bekannt.

Demnach wird ARM fortan NVIDIAs zum Beschleunigen von Machine-Learning-Algorithmen angelegte IP NVDLA (NVIDIA Deep Learning Accelerator) in seine dedizierte KI-Prozessoren der Trillium-Plattform integrieren. Diese speziellen ARM-CPUs sollen insbesondere maschinelles Lernen für mobile, Embedded- und IoT-Anwendungen unterstützen.

„Auf der hyperskaligen Ebene wird Inferenz für KI für gewöhnlich in Rechenzentren betrieben – auf großen, komplizierten Rechenanlagen." erklärte Jensen Huang anlässlich der Ankündigung. „Aber es gibt eine ganze Reihe von Geräten, die auch von maschinellem Lernen und künstlicher Intelligenz profitieren können, die aber nicht kompliziert sein müssen – die IoT-Geräte, Milliarden von Geräte, die auf der ganzen Welt verbunden sind. Jeder ARM-Kunde kann nun einen IoT-KI-SoC erstellen, eine neue Kategorie von Chips für kleine und mobile Geräte. Die NVIDIA-Kooperation mit ARM baut auf einer erfahrenen Plattform auf, um die Nutzung für Entwickler auf der ganzen Welt zu vereinfachen."

Bei NVDLA handelt es sich um eine quelloffene Architektur von NVIDIA, die einen Standard für Entwicklung und Design für Beschleuniger von Deep-Learning-Inferenz darstellen soll. Mit einer Inferenz wird ein schlussfolgerndes Denken oder ein Prozess beschrieben; aus gegebenen Fakten und Regeln lassen sich Schlüsse ziehen. Geht es um Künstliche Intelligenz (KI) handelt es sich um Anwendungen, die mithilfe neuronaler Netze trainiert wurde.

Die modulare Deep-Learning-Accelerator-Architektur von NVIDIA ist so angelegt, dass sie möglichst skalierbar, konfigurierbar und einfach zu integrieren sowie portieren sein soll. NVDLA basiert auf NVIDIAs hauseigenem KI-SoC Xavier und ist in etwa vergleichbar mit dem Deep Learning Inference Accelerator (DLIA) von Intel.

„Inferenz wird eine der Schlüsselfähigkeiten von IoT-Geräten darstellen,“ sagte Deepu Talla, Vice President bei NVIDIA und General Manager des Geschäftsbereichs für Autonome Maschinen. „Unsere Partnerschaft mit ARM wird dabei helfen, die Adaption dieser Technologie voranzutreiben und es Hunderten von Chipherstellern einfacher machen, Deep Learning in ihre Produkte zu integrieren."

Die direkte Integration der NVDLA-IP in ARMs Trillium-Plattform soll eine Kombination eines erprobten Deep-Learning-Beschleunigers mit der hohen Flexibilität und Skalierbarkeit der typischen ARM-Prozessoren kombinieren. Für die Entwicklung eigener Anwendungen für maschinelles Lernen auf Basis dieser Kooperation stehen von Seiten von NVIDIA bereits entsprechende Toolsets bereit. So soll die kommende Version des hauseigenen TensorRT bereits volle Unterstützung für die neue Plattform bieten.

(ID:45225057)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung