Hardware für Künstliche Intelligenzen Mikroarchitektur für KI-Entwicklung und maschinelles Lernen

Sebastian Gerstl |

Anbieter zum Thema

Mit„DynamIQ“ präsentiert ARM die nächste Stufe seiner big.LITTLE genannten Prozessorarchitektur. Mit bis zu acht Kernen in zwei Clustern sollen SoC-Entwickler Prozessor-Cluster noch individueller gestalten können. Der Fokus der neuen Architektur liegt dabei speziell auf künstliche Intelligenz und maschinelles Lernen.

DynamIQ von ARM: Die Nachfolgearchitektur zu ARMs "big.LITTLE"-Konzept in Cortex-A-Prozessorkernen richtet sich gezielt an Zukunftsmärkte wie künstliche Intelligenz und Maschinelles Lernen sowie sicherheitskritische Anwendungen.
DynamIQ von ARM: Die Nachfolgearchitektur zu ARMs "big.LITTLE"-Konzept in Cortex-A-Prozessorkernen richtet sich gezielt an Zukunftsmärkte wie künstliche Intelligenz und Maschinelles Lernen sowie sicherheitskritische Anwendungen.
(Bild: ARM)

Künstliche Intelligenz ist eines der aktuellen Trendthemen im Embedded-Bereich, das in Selbstfahrenden Autos, der fertigenden Industrie bis hin zu Consumer-Endprodukten in Form digitaler Assistenten oder Spielkonsolen Anwendung findet. Speziell auf diesen Wachstumsbereich zielt ARM mit seiner neuen Mikroarchitektur für Multicore-SoCs, „DynamIQ“. Die Mikroarchitektur wird fortan die Basis für die Cortex-A-Prozessoren bilden.

Bildergalerie

Eine hohe Konfigurierbarkeit der enthaltenen Prozessorcluster gibt Entwicklern dabei mehr Gestaltungsmöglichkeiten sowie eine besser Skalierbarkeit der Anwendungen als in der zuletzt genutzten big.LITTLE-Architektur. Bis zu acht Kerne können hierbei in einem Cluster zusammengefügt werden. Je nach Apllikation, Energiebudget und Leistunganforderungen sind so in DynamIQ nun beispielsweise Konfigurationen mit einem leistungsfähigen Prozessorkern und drei kleinen (1 + 3) oder ein großer Kern zusammen mit sieben kleinen (1 + 7) möglich. Auch SoC-Design mit acht identischen Prozessorkernen für Anwendungen mit hohem Datendurchsatz ist möglich. Ein im Vergleich zur Vorgängerarchitektur neu gestaltetes Speichersystem, das von allen Kernen in einem Cluster gemeinsam genutzt wird, verbessert zudem die Flexibilität und die Reaktionsgeschwindigkeit von Multicore-SoCs.

DynamIQ enthält zudem Prozessorinstruktionen, die speziell auf die Entwicklung Künstlicher Intelligenz und Maschinelles Lernen ausgelegt sind. Im Vergleich zu einem heutigen SoC mit Cortex-A73 verspricht ARM, dass DynamIQ-SoC in drei bis fünf Jahren so optimiert sein können, dass sie KI-Anwendungen mit einer gegenüber big.LITTLE um eine 50-Fache Leistungsfähigkeit bearbeiten. Die Zusammenarbeit zwischen CPU und Hardware-Beschleunigern im SoC soll ebenso um den Faktor 10 schneller ablaufen. Kommende SoCs könnten somit Ergebnisse und Entscheidungen schneller ausgeben. Geringere Latenz und schnellere Reaktionszeiten soll SoCs auf Basis der DynamIQ-Architektur besonders gut für Anwendungen mit hohen Anforderungen an funktionale Sicherheit nach SIL 3 (Safety Integrity Level) und ASIL D (Automotive Safety Integrity Level) eignen. Autonome Systeme dürften somit wesentlich sicherer, schneller und effizienter arbeiten können.

Sonderfunktionen für energiesparenden Betrieb

DynamIQ erlaubt es innerhalb eines Clusters mehrere Bereiche zu bilden, deren Leistungsaufnahme gegenüber den bisherigen Clustern mit vier Prozessorkernen feinstufiger gesteuert werden kann. Sowohl die Betriebsspannung als auch die Taktfrequenz lassen sich individuell für jeden einzelnen Prozessorkern steuern. SoC-Entwickler können damit die Verlustleistung ihres SoCs feiner abstufen um den Spielraum, den sie durch die thermischen Vorgaben haben, besser auszunutzen. Für das Energiemanagement hat ARM eine autonom arbeitende Hardware-Steuerung entwickelt. Sie arbeitet schneller, so dass auch schneller zwischen den Betriebszuständen eines Cortex-A-Prozessors, z.B. Ein, Aus, Schlafen, gewechselt werden kann und sich auch die Startzeit beim Einschalten verkürzt.

Unabhängig davon wird die Stromversorgung für den CPU-Speicher gesteuert. Sie kann abhängig vom aktuell auszuführenden Programm die Größe des verfügbaren internen Speichers anpassen. Applikationen, die hohe Rechenleistung fordern, z.B. KI-Applikationen, können den maximalen internen Speicher nutzen, für weniger anspruchsvolle Applikationen, z.B. Audiodaten weiterleiten, genügt ein kleiner Teil des internen Speichers, so dass der Rest des Speichers abgeschaltet werden kann, um die Leistungsaufnahme zu senken.

Mehr Informationen finden Sie auf der Webseite des Herstellers: www.arm.com.

Dieser Artikel stammt von unserem Partnerportal Elektronikpraxis.

(ID:44602503)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung