Sieben Titel im MLPerf Training v1.1 Inspur Information überzeugt bei KI-Leistung

Von Martin Hensel

Beim neuesten Training v1.1 des Open-Engineering-Konsortiums MLCommons konnte Inspur Informationen punkten. Das Unternehmen hatte Ergebnisse für alle acht Single-Node-Closed-Division-Aufgaben des MLPerf Trainings eingereicht und konnte sieben davon gewinnen.

Anbieter zum Thema

Inspur konnte sieben Titel im aktuellen MLPerf Training erringen.
Inspur konnte sieben Titel im aktuellen MLPerf Training erringen.
(Bild: Inspur)

Bei MLPerf handelt es sich um einen KI-Leistungsbenchmark, der als Referenz für die Performance von KI-Lösungen gilt. Am Training v1.1 beteiligten sich insgesamt 14 Organisationen, darunter auch Inspur. Die sog. Closed Division ist dabei stark wettbewerbsorientiert. Sie erfordert den Einsatz von Referenzmodellen, um einen objektiven Vergleich der konkurrierenden Teilnehmer zu ermöglichen. Die Benchmarks umfassen dazu acht repräsentative Machine-Learning-Aufgaben, wie etwa Bildklassifizierung (ResNet50), Segmentierung medizinischer Bilder (U-Net 3D) und Verarbeitung natürlicher Sprache (BERT).

Spitzenreiter bei vier Aufgaben war Inspurs AI-Server NF5688M6: Er konnte die Kategorien Natürliche Sprachverarbeitung (BERT), Objekterkennung Heavy-Weight (Mask R-CNN), Empfehlung (DLRM) und Segmentierung medizinischer Bilder (U-Net 3D) für sich entscheiden. Der AI-Server NF5488A5 hatte in den drei Aufgaben Bildklassifizierung (ResNet50), Objekterkennung Light-Weight (SSD) und Spracherkennung (RNNT) die Nase vorn.

Speziell optimierte Server

Laut Inspur sind die eigenen Server wegen spezieller Software- und Hardware-Optimierungen führend bei der Single-Node-Leistung im MLPerf v1.1. Im Vergleich zum Training v1.0 konnte die Geschwindigkeit in mehreren Kategorien teils deutlich gesteigert werden. Fortschrittliches Systemdesign und Full-Stack-Optimierungen im Bereich KI tragen zur hohen Performance der Inspur-Systeme bei.

Im Jahr 2021 konnte Inspur damit insgesamt 44 Titel in MLPerf-Benchmarks erringen. Erfolgreich waren die KI-Server NF5488A5 (18 Titel) und NF5688M6 (15 Titel) auf Basis von NVlink-A100-GPUs sowie der kompakte Edge-Server NE5260M5 (11 Titel).

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:47946362)