Leistung weiter verbessert KI-Server von Inspur beweisen hohe Performance

Autor / Redakteur: Martin Hensel / Nico Litzel

Der Serverhersteller Inspur hat die Leistung seiner KI-Server weiter verbessert. In den aktuellen MLPerf-Trainingsbenchmarks wurden vier Einzelknotenrekorde in den Kategorien Bildklassifikation, NLP, Objekterkennung und Empfehlung erzielt.

Firmen zum Thema

Inspur konnte durch Software- und Hardwareoptimierung die Performance seiner Top-Level-KI-Server ausbauen.
Inspur konnte durch Software- und Hardwareoptimierung die Performance seiner Top-Level-KI-Server ausbauen.
(Bild: Inspur)

Die entsprechenden Ergebnisse hat das Open-Engineering-Konsortium MLCommons veröffentlicht. MLPerf Training v1.0 ist eine Benchmark-Suite, die zur Beurteilung der Trainingsleistung von Machine-Learning-Systemen dient. Serverhersteller Inspur konnte hierbei in vier von acht Aufgaben die Rangliste der Einzelknotenleistung in der Closed Division anführen.

Konkret belegten die Inspur-Server den ersten Platz in den Trainingsaufgaben Bildklassifizierung (ResNet), NLP (BERT), Objekterkennung (SSD) sowie Empfehlung (DLRM). Verglichen mit der Leistung im Benchmark v0.7 konnte Inspur durch Software- und Hardwareoptimierung eine zwischen rund 17 und 56 Prozent höhere Performance erreichen. Das Unternehmen sieht darin die Bedeutung von Top-Level-KI-Servern unterstrichen, wenn es um effizientes KI-Modelltraining geht.

Stärken konsequent genutzt

Inspur hat die Stärken seines Systemdesigns und einer Full-Stack-Optimierung genutzt, um die Leistungszuwächse zu realisieren. Auf der Hardware-Ebene wurden etwa umfassende Optimierungen und gründliche Kalibrierungen der Datenübertragung zwischen NUMA-Knoten und GPU vorgenommen, um eine blockierungsfreie I/O beim Training zu gewährleisten. Zudem kam ein flüssigkeits- und plattenbasiertes Kühlsystem für die A100-GPU mit 500 Watt TDP („Thermal Design Power“) zum Einsatz. Auf diese Weise war sichergestellt, dass die GPU stets mit voller Kapazität arbeiten kann.

Im Einklang mit der MLCommons-Philosophie stellt Inspur die im Benchmark untersuchten Lösungen der Community zur Verfügung. Innovationen in den Bereichen maschinelles Lernen und KI-Technologie sollen so beschleunigt werden. Die vollständigen Ergebnisse des MLPerf Training v1.0 sind auf der MLCommons-Website zu finden.

(ID:47609011)