Leistung weiter verbessert KI-Server von Inspur beweisen hohe Performance

Autor / Redakteur: Martin Hensel / Nico Litzel

Der Serverhersteller Inspur hat die Leistung seiner KI-Server weiter verbessert. In den aktuellen MLPerf-Trainingsbenchmarks wurden vier Einzelknotenrekorde in den Kategorien Bildklassifikation, NLP, Objekterkennung und Empfehlung erzielt.

Anbieter zum Thema

Inspur konnte durch Software- und Hardwareoptimierung die Performance seiner Top-Level-KI-Server ausbauen.
Inspur konnte durch Software- und Hardwareoptimierung die Performance seiner Top-Level-KI-Server ausbauen.
(Bild: Inspur)

Die entsprechenden Ergebnisse hat das Open-Engineering-Konsortium MLCommons veröffentlicht. MLPerf Training v1.0 ist eine Benchmark-Suite, die zur Beurteilung der Trainingsleistung von Machine-Learning-Systemen dient. Serverhersteller Inspur konnte hierbei in vier von acht Aufgaben die Rangliste der Einzelknotenleistung in der Closed Division anführen.

Konkret belegten die Inspur-Server den ersten Platz in den Trainingsaufgaben Bildklassifizierung (ResNet), NLP (BERT), Objekterkennung (SSD) sowie Empfehlung (DLRM). Verglichen mit der Leistung im Benchmark v0.7 konnte Inspur durch Software- und Hardwareoptimierung eine zwischen rund 17 und 56 Prozent höhere Performance erreichen. Das Unternehmen sieht darin die Bedeutung von Top-Level-KI-Servern unterstrichen, wenn es um effizientes KI-Modelltraining geht.

Stärken konsequent genutzt

Inspur hat die Stärken seines Systemdesigns und einer Full-Stack-Optimierung genutzt, um die Leistungszuwächse zu realisieren. Auf der Hardware-Ebene wurden etwa umfassende Optimierungen und gründliche Kalibrierungen der Datenübertragung zwischen NUMA-Knoten und GPU vorgenommen, um eine blockierungsfreie I/O beim Training zu gewährleisten. Zudem kam ein flüssigkeits- und plattenbasiertes Kühlsystem für die A100-GPU mit 500 Watt TDP („Thermal Design Power“) zum Einsatz. Auf diese Weise war sichergestellt, dass die GPU stets mit voller Kapazität arbeiten kann.

Im Einklang mit der MLCommons-Philosophie stellt Inspur die im Benchmark untersuchten Lösungen der Community zur Verfügung. Innovationen in den Bereichen maschinelles Lernen und KI-Technologie sollen so beschleunigt werden. Die vollständigen Ergebnisse des MLPerf Training v1.0 sind auf der MLCommons-Website zu finden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:47609011)