Suchen

Intel Xeon Scalable der 3. Generation Für KI und große Datenbanken: Intels Cooper-Lake-CPU

| Autor: Klaus Länger

Die dritte Generation von Intels Xeon-Scalable-Prozessoren ist für Server mit vier oder acht Sockets bestimmt. Die Cooper-Lake-CPUs kommen mit einem erweiterten Intel Deep Learning Boost für KI-Anwendungen. Zudem sind in Kombination mit Optane PMem bis zu 18 TB Speicher in 4-Socket-Systemen möglich.

Firma zum Thema

Die dritte Generation der Xeon-Scalable-Prozessoren von Intel laufen unter dem Codenamen „Cooper Lake” und sind die ersten x86-CPUs mit BFloat16-Erweiterung für KI-Anwendungen.
Die dritte Generation der Xeon-Scalable-Prozessoren von Intel laufen unter dem Codenamen „Cooper Lake” und sind die ersten x86-CPUs mit BFloat16-Erweiterung für KI-Anwendungen.
(Bild: Intel)

Als Weiterentwicklung der Cascade-Lake-Familie bringt Intel für Server mit mindestens vier Sockets die Xeon-Scalable-Prozessoren der dritten Generation auf den Markt. Insgesamt elf CPUs zählen zu dieser neuen Cooper-Lake-Generation: Fünf Xeon-Gold-Modelle mit 16 bis 24 Cores für 4-Socket-Systeme und sechs Xeon-Platinum-Prozessoren für Server mit bis zu acht CPU-Sockeln. Sie verfügen über 18 oder 28 Cores. Die CPUs bieten wie bei Cascade-Lake jeweils 48 PCI-Express-3.0-Lanes und sechs DDR4-Speicherkanäle. Bei einem Speichermodul pro Kanal wird nun auch DDR4-3200 unterstützt. Für eine schnellere Verbindung zwischen den CPUs auf dem Mainboard sorgt die Verdoppelung der Zahl der UPI-Links von drei auf sechs. Ultra Path Interconnect (UPI) hat bei den Xeon-CPUs mit FCLGA3647 die bisher eingesetzten QPI-Links ersetzt.

Bildergalerie

Deep Learning Boost mit BFloat16

Während Intel mit Xeon bei der Anzahl der Cores pro Socket und der PCI-Express-Performance gegenüber AMDs Epyc der Rome-Generation klar ins Hintertreffen geraten ist, hat der Chip-Hersteller bei der Unterstützung von KI-Anwendungen durch spezielle CPU-Funktionen die Nase vorn. Denn hier hat AMD noch nichts zu bieten. Bei Cooper Lake wurde der bisher aus den Vector Neural Network Instructions (VNNI) für AVX-512 bestehende Deep Learning Boost (DLBoost) um die Unterstützung des BFloat16-Datenformats (BF16) ergänzt. Mit ihm lässt sich laut Intel die Geschwindigkeit bei KI-Training und Inferenz gegenüber FP32 um den Faktor 1,9 steigern. Die Genauigkeit sinke dabei nur minimal. Die Cooper-Lake-Xeons sind die ersten x86-CPUs mit BF16-Unterstützung. Die jüngst von Nvidia vorgestellte A100-GPU wartet ebenfalls mit BF16-Unterstützung auf.

Mehr Speicher mit Optane PMem 200

Die HL-Varianten der neuen Xeon-Scalable-Prozessoren unterstützen die neue Optane-Persistant-Memory-200-Serie von Intel, die eine um 25 Prozent höhere Datentransferrate im Vergleich zum Vorgänger liefern soll. Die nichtflüchtigen Speichermodule mit Optane-Memory (PMem) sind weiterhin in Modulgrößen zwischen 128 GB und 512 GB verfügbar. Sie können in den Speicherslots anstelle von DDR4-Modulen eingesetzt werden, um die Größe der Arbeitsspeicher zu steigern und Daten persistent zu halten. Pro CPU-Sockel sind 4,5 TB kombinierter Speicher möglich, 1,5 TB DDR4 und 3 TB PMem. Profitieren sollen etwa große In-Memory-Datenbanken wie SAP Hana, aber auch Oracle-Datenbanken durch schnellere Abfagen. Zudem können mehr VMs gleichzeitig laufen, und Data-Analytics-Anwendungen wie Apache Spark sollen schneller Ergebnisse liefern.

KI-FPGA: Stratix 10 NX

Ein weiterer Baustein in Intels KI-Strategie ist der gemeinsam mit Cooper Lake vorgestellte FPGA-Chip Stratix 10 NX. Dieser erste für KI-Anwendungen optimierte FPGA von Intel wartet mit speziellen AI-Tensor-Einheiten, einem 3D-Package mit HBM2-Speicher und einer schnelleren Netzwerkanbindung auf.

(ID:46669826)