Schnelle Speichertechnik für KI Künstliche Intelligenz treibt Nachfrage nach Speichern mit hoher Bandbreite

Michael Eckstein

Anbieter zum Thema

Immer schnellere Prozessoren und fordernde Anwendungen wie maschinelles Lernen bringen bisherige Mainstream-Speicher an ihre Grenzen. Der Ruf nach Highspeed-Memory wird immer lauter.

Gut gestapelt: Samsung ist einer der Vorreiter für hochperformante High-Bandwith-Memory-Module.
Gut gestapelt: Samsung ist einer der Vorreiter für hochperformante High-Bandwith-Memory-Module.
(Bild: Samsung)

Der rasch wachsende Markt für Super-Computing und Künstliche-Intelligenz-Anwendungen treibt nach Ansicht von Marktanalyst Jim Handy die Nachfrage nach schnellen Speicherlösungen wie High-Bandwith-Memory-(HBM).

Der Speicherexperte ist Principal Analyst des Beratungsunternehmens Objective Analysis und sieht darüber hinaus auch Smartphones als zukünftige Zielmärkte für HBM. Hier könnte die Technologie wegen ihrer guten Energieeffizienz und geringen Baugröße eine Alternative zu GDDR5-Speicher sein. Bislang kommen HBM-Speicher zum Beispiel auf hochwertigen Grafikkarten von Nvidia und AMD zum Einsatz. Eben dort, wo viele Daten schnell zum Grafikprozessor (GPU) und zurück gelangen müssen.

TSV-Technik macht HBM teuer

Neben HBM gilt Hybrid Memory Cube (HMC) als gangbarer Weg zum Erzielen höchstmöglicher Speicher-Performance. Die mittlerweile größere Verbreitung von HBM könnte das Pendel zugunsten dieser Technologie ausschlagen lassen. Nicht zuletzt aufgrund seines hohen Preises wird HBM jedoch bis auf weiteres eine Nischentechnologie bleiben, schätzt Handy.

Besonders die „Through Silicon Via“-Technik (TSV), also das Durchkontaktieren der übereinander liegenden Silizium-Plättchen (Dies), macht die Bausteine teuer. Zwar habe TSV Vorteile gegenüber gebondeten Drahtverbindungen, sagt Handy: „Doch wenn 5.000 TSVs auf einem Chip nötig sind, ist das ein echter Kostenfaktor.“

Bis HDM eine Mainstream-Technologie wird, müssten die Preise deutlich sinken. Voraussetzung dafür sind massiv steigende Stückzahlen. Einen ersten Schritt in diese Richtung ist Samsung vor einigen Tagen gegangen: Der Elektronikriese hat die Volumenproduktion für seinen neuen HBM2-Speicher der zweiten Generation aufgenommen.

Zwölfmal schneller als DDR4-Speicher

Die „Aquabolt“ genannten Speicher haben eine Kapazität von 8 GByte und erreichen laut Samsung eine Übertragungsgeschwindigkeit von 2,4 GBit/s pro Pin. Ein HBM2-Modul käme somit auf eine Bandbreite von 307 GByte/s – wäre also rund zwölfmal schneller als ein bisheriger DDR4-Speicher mit 72 Bit breiter Schnittstelle.

Interessant in diesem Zusammenhang ist, dass Synopsys aktuell seine „DesignWare HBM2 IP“-Lösung bewirbt, die Controller, PHY und IP zur Verifizierung enthält und exakt die von Samsung propagierten Leistungswerte erreichen soll. Laut Synopsys benötigen die HBM2-Speicher zudem nur ein Zehntel so viel Energie wie die DDR4-Technologie.

Aufgrund der hohen Nachfrage und des knappen Angebots ist der Speichermarkt 2017 stark gewachsen. Laut Jim Handy nahmen die Umsätze mit DRAM um 30 Prozent, die mit NAND-Flash sogar um 50 Prozent zu. Und das in einem Umfeld mit überwiegend stabilem Preisniveau. „Die Preise sind stabil, die Herstellungskosten sinken – Anbieter profitieren von der aktuellen Situation“, erklärt Handy. Zum Vergleich: Der Halbleiter-Gesamtmarkt legte um rund 20 Prozent zu.

(ID:45095835)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung