Künstliche Intelligenz hält zunehmend Einzug im Alltag – ob Wearables, autonome Fahrzeuge oder Cloud-Modelle. Die Hardware-Entwicklung steht dadurch nie dagewesenen Druck. Dabei entwickelt sich der Speicher zunehmend zum entscheidenden Engpass für KI-Systeme auf allen Ebenen.
Wenn bei KI-Einsatz von Hardware die Rede ist, liegt der Fokus meist auf GPUs und anderen Hardware-Beschleunigern. Doch beim Hardware-Design ist es tatsächlich der Speicher, der Entwickler zunehmend vor Herausforderungen stellt; nicht nur bei der Menge, sondern auch den Zugriffszeiten.
KI-Workloads sind auf schnellen Speicher mit hoher Dichte angewiesen, um datenhungrige Modelle zu versorgen. Ganz gleich, ob ein generatives Modell im Rechenzentrum trainiert oder eine Objekterkennung auf einem Edge-Gerät ausgeführt wird: Speicherbandbreite und -kapazität sind heute die wesentlichen Faktoren, die Leistung, Energieeffizienz und thermische Stabilität begrenzen.
Um diesen Anforderungen gerecht zu werden, greifen Hardware-Teams auf verschiedene Speicherarchitekturen zurück. Dazu zählen High-Bandwidth Memory (HBM) für breite I/O-Kanäle und einen hohen Durchsatz beim KI-Training. GDDR6/GDDR7 kommen für grafikintensive oder inferenzlastige Aufgaben zum Einsatz. LPDDR5/LPDDR5X sind für energiebegrenzte Edge-KI-Anwendungen geeignet und 3D-gestapeltes DRAM ermöglicht mehr Kapazität auf kleinerem Raum. Für die Zukunft zeigen aufkommende nichtflüchtige Technologien wie MRAM und ReRAM vielversprechende Ansätze für persistente KI-Zustandsspeicherung und schnellere Bootzeiten von Edge-Geräten, befinden sich jedoch noch weitgehend in der Entwicklung für Mainstream-KI-Anwendungen. Jede dieser Technologien bringt jedoch spezifische Einschränkungen in Bezug auf Leistungsaufnahme, Kompatibilität, thermisches Design, Verfügbarkeit und Leistung mit sich. Das zwingt zu Designkompromissen auf Systemebene.
Hardware-Design für KI wird durch Speicher definiert
In traditionellen Hardware-Entwicklungsprozessen erfolgte die Auswahl des Speichers erst, nachdem über CPU oder GPU entschieden worden war. Im Zeitalter der KI hat sich diese Reihenfolge jedoch umgekehrt. Heute stellen Hardware-Entwickler fest, dass die Wahl der Speicherarchitektur den gesamten Hardware-Stack bestimmt. Sie beeinflusst das Platinenlayout, das Energieversorgungskonzept sowie den Formfaktor des Endprodukts.
Die Auswahl von High-Speed-GDDR6 kann eine schnellere KI-Inferenz ermöglichen, erfordert jedoch eigene Stromschienen und komplexere Leiterplattenlayouts, was zusätzliche thermische und EMV-Herausforderungen mit sich bringt. Der Einsatz von LPDDR5 in batteriebetriebenen Mobilgeräten reduziert die Leistungsaufnahme, begrenzt jedoch die verfügbare Bandbreite und kann dadurch die Modellgröße oder die Inferenzrate einschränken. High Bandwidth Memory (HBM) wiederum eröffnet ein enormes Durchsatzpotenzial, verlangt aber nach fortschrittlichen Packaging- und Kühltechnologien wie Vapor Chambers oder Flüssigkühlsystemen. Beides treibt die Kosten in die Höhe.
Dies sind keine theoretischen Bedenken. Da sich die Speicheranforderungen für KI rasant entwickeln, müssen Entwickler die Speicherausstattung und die Schnittstellen früher festlegen – oft noch bevor Softwaremodelle und Firmware stabil sind. Das erhöht das Risiko bei frühen Designentscheidungen: Eine falsch kalkulierte Speicherwahl kann eine erneute PCB-Revision erforderlich machen oder spätere Upgrade-Pfade einschränken.
Volatilität in der Speicher-Lieferkette
Mit der rasanten Verbreitung von KI-Modellen steigt auch die Nachfrage nach leistungsstarken Speichertechnologien. Doch insbesondere DRAM und NAND sind seit jeher ein zyklischer, stark preissensitiver Markt. Der aktuelle Nachfrageschub durch KI verstärkt diese Volatilität zusätzlich.
HBM, GDDR6 und LPDDR5 gelten inzwischen als strategische Schlüsseltechnologien. Ihre Produktion konzentriert sich auf Südkorea, das den DRAM-Markt dominiert. Taiwan ist dagegen führend bei Advanced Packaging und Foundry-Services. Japan liefert Materialien und Spezialspeicher.
Diese geografische Konzentration birgt bestimmte Risiken. Dazu gehören geopolitische Instabilität, etwa die Spannungen in der Taiwanstraße. Hinzu kommen Exportkontrollen und Handelsbeschränkungen. Engpässe in der Fertigung sind ebenfalls ein Problem, da EUV-Lithografie und DRAM-spezifische Anlagen nur in wenigen Fabriken verfügbar sind. Auch Materialknappheiten, etwa bei fluorhaltigen Prozessgasen oder speziellen Fotolacken, können die Lieferkette blockieren und Auslieferungen verzögern.
Für Entwickler, die an KI-gestützten Neueinführungen arbeiten, bedeutet dies längere Vorlaufzeiten und ein höheres Risiko für Bauteilobsoleszenz – etwa dann, wenn sich Speicher-Roadmaps verschieben oder ein bestimmtes Bauteil knapp wird.
Nicht nur die Speichermenge zählt – sondern auch der Zugriff
In KI-Hardware ist mehr Speicher nur dann hilfreich, wenn es sich um die richtige Art von Speicher handelt. Er muss am richtigen Ort verbaut und auf die richtige Weise angebunden sein.
Der Übergang von universellen Rechenaufgaben hin zu KI-zentrierten Workloads eröffnet Produktentwicklungsteams neue Designansätze. Eng gekoppelte Speicher reduzieren zwar die Latenz, erfordern jedoch eine tiefere Integration mit Prozessoren oder SoCs. Lose gekoppelte Speicher bieten mehr Flexibilität, können aber je nach Architektur zu Engpässen führen. Speicherzugriffsmuster – etwa Tensor-Wiederverwendung, Stride-Zugriffe oder Sparsity – müssen entsprechend der Modellstruktur und der Rechenpipeline optimiert werden. Auch Partitionierungsentscheidungen – etwa das Ablegen von Gewichten in HBM, Aktivierungen in LPDDR und Zwischendaten in NVM – beeinflussen Leistung, thermisches Verhalten und Batterielaufzeit erheblich.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Kompatibilität ist ein technisches Minenfeld. Entwickler müssen sicherstellen, dass der Speicher nicht nur elektrisch mit KI-Chips, FPGAs oder SoCs kompatibel ist, sondern auch logisch zu Parametern wie Bandbreite, Latenz und Parallelität passt. Eine falsche Konfiguration kann die Rechenleistung deutlich einschränken, den Energiebedarf in die Höhe treiben oder dazu führen, dass kostspielige Hardware-Beschleuniger nicht ausgelastet werden.
Unternehmen, die heute erfolgreiche KI-Hardware auf den Markt bringen, optimieren nicht nur die Leistung. Sie verankern von Beginn an auch Resilienz in ihrer Speicherstrategie.
Das bedeutet: Risiken in Beschaffung und Lebenszyklusstatus müssen bereits bei der Speicherauswahl berücksichtigt werden. Speicherzugriffe und Durchsatz sollten früh in der Designphase simuliert werden. Hardware-, Software- und Supply-Chain-Teams müssen zusammenarbeiten, um Hindernisse rechtzeitig zu erkennen. Zudem lohnt sich die Investition in Designplattformen, die Echtzeit-Kollaboration und Komponentenintelligenz unterstützen.
Wenn Design- und Beschaffungsteams isoliert voneinander arbeiten, werden Entscheidungen zum Speicher oft verzögert oder ohne Abstimmung getroffen. Kostspielige Fehler und verpasste Marktchancen sind die Folge. Arbeiten die Teams jedoch von Anfang an zusammen, können sie Alternativen identifizieren, Verfügbarkeitsrisiken reduzieren und Systeme entwickeln, die Leistungsaufnahme, Rechenleistung und Lieferkettensicherheit in Einklang bringen.
Da Entwickler zunehmend KI in allen Bereichen einsetzen – von Edge-Sensoren bis hin zur Rechenzentrumsinfrastruktur – wird der Speicher zur entscheidenden Stellschraube im Wettbewerb, in dem Strategien für Leistung, Skalierbarkeit und Bauteilverfügbarkeit aufeinandertreffen. Wer den Speicher nicht als nachrangigen Faktor, sondern als zentrale Entwurfsrandbedingung betrachtet, wird jene Produkte erfolgreich auf den Markt bringen, die den Anforderungen sich wandelnder KI-Workloads gerecht werden. Das verschafft im Rennen um die nächste Produktgeneration einen klaren Vorsprung gegenüber der Konkurrenz.
Dieser Artikel stammt von unserem Partnerportal ELEKTRONIKPRAXIS.
* Justin Sears verantwortet das Produktmarketing von B2B-SaaS-Plattformen bei Altium. In seiner Funktion als „Head of Product Marketing for SaaS” führt er das Team, das Cloud-Lösungen für die Elektronikentwicklung im Markt positioniert.