KI-Chips OpenAI will sich von Nvidia lösen und wendet sich für eigene Chips an TSMC

Von Susanne Braun 3 min Lesedauer

Anbieter zum Thema

Der nächste Schritt in der Chip-Fertigung wird für Auftragsfertiger TSMC die A16-Prozesstechnologie mit Nanosheet-Transistoren und Rückseitenstromversorgung sein. Ab 2026 soll A16 fortschrittliche Chips in Massen liefern; Gerüchten zufolge an Apple und an OpenAI. Denn OpenAI plant eigene KI-Chips umzusetzen, um die Abhängigkeit von KI-Chip-Marktführer Nvidia zu verringern.

Der GB200 - Grace Blackwell 200 -, die neueste Generation der Nvidia KI-Superchips, die (angeblich) im Q1 2025 verfügbar werden sollen.(Bild:  Nvidia)
Der GB200 - Grace Blackwell 200 -, die neueste Generation der Nvidia KI-Superchips, die (angeblich) im Q1 2025 verfügbar werden sollen.
(Bild: Nvidia)

Nvidia ist aktuell der unbestrittene Platzhirsch im Markt der KI-Chips, wenngleich sich argumentieren ließe, dass dieser Thron auf tönernen Füßen gebaut ist. Denn obwohl das Datacenter-Geschäft von Nvidia im zweiten Quartal 2024 nochmals gewachsen ist, hat die Aktie nach der Verkündung einen kleinen Kurssturz hingelegt. Mehr als 450 Milliarden Euro Marktkapitalisierung gingen so verloren. Des Weiteren soll das Justizministerium der USA eine kartellrechtliche Untersuchung gegen Nvidia anstreben. Das Unternehmen beherrscht bis zu 90 Prozent des Markts für KI-Chips und es steht zumindest die Vermutung im Raum, dass Nvidia den Kunden einen Wechsel zu einem anderen Hersteller nicht gerade erleichtert (via Business Insider).

Und dann wird auch noch angenommen, dass das enorme Wachstum Nvidias in den vergangenen Jahren vor allem vier Großkonzernen zu verdanken ist. Die größten Kunden von Nvidia, so wird angenommen, dürften Microsoft, Meta, Amazon und Google sein. Sich darauf zu verlassen, dass das so bleiben könnte und dass diese vier Unternehmen den Erfolg Nvidias bis in alle Ewigkeit tragen, wäre töricht, so Finanzanalysten. Zudem gibt es vielfältige Anzeichen dafür, dass sich die Großkunden von ihrer Nvidia-Abhängigkeit lösen möchten. Kürzlich erst machte das Gerücht die Runde, dass ChatGPT-Betreiber OpenAI für eigens entworfene KI-Chips auf den A16-Fertigungsprozess von TSMC setzen will.

A16: Apple und OpenAI sollen zu den ersten Kunden gehören

Üblicherweise geht kein Auftragsfertiger mit Angaben zu seinen Kunden hausieren, entsprechend müssen sich interessierte Branchenkenner meist mit Gerüchten zufriedengeben, die manches Mal ins Internet tröpfeln. Das Gerücht, dass OpenAI beabsichtigt, eigene KI-Chips bei TSMC herstellen zu lassen, kam am 2. September 2024 über UDN.com auf. Dort heißt es, dass es in der Branche heißt, dass Apple Kontingente der ersten Ladung A16-Chips von TSMC reserviert hätte – und OpenAI ebenso.

OpenAI strebe die Produktion von ASIC-Chips an, die mit der Hilfe von US-Unternehmen wie Broadcom entworfen wurden. „Nach Angaben aus Branchenkreisen verhandelte OpenAI ursprünglich aktiv mit TSMC über eine Zusammenarbeit beim Bau einer eigenen Wafer-Fabrik. Nach Abwägung der Entwicklungsvorteile wurde der Plan für eine eigene Fabrik jedoch ad acta gelegt. OpenAI entwickelte seine eigenen ASIC-Chips mit amerikanischen Unternehmen wie Broadcom und Marvell“, schreiben die Autoren von UDN.

Der A16 ist der fortschrittlichste Prozessknoten, den TSMC bisher vorgestellt hat, und die Massenproduktion wird für die zweite Jahreshälfte 2026 angestrebt. Die Technologie bietet Nanosheet-Transistoren und die eigens entworfene Rückseitenstromversorgung Super Power Rail.

Eigenentwicklungen statt Kundenservice

Dass dedizierte ASICs im Training und Betrieb von LLMs (Large Language Models) den GPUs von Nvidia überlegen sein könnten, ist kein Geheimnis – zumindest so lange, wie LLMs so funktionieren, wie sie eben funktionieren. Um abschließend einen Bogen zu schlagen, dass Nvidia vielleicht doch nicht so sattelfest auf dem KI-Thron sitzt: Der größte Investor von OpenAI ist Microsoft. 

Es könnte also einer der vier (gerüchteten) großen Nvidia-Kunden in den nächsten Jahren wegfallen. Google an seinen Cloud Tensor Processing Units, Amazon steckt neben Nvidia-Chips auch eigene ARM-Prozessoren Graviton und Trainium in die Datacenter, selbst Meta arbeitet an eigenen Chips. Sind die Erfolgsjahre des KI-Platzhirsches Nvidia bald schon wieder vorbei?

Dieser Artikel stammt von unserem Partnerportal ELEKTRONIKPRAXIS.

(ID:50158798)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung