AMD bringt neue KI-Chips mit mehr Speicher als Nvidia auf den Markt, um KI-Systeme der nächsten Generation anzutreiben

Von
Amanda Zhang
6 Minuten Lesezeit

AMD durchbricht Nvidias Speichergrenze im intensiven Kampf um KI-Chips

Im Showdown im Silicon Valley definiert AMDs 288-GB-Speicher-Vorstoß die KI-Hardware-Landschaft neu

In einer direkten Herausforderung der langjährigen Dominanz von Nvidia im Bereich der Künstlichen Intelligenz hat AMD seine bisher ehrgeizigste KI-Hardware-Produktpalette vorgestellt. Diese wird angeführt von Chips, die den Branchenführer bei einer entscheidenden Spezifikation übertreffen: der Speicherkapazität. Auf seinem „Advancing AI 2025“-Event diese Woche in San Jose präsentierte AMD die Instinct MI350-Serie mit beispiellosen 288 GB High-Bandwidth Memory (HBM3E) – 50 % mehr als Nvidias Flaggschiff-Blackwell-Chips. Dies könnte die Wettbewerbsdynamik auf dem 150 Milliarden US-Dollar schweren Markt für KI-Beschleuniger potenziell neu gestalten.

Lisa Su (gstatic.com)
Lisa Su (gstatic.com)

„Als Sie die Spezifikationen zum ersten Mal teilten, dachte ich, es sei unglaublich; es klang völlig verrückt. Es wird ein außergewöhnlicher Fortschritt sein“, sagte Sam Altman, CEO von OpenAI, während des Events und unterstrich damit die Bedeutung von AMDs technischer Errungenschaft.

Faktenblatt der neuen AMD KI-Produkte

Produktname/SerieWichtige Spezifikationen & FunktionenLeistungsmerkmaleVerfügbarkeit / Veröffentlichung
Instinct MI350-Serie (MI350X & MI355X)- Architektur: CDNA 4, TSMC N3P-Knoten
- Speicher: Bis zu 288 GB HBM3E
- Bandbreite: 8 TB/s
- Kühlung: Luftgekühlt (bis zu 64 GPUs/Rack) und Flüssigkeitsgekühlt (bis zu 128 GPUs/Rack)
- Bis zu 4-fache KI-Rechenleistung & 35-fache Inferenzleistung gegenüber der Vorgängergeneration
- Bis zu 2,6 ExaFLOPS (FP4) in einer Rack-Konfiguration
- 40 % mehr Token pro US-Dollar als Nvidia Blackwell B200 (bei FP4-Inferenz)
Drittes Quartal 2025 (Auslieferung)
MI400/450-Serie (Vorschau)- Speicher: Bis zu 432 GB HBM4
- Plattform: Wird die "Helios"-Rack-Scale-Plattform verankern
- Wettbewerb: Wird mit Nvidias Rubin/Vera Rubin-Plattformen konkurrieren
- Erwartet, bis zu 10-fache Inferenzleistung bei Mixture of Experts (MoE)-Modellen im Vergleich zur MI350-Serie zu liefern2026
Helios KI-Rack- Komponenten: Integriert bis zu 72 GPUs, Zen 6 EPYC CPUs und einen neuen Vulcano-Netzwerkchip
- Design: Flüssigkeitsgekühlte, vollständige Rack-Unified-Compute-Engine für Hyperscale-KI
- Die Leistung basiert auf ihren integrierten Komponenten (MI400/450-Serie)2026
ROCm 7.0 Software-Stack- Zielt darauf ab, ein offenes KI-Ökosystem zu schaffen, das mit CUDA konkurriert
- Bietet einen CUDA-Thunk-Shim zur Neu-Kompilierung von 72 % der Open-Source-CUDA-Projekte „sofort einsatzbereit“
- Liefert über 4-fache Inferenz- und 3-fache Trainingsleistungsverbesserungen gegenüber ROCm 6.0Ab sofort verfügbar
Entwickler-Cloud- Ein neuer Cloud-Dienst, der Entwicklern sofortigen Zugang zu AMDs neuesten GPUs bietet
- Spiegelt Nvidias DGX Cloud Lepton Dienst wider
- (Entfällt – eine Zugriffs-Plattform)Ab sofort verfügbar

Speicher-Durchbruch zielt auf KI-Engpass ab

Die Instinct MI350-Serie, basierend auf AMDs neuer CDNA 4-Architektur und TSMCs fortschrittlichem N3P-Fertigungsprozess, repräsentiert das erste Produkt des Unternehmens mit Kapazitätsengpässen, das Nvidia bei einer entscheidenden Spezifikation klar übertrifft. Mit 288 GB HBM3E-Speicher und 8 TB/s Bandbreite pro Chip adressiert die MI350 das, was zur primären Einschränkung beim Betrieb moderner großer Sprachmodelle geworden ist: die Speicherkapazität.

Für KI-Anwendungen, insbesondere Inferenz-Workloads, die Modelle mit Milliarden von Parametern umfassen, führt dieser Speichervorteil zu spürbaren Leistungssteigerungen. Erste Benchmarks deuten darauf hin, dass die MI350 bei FP4-Präzision etwa 40 % mehr Token pro US-Dollar liefern kann als Nvidias Blackwell B200, primär aufgrund ihrer Speichereffizienz und nicht der reinen Rechenleistung.

„Dies ist der Moment, in dem AMDs KI-Strategie endlich Gestalt annimmt“, sagte ein leitender Branchenanalyst, der Anonymität bat. „Die Speicherkapazität der MI350 ist nicht nur ein Sieg auf dem Datenblatt – sie verändert grundlegend, was für die Inferenz von LLMs im großen Maßstab möglich ist.“

Die Chips werden sowohl in luftgekühlten Konfigurationen, die bis zu 64 GPUs pro Rack unterstützen, als auch in flüssigkeitsgekühlten Varianten, die bis zu 128 GPUs pro Rack ermöglichen, verfügbar sein und potenziell bis zu 2,6 ExaFLOPS FP4-Leistung liefern können. AMD bestätigte, dass die MI350-Serie im dritten Quartal 2025 ausgeliefert wird, etwa neun Monate, nachdem Nvidia mit der Auslieferung seiner Blackwell-Architektur begonnen hat.

Jenseits des Chips: AMDs Full-Stack-Offensive

Während die MI350 AMDs kurzfristige Offensive darstellt, scheint die längerfristige Strategie des Unternehmens noch ehrgeiziger zu sein. AMD gab eine Vorschau auf seine MI400/450-Serie, die für 2026 geplant ist. Diese Chips werden bis zu 432 GB HBM4 der nächsten Generation bieten und die firmeneigene „Helios“-Rack-Scale-KI-Plattform verankern, die für Hyperscale-Implementierungen konzipiert ist.

Das Helios KI-Rack – ein flüssigkeitsgekühltes System, das bis zu 72 GPUs zusammen mit Zen 6 EPYC CPUs und AMDs neuem Vulcano-Netzwerkchip integriert – signalisiert AMDs Absicht, mit Nvidia auf Systemebene zu konkurrieren und nicht nur von Chip zu Chip. Dieser Rack-Scale-Ansatz spiegelt Nvidias Vera Rubin-Strategie wider und zielt auf die Hyperscale-Rechenzentren ab, die das größte und lukrativste Segment des KI-Hardware-Marktes darstellen.

AMD hat auch sein Software-Ökosystem erheblich verbessert und ROCm 7.0 veröffentlicht, das über 4-fache Inferenz- und 3-fache Trainingsleistungsverbesserungen gegenüber seinem Vorgänger bietet. Das Unternehmen stellte einen neuen Entwickler-Cloud-Dienst vor, der KI-Entwicklern sofortigen Zugang zu seinen neuesten GPUs bietet, ähnlich Nvidias DGX Cloud Lepton Angebot.

Strategische Partnerschaften bestätigen AMDs KI-Vorstoß

Große Cloud-Anbieter und KI-Unternehmen haben bereits ihre Unterstützung für AMDs neue Hardware signalisiert. Oracle Cloud Infrastructure hat zugesagt, Cluster von über 131.000 MI355X-Chips einzusetzen, was die bisher größte öffentlich bekannt gegebene Bestellung darstellt. Meta implementiert die MI350 für die Inferenz von Llama-Modellen, während Microsoft und OpenAI ihre Zusammenarbeit mit AMD vertieft haben.

Diese Partnerschaften werden durch AMDs aggressive Akquisitionsstrategie ergänzt: Das Unternehmen hat im vergangenen Jahr 25 KI-bezogene Startups erworben oder in sie investiert. Bemerkenswerte Akquisitionen sind der Serverhersteller ZT Systems, das Chip-Team Untether AI und Talente des KI-Startups Lamini – allesamt darauf ausgerichtet, AMDs End-to-End-KI-Fähigkeiten zu stärken.

Wall Streets verhaltene Reaktion

Trotz der technischen Errungenschaften war die Reaktion der Wall Street vorsichtig. AMDs Aktie fiel nach den Ankündigungen um 2 %, während Nvidias Aktien um 1,5 % sanken, was die Skepsis der Anleger bezüglich der Umsetzung und nicht der technologischen Roadmap selbst widerspiegelt.

AMD handelt derzeit zum etwa 9-fachen seines prognostizierten EBITDA für 2026 – ein Abschlag von 30 % gegenüber Nvidias 13-fachem Multiple. Diese Bewertungsdifferenz unterstreicht die anhaltenden Bedenken des Marktes hinsichtlich AMDs Fähigkeit, Lieferengpässe und Nachteile im Software-Ökosystem zu überwinden.

„Die Spezifikationen sind beeindruckend, aber Software bleibt AMDs Achillesferse“, bemerkt ein Halbleiteranalyst bei einer großen Investmentbank. „Solange ROCm nicht mit einer Stecker-kompatiblen Inferenz-Runtime ausgeliefert wird, werden schlüsselfertige Kunden weiterhin standardmäßig Nvidia wählen.“

Lieferkettenengpässe könnten Auswirkungen begrenzen

Der Erfolg von AMDs KI-Strategie hängt ebenso stark von der Fertigungskapazität wie von der technischen Leistungsfähigkeit ab. Die Produktionskapazität von TSMCs N3P ist stark ausgelastet, wobei Apple, AMD und Qualcomm alle um Zuteilungen konkurrieren. Branchenquellen schätzen, dass AMD in der zweiten Hälfte des Jahres 2025 etwa 80.000 MI350-Pakete ausliefern könnte – was nur etwa 11 % der jüngsten vierteljährlichen Blackwell-Wafer-Lieferungen von Nvidia entspricht.

Die HBM3E-Speicherversorgung von SK Hynix und Samsung stellt einen weiteren potenziellen Engpass dar, was AMDs Fähigkeit, seine technischen Vorteile kurzfristig zu nutzen, potenziell einschränken könnte. Zudem hat die MI355X im Gegensatz zu Nvidias Blackwell-Varianten derzeit keine China-konforme Version, wodurch effektiv etwa 18 % des Marktes an Nvidia abgetreten werden.

Investitionsausblick: Strategische Option mit asymmetrischen Renditen

Für Investoren stellt AMDs KI-Vorstoß das dar, was Analysten als „strategische Option“ mit potenziell asymmetrischen Renditen bezeichnen. Schon bescheidene Marktanteilsgewinne könnten die Finanzleistung von AMD erheblich beeinflussen, wobei Modelle zusätzliche GPU-Einnahmen von 5 Milliarden US-Dollar im Geschäftsjahr 2026 vorschlagen, wenn Lieferengpässe überwunden werden können.

„Das Risiko-Ertrags-Profil ist bei den aktuellen Bewertungen überzeugend“, meint ein Portfoliomanager, der sich auf Halbleiterinvestitionen spezialisiert hat. „Wenn die MI350-Volumina die Lieferengpässe beseitigen und Helios pünktlich ausgeliefert wird, könnte AMD seinen Bewertungsabschlag gegenüber Nvidia in den nächsten 18 Monaten um die Hälfte reduzieren.“

Wichtige Katalysatoren, die zu beobachten sind, umfassen AMDs Telefonkonferenz zu den Ergebnissen des dritten Quartals 2025, die die ersten schlüssigen MI350-Umsatzzahlen liefern wird; die für November 2025 erwartete Veröffentlichung der ROCm 7.1 Software; erste Helios-Pilot-Rack-Implementierungen in den Rechenzentren von Oracle und Meta; sowie HBM4-Lieferverträge Anfang 2026.

Während erhebliche Ausführungsrisiken bestehen bleiben, etablieren AMDs jüngste Ankündigungen das Unternehmen erstmals als glaubwürdigen Herausforderer in der KI-Beschleunigung. Für eine Branche, die an Nvidias unangefochtene Führungsposition gewöhnt ist, könnte das Aufkommen eines praktikablen Wettbewerbs die Preisdynamik und Innovationszyklen im gesamten KI-Hardware-Ökosystem neu gestalten.

Haftungsausschluss: Diese Analyse basiert auf öffentlich verfügbaren Informationen und ist nicht als Anlageberatung zu verstehen. Die Wertentwicklung in der Vergangenheit ist kein Indikator für zukünftige Ergebnisse. Anleger sollten für eine persönliche Beratung Finanzberater konsultieren.

Das könnte Ihnen auch gefallen

Dieser Artikel wurde von unserem Benutzer gemäß den Regeln und Richtlinien für die Einreichung von Nachrichten. Das Titelbild ist computererzeugte Kunst nur zu illustrativen Zwecken; nicht indikativ für den tatsächlichen Inhalt. Wenn Sie glauben, dass dieser Artikel gegen Urheberrechte verstößt, zögern Sie bitte nicht, dies zu melden, indem Sie uns eine E-Mail senden. Ihre Wachsamkeit und Zusammenarbeit sind unschätzbar, um eine respektvolle und rechtlich konforme Community aufrechtzuerhalten.

Abonnieren Sie unseren Newsletter

Erhalten Sie das Neueste aus dem Unternehmensgeschäft und der Technologie mit exklusiven Einblicken in unsere neuen Angebote

Wir verwenden Cookies auf unserer Website, um bestimmte Funktionen zu ermöglichen, Ihnen relevantere Informationen bereitzustellen und Ihr Erlebnis auf unserer Website zu optimieren. Weitere Informationen finden Sie in unserer Datenschutzrichtlinie und unseren Nutzungsbedingungen . Obligatorische Informationen finden Sie im Impressum