Amazon-Aktie steigt: AWS enthüllt rekordverdächtige 600 Gbit/s Netzwerkgeschwindigkeit im Graviton4-Chip

Von
Amanda Zhang
5 Minuten Lesezeit

Amazons Silizium-Schachzug: Graviton4-Durchbruch beflügelt Aktie, AWS definiert Netzwerk-Obergrenze neu

SEATTLE — Die Amazon-Aktie stieg am Mittwoch um 1,4 % auf 217,87 $ (aktuell wieder bei 216,73 $), nachdem AWS ein bahnbrechendes Update seines maßgeschneiderten Graviton4-Prozessors vorgestellt hatte. Dieser integriert Netzwerkbandbreitenfunktionen, die bestehende Cloud-Angebote in den Schatten stellen und die Wettbewerbslandschaft im Bereich Hochleistungs-Computing potenziell neu gestalten.

Graviton4
Graviton4

Die Ankündigung – mit dem, was Amazon als „die höchste Netzwerkbandbreite in der Public Cloud“ bezeichnet, nämlich beeindruckende 600 Gigabit pro Sekunde – stellt mehr als nur einen technischen Meilenstein dar. Sie signalisiert Amazons beschleunigten Vorstoß zur vertikalen Integration und zur Reduzierung der Abhängigkeit von traditionellen Chipherstellern wie Intel und AMD, während sie gleichzeitig seine Position gegenüber Nvidias Dominanz in der KI-Infrastruktur stärkt.

„100 Musik-CDs pro Sekunde“: Durchbruch der Bandbreitenbarriere

AWS-Ingenieure beschrieben den Durchbruch in anschaulichen Worten und verglichen die 600 Gbit/s Netzwerkbandbreite mit einem System, das in der Lage ist, 100 Musik-CDs pro Sekunde zu verarbeiten – ein Quantensprung gegenüber der Kapazität früherer EC2-Instanzen von 50-100 Gbit/s.

„Das ist nicht nur ein inkrementeller Fortschritt“, bemerkte ein Cloud-Infrastruktur-Analyst, der anonym bleiben wollte. „Indem AWS dieses Maß an Netzwerkstruktur direkt in den CPU-Die einbettet, anstatt sich auf externe Netzwerkschnittstellenkarten zu verlassen, hat es einen der hartnäckigsten Engpässe bei verteilten Computing-Workloads behoben.“

Der verbesserte Chip behält seine Grundlage von 96 Arm Neoverse V2-Kernen, 12 DDR5-5600-Speicherkanälen und 192 MB L2-Cache bei – Spezifikationen, die bereits beeindruckende Leistungssteigerungen von 30 bis 45 % gegenüber der vorherigen Graviton3-Generation für Webanwendungen, Datenbanken und Java-Workloads erzielt hatten.

Tabelle: AWS Graviton4 vs. wichtige Cloud- und Server-CPU-Wettbewerber — Schlüsselmerkmale und Positionierung

Plattform/CPUKernanzahlProzessSchlüsselstärkenCloud-VerfügbarkeitPosition ggü. Graviton4
AWS Graviton4964 nmHohe Leistung/Effizienz, SpeicherBWAWSBaseline; führende Arm Cloud-CPU
Azure Cobalt 10096?Hauseigene Arm, Preis/LeistungAzureEtwas geringere Pro-Kern-Leistung, starker Wert
Azure Ampere Altra807 nmHohe Kernanzahl, EffizienzAzure, andereGut für Scale-out, geringere Pro-Kern-Leistung
Google Axion??Kundenspezifische Arm, hohe Leistung/EffizienzGoogle CloudBeansprucht Gleichstand oder bessere Leistung
Google Tau (x86)Bis zu 607 nmPreis/Leistung, Scale-outGoogle CloudOft besseres Preis/Leistung für x86
AmpereOneBis zu 1925 nmHohe Dichte, Cloud-nativOracle, Azure, andereMehr Kerne, geringere Pro-Kern-Leistung
OCI Ampere Altra/A2Bis zu 1565 nmHohe Kernanzahl, Preis/LeistungOracle CloudStark für Web/KI, Kostenführer
Intel Xeon60–1447–10 nmKI/ML, breites ÖkosystemAlle großen CloudsStarke Single-Thread-Leistung, höhere Kosten
AMD EPYC96–1925–3 nmHohe Kernanzahl, SpeicherBWAlle großen CloudsErreicht/übertrifft in einigen Workloads
NVIDIA Grace724 nmHPC, KI, SpeicherBWAusgewählte (zukünftig)Höhere BW, höhere Latenz

Silizium-Unabhängigkeit: Amazons Strategie der vertikalen Integration trägt Früchte

Während AWS seit der Übernahme von Annapurna Labs im Jahr 2015 kundenspezifische Chips entwickelt, stellt die Netzwerkverbesserung des Graviton4 möglicherweise die bisher klarste Bestätigung der Silizium-Unabhängigkeitsstrategie des Unternehmens dar.

Marktbeobachter verweisen auf mehrere strategische Vorteile. „AWS kontrolliert nun einen größeren Teil seines Stacks, vom Silizium bis zu den Diensten“, erklärte ein Technologie-Investmentstratege. „Dies reduziert ihre Anfälligkeit für Lieferkettenengpässe und Lizenzkosten und kann gleichzeitig die Bruttomargen um 5 bis 10 % im Vergleich zu Chips von Drittanbietern steigern.“

Der Zeitpunkt ist besonders bedeutsam, da die weltweiten Endkundenausgaben für Public-Cloud-Dienste im Jahr 2025 voraussichtlich 723 Milliarden US-Dollar erreichen werden – ein Anstieg von 21,4 % im Jahresvergleich –, wobei das schnellste Wachstum in Infrastruktur- und Plattformdiensten zu verzeichnen ist, die am meisten von spezialisierter Hardware mit hoher Bandbreite profitieren.

Tabelle: Schlüsselmerkmale und -funktionen des AWS Graviton4 Cloud-Prozessors

MerkmalGraviton4-Details
Veröffentlichungsdatum28. November 2023
Fertigungstechnologie4 nm (TSMC)
ArchitekturArm Neoverse V2 (ARMv9.0-A ISA)
Kernanzahl96 Kerne
Basisfrequenz2,8 GHz
Chiplet-Design7-Chiplet SoC (Multi-Chip-Paket)
SMP-UnterstützungBis zu 2-fach (Dual-Socket, 192 vCPUs pro Server)
Speicherunterstützung12 Kanäle DDR5-5600 ECC
Max. Speicherbandbreite537,6 GB/s
Max. PCIe-Lanes96 Lanes PCIe 5.0
L1 Cache12 MiB gesamt (6 MiB Daten, 6 MiB Instruktionen)
L2 Cache192 MiB gesamt
Unterstützter Speicher pro InstanzBis zu 3 TiB (in X8g EC2-Instanzen)
Unterstützter lokaler SpeicherBis zu 11,4 TB NVMe SSD (in neuen Instanztypen)
HerstellerTSMC
EntwicklerAnnapurna Labs (Amazon)
Leistungsverbesserungen+30 % Rechenleistung, +50 % Kerne, +75 % SpeicherBW vs. Graviton3
Ziel-WorkloadsDatenbanken, Analysen, HPC, Web-/App-Server, Microservices
Unterstützte EC2-InstanzenX8g, R8g, C8gd, M8gd (bis zu 192 vCPUs, 1,5 TiB RAM, 11,4 TB SSD)
ÖkosystemVon wichtigen AWS Managed Services und Kunden unterstützt

David gegen mehrere Goliaths: Neudefinition der Wettbewerbslandschaft

Die Errungenschaft von AWS positioniert das Unternehmen einzigartig gegenüber traditionellen Chipherstellern und Cloud-Wettbewerbern. Kein anderer Public-Cloud-Anbieter bietet eine CPU-integrierte Netzwerkstruktur, die an 600 Gbit/s heranreicht, während Intel- und AMD-basierte Instanzen über externe NICs (Netzwerkschnittstellenkarten) typischerweise bei etwa 100 Gbit/s liegen.

Cloud-native Alternativen wie Ampere Altra, die in Googles T2A-Instanzen verwendet werden, erreichen in der Praxis Spitzenwerte von etwa 32-78 Gbit/s. Während Hyperscale-Wettbewerber wie Google, Microsoft und Huawei ihre eigenen kundenspezifischen Siliziumchips entwickeln, hat keiner öffentlich eine vergleichbare Netzwerkintegration demonstriert.

Dennoch steht AWS im Segment der höchsten Leistung immer noch einem gewaltigen Wettbewerb gegenüber. GPU-Cluster, die Nvidias NVLink-Technologie nutzen – und bis zu 900 GB/s Inter-GPU-Bandbreite bieten – bleiben der Goldstandard für den reinen KI-Trainingsdurchsatz. Diese Dichotomie unterstreicht die strategische Positionierung von AWS: Bereitstellung wettbewerbsfähiger Alternativen für die überwiegende Mehrheit der Workloads und gleichzeitig Entwicklung spezialisierter Optionen für KI mit seinen Trainium- und Inferentia-Chips.

Jenseits nackter Zahlen: Die wirtschaftlichen Auswirkungen und AWS's Margenmotor

AWS hat sich als Amazons Profitmotor etabliert und meldete für das erste Quartal 2025 Einnahmen von 29,3 Milliarden US-Dollar (19 % Wachstum im Jahresvergleich) mit einer operativen Marge von 39,5 % – ein Anstieg von 37,6 % im Vorjahr. Kundenspezifisches Silizium spielt eine zunehmend zentrale Rolle in dieser Geschichte der Margenausweitung.

„Die tatsächlichen finanziellen Auswirkungen betreffen nicht nur die Leistung pro Dollar für die Kunden“, bemerkte ein Finanzanalyst, der die Cloud-Infrastruktur abdeckt. „Es geht darum, dass AWS sich schrittweise von der Margenbelastung durch Komponenten Dritter entwöhnt.“

Dieser Wandel ist mit erheblichen Vorabkosten verbunden. Amazon meldete für das erste Quartal allein Kapitalausgaben von 24,3 Milliarden US-Dollar, wovon ein Großteil in die Rechenzentrumsinfrastruktur floss. Diese Investitionen unterdrücken vorübergehend den freien Cashflow, schaffen aber margenstarke Kapazitäten, die in den nächsten 2-3 Jahren nachhaltige Gewinnverbesserungen vorantreiben könnten.

Die Adoptionskurve: Versprechen vs. unmittelbare Nachfrage

Trotz der technischen Errungenschaft bleiben Fragen zur unmittelbaren Kundenakzeptanz. Die 600 Gbit/s-Fähigkeit zielt primär auf spezialisierte Hochleistungs-Computing- und KI-Trainings-Workloads ab, anstatt auf Mainstream-Anwendungen.

Das könnte Ihnen auch gefallen

Dieser Artikel wurde von unserem Benutzer gemäß den Regeln und Richtlinien für die Einreichung von Nachrichten. Das Titelbild ist computererzeugte Kunst nur zu illustrativen Zwecken; nicht indikativ für den tatsächlichen Inhalt. Wenn Sie glauben, dass dieser Artikel gegen Urheberrechte verstößt, zögern Sie bitte nicht, dies zu melden, indem Sie uns eine E-Mail senden. Ihre Wachsamkeit und Zusammenarbeit sind unschätzbar, um eine respektvolle und rechtlich konforme Community aufrechtzuerhalten.

Abonnieren Sie unseren Newsletter

Erhalten Sie das Neueste aus dem Unternehmensgeschäft und der Technologie mit exklusiven Einblicken in unsere neuen Angebote

Wir verwenden Cookies auf unserer Website, um bestimmte Funktionen zu ermöglichen, Ihnen relevantere Informationen bereitzustellen und Ihr Erlebnis auf unserer Website zu optimieren. Weitere Informationen finden Sie in unserer Datenschutzrichtlinie und unseren Nutzungsbedingungen . Obligatorische Informationen finden Sie im Impressum