Amazons Silizium-Schachzug: Graviton4-Durchbruch beflügelt Aktie, AWS definiert Netzwerk-Obergrenze neu
SEATTLE — Die Amazon-Aktie stieg am Mittwoch um 1,4 % auf 217,87 $ (aktuell wieder bei 216,73 $), nachdem AWS ein bahnbrechendes Update seines maßgeschneiderten Graviton4-Prozessors vorgestellt hatte. Dieser integriert Netzwerkbandbreitenfunktionen, die bestehende Cloud-Angebote in den Schatten stellen und die Wettbewerbslandschaft im Bereich Hochleistungs-Computing potenziell neu gestalten.
Die Ankündigung – mit dem, was Amazon als „die höchste Netzwerkbandbreite in der Public Cloud“ bezeichnet, nämlich beeindruckende 600 Gigabit pro Sekunde – stellt mehr als nur einen technischen Meilenstein dar. Sie signalisiert Amazons beschleunigten Vorstoß zur vertikalen Integration und zur Reduzierung der Abhängigkeit von traditionellen Chipherstellern wie Intel und AMD, während sie gleichzeitig seine Position gegenüber Nvidias Dominanz in der KI-Infrastruktur stärkt.
„100 Musik-CDs pro Sekunde“: Durchbruch der Bandbreitenbarriere
AWS-Ingenieure beschrieben den Durchbruch in anschaulichen Worten und verglichen die 600 Gbit/s Netzwerkbandbreite mit einem System, das in der Lage ist, 100 Musik-CDs pro Sekunde zu verarbeiten – ein Quantensprung gegenüber der Kapazität früherer EC2-Instanzen von 50-100 Gbit/s.
„Das ist nicht nur ein inkrementeller Fortschritt“, bemerkte ein Cloud-Infrastruktur-Analyst, der anonym bleiben wollte. „Indem AWS dieses Maß an Netzwerkstruktur direkt in den CPU-Die einbettet, anstatt sich auf externe Netzwerkschnittstellenkarten zu verlassen, hat es einen der hartnäckigsten Engpässe bei verteilten Computing-Workloads behoben.“
Der verbesserte Chip behält seine Grundlage von 96 Arm Neoverse V2-Kernen, 12 DDR5-5600-Speicherkanälen und 192 MB L2-Cache bei – Spezifikationen, die bereits beeindruckende Leistungssteigerungen von 30 bis 45 % gegenüber der vorherigen Graviton3-Generation für Webanwendungen, Datenbanken und Java-Workloads erzielt hatten.
Tabelle: AWS Graviton4 vs. wichtige Cloud- und Server-CPU-Wettbewerber — Schlüsselmerkmale und Positionierung
Plattform/CPU | Kernanzahl | Prozess | Schlüsselstärken | Cloud-Verfügbarkeit | Position ggü. Graviton4 |
---|---|---|---|---|---|
AWS Graviton4 | 96 | 4 nm | Hohe Leistung/Effizienz, SpeicherBW | AWS | Baseline; führende Arm Cloud-CPU |
Azure Cobalt 100 | 96 | ? | Hauseigene Arm, Preis/Leistung | Azure | Etwas geringere Pro-Kern-Leistung, starker Wert |
Azure Ampere Altra | 80 | 7 nm | Hohe Kernanzahl, Effizienz | Azure, andere | Gut für Scale-out, geringere Pro-Kern-Leistung |
Google Axion | ? | ? | Kundenspezifische Arm, hohe Leistung/Effizienz | Google Cloud | Beansprucht Gleichstand oder bessere Leistung |
Google Tau (x86) | Bis zu 60 | 7 nm | Preis/Leistung, Scale-out | Google Cloud | Oft besseres Preis/Leistung für x86 |
AmpereOne | Bis zu 192 | 5 nm | Hohe Dichte, Cloud-nativ | Oracle, Azure, andere | Mehr Kerne, geringere Pro-Kern-Leistung |
OCI Ampere Altra/A2 | Bis zu 156 | 5 nm | Hohe Kernanzahl, Preis/Leistung | Oracle Cloud | Stark für Web/KI, Kostenführer |
Intel Xeon | 60–144 | 7–10 nm | KI/ML, breites Ökosystem | Alle großen Clouds | Starke Single-Thread-Leistung, höhere Kosten |
AMD EPYC | 96–192 | 5–3 nm | Hohe Kernanzahl, SpeicherBW | Alle großen Clouds | Erreicht/übertrifft in einigen Workloads |
NVIDIA Grace | 72 | 4 nm | HPC, KI, SpeicherBW | Ausgewählte (zukünftig) | Höhere BW, höhere Latenz |
Silizium-Unabhängigkeit: Amazons Strategie der vertikalen Integration trägt Früchte
Während AWS seit der Übernahme von Annapurna Labs im Jahr 2015 kundenspezifische Chips entwickelt, stellt die Netzwerkverbesserung des Graviton4 möglicherweise die bisher klarste Bestätigung der Silizium-Unabhängigkeitsstrategie des Unternehmens dar.
Marktbeobachter verweisen auf mehrere strategische Vorteile. „AWS kontrolliert nun einen größeren Teil seines Stacks, vom Silizium bis zu den Diensten“, erklärte ein Technologie-Investmentstratege. „Dies reduziert ihre Anfälligkeit für Lieferkettenengpässe und Lizenzkosten und kann gleichzeitig die Bruttomargen um 5 bis 10 % im Vergleich zu Chips von Drittanbietern steigern.“
Der Zeitpunkt ist besonders bedeutsam, da die weltweiten Endkundenausgaben für Public-Cloud-Dienste im Jahr 2025 voraussichtlich 723 Milliarden US-Dollar erreichen werden – ein Anstieg von 21,4 % im Jahresvergleich –, wobei das schnellste Wachstum in Infrastruktur- und Plattformdiensten zu verzeichnen ist, die am meisten von spezialisierter Hardware mit hoher Bandbreite profitieren.
Tabelle: Schlüsselmerkmale und -funktionen des AWS Graviton4 Cloud-Prozessors
Merkmal | Graviton4-Details |
---|---|
Veröffentlichungsdatum | 28. November 2023 |
Fertigungstechnologie | 4 nm (TSMC) |
Architektur | Arm Neoverse V2 (ARMv9.0-A ISA) |
Kernanzahl | 96 Kerne |
Basisfrequenz | 2,8 GHz |
Chiplet-Design | 7-Chiplet SoC (Multi-Chip-Paket) |
SMP-Unterstützung | Bis zu 2-fach (Dual-Socket, 192 vCPUs pro Server) |
Speicherunterstützung | 12 Kanäle DDR5-5600 ECC |
Max. Speicherbandbreite | 537,6 GB/s |
Max. PCIe-Lanes | 96 Lanes PCIe 5.0 |
L1 Cache | 12 MiB gesamt (6 MiB Daten, 6 MiB Instruktionen) |
L2 Cache | 192 MiB gesamt |
Unterstützter Speicher pro Instanz | Bis zu 3 TiB (in X8g EC2-Instanzen) |
Unterstützter lokaler Speicher | Bis zu 11,4 TB NVMe SSD (in neuen Instanztypen) |
Hersteller | TSMC |
Entwickler | Annapurna Labs (Amazon) |
Leistungsverbesserungen | +30 % Rechenleistung, +50 % Kerne, +75 % SpeicherBW vs. Graviton3 |
Ziel-Workloads | Datenbanken, Analysen, HPC, Web-/App-Server, Microservices |
Unterstützte EC2-Instanzen | X8g, R8g, C8gd, M8gd (bis zu 192 vCPUs, 1,5 TiB RAM, 11,4 TB SSD) |
Ökosystem | Von wichtigen AWS Managed Services und Kunden unterstützt |
David gegen mehrere Goliaths: Neudefinition der Wettbewerbslandschaft
Die Errungenschaft von AWS positioniert das Unternehmen einzigartig gegenüber traditionellen Chipherstellern und Cloud-Wettbewerbern. Kein anderer Public-Cloud-Anbieter bietet eine CPU-integrierte Netzwerkstruktur, die an 600 Gbit/s heranreicht, während Intel- und AMD-basierte Instanzen über externe NICs (Netzwerkschnittstellenkarten) typischerweise bei etwa 100 Gbit/s liegen.
Cloud-native Alternativen wie Ampere Altra, die in Googles T2A-Instanzen verwendet werden, erreichen in der Praxis Spitzenwerte von etwa 32-78 Gbit/s. Während Hyperscale-Wettbewerber wie Google, Microsoft und Huawei ihre eigenen kundenspezifischen Siliziumchips entwickeln, hat keiner öffentlich eine vergleichbare Netzwerkintegration demonstriert.
Dennoch steht AWS im Segment der höchsten Leistung immer noch einem gewaltigen Wettbewerb gegenüber. GPU-Cluster, die Nvidias NVLink-Technologie nutzen – und bis zu 900 GB/s Inter-GPU-Bandbreite bieten – bleiben der Goldstandard für den reinen KI-Trainingsdurchsatz. Diese Dichotomie unterstreicht die strategische Positionierung von AWS: Bereitstellung wettbewerbsfähiger Alternativen für die überwiegende Mehrheit der Workloads und gleichzeitig Entwicklung spezialisierter Optionen für KI mit seinen Trainium- und Inferentia-Chips.
Jenseits nackter Zahlen: Die wirtschaftlichen Auswirkungen und AWS's Margenmotor
AWS hat sich als Amazons Profitmotor etabliert und meldete für das erste Quartal 2025 Einnahmen von 29,3 Milliarden US-Dollar (19 % Wachstum im Jahresvergleich) mit einer operativen Marge von 39,5 % – ein Anstieg von 37,6 % im Vorjahr. Kundenspezifisches Silizium spielt eine zunehmend zentrale Rolle in dieser Geschichte der Margenausweitung.
„Die tatsächlichen finanziellen Auswirkungen betreffen nicht nur die Leistung pro Dollar für die Kunden“, bemerkte ein Finanzanalyst, der die Cloud-Infrastruktur abdeckt. „Es geht darum, dass AWS sich schrittweise von der Margenbelastung durch Komponenten Dritter entwöhnt.“
Dieser Wandel ist mit erheblichen Vorabkosten verbunden. Amazon meldete für das erste Quartal allein Kapitalausgaben von 24,3 Milliarden US-Dollar, wovon ein Großteil in die Rechenzentrumsinfrastruktur floss. Diese Investitionen unterdrücken vorübergehend den freien Cashflow, schaffen aber margenstarke Kapazitäten, die in den nächsten 2-3 Jahren nachhaltige Gewinnverbesserungen vorantreiben könnten.
Die Adoptionskurve: Versprechen vs. unmittelbare Nachfrage
Trotz der technischen Errungenschaft bleiben Fragen zur unmittelbaren Kundenakzeptanz. Die 600 Gbit/s-Fähigkeit zielt primär auf spezialisierte Hochleistungs-Computing- und KI-Trainings-Workloads ab, anstatt auf Mainstream-Anwendungen.
„