AMDs Überraschender Herausforderer: TensorWave sichert sich 100 Millionen Dollar, um Nvidias KI-Dominanz anzugreifen
LAS VEGAS – In einem sonnendurchfluteten Rechenzentrum am Stadtrand von Las Vegas pulsieren Reihen glänzender Server-Racks vor Aktivität. Die von Tausenden Prozessoren ausgehende Hitze ist spürbar, selbst durch hochentwickelte Kühlsysteme. Dies ist das Nervenzentrum von TensorWave, einem Newcomer, der sich plötzlich als bedeutender Herausforderer auf dem hart umkämpften Markt für KI-Computing etabliert hat.
TensorWave gab heute bekannt, eine Serie-A-Finanzierungsrunde über 100 Millionen US-Dollar gesichert zu haben. Die Runde wurde gemeinsam von Magnetar und AMD Ventures angeführt, unter Beteiligung von Maverick Silicon, Nexus Venture Partners und dem neuen Investor Prosperity7. Die Finanzierung kommt zu einem Zeitpunkt, an dem das Unternehmen mehr als 8.000 AMD Instinct MI325X GPUs für einen dedizierten KI-Trainingscluster einsetzt – was das Unternehmen potenziell zum größten AMD-fokussierten Anbieter von KI-Infrastruktur in einem Markt macht, der überwiegend von Nvidia-Hardware beherrscht wird.
"Diese Finanzierung treibt die Mission von TensorWave voran, den Zugang zu modernster KI-Rechenleistung zu demokratisieren", sagte Darrick Horton, CEO von TensorWave, in der Unternehmensmitteilung. "Unser Cluster mit 8.192 Instinct MI325X GPUs markiert nur den Anfang, während wir uns als aufstrebender AMD-basierter Marktführer im schnell wachsenden Markt für KI-Infrastruktur etablieren."
Speichervorteil in einem überlasteten Markt
Während TensorWave im Vergleich zu Giganten wie CoreWeave und Lambda Labs nur einen winzigen Bruchteil der gesamten KI-Rechenlandschaft ausmacht, bietet seine strategische Fokussierung auf AMDs Technologie einen technischen Vorteil, den einige KI-Entwickler zunehmend attraktiv finden: die Speicherkapazität.
AMDs Instinct MI325X GPUs bieten bis zu 128 GB HBM3-Speicher pro Karte – doppelt so viel Speicher wie vergleichbare Nvidia-Angebote. Dieser zusätzliche Speicher-Spielraum schafft einen deutlichen Vorteil beim Trainieren großer KI-Modelle, die häufig die Grenzen des konventionellen GPU-Speichers sprengen.
"Der Unterschied bei der Speicherkapazität ist entscheidend", sagte ein Forscher für maschinelles Lernen bei einem Finanzdienstleister. "Viele unserer Modelle werden durch den Speicher begrenzt, nicht durch die reine Rechenleistung. Dieser zusätzliche Spielraum macht zuvor unmögliche Arbeitslasten plötzlich machbar."
Für TensorWave kommt diese technologische Differenzierung zu einem entscheidenden Zeitpunkt. Der globale Markt für KI-Infrastruktur wird laut Prognosen der Branche bis 2027 voraussichtlich 400 Milliarden US-Dollar überschreiten. Dennoch bleibt die Beschaffung geeigneter KI-Rechenressourcen für viele Organisationen eine der wesentlichsten Hürden für die Entwicklung und den Einsatz von KI.
Skalierung inmitten harter Konkurrenz
TensorWave behauptet, auf Kurs zu liegen, das Jahr mit einem Jahresumsatz auf aktueller Basis von über 100 Millionen Dollar abzuschließen – was eine Steigerung um das 20-Fache im Vergleich zum Vorjahr darstellt. Obwohl dies für ein Serie-A-Unternehmen beeindruckend ist, platziert es TensorWave weit hinter etablierten Wettbewerbern. CoreWeave, von Nvidia unterstützt, meldete einen Umsatz von 1,92 Milliarden Dollar im Jahr 2024 und hat eine Unternehmensbewertung von 23 Milliarden Dollar. Lambda Labs, ein weiterer Wettbewerber, verzeichnete Umsätze, die von 70 Millionen Dollar im Jahr 2021 auf rund 200 Millionen Dollar im Jahr 2024 stiegen.
"Die 100 Millionen Dollar, die wir gesichert haben, werden die Art und Weise verändern, wie Unternehmen auf KI-Computing-Ressourcen zugreifen", sagte Piotr Tomasik, Präsident von TensorWave. "Durch den sorgfältigen Aufbau strategischer Partnerschaften und Investorbeziehungen haben wir TensorWave so positioniert, dass es den kritischen Infrastruktur-Engpass, der die Einführung von KI behindert, lösen kann."
Branchenanalysten weisen jedoch auf erhebliche Herausforderungen hin. Nvidia kontrolliert mehr als 80 % des Marktes für KI-Chips in Rechenzentren, unterstützt durch sein ausgereiftes CUDA-Software-Ökosystem, das viele KI-Entwickler nur zögerlich aufgeben. AMDs alternative Software-Architektur, ROCm, verbessert sich zwar, aber es fehlt ihr noch an der Verbreitung und der Vertrautheit der Entwickler im Vergleich zu Nvidias Plattform.
"TensorWave bringt nicht nur mehr Rechenleistung, sondern vielmehr eine völlig neue Art von Rechenleistung in einen Markt mit Kapazitätsengpässen", sagte Kenneth Safar, Managing Director bei Maverick Silicon. "Wir glauben, dass dies dem KI-Infrastruktur-Ökosystem insgesamt sehr zugute kommen wird."
Drohender Preiskampf
Die Landschaft der KI-Infrastruktur wird immer dichter besiedelt von gut finanzierten Wettbewerbern. CoreWeave hat rund 12,9 Milliarden Dollar Schulden aufgenommen, um Rechenzentren rund um Nvidia-GPUs auszubauen. Lambda Labs sicherte sich einen vermögensbesicherten Kredit über 500 Millionen Dollar, der mit Nvidia-Chips besichert ist. Gleichzeitig bepreisen große Cloud-Anbieter wie AWS ihre eigenen KI-Chips aggressiv; AWS Trainium bietet Berichten zufolge Kostenvorteile von 30-40 % im Vergleich zu Nvidia-basierten Lösungen.
TensorWaves AMD-fokussierte Strategie könnte Kostenvorteile bieten, da Insiderinformationen deuten darauf hin, dass AMD-Silizium etwa 20 % günstiger pro Floating-Point-Operation ist als vergleichbare Nvidia-Angebote. Diese Effizienz könnte es TensorWave ermöglichen, Wettbewerber preislich zu unterbieten und gleichzeitig gesunde Margen beizubehalten, insbesondere bei speicherintensiven Arbeitslasten.
"Speicherengpässe sind die verborgene Einschränkung in vielen KI-Systemen in der Produktion", bemerkte ein Branchenberater, der sich auf die Optimierung von KI-Infrastruktur spezialisiert hat. "Die Kosten pro Trainingslauf hängen nicht mehr nur von rohen Teraflops ab – es geht darum, ob Sie Ihr Modell effizient im Speicher unterbringen können."
Widerstandsfähigkeit der Lieferkette
Ein potenzieller Vorteil in TensorWaves AMD-Partnerschaft liegt in der Verfügbarkeit von Chips. Während Bain vor einer Chip-Knappheit von 30 % bis 2026 warnt, deutet AMDs strategische Investition darauf hin, dass TensorWave privilegierten Zugang zu Hardware haben könnte, die weiterhin knapp ist.
"AMDs strategische Investition in TensorWave unterstreicht das Engagement von AMD, seinen Einfluss im Bereich der KI-Infrastruktur auszubauen", sagte Mathew Hein, SVP Chief Strategy Officer & Corporate Development bei AMD.
Diese Partnerschaft könnte sich als entscheidend erweisen, da die weltweite Nachfrage nach KI-Rechenleistung das verfügbare Angebot weiterhin übersteigt, insbesondere da Unternehmen Alternativen zu stark ausgelasteter Nvidia-basierter Infrastruktur suchen.
Der Weg nach vorn
TensorWave steht trotz seines vielversprechenden Starts vor gewaltigen Hindernissen. Der gemeldete Jahresumsatz auf aktueller Basis hängt wahrscheinlich von einer kleinen Anzahl großer Kunden ab, was ein potenzielles Konzentrationsrisiko schafft. Zudem erfordert der Aufbau und die Wartung von Rechenzentren in großem Maßstab massive Kapitalinvestitionen – der derzeitige Einsatz von 8.000 GPUs stellt wahrscheinlich allein eine Investition von Hunderten Millionen Dollar in Hardware dar.
Das Unternehmen wird beweisen müssen, dass es Mainstream-KI-Entwickler anziehen kann, die ihre Arbeitsabläufe rund um Nvidias Ökosystem aufgebaut haben. Diese Umstellung hat sich für frühere AMD-fokussierte Initiativen im KI-Bereich als schwierig erwiesen.
"Die größte Hürde ist nicht die Hardware-Leistung – es ist die Software-Trägheit", erklärte ein Veteran mehrerer KI-Infrastruktur-Start-ups. "Entwickler haben jahrelange Arbeit in CUDA-optimierte Codebasen investiert. Selbst bei überlegenen Hardware-Spezifikationen ist es ein harter Kampf, sie davon zu überzeugen, ihre Arbeitslasten zu portieren."
Vorerst hängt der Erfolg von TensorWave von drei entscheidenden Faktoren ab: der Reifegeschwindigkeit von AMDs Software-Ökosystem im Vergleich zur etablierten Position von Nvidia, der Preisdynamik in einem zunehmend umkämpften Markt und der Fähigkeit des Unternehmens, das zusätzliche Kapital zu sichern, das für die Skalierung über den anfänglichen Einsatz hinaus erforderlich ist.
Da das weltweite Wachstum der KI-Rechenleistung explosiv weitergeht, stellt TensorWave eine faszinierende Alternative in einem Markt dar, der nach Optionen jenseits der etablierten Anbieter dürstet. Ob es seine technologische Differenzierung in einen nachhaltigen Geschäftsvorteil umwandeln kann, bleibt abzuwarten.