Die Vorherrschaft von Nvidia scheint gebrochen und OpenAI zündet „Code-Red“. Wohl nie zuvor war der Wettkampf um technologischen Vorsprung so intensiv wie im KI-Zeitalter.
Wahrscheinlichkeit nahe null
Im KI-Bereich ist derzeit so viel in Bewegung, dass es kaum mehr möglich ist, auf dem Laufenden zu bleiben. Die Entwicklungen überschlagen sich.
Beginnen wir mit dem CEO von IBM, einer der prominentesten Persönlichkeiten der Branche.
Arvind Krishna schätzt die Wahrscheinlichkeit, dass die derzeit zur Verfügung stehenden Technologien zu einer echten künstlichen Intelligenz (AGI) führen, als extrem gering ein, nämlich auf nur null bis ein Prozent.
Darüber hinaus widerspricht er der These, dass es eine KI-Blase gibt, warnt jedoch davor, dass ein Teil des Kapitals zur Finanzierung des KI-Wachstums gefährdet sein könnte. Er zieht dabei Parallelen zur Konsolidierung im Glasfaserbereich, wo letztlich nur wenige Akteure signifikante Gewinne erzielen konnten.
Ich stimme Krishna in diesem Punkt zu. Es ist aus meiner Sicht äußerst wahrscheinlich, dass die meisten KI-Start-ups in Flammen aufgehen werden und sich am Ende wenige Akteure den größten Teil des Kuchens schnappen – mir wäre keine neue Technologie bekannt, bei der das nicht der Fall war.
Google vs. OpenAI
Beim Rennen um die beste KI scheinen derzeit Google und OpenAI die Nase vorn zu haben.
Die jüngsten Maßnahmen bei OpenAI sind ein deutliches Zeichen für den extrem zugespitzten Wettbewerb im KI-Sektor. CEO Sam Altman rief intern einen „Code Red“ aus und kündigte an, zusätzliche Ressourcen massiv in die Weiterentwicklung von ChatGPT zu leiten.
Dieser Schritt ist eine direkte Reaktion auf die wachsenden Wettbewerbsrisiken, die vor allem von Gemini 3 ausgehen.
Die neueste Version der Google-KI gilt als signifikanter Leistungssprung und scheint bei OpenAI eine regelrechte Panik ausgelöst zu haben.
Einem internen Memo zufolge, über das The Information berichtete, sollen mehrere Initiativen verschoben oder eingestellt worden sein. Darunter auch der bislang geplante Einstieg in werbefinanzierte Produkte, der bisher öffentlich nicht bestätigt war.
Altman hat Presseberichten zufolge eine vollständige Konzentration auf die Kerntechnologie eingeleitet.
Die Maßnahmen bei OpenAI zeigen, dass der Kampf um die technologische Spitze in die nächste Runde geht. Für OpenAI könnten die Fortschritte von Google existenzbedrohend sein.
OpenAI schreibt tiefrote Zahlen und benötigt daher unbedingt Fremdkapital. Wird das Unternehmen technologisch überholt oder gar abgehängt, wird die Kapitalbeschaffung jedoch schwierig. Schließt sich der Geldhahn, gehen schlichtweg die Lichter aus.
Die technologische Führerschaft ist für OpenAI existenziell, um die hohe Bewertung des Unternehmens zu rechtfertigen und die notwendigen Mittel für die Entwicklung von ChatGPT zu sichern.
Google und Amazon brechen das Nvidia-Monopol
Doch es findet nicht nur ein Wettlauf um die beste KI statt, sondern auch ein Kampf um die Hardware.
Die Infrastruktur ist das Schlachtfeld, auf dem die nächste Phase des KI-Wettlaufs ausgetragen wird, und hier vollzieht sich aktuell ein Paradigmenwechsel, der Nvidias jahrzehntelange Dominanz infrage stellt.
Mit der Einführung von Gemini 3 hat Google einen Meilenstein gesetzt: Das Modell läuft nun vollständig auf den hauseigenen Tensor Processing Units (TPUs). Aus Nutzersicht wird Gemini 3 bereits als ebenbürtig oder sogar überlegen gegenüber dem aktuellen Marktführer ChatGPT wahrgenommen und bietet zudem eine höhere Geschwindigkeit.
Mit der vollständigen Verlagerung auf die eigene TPU-Infrastruktur durch Google wurde das Monopol von Nvidia gebrochen.
Darüber hinaus unterscheiden sich Google und Nvidia auch in ihrer Herangehensweise beim Thema KI.
Google nimmt bewusst einen leichten Effizienzverlust in Kauf, um die Systemstabilität und Zuverlässigkeit der Architektur zu maximieren. Dies ist besonders vorteilhaft für die Verarbeitung langer Kontexte und für agentische Modelle, die auf eine fehlerfreie, langwierige Operation angewiesen sind.

Besonders spannend daran ist aus meiner Sicht, dass Google inzwischen als der KI-Gewinner schlechthin betrachtet wird. Ich hatte in früheren Analysen bereits mehrfach darauf hingewiesen, dass Google aus meiner Sicht ein KI-Gewinner ist – doch der Markt schien das damals noch vollkommen anders zu sehen.
Die Hybrid-Strategie von AWS
Amazon ist inzwischen der dritte eigenständige Akteur im Kampf um die Hardware. Denn das Unternehmen hat ebenfalls eine komplett eigenständige Infrastruktur entwickelt – jedoch mit einem Kniff.
Amazons Strategie im Hardware-Bereich ist besonders bemerkenswert, da sie auf Interoperabilität setzt. Derzeit arbeitet Amazon Web Services (AWS) bereits an den Trainium4-Chips, die in Zukunft wohl einen integralen Bestandteil der AWS-KI-Infrastruktur bilden werden und Nvidias NVLink Fusion Racks nutzen.
Die Integration von NVLink Fusion in die Trainium-Architektur ist ein pragmatisches Zugeständnis an das etablierte CUDA-Ökosystem von Nvidia und ermöglicht hybride Systemarchitekturen, in denen die Amazon-Hardware nahtlos mit Nvidia-GPUs kommunizieren kann.
AI Factories
AWS hat außerdem das neue Konzept der „AI Factories“ vorgestellt. Bei diesem Ansatz wird AWS KI-Infrastruktur, die sowohl Nvidia- als auch Trainium-Komponenten umfasst, direkt vor Ort in den Rechenzentren der Kunden bereitgestellt.
Diese AI Factories werden den Kunden sicheren Zugriff mit niedriger Latenz auf die notwendigen Rechenressourcen, Datenspeicherung und KI-Dienste ermöglichen. Laut AWS könnten diese AI Factories besonders für Organisationen in stark regulierten Branchen und im öffentlichen Sektor von großem Nutzen sein, da sie eine hohe Kontrolle und Sicherheit gewährleisten.
Dieses Konzept könnte auch eins der größten Probleme von AWS lösen: ausreichend Kapazität bereitzustellen.
Die Rolle von Nvidia im wandelnden Markt
Nvidia behält zwar weiterhin eine dominante Stellung und ist aktuell aggressiv darauf ausgerichtet, die Performance pro Watt ihrer GPUs zu optimieren, nimmt hierfür jedoch eine höhere technische Komplexität in Kauf.
Im Gegensatz zu Google setzt Nvidia auf eine vergleichsweise geringere HBM-Nutzung pro Chip, um eine hohe Rohleistung zu erzielen, was die Entwicklung kleinerer, schnellerer Netzwerke für die Modellparallelisierung begünstigt.
Der Ansatz von Google ist hingegen durch eine massive Nutzung von High-Bandwidth Memory (HBM) geprägt, um den Speicherbedarf für große Modelle zu decken.
Perspektivisch dürfte ein immer größerer Anteil des aktuellen GPU-Marktes durch spezialisierte xPU-Lösungen von Google und Amazon ersetzt werden.
Schätzungen zufolge dürfte der Marktanteil von Nvidia und AMD von derzeit 90 % bis 2028 auf etwa 80 % sinken. Angesichts des rapiden Gesamtwachstums des KI-Marktes stellt dieser relative Rückgang jedoch kein Problem für Nvidias Geschäft dar.
Langfristig jedoch erschließen sich Google und Amazon mit der Entwicklung eigener Chips gigantische Märkte und reduzieren ihre Abhängigkeit von externen Lieferanten.
Ein weiterer wichtiger Trend, der durch die Notwendigkeit massiver KI-Modelle entsteht, ist der steigende Bedarf an Arbeitsspeicher, was wiederum ein großes Wachstumspotenzial für Speicherhersteller wie Micron und SK Hynix bedeutet.
Mehr als 13.000 Investoren & Trader folgen mir und meinen täglichen Ausführungen auf Guidants.
Ausgezeichnete Preise. Ausgezeichneter Service. Mein Broker ist LYNX.
--- ---
--- (---%)Displaying the --- chart
Heutigen Chart anzeigen




