Nvidia rast auf das Ende des Jahres 2025 zu, nach einem sehr erfolgreichen Jahr, in dem das Unternehmen neu definiert hat, was es bedeutet, ein Chip-Gigant zu sein KI Boom. Ein wesentlicher Grund für den Erfolg in diesem Jahr ist die vielgepriesene Hardware.
Doch in den nächsten Schlagzeilen geht es nicht nur um schnellere Chips. Es geht darum, wohin die Chips gehen und ob Nvidia die Richtung der von ihm beherrschten Softwarewelt ändern kann.
Die Nvidia-Chips, die China nicht anfassen sollte, sind einfach trotzdem aufgetaucht
Die US-Exportbeschränkungen sollten Nvidias fortschrittlichste KI-Hardware von China fernhalten.
Stattdessen haben sie die Nachfrage in eine neue Form gebracht, die schwieriger zu kontrollieren, einfacher zu steigern und bereits voller Bargeld ist.
A Financial Times Dem Bericht zufolge erwirbt Tencent die fortschrittlichen Blackwell-Chips von Nvidia über ein Rechenzentrum außerhalb von Osaka, das von Datasection betrieben wird, einem japanischen Unternehmen, das vom Marketing auf KI-Rechenzentren umgestiegen ist.
Mehr Nvidia:
- Nvidias China-Chip-Problem ist nicht das, was die meisten Anleger denken
- Jim Cramer fällt ein klares Urteil zur Nvidia-Aktie
- So hält Nvidia Kunden vom Wechsel ab
- Die Bank of America tätigt einen Überraschungskauf für von Nvidia unterstützte Aktien
Tencent wird Zugriff auf eine große Anzahl der 15.000 Nvidia-Blackwell-Prozessoren von Datasection erhalten, ohne dass die Chips jemals nach China geschickt werden, heißt es in der Angelegenheit.
Das „Neocloud“-Modell schlägt vor, GPUs nicht zu kaufen, sondern zu mieten.
Und die Nachfrage ist klar, wie Datasection-CEO Norihiko Ishihara feststellt.
Ein Scheck über 272 Millionen US-Dollar besagt, dass das Geschäft kein Nebenerwerb ist
Die Zahlen in der FT-Berichterstattung gehen über „interessant“ hinaus und wirken „systemisch“.
Laut FT stimmte Datasection zu, 272 Millionen US-Dollar für 5.000 Nvidia B200-Chips für sein Werk in Osaka zu zahlen. Dies wurde durch einen Dreijahresvertrag über 406 Millionen US-Dollar abgesichert, der an eine wichtige Kundenbeziehung geknüpft war.
Dann kam der nächste Schwung: ein 800-Millionen-Dollar-Dreijahresvertrag für ein Rechenzentrum in Sydney, in dem Zehntausende neuerer B300-Chips von Nvidia untergebracht sein werden. Laut Datasection werden die ersten 10.000 B300 521 Millionen US-Dollar kosten.
Dies ist nicht der Schritt eines Unternehmens, das glaubt, dass die Nachfrage ihren Höhepunkt erreicht hat.
Wenn Sie vielmehr der Meinung sind, dass die Nachfrage gerade erst zunimmt, und Sie die Mautstelle sein möchten, können Sie auf diese Weise eine Lösung finden.
Washingtons Regelwerk hat sich geändert, und das Timing ist die ganze Geschichte
Die Financial Times sagte auch, dass Gesetze der Biden-Regierung die Lücke schließen würden, die diese Offshore-Leasingvereinbarung ermöglichte, aber Präsident Donald Trump sagte diese Pläne im Mai ab. Die FT gab an, dass Datasection seine Osaka-Vereinbarung danach umgehend abgeschlossen habe.
Die Haltung von Präsident Trump zur KI hat sich bereits auf andere Weise auf Nvidia ausgewirkt.
Ein KI-Aktionsplan von Ende Juli hob die Beschränkungen für Nvidias H200-Prozessoren auf und erleichterte KI-Rechenzentren die Erlangung von Genehmigungen. Außerdem hieß es, Nvidia sei am 9. Juli vorübergehend das erste Unternehmen gewesen, das eine Marktkapitalisierung von 4 Billionen US-Dollar erreicht habe.
All das bedeutet, dass Anleger sich der Tatsache stellen müssen, dass das politische Risiko von Nvidia keine Einbahnstraße ist. Es kann enger, lockerer oder umgekehrt werden, und neue Geschäftsmodelle werden die Lücken füllen.
Jetzt kommt der Schritt, der Nvidia dort trifft, wo es tatsächlich lebt
In der folgenden Erzählung geht es darum, warum Nvidia-Hardware überhaupt die Standardeinstellung ist, während es in der „Neocloud“-Geschichte darum geht, wo Nvidia-Hardware verwendet werden kann.
Und hier werden sich Nvidias Probleme auf lange Sicht verschärfen.
Google arbeitet an einem Projekt namens TorchTPU, das es den TPUs von Google erleichtern soll, PyTorch auszuführen. Reuters Berichte. Die Idee besteht darin, Benutzer unabhängiger von Nvidias CUDA-Umgebung zu machen.
Verwandt: Oracle hat gerade einen Machtschub vollzogen, den die Wall Street nicht ignorieren kann
Google kann den ganzen Tag Hardware herstellen. Das Entwicklererlebnis ist das, was es wirklich auszeichnet.
Deshalb ist ein Satz von Reuters nicht als Nachfrageindikator, sondern als Positionierungssignal wichtig: „Wir sehen eine massive, sich beschleunigende Nachfrage sowohl nach unserer TPU- als auch nach unserer GPU-Infrastruktur“, sagte ein Google-Cloud-Sprecher gegenüber der Nachrichtenagentur.
Das bedeutet nicht, dass ein Unternehmen den Markt aufgibt; Es ist ein Unternehmen, das seinen Kunden sagt: „Sie haben die Wahl, und wir machen sie Ihnen leicht.“
Warum Metas Beteiligung Nvidia nervös machen sollte
Der Reuters-Artikel wies auch darauf hin, dass Google mit Meta, dem Unternehmen, das PyTorch betreibt, zusammenarbeitet, um das TorchTPU-Projekt zu beschleunigen.
Das ist eine große Sache, denn es geht von innen auf Nvidias Vorsprung los.
Entwickler möchten keine Stacks neu schreiben müssen. Sie wollen den einfachsten Weg.
Wenn PyTorch gut mit TPUs funktioniert, werden die „Umstellungskosten“, die Nvidias Gewinne sichern, geringer – nicht innerhalb eines Tages, aber so weit, dass die Beschaffungsteams beginnen, härtere Fragen zu stellen, und so viel, dass die Top-Kunden bei Verhandlungen bessere Preise erzielen können.
Finanzielle Auswirkungen: Die Zahlen zeigen das enorme Ausmaß dieses Schlachtfeldes
Hier kommen „offizielle Aufzeichnungen“ zum Einsatz: Sie verknüpfen den Hype mit echtem Geld.
Nvidia verdient viel Geld mit Rechenzentren
Nvidias Finanzbericht Im dritten Quartal erzielte das Unternehmen einen Rekordumsatz von 57,0 Milliarden US-Dollar. Darin enthalten war ein Rekordumsatz von 51,2 Milliarden US-Dollar im Rechenzentrum.
Das ist der Maschinenraum, der dafür sorgt, dass die gesamte KI-Branche funktioniert.
Und die Papiere von Nvidia zeigen, dass China immer noch eine große Rolle in der Geschichte spielt. In seinem Jahresbericht für das Geschäftsjahr 2025 stellte Nvidia fest, dass der Umsatz mit Rechenzentren in China gestiegen sei, aber im Verhältnis zum Gesamtumsatz mit Rechenzentren immer noch „deutlich unter“ dem Niveau vor der Exportkontrolle liege.
Wenn ausländische Unternehmen eingreifen, um die chinesische Nachfrage zu befriedigen, ist das nicht nur eine politische Angelegenheit; Es ist auch ein direkter Kanal zum wichtigsten Entwicklungsbereich von Nvidia.
Google Cloud stapelt den Rückstand wie eine Kriegskasse
Alphabets offizielles 10-Q für das Quartal endete am 30. September 2025 und meldete verbleibende Leistungsverpflichtungen (Umsatzrückstand) in Höhe von 157,7 Milliarden US-Dollar, „hauptsächlich im Zusammenhang mit Google Cloud“, wobei etwas mehr als 55 % voraussichtlich in den nächsten 24 Monaten erfasst werden.
Das ist die Art von Rückstand, die sich für lange Kämpfe auszahlt, etwa um TPUs für PyTorch-Entwickler attraktiver zu machen.
Die Ausgaben von Meta zeigen, dass dies keine Theorie ist
Meta wird voraussichtlich ausgeben zwischen 70 und 72 Milliarden US-Dollar auf Investitionen im Jahr 2025, einschließlich Zahlungen für Finanzierungsleasing.
Meta möchte nicht für immer bei einem Anbieter bleiben; Daher geben sie nicht zu viel Geld aus. Wenn TorchTPU die Dinge einfacher macht, hat Meta allen Grund, das Ökosystem weiterhin davon abzuhalten, sich auf einen Lieferanten zu verlassen.
Der Markt braucht nicht, dass Nvidia „verliert“, damit dies von Bedeutung ist
Dies ist der Teil, den Investoren oft übersehen: Wenn Nvidia weiterhin Geld verdienen kann, könnte es immer noch Probleme mit den Margen haben, wenn:
- Große Käufer haben echte Möglichkeiten.
- Die Kosten für den Softwarewechsel sinken.
- Offshore-Nachfragekanäle reagieren stärker auf politische Veränderungen.
So wird die Dominanz beseitigt, nicht zerstört.
Was Sie als Nächstes bei Nvidia beachten sollten
Hier erfahren Sie, was Sie beachten sollten, um festzustellen, ob es sich bei etwas, das mit Nvidia zu tun hat, nur um Rauschen handelt.
- Geht das „Neocloud“-Paradigma über Japan und Australien hinaus auf andere Orte, an denen große Rechenzentren gebaut werden?
- Bietet TorchTPU ein echtes Entwicklererlebnis (Dokumentation, Tools und Leistung, die mit denen anderer Projekte identisch sind), oder handelt es sich immer noch um ein Projekt?
- Beginnen die führenden KI-Konsumenten, öffentlich über Multi-Stack zu diskutieren, obwohl Nvidia nach wie vor ihr Hauptlieferant ist?
Die KI-Wirtschaft hängt immer noch von Nvidia ab.
Aber wenn China Nvidia-Computer aus anderen Ländern mieten kann und Google die Nutzung von „Nicht-Nvidia“ in PyTorch einfacher machen kann, ist das nächste Kapitel nicht mehr nur eine Geschichte über die Nachfrage.
Es wird zu einer Hebelerzählung. Und das ist immer ein größeres Durcheinander.

