War klar, dass ASICs kommen, das löst aber das Speicherproblem nicht.
Nvidia muss selbst einen AI-Beschleuniger bauen, also nur TPU-Performance, keine ALUs, und einen HPC-Chip, den man auch als iGP nutzen kann, um damit die Kosten zu reduzieren.
Denn aktuell ist Nvidia völlig überbewertet und hat kaum Geld für drei Designs:
AI/TPU/dGPU,
HPC für klassische Rechenzentren,
Desktop-Grafik.
Je Design kommen da locker 10–50 Millionen Dollar Kosten auf einen zu, je nachdem wie gut die Yields werden, auch mehr.
Bisher hat Nvidia nur Zusagen für Käufe der AI-Pläne, Geld floss bisher nur bedingt und meist nur bei fertiggestellten AI-Fabrics.
Dazu kommen die Bestellungen von Server-Anbietern, das deckt gerade so die Kosten, die man hat.
Sprich: Jensen geht eine fette Wette ein, dass Robotics und physikalische AI sich durchsetzen.
Er weiß aber, dass dafür analoge Chips gebraucht werden. Und die sind noch in der Forschung bzw. Testphase.
Das ist einer der Gründe, warum Nvidia keine dGPU mehr bringen wird und die nächste Gen reine HPC-Chips sind, um dann mit Feynman eine iGP zu bringen, die ein Zwitter ist:
NPU-AI-Chip mit ALUs zur GPU-Emulation
und ein HPC-dGPU-Chip ohne Display-Engines.
Es wird keine RTX-60-Serie geben, das wird PTX heißen, die dann RTX-40 bis GTX-400 emuliert,
allerdings mit deutlich höheren Taktraten bis 4,0 GHz.
Nativ läuft nur Software, die von Win 12 zertifiziert ist (Xbox PC), mit reduziertem Takt, grob 2,5 GHz.
Die Performance wäre dann grob auf RTX-5090-Niveau und emuliert RTX-4090.
Was AI angeht nur so viel: Grob Q2 2026 wird das komplett platzen, lediglich ein paar LLMs werden überleben und primär als Hilfe bzw. Unterhaltung bestehen bleiben, was dann den Markt bereinigt.
Eine Rezession ist unausweichlich in den USA, Europa ist davon weniger betroffen.
Nebenbei: RTX 50 Super ist cancel.