News Marktanteile bei KI-Chips: Nvidia dominiert weiter, doch Custom-Chips holen auf

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
14.235
  • Gefällt mir
Reaktionen: schneeland, aid0nex, PietVanOwl und 4 andere
Ich denke mal, früher oder später wird NVidia eine eigene ASIC-Lösung präsentieren.
 
  • Gefällt mir
Reaktionen: schneeland, aid0nex, Mar1u5 und 8 andere
ASICs werden über kurz oder lang die GPUs überflügeln. Ich stimme @Yosup zu, dass Nvidia iwann auf ASICs für KI-Lösungen umschwenken wird.
 
  • Gefällt mir
Reaktionen: flo.murr, schneeland, aid0nex und 6 andere
bei den CPUs hat Intel irgendwann verschlafen und einiges an AMD abgegeben. Bei GPUs war das leider noch nie wirklich der Fall. Habe eher das Gefühl dass AMD über die Jahre immer mehr abgegeben hat.
 
  • Gefällt mir
Reaktionen: Flutefox
Die Auswertung gibt nur die Menge der Standorte mit bestimmten Lösungen an, nicht die Menge der verbauten Beschleuniger.
Wenn Firma A in 99 Standorten jeweils einen Beschleuniger installiert und Firma B in 1 Standort 100 hätte Firma A nach dieser Auswertung einen Marktanteil von 99%, nach der Menge der verbauten Systeme allerdings weniger als 50%.
NVidia wird zwar auch bei der Menge der verbauten Karten führend sein, aber die veröffentlichten Daten sagen halt nichts drüber aus...
 
  • Gefällt mir
Reaktionen: TausendWatt, schneeland, nyster und 12 andere
@Veloci
"Traue nie einer Statistik die du nicht selbst gefälscht hast."
 
  • Gefällt mir
Reaktionen: BxBender, nyster, gartenriese und 3 andere
Wusste gar nicht, dass Asics neben Turnschuhen auch KI Kram machen.
 
  • Gefällt mir
Reaktionen: Relict, BxBender und w33werner
Für größere KI-Modelle auf dem PC ist eine AMD Radeon AI Pro R9700 mit 32GB VRAM besser geeignet als eine NVIDIA RTX PRO 4000 Blackwell mit 24GB VRAM.
 
  • Gefällt mir
Reaktionen: BxBender
Benna schrieb:
ASICs werden über kurz oder lang die GPUs überflügeln. Ich stimme @Yosup zu, dass Nvidia iwann auf ASICs für KI-Lösungen umschwenken wird.
Naja wäre da nicht die Software...
 
Ich freue mich über diesen Verlauf und hoffe wirklich sehr - auch wenn es vermutlich nicht kommen wird - das nVidia für ihre Großkotzigkeit, gerade im Verbrauchermarkt auf die Nase fällt und sich diese bricht! Meine Weihnachtswünsche an diese Firma 🙃

Bleibt auf jeden Fall spannend - aktuell würde ich niemandem empfehlen ein Upgrade durchzuführen, nicht zuletzt wegen der hohen Preislage.
 
  • Gefällt mir
Reaktionen: nyster und Alphanerd
War klar das asics kommen das löst aber das Speicherproblem nicht
nvidia muss selbst nenn ai Beschleuniger bauen also nur tpu perf keine alu und ein hpc chip den man auch als igp nutzen kann um damit die kosten zu reduzieren
Den aktuell ist nvidia völlig überbewertet und hat kaum geld für drei designs
ai tpu dgpu
hpc klassisch Rechenzentren
desktop Grafik
je design kommen da locker 10-50 Millionen dollar kosten auf einen zu je nach wie gut die yields werden auch mehr.
bisher hat nvidia nur zusagen für Käufe der ai Pläne geld floss bisher nur bedingt und meist nur bei fertiggestellten ai fabrics.
Dazu die Bestellungen von server Anbietern das deckt gerade die kosten die man hat.
Sprich jensen geht ne fette wette ein das robotics und physikalische ai sich durchsetzt.
Er weis aber das dafür analoge chips gebraucht werden. Und die sind noch in der Forschung bzw Testphase.
Das ist einer der gründe warum nvidia keine dgpu mehr bringen wird und die nächste gen reine hpc chips sind um dann mit feynman ne igp was ein Zwitter ist zu bringen
npu ai chip mit alu für gpu emuliere.
Und ein hpc dgpu chip ohne display engines

Es wird keine rtx60 Serie geben das wird ptx heißen die dann rtx40 bis gtx400 Emuliert
allerdings mit deutlich höheren Taktraten bis 4,0ghz
Nativ läuft nur software die von win 12 zertifiziert ist (xbox pc) mit reduzierten Takt grob 2,5ghz
perf. wäre dann bei grob ner rtx5090 und emuliert rtx4090

Was ai angeht nur soviel grob q2 2026 wird das komplett platzen lediglich paar llm werden überleben und primär als Hilfe bzw Unterhaltung bestehen bleiben was dann den markt bereinigt.
Ne Rezession ist unausweichlich in us, Europa ist da wenige betroffen

Nebenbei rtx50 super ist cant
 
syfsyn schrieb:
Den aktuell ist nvidia völlig überbewertet und hat kaum geld für drei designs
je design kommen da locker 10-50 Millionen dollar kosten auf einen zu
bisher hat nvidia nur zusagen für Käufe der ai Pläne geld floss bisher nur bedingt und meist nur bei fertiggestellten ai fabrics.
Dazu die Bestellungen von server Anbietern das deckt gerade die kosten die man hat.

Er weis aber das dafür analoge chips gebraucht werden. Und die sind noch in der Forschung bzw Testphase.

Es wird keine rtx60 Serie geben das wird ptx heißen die dann rtx40 bis gtx400 Emuliert
allerdings mit deutlich höheren Taktraten bis 4,0ghz
Nativ läuft nur software die von win 12 zertifiziert ist (xbox pc) mit reduzierten Takt grob 2,5ghz
perf. wäre dann bei grob ner rtx5090 und emuliert rtx4090

Was ai angeht nur soviel grob q2 2026 wird das komplett platzen lediglich paar llm werden überleben und primär als Hilfe bzw Unterhaltung bestehen bleiben was dann den markt bereinigt.

Nebenbei rtx50 super ist cant
Wow, mit Dir würde ich gerne mal ein Wochenende richtig saufen gehen!
 
  • Gefällt mir
Reaktionen: Snoop7676, nyster, brwn und 2 andere
@syfsyn Pack den Text doch zumindest kurz in eine KI. Das ist heutzutage doch wirklich nicht mehr so schwer.

War klar, dass ASICs kommen, das löst aber das Speicherproblem nicht.
Nvidia muss selbst einen AI-Beschleuniger bauen, also nur TPU-Performance, keine ALUs, und einen HPC-Chip, den man auch als iGP nutzen kann, um damit die Kosten zu reduzieren.
Denn aktuell ist Nvidia völlig überbewertet und hat kaum Geld für drei Designs:
AI/TPU/dGPU,
HPC für klassische Rechenzentren,
Desktop-Grafik.
Je Design kommen da locker 10–50 Millionen Dollar Kosten auf einen zu, je nachdem wie gut die Yields werden, auch mehr.
Bisher hat Nvidia nur Zusagen für Käufe der AI-Pläne, Geld floss bisher nur bedingt und meist nur bei fertiggestellten AI-Fabrics.
Dazu kommen die Bestellungen von Server-Anbietern, das deckt gerade so die Kosten, die man hat.


Sprich: Jensen geht eine fette Wette ein, dass Robotics und physikalische AI sich durchsetzen.
Er weiß aber, dass dafür analoge Chips gebraucht werden. Und die sind noch in der Forschung bzw. Testphase.


Das ist einer der Gründe, warum Nvidia keine dGPU mehr bringen wird und die nächste Gen reine HPC-Chips sind, um dann mit Feynman eine iGP zu bringen, die ein Zwitter ist:
NPU-AI-Chip mit ALUs zur GPU-Emulation
und ein HPC-dGPU-Chip ohne Display-Engines.


Es wird keine RTX-60-Serie geben, das wird PTX heißen, die dann RTX-40 bis GTX-400 emuliert,
allerdings mit deutlich höheren Taktraten bis 4,0 GHz.
Nativ läuft nur Software, die von Win 12 zertifiziert ist (Xbox PC), mit reduziertem Takt, grob 2,5 GHz.
Die Performance wäre dann grob auf RTX-5090-Niveau und emuliert RTX-4090.


Was AI angeht nur so viel: Grob Q2 2026 wird das komplett platzen, lediglich ein paar LLMs werden überleben und primär als Hilfe bzw. Unterhaltung bestehen bleiben, was dann den Markt bereinigt.
Eine Rezession ist unausweichlich in den USA, Europa ist davon weniger betroffen.


Nebenbei: RTX 50 Super ist cancel.
 
  • Gefällt mir
Reaktionen: danyundsahne und w33werner
syfsyn schrieb:
War klar das asics kommen das löst aber das Speicherproblem nicht
nvidia muss selbst nenn ai Beschleuniger bauen also nur tpu perf keine alu und ein hpc chip den man auch als igp nutzen kann um damit die kosten zu reduzieren
Den aktuell ist nvidia völlig überbewertet und hat kaum geld für drei designs
ai tpu dgpu
hpc klassisch Rechenzentren
desktop Grafik
je design kommen da locker 10-50 Millionen dollar kosten auf einen zu je nach wie gut die yields werden auch mehr.
bisher hat nvidia nur zusagen für Käufe der ai Pläne geld floss bisher nur bedingt und meist nur bei fertiggestellten ai fabrics.
Dazu die Bestellungen von server Anbietern das deckt gerade die kosten die man hat.
Sprich jensen geht ne fette wette ein das robotics und physikalische ai sich durchsetzt.
Er weis aber das dafür analoge chips gebraucht werden. Und die sind noch in der Forschung bzw Testphase.
Das ist einer der gründe warum nvidia keine dgpu mehr bringen wird und die nächste gen reine hpc chips sind um dann mit feynman ne igp was ein Zwitter ist zu bringen
npu ai chip mit alu für gpu emuliere.
Und ein hpc dgpu chip ohne display engines

Es wird keine rtx60 Serie geben das wird ptx heißen die dann rtx40 bis gtx400 Emuliert
allerdings mit deutlich höheren Taktraten bis 4,0ghz
Nativ läuft nur software die von win 12 zertifiziert ist (xbox pc) mit reduzierten Takt grob 2,5ghz
perf. wäre dann bei grob ner rtx5090 und emuliert rtx4090

Was ai angeht nur soviel grob q2 2026 wird das komplett platzen lediglich paar llm werden überleben und primär als Hilfe bzw Unterhaltung bestehen bleiben was dann den markt bereinigt.
Ne Rezession ist unausweichlich in us, Europa ist da wenige betroffen

Nebenbei rtx50 super ist cant
Sarkasmus? Nvidia und kein Geld, die wissen eher nicht wohin damit...
Ergänzung ()

Cabranium schrieb:
Wo hast du deine Informationen her @syfsyn ?
Meine Güte, erkennt man das wirklich nicht das es ein Trollpost ist?
 
  • Gefällt mir
Reaktionen: nyster und MalWiederIch
Gleiche Geschichte wie bei Crypto vor ein paar Jahren.
Ein reiner AI-ASIC braucht kein CUDA, Vulkan, etc., damit kann das Silizium maximal für MatMul Einheiten verwendet werden.
 
Warum so wenig? Wer ist der Konkurrent?

Hätte doch mindestens bei ~99% sein müssen.
Ergänzung ()

Keuleman schrieb:
Asics neben Turnschuhen
Ja, die sind ganz dicke im Geschäft, aber die lauf KI ist noch nicht fertig, deswegen sieht man noch nicht viel davon. das kommt in ca. 28 Jahren hat der CEO gesagt. (Lauf Ki immer im Rechten Schuh)
 
Vorteile von KI-ASICs: höchste Effizienz, geringer Stromverbrauch, hohe Rechenleistung und geringe Latenz.

Nachteile von KI-ASICs: hohe Entwicklungskosten, wenig flexibel (nur für bestimmte Aufgaben geeignet), lange Entwicklungszeit und schwierige Anpassung an neue Algorithmen.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen und w33werner
Zurück
Oben