News Nvidia Blackwell: RTX 5000 mit bis zu 512 Bit zwischen Fantasie und Wirklichkeit

MrHeisenberg schrieb:
Okay und was hat das mit der 4000er Serie zutun?

ist doch einfach. der Preis der 4000er richtet sich an der 3000er. Wieso eine 4000er günstiger verkaufen als eine 3000er?
 
  • Gefällt mir
Reaktionen: [wege]mini
wern001 schrieb:
Wieso eine 4000er günstiger verkaufen

Wieso eine 4000er günstiger verkaufen, wenn sogar die Mitglieder von UFO 15% mehr Gehalt fordern?

Die Lohn-Preis-Spirale ist gerade erst angelaufen. :evillol:

mfg
 
  • Gefällt mir
Reaktionen: Mcr-King
@[wege]mini
Macht doch nichts. Dann erzeugen die Banken halt noch etwas mehr Geld aus dem nichts.

Nvidia wird den Preis für die 5000er weiter nach oben Korrigieren. Als erstes werden die 5090er verkauft. Sobald der absatz etwas nachläst kommen die kleineren Modelle und sobald der Markt gesättigt ist die TI, Super Ultra Blubberlutsch Versionen.
 
Zuletzt bearbeitet:
wern001 schrieb:
ist doch einfach. der Preis der 4000er richtet sich an der 3000er. Wieso eine 4000er günstiger verkaufen als eine 3000er?
Der Preis der Karten richtet sich in erster Linie an den Herstellungs-, Vertriebs-, Marketing- und Supportkosten.
Dass der Preis sich von 7 nm auf 3 nm pro Wafer einfach mal verdoppelt hat, ist sicher nicht der Grund. Die Scalper sind schuld...
https://www.tomshardware.com/news/tsmc-expected-to-charge-25000usd-per-2nm-wafer
 
MrHeisenberg schrieb:
Der Preis der Karten richtet sich in erster Linie an den Herstellungs-, Vertriebs-, Marketing- und Supportkosten.

Nur zum Teil. Die Gewinnmage von NVidia sind stark angestiegen! Das nur weil man die Chips weit über "Herstellungs-, Vertriebs-, Marketing- und Supportkosten" verkauft hat. Alleine der Miningboom 2022 und danach der Tot von ETH-Mining

1710236280718.png


https://de.statista.com/statistik/daten/studie/1423216/umfrage/gewinn-von-nvidia-weltweit/
 
  • Gefällt mir
Reaktionen: Maxminator und Mcr-King
wern001 schrieb:
Der Waferpreis hat sich seit der 1080 TI vervierfacht. Wie kann man das als nur "zum Teil" abtun? Das ist Unfug!
Das Belichten des Chips der 1080 TI würde heute in 7 nm das 4x kosten. Nur das reine Belichten.
Dass das PCB komplexer wurde, die Kühlung potenter und die Stromversogung auch aufgebohrt wurde, ist da noch gar nicht berücksichtigt.

wern001 schrieb:
Nur zum Teil. Die Gewinnmage von NVidia sind stark angestiegen! Das nur weil man die Chips weit über "Herstellungs-, Vertriebs-, Marketing- und Supportkosten" verkauft hat.
Das trifft auf KI und Datacenter zu, aber nicht auf Gaming.
https://finance.yahoo.com/news/gaming-nvidias-largest-business-now-110800872.html?guccounter=1
Der Umsatz im Gamingbereich ist nicht wesentlich gestiegen, aber Datacenter ist explodiert. 2022 und 23 hat Nvidia im Gamingbereich mehr Umsatz gemacht als 2024.
Du solltest vielleicht auch mal recherchieren, was die Zahlen bedeuten, mit denen du blind um dich wirfst und nicht einfach nur ne Statistik ins Forum klatschen, weil Balken x größer ist als Balken y.

Was glaubst du denn, warum selbst ne 7900 XTX heute knapp 1000€ kostet? AMD hat mit dem gleichen Problem wie Nvidia zu kämpfen: steigende Produktionskosten bei immer kleiner werdenden Nodes.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cosh und RogueSix
pacifico schrieb:
Und wie es damals erwartet wurde, haben die Titan/xx90 Karten den Preis der xx80 Karten mit nach oben gezogen :-()

Ich glaube man orientiert sich beim Preis eher an der Konkurrenz. Man hat mit der 4080 meiner Meinung nach ein deutlich besseres Gesamtpaket als bei 7900xt und xtx und entsprechend fällt auch der Preis aus.

Ich meine warum sollte man die 4080 für 699$ anbieten wie die 3080, wenn die 7900xtx für über 1000$ erschienen ist?
Ergänzung ()

wern001 schrieb:
Nur zum Teil. Die Gewinnmage von NVidia sind stark angestiegen! Das nur weil man die Chips weit über "Herstellungs-, Vertriebs-, Marketing- und Supportkosten" verkauft hat. Alleine der Miningboom 2022 und danach der Tot von ETH-Mining

Dabei musst du aber beachten, dass "Gaming(-Grafikkartem)" nur noch 13% bei Nvidia ausmachen. Ja, auch dort fährt Nvidia eine gute Marge ein, aber der fette Anteil (>80%) kommt aus dem AI-Profibereich.

Dort wird dann quasi eine 4090 mit etwas mehr Speicher für 5000-10000€ verkauft oder Profikarten wie die H100 für über 50.000€ pro Stück! Nur das ist der Grund für den Höhenflug. Dagegen war der Mining-Boom quasi ein sehr kurzer Witz. Zudem ist man ja für das nächste Jahr ausverkauft bei Nvidia im Profisegment.

Was der CEO zudem meint, dass die Karten so effizient laufen, dass die 50.000€ pro Karte günstiger kommen als eine kostenlose Karte von AMD über die Laufzeit gerechnet.

Das Problem für die Gamer ist, dass Nvidia so gut es geht seine Kapazitäten lieber für Profikarten verwendet als für Gamerkarten. Daher muss Nvidia auch nicht groß im Preis runter. Wenn keiner Gamingkarten von Nvidia kauft, dann werden eben weniger hergestellt und noch mehr Geld im Profibereich gemacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Svennc, Mcr-King und MrHeisenberg
MrHeisenberg schrieb:
Das trifft auf KI und Datacenter zu, aber nicht auf Gaming.

Glaubst Du die verwenden dafür keine eigenen Chips?
In China wurden massig 4090er aufgekauft neu und gebraucht. Die GPU-Chips ausgelötet und als KI-Beschleuniger neu zusammengelötet.
Also ähnliche oder gleiche Chips für KI und Gaming
 
  • Gefällt mir
Reaktionen: Mcr-King
wern001 schrieb:
Glaubst Du die verwenden dafür keine eigenen Chips?
Glauben kannst du in der Kirche und reininterpretieren kann man viel, die harten Zahlen geben es aber nicht her und Datacenter ist H100 und A100.

wern001 schrieb:
Die GPU-Chips ausgelötet und als KI-Beschleuniger neu zusammengelötet.
Also ähnliche oder gleiche Chips für KI und Gaming
Das fällt unter dem Bereich Gaming. Eine H100 kostet $30.000, ne 4090 knapp 2k. Was denkst du sorgt hier für den großen Umsatz? Die 30K oder die 2K?
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich hoffe es wird nicht zu lange dauern bis man die 5090 kaufen kann.
 
Der User "@kopite7kimi" hat jetzt Spezifikationen von GB203 gepostet und die wäre dann exakt die Hälfte vom GB202. Da ist ein riesiger Unterschied.
Eine RTX 5090 mit dem GB202 wäre alleine durch die Anzahl der SM, durch die verbesserte VRAM-Anbindung um über 50% schneller als eine RTX 4090.
Bei einer Karte mit GB203 (RTX 5080?) sieht es eher nach einer Geschwindigkeit einer RTX 4090 aus.

Ich bin mir nicht sicher, was NVidia da vorhat. Vielleicht kommt nur ein abgespeckter GB202 bei der RTX 5090 zum Einsatz. Oder sie reduzieren den Takt und damit die Leistungsaufnahme und drosseln so künstlich die Leistung. Es reicht für NVidia völlig, wenn die RTX 5090 "nur" 25-30% schneller als eine RTX 4090 wird.
Evtl. bekommt auch die RTX 5080 diesen GB202 Chip in sehr abgespeckter Form.

So viele Spekulationen gab es schon lange nicht mehr :D
 
und am Ende des Tages hilft weiterhin: Abwarten , Teetrinken, sich nicht beteiligen und Abwarten.
Einfluss hat man eh keinen und ohne offizielle Angaben etwas zu bewerten oder gar die Karten selbst, is unsinnig.
 
Ayo34 schrieb:
Ich glaube man orientiert sich beim Preis eher an der Konkurrenz. Man hat mit der 4080 meiner Meinung nach ein deutlich besseres Gesamtpaket als bei 7900xt und xtx und entsprechend fällt auch der Preis aus.

Ja das mag sein wenn man unbedingt bestimmte Features haben will und diese dementsprechend gewichtet. Und deine Erklärung funktioniert halt nur für Ada.

Die 3090 war auch schon sehr teuer mit ihren 1500 Euro UVP.

Die Titan RTX auf Ampere Basis hat sogar 2700 Euro gekostet. Die auf dem gleichen Chip basierenden RTX 20xx Karten waren unbeliebt weil das gesamte Lineup teuer gewesen ist...

Der Trend geht jetzt seit 11 Jahren so

Siehe

https://www.computerbase.de/2019-03/geforce-titan-rtx-mifcom-test/
 
Wenn alle anderen Komponenten auch so angezogen hätten, dann würden am PC freiwillig bloß noch die Nachfahren von Elon Musk daddeln. :D Letzten Sommer hätte man Leuten richtig geile Value-PCs empfehlen können, die selbst als reines Spielegerät Nintendo hätten Konkurrenz machen können: Taugliche Einsteiger-CPUs ab 100€, taugliche Bretter für weniger, 16GB RAM für nix, eine SSD ab 40€ und eine GPU..... ups.

Gibts eigentlich noch neue 720p-Bidschirme? Dann haue ich mir als nächstes einfach die 5090er rein und habe Ruhe bis ins Grab. :D PS: Wenn Nvidia beim VRAM nicht so knausern würde, fiele aber auch eines der letzten großen Argumente gegen sie weg...
 
Zuletzt bearbeitet:
Svennc schrieb:
Verstehe übrigens nicht, warum Nvidia ausgerechnet beim VRAM geizt. Würden sie das nicht tun, fiele auch eines der letzten Argumente gegen sie weg...
Naja die haben bereits 80 Prozent Marktanteil.

Mit mehr VRAM würde Nvidia vielleicht noch ein paar wenige Prozent mehr Marktanteil erreichen.

Aber sie würden die geplante Obsolezenz ihrer Produkte aufgeben und deren Langlebigkeit erhöhen. Das geht langfristig auf den Umsatz 😁
 
  • Gefällt mir
Reaktionen: Svennc
Wenn die neuesten Gerüchte von ebenfalls kopite7kimi stimmen sollten, dass Gaming-Blackwell B202 tatsächlich auf der "alten" 4N Node wie die RTX 4090 gefertigt werden sollte, dann macht das 512-Bit Gerücht auf einmal viel mehr Sinn.

Eine aufgebohrte 512-Bit RTX 5090 mit GDDR7, die auf der "alten" N4 Node basiert, würde nicht im Profi-Segment wildern, aber nVidia würde durch die neue Architektur und durch die Bandbreitenerhöhung das Maximum aus der alten N4 Fertigung rausholen können.

Für uns Gamer wäre das natürlich etwas enttäuschend, wenn das so stimmt, aber überraschen sollte es nicht.
nVidia haben letztes Quartal mit Datacenter mehr als 6x so viel Umsatz gemacht als mit Gaming.

Insofern halte ich die Gerüchte inzwischen für einigermaßen plausibel. Genau so könnte das kommen: nVidia wird die 3nm Node (zunächst) ausschließlich für Datacenter-Produkte nutzen und die RTX 5000er Serie wird aufgebohrt auf der alten 4N Node produziert, damit man keine Kapazitäten für das viel lukrativere Profi-Segment opfern muss.

Auch spielt so die Kostensteigerung beim Sprung von 384-Bit auf 512-Bit eine nur noch kleine Rolle, da TSMC die 4N Node günstiger anbieten wird, sobald die neuen 3nm Nodes am Start sind und zudem ist die 4N Node inzwischen "super-mature", so dass das Aufbohren des Speicherinterfaces vermutlich nahezu kostenneutral über die Bühne gehen kann.

Das könnte so wirklich passen und bei aller berechtigten Enttäuschung, wenn es so käme: Wer würde es anders machen? Wenn und solange im Datacenter dermaßen die Post abgeht, dann müssten nVidia schon regelrecht dämlich sein, wenn sie 3nm Kapazitäten für Gaming opfern, zumal AMD ja möglicherweise eh nicht im High End mitspielen wollen/werden (und selbst wenn... da kann nicht viel kaputt gehen, was man nicht bei Datacenter mit Faktor x wieder einspielt).

Last but not least werden nVidia vermutlich schon länger alle verfügbaren personellen Kapazitäten, vor allem ihre Top-Leute, egal ob Hardware/Engineering oder Software, Richtung Datacenter verschoben haben.
Gut möglich, dass da für die Gaming RTX 5000er einfach nix mehr übrig bleibt als eine "Sparversion" der Blackwell-Chips auf der alten Node. Würde Sinn ergeben.
Insofern bin ich auch sicher, dass das softwaremäßig nächste Gen eher enttäuschend wird. So Neuheiten wie Frame Generation oder Remix werden wir wohl nicht mehr erwarten dürfen.
Die Leute, die so etwas in der Vergangenheit vorantrieben, dürften alle im Datacenter R&D plus Support voll eingebunden sein.
 
Der Beitrag klingt deutlich nüchterner als was man auf YT und Twitter so bekommt mit "nochmal viel krasser als die 4000er Serie. Macht schon mal Platz im Mülleimer" :D
 
RogueSix schrieb:
Für uns Gamer wäre das natürlich etwas enttäuschend, wenn das so stimmt, aber überraschen sollte es nicht.
nVidia haben letztes Quartal mit Datacenter mehr als 6x so viel Umsatz gemacht als mit Gaming.
Das Privatleute nicht mehr die neusten Nodes in brandneuen GPU vorfinden werden, gilt als gesetz.

-> die Kosten für 3nm Wafer sind schlichtweg so hoch, das Gaming Produkte erst sehr spät auf diesem Node basieren werden.

Kosten für Wafer fallen bei einem AI Beschleuniger für 50K nicht so sehr ins Gewicht Es geht also nicht darum das nvida und AMD ihre Kunden mit alter Technik abspeisen, sondern darum das neue Technik erstmal nicht für Privatleute bezahlbar sein wird.
 
Zurück
Oben