News Nvidia Blackwell: RTX 5000 mit bis zu 512 Bit zwischen Fantasie und Wirklichkeit

Selbst wenn es wirklich so kommt: die 5090 wird doch keiner bezahlen können. Ich ahne schreckliches für RTX 5070.
 
  • Gefällt mir
Reaktionen: Mcr-King
JanMH schrieb:
Ich ahne schreckliches für RTX 5070.

Meine Glaskugel sagt dort 799 Dollar. Ohne Steuern. Kommt frühestens in der Mitte 2025 und die 60er, werden wohl die 500 Dollar erstmals knacken.

Mal schauen, wo die Entwicklung bei den Einkommen hin geht. Wenn aber jeder mehr Lohn bekommt, kann man auch mehr für Luxus verlangen.

mfg

p.s.

Und ja, selbst eine 60er ist Luxus.

p.s.s.

Und da ich ja immer in Unzen rechne....2100 Dollar für eine Unze? Die haben doch alle ein Ei am wandern. Da sind die GPUs sogar billiger geworden, in den letzten Wochen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
MalWiederIch schrieb:
sofern man sich nicht auf 60Hz beschränken will …

Aus dem Grund reichen mir wohl auch erst einmal 60Hz (in 4K/UHD, inkl. FreeSync) meines relativ günstigen 32" Monitors, zumal ich eher weniger Zeit mit Shootern verbringe bzw. die nicht einmal ansatzweise kompetitiv (online) spiele, ich auch keine Lust auf Cheater, usw. habe und kompetitves Gaming sowie Abhaken aller Achievements auch nicht großartig Reiz für mich versprüht, aber das ist ein anderes Thema und das ist natürlich Geschmackssache.

Überlegt hatte ich mir einen OLED (U)WQHD-Monitor nur für Gaming, da der andere eigentlich eher als Allrounder fungiert/gekauft wurde, aber die Preise der Geräte haben mich davon bisher abgehalten ebenso wie mein Nutzerverhalten (auch wenn 144Hz evt. bei gelegentlichen Rennspielen schon nett wären, aber so wirklich brauche ich vermutlich auch nicht und so spare ich zudem Strom).

Im Endeffekt ist das ganze schon stark abhängig vom Nutzerverhalten und wegen einer Handvoll anspruchsvollster Spieltitel mein Kaufverhalten insgesamt auszuloten (High End-/Luxus-PC-Hardware wie bspw. eine RTX 4090 und/oder einen i9-14900K(S) deswegen zu kaufen oder eine Konsole wegen eines einzigen Exklusivspiels anzuschaffen), kommt für mich (auch zukünftig) einfach nicht in Frage, weil es m.E. gar nicht lohnt/in einem halbwegs noch gesunden Verhältnis zueinander steht und das ist wohl auch eine Mentalitätsfrage.

MalWiederIch schrieb:
mehr als 60Hz doch heute garnicht kaufbar, dementsprechend nicht wirklich „Gaming“-geeignet.

Das könnte sich in naher Zukunft (mitr der Vorstellung von Blackwell nVidia Gaming-Karten bzw. einer RTX/PTX 5090) schnell ändern, denn das hat man doch einmal versucht per Influencer-Marketing mit der dafür viele zu schwachen RTX 3090 damals - auch zur Belustigung/zum Spott einer TechTuber - versucht voran zu treiben.

Vielleicht versucht man 8K Gaming dann mit ausreichend starker Hardware sowie dem "RealTime PathTracing" (für beides, also in 8K und PathTracing wird es dann natürlich wieder nicht reichen, aber man hättte dann eben die Wahl) Buzzword zu promoten, wer weiss?

Dann könnten auch bald entsprechende Monitore winken oder evt. sind schon einzelne Hersteller diesbzgl. von nVidia kontaktiert und einbezogen worden (so dass dann pünktlich zur Präsentation der Gaming Blackwell Karten ein erster hochfrequenter 8K Monitor (und weitere hochfrequente 5K/UHD Monitore mehrerer Hersteller) gezeigt und bald in Aussicht gestellt wird (für die RTX 4090 wiurde doch auch schon 5K/UHD angetestet auf CB, soweit ich mich erinnere).

Je nachdem wie passabel die K.I.-Leistung kommender Gaming-Grafikkarten sein wird, könnte das aber auch vielen Gamern (preis- und verfügbarkeitstechnisch) einen Strich durch die Rechnung machen, wir werden sehen (möglich ist vieles).
 
[wege]mini schrieb:
320bit würde bedeuten, es ist ein kastrierter 384bit Chip. Als 103er, ergibt der aber nirgend wo Sinn. Das ist in den feuchten Träumen der Endkonsumenten ganz nett, aber nicht wirtschaftlich.
Nicht wirklich, mit 384bit (24 GB) könnte der Beinahe-Vollausbau des 02er Chips in der Gaming-Variante kommen (also RTX/PTX 5090) sowie in dessen beschnittener Version (also RTX/PTX 5080Ti) später.

Da nVidia mit Sicherheit versuchen wird die 80er Serie wieder (deutlich) über 1000 Euro etablieren zu wollen, dürfte das auch ein 320bit Speicherinterface bei einem 03er Chip rechtfertigen und 20 GB wäre der nächste logische Speicherschritt für eine RTX/PTX 5080 (mit aktuell "nur" 16 GB bei einer RTX 4080), die sonst bei einigen kommenden Spielen auch wegen RT-PT an ihre Speichergrenzen kommen könnte mit 16GB in 4K/UHD mit Maximaleinstellungen.

Dementsprechend denkbar wäre es dann auch eine RTX/PTX 5070Ti mit 20GB basierend auf einem beschnittenen 03er Chip noch anzubieten für knapp 1000 US$.

Das würde m.E. schon ins Preis-/Profit-Konzept von nVidia passen und wäre wohl ausreichend profitstrebend gestaltet (zumal die potenten Gaming-Chips evt. größtenteils sowieso bei K.I.-Leuten durch Wegkauf wie zu Miningzeiten mit noch deutlich höheren Preisen landen könnten, aber das müssen wir wohl abwarten) ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Ich Frage mich die ganze Zeit was sich die Leute von 512 bit erhoffen?
Meine alte AMD Vega 64 hatte 2048 bit und nun?
 
Chismon schrieb:
könnte der Beinahe-Vollausbau des 02er Chips in der Gaming-Variante kommen

Der 103er Chip ist für Notebooks. Da wird nicht mehr möglich sein, wenn man es ordentlich macht. Das kack SI frisst Fläche auf dem Chip und Strom. Die Tatsache, dass Nvidia aktuell (wieder) den 103er als 80er vermarktet, liegt an der Schwäche von AMD.

Ich habe hier noch nicht mal die Keule geschwungen und den Elefanten im Raum angesprochen. Ein 104er Chip als 80er vermarktet, ist immer noch nicht vom Tisch.

Und dann muss man über 256bit sogar glücklich sein. Wenn das Marketing sagt, 192bit mit 24GB, dann kommt es so. Aber dieses Fass, möchte ich hier jetzt nicht aufmachen.

mfg
 
  • Gefällt mir
Reaktionen: Mcr-King
wern001 schrieb:
Das was bei den 30x0 so wärend des Miningbooms. Der UVP wurde um glaub 100€ für die 3090er angehoben
Okay und was hat das mit der 4000er Serie zutun?
 
5070 mit 18 statt 12GB würde ich doch dann tatsächlich wahrscheinlich schwach werden.
 
Raise schrieb:
Wie kommt man jetzt darauf, dass AMD das nicht schaffen wird?
Die Gerüchteküche sagt dass mit RDNA4 keine neue High-end Karte kommen wird. Das hat AMD schon früher so gemacht, dass sie High-end ignorieren und nur Produkte für Mainstream und Performance bringen (siehe Polaris, RDNA1, etc). Konkurrenz zur 4090 wäre damit frühestens mit RDNA5 zu erwarten.
 
danyundsahne schrieb:
die meisten nehmen sich nen Kredit
Nö, die verkaufen die andere Niere, die eine haben se schon für die 4090 gelassen :)
 
  • Gefällt mir
Reaktionen: Mcr-King
Apocalypse schrieb:
5070 mit 18 statt 12GB würde ich doch dann tatsächlich wahrscheinlich schwach werden.
Nach dem Hin und Her bei den 4070 (Ti) (Super) Modellen, die sowohl bei Speicher wie Interface unterschiedlich beschnitten waren, glaube ich nicht, dass die neue 70er Reihe da eine Ausnahme bilden wird. Wenn Nvidia es schafft, bei einer WQHD-Karte mal durchweg 16GB Speicher anzubieten, wäre schon was gewonnen. Deshalb verstehe ich die Diskussion um das Interface auch nicht ganz. Es ist ja nicht so, dass Nvidia den VRAM nicht mit den vorhandenen Anbindungen verbauen könnte, sie tun es einfach nicht.
 
  • Gefällt mir
Reaktionen: up.whatever
Cohen schrieb:
"Richtig schnell" = unter 10 GB/s.
Naja trotzdem schneller wie am PC da alles über den RAM läuft und die CPU. 😉
Ergänzung ()

[wege]mini schrieb:
Nvidia aktuell (wieder) den 103er als 80er vermarktet, liegt an der Schwäche von AMD.
Naja stimmt nicht ganz auch weil sie halt Gaming als neben Produkt ansehen und genau deswegen wird es über kurz oder lang sterben.

Angefangen bei den RTX50er dann die 60er und soweiter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [wege]mini
DevPandi schrieb:
Es ist vollkommen egal ob 128 Bit, 256 Bit, 384 Bit oder 512 Bit. Am Ende muss der Durchsatz stimmen. Wenn man eine GPU mit 128 Bit Interface und GDDR7 ordentlich versorgen kann, dann ist alles in Butter.

richtig - mit dem Takt kann man ausgleichen aber mit einem 128Bit internface vs 256 halbiert man halt so den Durchsatz
 
  • Gefällt mir
Reaktionen: Mcr-King
Genau guter Vergleich die Komischen Otto Motoren viel Drehzahl wenig Hubraum geht nicht lange gut. 😉
 
wahli schrieb:
Warten wir es mal ab
Du kannst 5x Gefällt mir von mir haben. Ich sehe auch 0 Anreiz für NV irgendwas unter Zeitdruck zu bringen und wieso sich mit einem Rhythmus einengen wenn die Konkurrenz keine Rolle mehr spielt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Mcr-King schrieb:
Naja trotzdem schneller wie am PC da alles über den RAM läuft und die CPU. 😉
Dieser "unter 10 GB Speicherdurchsatz" ersetzt dennoch kein bisschen echten schnellen VRAM. Bei der GTX 970 hatte der langsame Speicher einen Durchsatz von 28 GB und war bereits auf der GPU drauf. Trotzdem führte es teilweise zu Einbrüchen, wenn der 3,5 GB Part voll war.

Microsoft wird es wohl besser wissen und spricht selbst von "We call this GPU optimal memory." (gleich 10 GB VRAM) und beim 6GB langsam angebundenen Speicher von "standard memory".
 
NguyenV3 schrieb:
Dieser "unter 10 GB Speicherdurchsatz" ersetzt dennoch kein bisschen echten schnellen VRAM. Bei der GTX 970
Natürlich nicht ganz ändert trotz dem nix an dem groß angekündigten RTX IO was dann verpufft ist.

Wie gesagt eine Konsole ist eine Konsole mit allem vor und Nachteilen nur der Vorteil ist halt die PS5 IO mit APU. 😉

Davon träumt der PC noch länger.
 
LamaMitHut schrieb:
Ist jetzt eigentlich bekannt, ob man für Rechenzentrum und Gaming ein und das selbe Design nimmt?
Es sind unterschiedliche Designs.


Ayo34 schrieb:
Man sollte fast schon froh sein, dass die 4090 mit bei Gaming aufgeführt ist und nicht im Business Bereich. Hätte man nämlich auch machen können und dann wäre die 4080 die Speerspitze beim Gaming für vielleicht 999€ und die 4090 würde ~5000€ kosten
Ja so hat Nvidia das früher gemacht.

Das war besser weil die 80er Karte damals billiger war.

Seit der ersten GeForce Titan fährt Nvidia diese Strategie das oberhalb der schnellsten 80er Gaming Karte noch eine weitere GPU verkauft wird. Diese Halo GPU's sind genau genommen übertaktete Profi Karten.

Und wie es damals erwartet wurde, haben die Titan/xx90 Karten den Preis der xx80 Karten mit nach oben gezogen :-()
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut und Mcr-King
Mcr-King schrieb:
und genau deswegen wird es über kurz oder lang sterben.

Du bist ja noch fatalistischer als ich. :evillol:

"Gaming" wird niemals sterben. Dafür sind wir Menschen einfach zu verspielt. Wenn ich aber meine Glaskugel frage, ob Nvidia in 20 Jahren noch GPUs für Daddler baut, zeigt sie mir nur rauschen und hin und wieder einen Vogel. :heilig:

Der 102er Chip als 80er, wird aber (so wie ich das sehe) erst dann wieder kommen, wenn AMD wieder konkurrenzfähig ist, in diesem Segment.

mfg
 
  • Gefällt mir
Reaktionen: Mcr-King und riloka
Zurück
Oben