News Nvidia Blackwell: RTX 5000 mit bis zu 512 Bit zwischen Fantasie und Wirklichkeit

Unti schrieb:
512 Bit und ggf. noch mehr VRAM treibt nur den Preis nach oben.

Sollte eigentlich nicht. Aber Apple-typisch lassen sich die Hersteller das schön vergolden.
 
theGucky schrieb:
Von 8nm auf 5nm ist Prozentual weniger als von 5nm auf 3nm...
Dir wurde ja schon erklärt, dass das ganz großer Quatsch ist den du da erzählst. Aber hier mal mit harten Fakten.
Die Transistordichte von GA102 (8LPP) zu AD102 (4N) ist um 180% angestiegen. Von N5 zu N3E gibt TSMC 30% an. Da liegen Welten zwischen.
Die Effizienz wurde um etwa 64 % verbessert (N10 zu N5P). Von N5P zu N3E sind es 25%.

theGucky schrieb:
Selbst mit einem 20% Schnitt sind es von ~16000 auf ~22000 ~40% mehr Cuda Kerne.
Dazu noch ~50% mehr Speichertempo, wegen GDDR7 32Gbps von 21Gbps der 4090.
Dann noch rund 80% mehr Cache.
UND es kommt noch ein höherer Takt hinzu...
OK, du willst so 40% mehr SM und dazu 80% mehr Cache. Das heißt der Chip wird größer als AD102, da mehr Zuwachs als die Transistordichte hergibt. Und das in recht neuer Fertigung.
Wozu allerdings mehr Cache, wenn der Speicher eh schon so einen Sprung macht? Unnötig.

Dann willst du 40% mehr Shader + mehr Takt. Die Fertigung gibt aber nur 25% weniger Verbrauch bei gleichen Takt. Oder eben 15% mehr Takt bei gleicher Power.
Du wählst mehr Takt. Wir haben dann 40% mehr SM die versorgt werden müssen, also 140% TDP. Sagen wir die Architektur allein macht +10% Effizienz aus, dann sind wir bei etwa 136% TDP, also größer 600 W TDP.

theGucky schrieb:
Rein von den Zahlen (absolut) ist also der Sprung von der 4090 auf die 5090 größer als von der 3090 auf die 4090.
Ganz im Gegenteil.
Ergänzung ()

SweetOhm schrieb:
Das "Feature" hatten wir doch bereits schon mal (970 mit 3,5/4 GB) !?! :freaky:
Nur war er da nicht halb so schnell, sondern 1/8 so schnell. :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LadykillerTHG, RogueSix und shaboo
dampflokfreund schrieb:
Geizhals Jensen.

Wehe, die Speicheraustattung wird sich wieder nicht verändern. Wer seine Karte möglichst lange behalten will, sollte 2025 mindestens eine 24 GB Karte kaufen, da die nächste Konsolengeneration vermutlich 32 GB gemeinsamen Speicher haben wird.
Erneut eine bloße Verdopplung nach 7 - 8 Jahren von 16 auf 32 GB wäre auch im Konsolenbereich enttäuschend. Von PS1 - PS4 hatte sich der Gesamtspeicher pro Generation mindestens verzwölffacht; von PS4 auf PS5 dann nur noch verdoppelt:

PS1 (1994) = 0,003 GB (2 MB RAM + 1 MB VRAM)
PS2 (2000) = 0,036 GB (32 MB RAM + 4 MB VRAM)... Faktor 12
PS3 (2006) = 0,5 GB (256 MB RAM + 256 MB VRAM)... Faktor 14
PS4 (2013) = 8 GB Unified RAM... Faktor 16
PS5 (2020) = 16 GB Unified RAM... Faktor 2

Die bloße Speicherverdopplung nach 7 Jahren im Konsolenbereich sehe ich auch als Hauptgrund, warum sich NVidia sich Speicher-"Nullrunden" in manchen Grafikkarten-Generationen erlauben kann.

Standen der PS4 zum Launch (Ende 2013) die GTX 760/770 mit 2GB VRAM bzw. die GTX 780/780Ti mit jeweils 3GB VRAM gegenüber, waren es zum Start der PS5 (Ende 2020) bereits die 2060Super/2070Super/2080Super/3070 mit 8GB, die 3080 mit 10 GB, die 2080 Ti mit 11 GB VRAM und die 3090 mit 24 GB VRAM.

In den letzten 10 Jahren war die Grafikspeicherentwicklung also (trotz Stillstand bei manchen GPU-Generationen) schneller als im Konsolenbereich, nicht langsamer.
 
Zuletzt bearbeitet:
Vielleicht wäre NVida besser beraten, sich mal Gedanken über ihren Stromstecker zu machen, als über die nächste Grafikkartengeneration. Ich geh mal davon aus, das die nächste 5x-Generation nicht weniger sondern eher mehr vom wertvollen Gut Strom verbrauchen wird. Und nochmals so ein 12vhpwr-Desaster will ja wohl niemand.

Sorry für meinen Off-Topic-Beitrag. Obwohl ich gerne noch gewusst hätte, ob Bitcoin-Minern noch aktuell ist. Ich glaube da war mal ein ziemlicher Hype und hat die Preise für Grakas auch in die höhe treiben lassen. Nochmals so eine Diskussion und ich wandere aus.:heul:

Sollte eine 5090 irgendwann kommen (davon ist auszugehen), ist zu hoffen, daß die nicht wieder so ein "Backstein" wird. Da kommt man langsam echt an Grenzen. Ich selber habe "nur" eine 4070 TI und die ist sogar minimal kürzer als meine 2060RTX, die ich vorher hatte. Ich sag das nur deswegen, weil das dann eher erst mal die Probleme sind, die einen beschäftigen. Gefühlt spielen Preise eh schon lange keine Rolle mehr. Wenn das Ding angekündigt ist, kommen wieder diese "Weill haben" und "Habe schon eine Kaufoption"-Kommentare.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse
Cohen schrieb:
Erneut eine bloße Verdopplung nach 7 - 8 Jahren von 16 auf 32 GB wäre auch im Konsolenbereich enttäuschend. Von PS1 - PS4 hatte sich der Gesamtspeicher pro Generation mindestens verzwölffacht; von PS4 auf PS5 dann nur noch verdoppelt
Diese Entwicklung hat auch mit der Erhöhung der Auflösung, Kompressionsraten von Texturen etc zu tun. Alles Prozesse, die seit einiger Zeit stagnieren, s. 4K Auflösungen. Das ist eher kein Indiz für irgendeine Stagnation. Außerdem steht ja auch im Text, dass mit DDR7 ein gleichbleibend großes Interface trotzdem höhere Kapazitäten erlaubt.
 
  • Gefällt mir
Reaktionen: shaboo
Stanzlinger schrieb:
bekommst du nicht auch mal mehr Gehalt?
a) Nicht jeder arbeitet tarifgebunden oder hat so tolle Geschäftsführer, die Mitarbeitern - auch nach langjähriger Zugehörigkeit - etwas gönnen.

b) Schau mal, wo das deutsche Medianbrutto liegt. Ist es dann in Ordnung, deutlich vierstellige Preise für eine (wenn auch performanceseitig weit vorne angesiedelte) Grafikkarte zu verlangen?

c) Schön, wenn man selbst keine Sorgen hat und sich alles leisten kann. Sozialverträglicher wäre es, die eigenen Scheuklappen zu weiten und mal nen Blick in die restliche Bevölkerungsschicht zu wagen. Ein Bisschen Demut und vor Allem Mitgefühl hat noch niemandem geschadet.
 
  • Gefällt mir
Reaktionen: Slim.Shady, R4mses und butchooka
Ich sehe es auch so, warum sollte Nvidia was neues bringen, wenn es weit und breit keine konkurrierende Karte gibt?
Entwicklungskostwnverschwendung. Zumal Jahre nach Release der RTX 4x immernoch UVP und höher abgerufen werden.
Eigentlich kann sich Nvidia locker 2 Generation ausruhen. Frühstens 2026 kann Mal was neues vorgestellt werden.
 
Bügelbernd schrieb:
Er schreibt davon das die RTX 5090 dann eventuelle 3.500€ kostet whatever bzw wir eine 3.500€ Karte nicht brauchen.
Ob man eine Karte für diesen Preis braucht oder nicht, kommt darauf an was die Karte bietet. Wenn die Karte bezüglich KI, Gaming und Co das im Vergleich zur Konkurrenz wert ist, dann kann mir das nur recht sein. Die Entwicklung geht weiter und wird nicht gebremst.

Ich kaufe sowieso 2 Klassen darunter und solange ich mehr Leistung für weniger Geld bekomme, stören mich 3500 Euro Karten nicht.

Der Preis bildet sich ja aus Angebot und Nachfrage, ob etwas gebraucht wird oder nicht liegt nicht in den Händen von uns Forenusern.😆
Bügelbernd schrieb:
Spielen wir das Spiel weiter wäre eine 6090 dann bei 4.000€ etc bis du irgendwann bei 100.000€ für eine Grafikkarte angekommen bist. Aber hey, Entwicklung voran bringen ;)
Die Preise werden so ausfallen wie sie ausfallen, muss PTS uneingeschränkt in diesem Punkt Recht geben.

LikeAnIrish schrieb:
Ich weiß ja nicht was du für Spiele-Entwickler kennst, aber mehr Speicher brauchen eben genau die, die zu faul zum optimieren sind ...
Entwickler sind weder bei hohem Vram Verbrauch pauschal "zu faul", noch bei niedrigen FPS. Qualität kostet einfach Leistung und hochwertige Texturen Vram. Hätten alle Karten am Markt mehr Vram würde man natürlich auch mehr Qualität erhalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo
DJMadMax schrieb:
Ist es dann in Ordnung
Natürlich.

Unabhängig davon, was ich von dieser Preisgestaltung halte: Die können da zunächst mal alle auch noch viel abstrusere Preisschilder dranpappen. Gaming-Grafikkarten sind einfach nur Spielzeug, dass sich preislich wieder dem Bereich der Luxusartikel annähert.
 
  • Gefällt mir
Reaktionen: shaboo und DJMadMax
Ist manchmal schon lustig, hier mitzulesen. Da fordern einige Zeitgenossen ohne Rücksicht auf Verluste immer mehr brachiale Grafikleistung und ich warte bis heute auf ein Spiel, dessen Optik allein schon aktuelle High-End-Karten mal ansatzweise rechtfertigen würde.

Ich bin ja kein Experte, ich hab von den technischen Hintergründen kaum noch Ahnung, weil ich mich Anfang der 2000er Jahre weitgehend ausgeklinkt habe. Aber für meine zurückgebliebenen Laien-Augen gibt es bis heute kein Spiel, das hübscher aussieht als Red Dead Redemption 2. Erschienen im Jahr 2018. Läuft auf der PS4 mit weiß-ich-nicht-wie-wenig VRAM.

Meiner vollkommen fachunkundigen und stümperhaften Einschätzung nach, haben wir längst einen Punkt erreicht, an dem technische Fortschritte bei Spielegrafik kaum noch eine Rolle spielen. Auch noch so viel VRAM und Teraflops können keine Konzentration auf wichtige Details ersetzen und keinen kreativen Boost auslösen. Umgekehrt können Entwickler selbst aus bescheidener Hardware Erstaunliches rausholen, wenn sie wirklich mit Herzblut dabei sind.

Aber wie gesagt, hört nicht auf mich, ich hab absolut null Ahnung von gar nix. =P
 
  • Gefällt mir
Reaktionen: M11E, Slim.Shady, daknoll und 3 andere
Draco Nobilis schrieb:
Sollten die nächsten Konsolen 24GB oder 32 GB Gesamtspeicher(VRAM) haben, werden alle Grafikkarten außer der 4090 respektive 7900 XTX in kurzer Zeit wertlos, ebenso deren Nachfolger.

theGucky schrieb:
Unwahrscheinlich wegen Kostengründen. Und selbst wenn die soviel hätten, muss es noch lange nicht heißen das alle Spiele auf einmal so viel verwenden.
Außerdem würden die Konsolen (PS6) erst frühestens 2028 kommen, bis dahin ist sowieso alles schon überholt. Da ist dann eine 6060 Ti mit 16GB für 700€ schneller als eine 4080 Super.

Volle Zustimmung. Falls die PS6 erst Ende 2028 erscheint (eine lange PS5-Generation aufgrund der Covid-Pandemie wurde ja schon mehrfach angedeutet), wird es voraussichtlich wieder eine lange "CrossGen-Phase" geben (PS5 + PS6-Version)... bis 2030 sollten also selbst 12 GB-Grafikkarten in PS5-vergleichbaren Einstellungen klarkommen.

Eine 24GB-PS6 könnte vermutlich nur 16 GB für Grafikberechnungen "abzwacken", die restlichen 8 GB dann für OS + Spielaufzeichnung im Hintergrund + sonstige Berechnungen des Spiels.

Erst bei einer 32GB-PS6 würde es für 16-GB-Grafikkarten (nach der CrossGen-Phase) knapp werden, die 20 GB der 7900 XT könnten sogar ausreichen... allerdings wird sie vermutlich eh an der Rechenleistung gegenüber einer PS6 scheitern, nicht am Speichermangel.
 
OdinHades schrieb:
wenn sie wirklich mit Herzblut dabei sind.
Meinst Du die finanzierenden Publisher oder wirklich diejenigen, die die Umsetzung, also u. a. Entwickler?

Ich bin da nüchtern: Gaming ist eine Massenindustrie geworden. Viele Spieler wollen offensichtlich permanent Nachschub, die Presse auch, die zumeist überflüssigen Influenzer sowieso.

Aber "jaw dropping" schöne Grafik finde ich nicht verwerflich - die Spielidee sollte halt auch gut sein.
 
Mehr VRam mehr Gut. Zumindest für mich.

Aus 2 gründen für mich wichtig. Zum einen kann man mit viel VRam einfach in jedemGame egal wie kacke es läuft die Texturen auf max setzen. Und ich finde das gerade die das Game erstmal gut aussehen lassen auch wenn der rest nur auf mittel steht etc.

Zum zweiten habe ich 4K Monitor Plus 3 andere hoch auflösnde auf denen Streams laufen etc. wenn dann noch ein Game auf dem großen Läuft ist der Vram recht schnell über 22GB. Ist jetzt sehr Speziell zeigt aber mal wieder das jeder andere anforderungen hat. Daher finde ich es auch super wenn sie von einem Chip. Sagen wir mal 5080 eine 16 und eine 20GB Version bringen. Dann kauft jeder was er braucht. Der FullHD high fps gamer kommt ja mit 16 dicke aus. Wer 4K mit max Texturen und Raytracing will nimmt die 20Gb version und fertig.
 
OdinHades schrieb:
[...] Umgekehrt können Entwickler selbst aus bescheidener Hardware Erstaunliches rausholen, wenn sie wirklich mit Herzblut dabei sind.

Aber wie gesagt, hört nicht auf mich, ich hab absolut null Ahnung von gar nix. =P
Mit Herzblut dürften die eigentlich alle dabei sein, die Anforderungen vom Management machen eine effiziente Hardware Ausnutzung aber zunichte. Die VRAM Nutzung steht in den letzten Jahren in keinem Verhältnis zu dem grafischen Output. Meistens ist es unoptimierter Murks, deshalb verstehe ich nicht, das dann hier alles nach mehr VRAM schreien, sodass die Firmen sich noch mehr darüber freuen, noch weniger zu optimieren.
 
  • Gefällt mir
Reaktionen: tso und ComputerJunge
Kann ich voll verstehen. Die RTX 4090 lastet man eh selten kaum aus und Konkurrenz gibts dafür nicht. Erst wenn es stark in Richtung 5K oder mehr gehen würde. Die Evolution wird vermutlich daher gering sein.

Effizienz ist sehr gut. Klar hier kann man in der gesamten RTX 5000 Serie sicherlich noch etwas schrauben.
 
Zuletzt bearbeitet:
CR4NK schrieb:
Das Thema mit den 3GB Chips haben hier wohl viele überlesen. Da kommen echt coole Speichergrößen raus.
Erstmal abwarten ob die 3GB Chips auch genutzt werden. Sind evtl teurer als die 2GB Pendants. Und ob es dann so einen Unterschied macht ob man 8 oder 9GB im Einstiegssegment hat... Am Ende wird das nur genutzt um die Dies noch mehr zu beschneiden.
 
DJMadMax schrieb:
c) Schön, wenn man selbst keine Sorgen hat und sich alles leisten kann. Sozialverträglicher wäre es, die eigenen Scheuklappen zu weiten und mal nen Blick in die restliche Bevölkerungsschicht zu wagen. Ein Bisschen Demut und vor Allem Mitgefühl hat noch niemandem geschadet.
Es gibt kein Grundrecht auf eine Grafikarte. Wer es sich nicht leisten, muss halt seine Ansprüche runter drehen. Und Nvidia kan nes egal, wer ihre Hardware kauft. Wer in den letzten 18 Monaten in Nvidia investiert hat, der bekommt seine Karte nun gratis duch Kursgewinne.
 
  • Gefällt mir
Reaktionen: cruse
Woher kommt bei vielen eigentlich die Attitude, dass sich jeder eine 4090/5090 leisten können muss?

Ich kann mir keinen 911er oder AMG leisten. Geh ich deswegen jetzt im Automobilforum rumnörgeln? 🤷🏻‍♂️

Ob das Ding am Ende 24 oder 32GB mit was für einer Anbindung auch immer hat, ist mir egal. GDDR7 wäre schön. (Ohne zu wissen, welchen Mehrwert das hat 😇)
 
  • Gefällt mir
Reaktionen: AI94, Mcr-King, RogueSix und 2 andere
Couch-Potatoe schrieb:
Erstmal abwarten ob die 3GB Chips auch genutzt werden. Sind evtl teurer als die 2GB Pendants.
So 50% würde ich abschätzen...
Couch-Potatoe schrieb:
Und ob es dann so einen Unterschied macht ob man 8 oder 9GB im Einstiegssegment hat...
Wie soll das gehen. Es geht dann um 12 statt 8GB. Oder 18 statt 12 GB.

Couch-Potatoe schrieb:
Am Ende wird das nur genutzt um die Dies noch mehr zu beschneiden.
Das musst du näher erläutern.
 
  • Gefällt mir
Reaktionen: Mcr-King, CR4NK und W4RO_DE
bensen schrieb:
Wie soll das gehen. Es geht dann um 12 statt 8GB. Oder 18 statt 12 GB.

Das musst du näher erlerläutern
Statt 8GB an einem 128bit Interface gibt's dann 9GB an einem 96bit Interface. Der gesamte Chip kann dann kleiner sein. Mehr Chips pro Wafer. Und das wird einem dann als Fortschritt verkauft.
 
  • Gefällt mir
Reaktionen: Mcr-King und Zwirbelkatz
Zurück
Oben