News GeForce RTX 4000 Super: Neue Gerüchte sehen kleineres Upgrade auf die RTX 4080S

@DerRico okay, etwas übersimpliziert von mir formuliert. Das mit Samsung FE-Edition ist insofern so gemeint, als dass es einen faden Beigeschmack hat.

Was ist jetzt die Quintessenz?

4070 Super macht die alte 4070 Ti obsolet, die 4070 Ti Super wird 5% schneller, die 4080 Super gegenüber der alten 4080 ebenfalls…

Das rechtfertigt keinen „refresh“.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerRico
Wolwend_the_Orc schrieb:
@Pelzi Klar 32GB^^ Du hast leider Ahnung... kannst du vergessen. Es ist ja seit Jahren die Strategie von nVidia den Speicher knapp zu bemessen. So gibt es mehr 3xxx Kunden die auch eine 4xxx kaufen usw.. nVidia wäre ja schön blöd sich so in die Suppe zu spucken.

32GB wären auch übertrieben und für die meisten nicht von Nutzen.
Klar und wie passen RTX3090, RTX 3060 und RTX 4060 Ti in das Bild hinein?
Nvidia hat in zeiten hoher Speicherpreise Grakas so ausgelegt, dass sie mit optimaler Speichermenge kamen und nicht unnötig viel verbaut wurde.
Aber Nvidia hat wenn doch mehr Speicher als ursprünglich geplant nötig wurden oft auch den einfachen Weg der verdoppelung gewählt anstatt die Interfaces zu ändern.

Jetzt sind die Speicherpreise niedrig und der Bedarf vieler neuer Spiele hoch. Insofern sehr gut möglich, dass sie jetzt verdoppeln. Oder sie bringen jetzt halt gar nichts neues raus.
 
Vitche schrieb:
An 32 Bit lassen sich 1 oder 2 (oder per Clamshell 4) GB GDDR6X anschließen. Bei 256 Bit haben wir also die Option 8, 16 oder 32 GB zu verbauen. Letzteres wird nicht passieren, weil Nvidia sich nicht den Stand der 4090 beschädigen wird. 20 GB wiederum wären aus dieser Sicht potenziell vertretbar, dafür bräuchte es aber idealerweise 10 32-Bit-Controller, also 320 Bit. Das geht mit dem AD103 aber nicht, weil er maximal 256 Bit kann. Also bliebe als Alternative 160 Bit (die Hälfte) und dann eben per Clamshell 5*4 GB. Das ist aber auch ausgeschlossen, weil die Bandbreite dann zu niedrig wäre.
Danke für die Erklärung :-)

Also wird die 4080 Super wohl bei 16GB bleiben und ein Warten lohnt sich nicht wirklich (sofern man es auf die 20GB abgesehen haben sollte).
Ergänzung ()

Pelzi schrieb:
Jetzt sind die Speicherpreise niedrig und der Bedarf vieler neuer Spiele hoch. Insofern sehr gut möglich, dass sie jetzt verdoppeln. Oder sie bringen jetzt halt gar nichts neues raus.
Verdoppeln wird aber nie und nimmer passieren.
 
  • Gefällt mir
Reaktionen: shaboo und Vitche
Pelzi schrieb:
Wenn es ein 4080 refresh gibt halte ich die 32GB Variante für mit Abstand am wahrscheinlichsten.
Ja, haben wir mittlerweile verstanden. Und alle anderen halten es für kompletten Blödsinn und haben das auch ausführlich begründet. Agree to disagree halt. Können wir den Quatsch damit endlich zu den Akten legen?
 
  • Gefällt mir
Reaktionen: Coeckchen
Eigentlich egal wie Nvidia diese nennen. Die Karten müssen günstiger werden und etwas mehr Speicher bieten. Was ich erwarte: alle beworbenen WQHD Karten mit 16 GB Speicher. FullHD mit 8 und 12 GB, 4K mit 20-32 GB Speicher.
 
Zuletzt bearbeitet:
Pelzi schrieb:
Das Kaufargument fü die 4090 gegenüber der 4080 ist doch in der Regel nicht der Speicher.
Korrekt eine RTX4090SE oder Lite mit 16GB für 1499€ wäre die optimale Gamer Karte.

zivilist schrieb:
4K mit 20-32 GB Speicher.
Ich brauche JETZT eine RTX5090 für Path Tracing und da man in 4K wegen der besseren Kantenglättung
DLSS nutzt würden mir 16GB ausreichen. Ich brauche kein totes VRAM Kapital ich brauche GPU Leistung.
 
Zuletzt bearbeitet:
Da ich vor hatte, mir eine 4080 zu kaufen, wird es dann wohl eine 4080 Super, vorausgesetzt, es wird passende Wasserkühler geben.
 
Cleric schrieb:
Was ist daran ärgerlich?

Dass NVIDIA in dieser Generation mit ihrem Chipupsampling (4070 wäre früher eine 4060 gewesen) und ihrer Preisgestaltung wenig kundenorientiert handelt, sollte angesichts der auch sehr kritischen Berichterstattung irgendwie bei jedem angekommen sein. Und auch ohne all das wissen doch diejenigen, die nicht zum ersten Mal eine Grafikkarte kaufen, dass 12GB in der Preisklasse ein schlechtes Preis/Leistungsverhältnis darstellen.

Wer also trotzdem so ein Produkt gekauft hat, der sollte sich hinterher nicht ärgern. Man ist schließlich nicht gezwungen worden.
Trotzdem idiotisch eine solche Karte zu releasen für die Kunden. Klar, gut fürs Geschäft, aber nicht sehr kundenfreundlich.
 
Ok, der Grafikkarten-Markt funktioniert schon seit einer Weile nicht mehr richtig. Aber trotzdem gibt es immer noch sowas wie Angebot und Nachfrage. Wenn die Karten so schlecht sind, kann man bei einer nicht lebensnotwendigen Freizeitbeschäftigung auch einfach nicht kaufen.

Gehen genügend Karten über die (virtuelle) Ladentheke, scheint NVIDIA vieles richtig gemacht zu haben und die nörgelnden Tech-Influencer, Reviewer und Foristen, die sich über die Preise beklagen, sind halt doch nur eine unbedeutende Größe.

Und da der Grafikkarten-Markt die Talsohle anscheinend durchschritten hat, war die aktuelle Generation immer noch nicht der Tropfen, der das Fass zum Überlaufen gebracht hat. Und NVIDIA wird wie jedes gewinnorientierte Unternehmen weiter die Grenzen zu Lasten der Kunden austesten. Zumal NVIDIA sich das problemlos leisten kann, nachdem sie nun in anderen Segmenten deutlich mehr verdienen als mit Gaming.
 
  • Gefällt mir
Reaktionen: TheHille
@Cleric Dass er nicht richtig funktioniert würde ich nicht sagen. Nicht vergessen, wir kommen aus einer Pandemie mit Lieferschwierigkeiten, Mining-Boom und Scalpern... Ist doch klar dass der Bedarf nach wie vor hoch ist.

Man kann durchaus von Wucher sprechen ("Eine Notlage ausnutzen").
 
Das einige sich vorstellen das ein chip in einer generation mal eben komplett Redesignt werden kann irrt
Nvidia chips sind auf maximalen profit mit maximale Performance design und ein chipdesign braucht seine 2-3 Jahre von Planung bis Produktion.

Derzeit in Planung gx100 für gpu ab 2026 die in n2p node kommen unklar wofür, n2x würde als release eher zutreffen da kostengünstiger für Konsumenten gpu's
nvidia hat zwei Wege um neue Generationen zu gehen

rtx50 wird definitiv n4x mit nen quasi ada refresh da aber mehr als nur gpc Anpassung und rt core Verbesserung sein wird tippe ich auf nen Wechsel auf gddd7 die dann mit 16-24gbit chips bestückt werden
Das bedeutet man kann das Si kürzen und somit effektiv chipfläche einsparen insbesondere in low end gpu sinnvoll darunter leidet aber die Bandbreite
Diese gen steht so gut wie sicher was danach kommt (rtx60) ist noch offen

Der eine Weg wäre dem hopper design nachzugehen und die chipfläche zu vergrößern aber auf gaa mit n2x zu warten (halbierte chipfläche) was dann spätestens den Takt bei 3,1-3,2ghz ermöglicht.
Der andere Weg wäre das ada design der sm zu behalten und lediglich die chipfläche weiter zu verkleinern und stumpf den Takt anheben was dann bis zu 4,0ghz gehen kann.
Amd indes bei 4,5ghz sofern kein anderes design kommt.
aus marketing Sicht wäre da 4,0ghz attraktiver würde aber eine stagnation bedeuten da die rt core zu wenig alu haben und an der rt menge gesteigert werden müsste was größere chips bedeutet
Rt cores Skalieren die Leistung nicht per Takt. Sondern per Anzahl und ipc.

Ein ad106er chip hat aktuell physisch 48sm =48rt core aktiv davon nur 34rt (9sm per gpc), 36rt sind der voll Ausbau
Die nächste gen gb206 wird nur 32 rt haben dafür steigt die Leistung der bvh strahlen und soll vermutlich per ai die Leistung verbessern.
man geht sofort in denoising bevor überhaupt das dxr greift
Vorteil die dxr perf könnte sich um nen Drittel steigern per rt core
Nachteil das denoising wird nicht fehlerfrei sein
Wie ich darauf komme nun dlss3,5 was erstmalig dem ray reconstruction vorgestellt oder anders denoising bevor die tensor cores überhaupt was denoisen.
Das ist die software basis für die nächste gpu gen die das in hardware forcieren wird darum die etwa 33% perf Zuwachs
Das bedingt aber zwingend als standard bei dxr dlss3,5 und höher.

Der Ursprungs Gedanke ist was den bei ampere vs ada sich an dxr perf verbessert hat
gehe ich nach rt core und Takt wird schnell klar das ampere (rtx30) bessere rt core Leistung hat als ada (rtx40) was nicht sein kann.
Demzufolge skalieren die rt core nicht mit dem Takt.
bleibt der weg nur über software um dann mehr rt cores für ne kleine sku zu vermeiden.
rtx3060 hat physisch 48rt core aktiv nur 28 auch weil samsung node sehr schlecht ist das mehr als 30sm nicht aktiv sein konnten. Demzufolge pro gpc nur noch 7sm aktiv von 12sm
rtx4060ti ada hat auch 48rt cores aber nur 34 aktiv das aber gewollt, da die chipdichte bei mehr aktiven cores den Takt massiv gesenkt hätte. Womit pro gpc 9sm aktiv sind von 12sm
rtx5060ti gb206 blackwell wird nur 32rt cores haben aber auch 30 aktiv 15sm per gpc von 16sm

so würde das bedeuten das die rtx5060ti genauso schnell wäre in dxr wie die rtx4060ti mit den paar kleinen Anpassungen vom rt core ohne dem hardware beschleunigten ai chip code.
Wie am ende die marketing Abteilung agiert bei den Sku Planungen ist noch unklar da vieles von amd Reaktion mit rdna4 abhängt
Ob die arch gefixt wird und ob amd die möglichen 3,2 bis 3,55ghz erreicht was denkbar ist.

Die rtx50 Serie ist fixed und wird auch früher kommen als viele denken sogar komplett innerhalb von 2 Monaten.
Das wann ist noch offen ich gehe von Ende q3 2024 aus gamescom und ab okt 2024 mit den high end Modellen.
amd wird dieses mal keine high end gpu Mitte 2024 präsentieren das maxed wird ab q2 2024 die rx8600 und rx8700 gen ähnlich wie 2019 mit rdna
Wohl wissend das dies nicht günstig wird
rx8600 350$ 12gb 14,8tf (entspricht der rtx3070)
rx8600xt 400$ 12gb 17tf (entspricht der rx6800)
rx8700 550$ 18gb 28tf (entspricht der rtx3090ti)
rx8700xt 600$ 18gb 30tf (entspricht der rx7900gre)

Nvidia wird darauf reagieren mit gb206 2gpc (32sm) und gb205 4gpc (64sm)
mit rtx5060ti 30sm ~16tf 12gb 400$
und mit rtx5070 60sm 32tf 18gb 650$

Ein neues halo Produkt sehe ich auch als Titan kommen unklar ob gb203 oder nur ad102 142sm es wird.

Die alternative wäre die preise zu senken der rtx4060ti 16gb auf 349$ und rtx4070 auf 449$ oder nen refresh der rtx4060ti mit 36sm und 22gbps gddr6x ab 400$ und rtx4070 mit gddr6 18gbps statt gddr6x 21gbps
letztere geisterte schon in Gerüchten rum für 499$

Ich bin mit der aktuellen Lage gar nicht zufrieden die rtx4060ti einzige option derzeit, hat die zu wenig Bandbreite. Weswegen die um 25% eingebremst wird
Die rtx4070 ist zu teuer
Die rx7700xt verbraucht zu viel Strom und in dxr was mir wichtig ist, ist sie zu langsam

Meine rtx3060 geht langsam die puste aus. Zwar ist pathtraycing nicht Bedingung das es läuft sollte aber min bei 30fps sein. Auch wenn mit dlss q 1080p
Derzeit rtx3060
24 fps( tw3 dxr update) 13fps (cp2077 path) und 9fps (alan wake 2 nativ dlaa)
Mit dlss perf in 2 spielen nutzbar das letzte keine chance

Darum wäre ne rtx5060 26sm denkbar ideal wäre aber die rtx5060ti mit 30sm die ziemlich sicher ist das diese so kommt.
Specs schätze ich auf 96bit Si gddr7 32gbps 16gbit und 12gb 30sm aktiv 3,1ghz 32 rop
ergibt maximal +76% vs rtx3060 mit + 6% Bandbreite und gleiche giga pixel etwa 99gpixel wie die rtx3060

Rein logisch wäre ansonsten die neue Aufteilung gb207 gb206 gb205 was in 1 gpc 2 gpc und 4 gpc ansonsten kein Sinn ergeben würde.
Bisher war das 07 2gpc, 06 4gpc, 04 6gpc, 03 8gpc, 02 12 gpc und das seit 2020 mit ga107- ga102 an
 
Eidgenosse schrieb:
Trotzdem idiotisch eine solche Karte zu releasen für die Kunden. Klar, gut fürs Geschäft, aber nicht sehr kundenfreundlich.
Dann kauft halt in Zukunft nicht, sondern wartet, aber hört auf mit diesem unerträglichen Mimimi im Nachhinein.
 
codengine schrieb:
@Cleric Dass er nicht richtig funktioniert würde ich nicht sagen. Nicht vergessen, wir kommen aus einer Pandemie mit Lieferschwierigkeiten, Mining-Boom und Scalpern... Ist doch klar dass der Bedarf nach wie vor hoch ist.

Man kann durchaus von Wucher sprechen ("Eine Notlage ausnutzen").
Sorry, nein.

Das ist keine Notlage, wie sie bei Wucher gemeint ist.

https://www.verbraucherzentrale.de/...echte/wucher-wann-ist-ein-preis-zu-hoch-51981

Ansonsten stell doch mal ne Anzeige und schau was passiert…
 
  • Gefällt mir
Reaktionen: shaboo
Ich mach es vom Preis abgesehen. Sollte die 4070S eine gutes Preis-Leistungs-Verhältnis bieten würde ich wahrscheinlich meine 4070 verkaufen und die stärkere nehmen.

Imo rächt es sich das NV die Karten unterhalb der 4090 so eigentümlich einsortiert und bestückt hat.
Das ganze Super und Nonsuper hätten sie sich sparen können
4090 24 GB
4080 20 GB
4070 Ti 16 GB bzw. 20 mit weniger Leistung
4070 mit 12 GB bzw. 16 mit weniger Leistung

Die 4070 Ti steht mit ihren nur 12 GB halt jetzt wirklich etwas eigenartig da, sollte die 4070S 16 GB bekommen.

Ich komme da persönlich aber nicht mehr wirklich mit.
 
Diese "Masche" würde Nvidia nicht zum ersten mal abziehen... erst Graka(s) mit sehr grenzwertig verbauter Menge an VRAM bringen, die Leute kaufen und später um wieder Verkäufe anzukurbeln die Karten so bringen,
wie sich die Kunden das von Beginn gewünscht hätten. Und nicht zum ersten mal fühlen sich die Kunden
dann verarscht, zurecht.

Für mich persönlich sind die Nvidia Karten in fast allen Belangen besser, 12GB reichen sind aber grenzwertig
bzw. nicht zu 100% sorgenfrei und da hat AMD noch den kleinen Vorteil.
Höherer Preis bei Nvidia sag ich mal so, ist gerechtfertigt da wie erwähnt in den meisten Punkten besser.
Bleibt nur der zweite Vorteil für AMD, mit der gerne mal etwas Rasterleistung für's Geld aber Nvidia eben in den meisten Fällen deutlich mehr RT-Leistung - da muss jeder selbst entscheiden.

Ich persönlich finde, Rasterizingperformance ist eben nicht alles, also ob ich nur als Beispiel anstatt
mit 65 nur mit 60 FPS zocke oder 130 zu 117 etc. ist mir egal.

MMn bedeutet das, wenn also Nvidia die 12 GB Versionen der 4070(Ti) durch 16 GB ersetzt, sind das die besten Karten unterm Strich.
 
TheHille schrieb:
4070 Super macht die alte 4070 Ti obsolet, die 4070 Ti Super wird 5% schneller, die 4080 Super gegenüber der alten 4080 ebenfalls…

Das rechtfertigt keinen „refresh“.
War bei den Turing Supers exakt genauso. 2060S war eine 2070 mit 2SM weniger, 2070S eine 2080 mit 6SM wenigen und 2080S mit 2SM mehr und schnellerem Speicher. Gleiches PCB, gleiche TDP, aber die 2070S und 2080S haben jeweils den Preis der Vorgänger behalten.
Pelzi schrieb:
Nvidia hat in zeiten hoher Speicherpreise Grakas so ausgelegt, dass sie mit optimaler Speichermenge kamen und nicht unnötig viel verbaut wurde.
Aber Nvidia hat wenn doch mehr Speicher als ursprünglich geplant nötig wurden oft auch den einfachen Weg der verdoppelung gewählt anstatt die Interfaces zu ändern.
Sehr beschönigende Sichtweise der vergangenen Jahre. Optimale Speichermenge legt Nvidia fest? Ich kann mich nicht erinnern, wann Nvidia das letzte mal viel Speicher ab Werk geboten hat, zuletzt nur als Option bei Kepler, da gab es noch einige Karten mit 2GB und 3 oder 4GB als Option bzw. 3GB und 6GB als Option. Bei meiner GTX 670 2GB war es dann auch der Speicher, wegen dem zuerst Spiele nicht mehr gut liefen.
Insbesondere die Dual-Karten waren immer Speicherkrüppel, aber ich würde das auch über die GTX 470/570/480/580, GTX 870/980, 1060, 2060 und 3070/Ti/3080 10GB/23GB/Ti sagen.
Diablo87 schrieb:
Da ich vor hatte, mir eine 4080 zu kaufen, wird es dann wohl eine 4080 Super, vorausgesetzt, es wird passende Wasserkühler geben.
Kannst Gift drauf nehmen, 4080S wird je nachdem, ob es nun 16GB oder 20GB werden, entweder die alten 4080 PCBs oder (leicht modifizierte) 4090 PCBs nutzen, wie auch jeweils alle 3060Ti/3070/Ti und alles ab 3080 die gleichen PCBs hatten.
 
shaboo schrieb:
Dann kauft halt in Zukunft nicht, sondern wartet, aber hört auf mit diesem unerträglichen Mimimi im Nachhinein.
Niemand flennt hier rum. Es ist einfach nur Scheisse von Nvidia und das darf man auch so sagen.
 
4070(Ti) ist ne WQHD Karte und für 144Hz mit Target 144FPS nutzt man doch eh DLSS Quality
also 1080p Rendering und dafür reichen 12GB aus. Für 4K kauft man halt eine 4080 und fertig.
 
  • Gefällt mir
Reaktionen: codengine
So ist es. Und wir sprechen hier von fast 1000€ für eine obere Mittelklasse-Karte, was für sich genommen schon allein verrückt ist.
 
Tigerfox schrieb:
Sehr beschönigende Sichtweise der vergangenen Jahre. Optimale Speichermenge legt Nvidia fest? Ich kann mich nicht erinnern, wann Nvidia das letzte mal viel Speicher ab Werk geboten hat, zuletzt nur als Option bei Kepler, da gab es noch einige Karten mit 2GB und 3 oder 4GB als Option bzw. 3GB und 6GB als Option. Bei meiner GTX 670 2GB war es dann auch der Speicher, wegen dem zuerst Spiele nicht mehr gut liefen.
Insbesondere die Dual-Karten waren immer Speicherkrüppel, aber ich würde das auch über die GTX 470/570/480/580, GTX 870/980, 1060, 2060 und 3070/Ti/3080 10GB/23GB/Ti sagen.
Mit Optimal meine ich nicht Optimal für den langjährigen nutzer der Graka, sondern Optimal um in den zum Releasezeitpunkt und den Wochen danach vorhandenen Spielen durch den Speicher nicht ausgebremst zu werden. Und wenn dass mit der Usprünglichen Planung nciht möglich war, dann hat Nvidia halt einfach verdoppelt. Wie bspw. bei der 3060 oder als option bei der 4060Ti.
 
Zurück
Oben