Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

leonM schrieb:
Ich habs probiert, fühle aber durch BFI dem Inputlag. Kenne aber Leute die damit klar kommen. Diese spielen aber auch auf sehr schlechter Eingabeempfindlichkeit. Glaube, Spieler die sehr oft sowas wie CoD, CS, Doom usw. auf hoher Empfindlichkeit spielen, die kommen damit nicht klar
Wer den geringst möglichen Inputlag vorzieht, verzichtet wohl auf bfi, allerdings ist die Latenz eigtl. sehr gering mit 1 Frame.
Mich persönlich stört das 60hz Geflimmer und der Helligkeitseinbruch (tagsüber) deutlich mehr.
 
Früher hab ich ja bei jeder neuen Grafikkartengeneration alle verfügbaren Infos aufgesogen...Mit meiner Vega64 wird es Zeit für eine neue Grafikkarte, aber bei den Preisen hab ich nicht mal Interesse zu lesen, was die Karten zu bieten haben...vielleicht liegts auch am Alter :-)
Ich warte auf den 3. November...@AMD ... das ist nun Eure Chance den Marktanteil deutlich zu steigern.
 
  • Gefällt mir
Reaktionen: msv, DagdaMor, Illithide und eine weitere Person
leonM schrieb:
Da man bei DLSS2 auf 4K skaliert und auch nicht auf das neuste Renderbild(DLSS3) warten muss, ist der Inputlag wohl minimal(liegt in der Natur eines TAAs^^). Zumal man hier eine höhere Auflösung für wenig Kompromiss+mehr Frames(da 4K nativ weniger Frames abgeben würde--> also besserer Inputlag als nativ 4K)
Würde nicht zwingend davon ausgehen, dass die geringeren Frametimes zu nennenswert geringerem Inputlag führen, auch weil dlss 2.x bzw. das supersampling wiederum eine kleine Latenz mit sich bringen kann.
Wenn dlss (2.x) von z.B. 40 auf 60 fps erhöht und damit (angenommen) den Inputlag um 8.5 ms senken würde, aber 2ms Lag selbst durch die Berechnung einführt, wären es vllt. insgst. 6.5ms weniger Lag.
Entscheidender ist da für die meisten das insgst. flüssigere Spielgefühl durch die höhere Framerate.


syfsyn schrieb:
Der nutzen den nvidia hier suggeriert das man mit 30fps dann 90fps hat und dann die gleiche inputlatenz täuscht.
Das wird sich steuern wie mit 30fps weil alles verzögert dargestellt wird.
Es wird ja auch nicht von 30 fps auf 90 mittels Zwischenbildern hochgerechnet, eher z.B. von 30 mit dlss 2.x/ supersampling auf 45 und dann mit Fakeframes auf 90 verdoppelt.
Nvidia Reflex soll den Inputlag dann möglichst gering halten, allerdings wird damit vorrangig das gpu-Limit vermieden, wer also schon vorher mit fps Limitern darauf geachtet hat, erfährt auch kaum einen Gewinn durch nvidia reflex.
Leute, die also ihre Einstellungen auf den geringstmöglichen Inputlag hin optimiert hatten, werden mit dlss 3 /Frame Generation def. einen höheren Inputlag erhalten.
Ergänzung ()

leonM schrieb:
Bei den 30fps zu 60fps DLSS3 Umwandlung müssen die Tests es zeigen, wie der Inputlag bzw. das Spielgefühl sich im Vergleich zu (DLSS2 +Reflex) vs. (DLSS3 +Reflex) anfühlt.
Meinst du die reine Frame generation mit dlss 3, also ohne vorangehendes dlss 2.x/ supersampling?
Ich denke nicht, dass es sonderlich empfehlenswert ist mit real 30fps zu spielen und diese (mit zusätzlichem Inputlag ) auf 60 Fakeframes zu boosten, sofern einem die Latenz wie z.B. bei Shootern wichtig sein sollte.
Nvidia Reflex minimiert wie gesagt auch primär nur dort, wo die gpu zuvor ins Limit lief, daher ist nvidias Werbung für reflex i.S.v. = geringerer Lag auch differenziert zu betrachten.
Wer zuvor schon mit frame limitern gearbeitet hat und die gpu Last so unter ca. 97% gehalten hat, dem nützt Reflex auch nix.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Illithide und Sun-Berg
Suspektan schrieb:
Würde nicht zwingend davon ausgehen, dass die geringeren Frametimes zu nennenswert geringerem Inputlag führen, auch weil dlss 2.x bzw. das supersampling wiederum eine kleine Latenz mit sich bringen kann.
Wenn dlss (2.x) von z.B. 40 auf 60 fps erhöht und damit (angenommen) den Inputlag um 8.5 ms senken würde, aber 2ms Lag selbst durch die Berechnung einführt, wären es vllt. insgst. 6.5ms weniger Lag.
Entscheidender ist da für die meisten das insgst. flüssigere Spielgefühl durch die höhere Framerate.

So funktioniert die Rechnung nicht. DLSS2 hat eine gewisse Berechnungszeit, das ist richtig. Diese fließt aber 1:1 wie jeder andere Grafikeffekt in die Berechnungszeit eines Frames mit ein, bevor er ausgegeben wird wodurch wiederum direkt die FPS bestimmt werden. Du kannst nicht einfach sagen 60 FPS hat eine Latenz X, aber 60 FPS mit DLSS hätten eine schlechtere Latenz y. Das ist falsch.

60 FPS mit DLSS 2 haben im gleichen Spiel exakt die gleiche Latenz wie 60 FPS ohne DLSS (z.B. mit einer stärkeren GPU berechnet). Das macht überhaupt keinen Unterschied.

Ja, DLSS2 braucht ein paar ms bis es berechnet wurde, so ca. 2-3 ms. Aber die fließen in die Berechnungsdauer des Frames wie gesagt bereits mit ein.


Das was du vielleicht meinst bzw. betrachten solltest ist die Auflösung.
Heißt, wenn ein Spiel für die Ausgabe eines 1080p Frames 16,6 ms braucht (60 FPS), dann braucht es mit DLSS (upscale auf 4K, intern 1080p) ca 18ms. So wird ein Schuh draus!

Dadurch steigt natürlich die Latenz, weil es mit DLSS aufwändiger zu berechnen ist und die FPS automatisch auf 55 runter gehen (18 ms).


Aber wie gesagt, das was nach DLSS2 an FPS raus kommt ist exakt das, was du auch mit einer stärkeren GPU bei gleicher Framerate an Latenz hättest. Nur bei gleicher interner Auflösung ist DLSS langsamer, weil eben 2-3ms Renderzeit für DLSS dazu kommen. Diese längere Berechnugsdauer siehst du aber direkt an der entsprechend geringeren Framerate. Es gibt hier schlichtweg keinen "versteckten" lag oder eine nachträgliche Verzögerung, wie es mit DLSS3 sein wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PeriQue1337, Illithide und Sun-Berg
W0dan schrieb:
So funktioniert die Rechnung nicht. DLSS2 hat eine gewisse Berechnungszeit, das ist richtig. Diese fließt aber 1:1 wie jeder andere Grafikeffekt in die Berechnungszeit eines Frames mit ein, bevor er ausgegeben wird wodurch wiederum direkt die FPS bestimmt werden. Du kannst nicht einfach sagen 60 FPS hat eine Latenz X, aber 60 FPS mit DLSS hätten eine schlechtere Latenz y. Das ist falsch.

60 FPS mit DLSS 2 haben im gleichen Spiel exakt die gleiche Latenz wie 60 FPS ohne DLSS (z.B. mit einer stärkeren GPU berechnet). Das macht überhaupt keinen Unterschied.
Verstehe,
Aber dennoch würde es voraussetzen, dass man mit DLSS garantiert nicht ins gpu Limit gerät, ansonsten kann der Inputlag von 60fps schon unterschiedlich ausfallen.
Es können ja sogar 60fps höheren Inputlag als 40 fps bedeuten,

Wenn DLSS 2.x das gpu Limit automatisch berücksichtigt, wäre nvidia reflex darin bereits integriert, ist das so?
 
@Suspektan
wodan konnte das im letzten Post besser erklären, was ich gemeint habe. Hoffe das ist jetzt soweit geklärt^^. Zu BFI, ich glaube es gibt verschiedene Gruppen von Menschen und die einen sind mehr die anderen weniger auf Input Lag empfindlich. Ich reagiere deswegen so, weil ich leider zu denen gehöre, die es fühlen. Z.B sowas wie RDR2 ist für mich ne Qual und nur weil die Steuerung so verdammt träge ist, du merkst, auch bei z.B >60fps kann die Steuerung vom Endwickler verhunzt werden. Wie auch immer, ich verstehe dich in der Beziehung.

Und zu DLSS2. .. GPU-Limit, ich glaube, dass Reflex separat von Entwickler in seine Engine implementiert werden muss und dieses aktuell nicht in DLSS2... als Gesamtpaket integriert ist.
 
Zuletzt bearbeitet:
Dann ist die Frage wie dlss 2.x garantiert, dass die gpu nicht ins Limit läuft.
Das Hardware unboxed Video legt zmdst. nahe, dass es hier zu kaum Problemen kommt, wobei da auch oft niedrigere Settings und reflex aktiv waren.
 
Ich glaube schon, dass es Reflex tut, es arbeitet glaube ich bei GPU-Limit wie ein Framerate-Limiter und macht somit die GPU-Warteschlange kleiner. Ich glaub nicht, dass DLSS2 das macht bzw. dachte es wäre nur ein TAAU und nicht mehr.
 
Eben, aber in dem hardware unboxed Testvideo hat sich der inputlag auch OHNE reflex mit dlss verringert, kann natürlich auch der Titelauswahl und den Einstellungen geschuldet sein.
Ich denke halt ganz naiv, wenn die cpu nicht limitiert, tut es die gpu, ob nun durch die hohen Grafikeinstellungen oder durch die hohen fps bei niedrigeren Settings, sie wird nach Möglichkeit ausgelastet.
Vielleicht ist aber dlss da gesondert zu betrachten, warum auch immer.
 
Du darfst eine Sache nicht vergessen, nativ 1080p != 1080p DLSS2. Das heißt, wenn z.B nativ 1080p 100fps, so sind es bei 1080p@DLSS2 z.B 150fps, somit besserer Input Lag, da mehr Frames, sprich geringere ms-Zeit pro Renderbild. Sollte jetzt nur als Beispiel dienen.
 
  • Gefällt mir
Reaktionen: up.whatever
Der Vergleich zu AMD wird spannend.
 
  • Gefällt mir
Reaktionen: Kommando
leonM schrieb:
Du darfst eine Sache nicht vergessen, nativ 1080p != 1080p DLSS2. Das heißt, wenn z.B nativ 1080p 100fps, so sind es bei 1080p@DLSS2 z.B 150fps, somit besserer Input Lag, da mehr Frames, sprich geringere ms-Zeit pro Renderbild. Sollte jetzt nur als Beispiel dienen.
Ich hab das schon berücksichtigt, nur wenn mit den 1080p@dlss 150fps man ins gpu Limit rennt, kann der inputlag auch steigen ggü. 1080p 100fps ohne dlss.
So oder so will man in beiden Fällen den Inputlag natürlich gering halten, in dem Testvideo war der ohnehin unproblematisch, warum auch immer.
CB hatte auch mal vor zwei Jahren nen Test veröffentlicht, da war das gpu Limit auch unbedenklich zu ihrer Überraschung, man vermutete, dass verbesserte Treiber und/ oder gsync der Grund waren.
 
Preiswert werden die meisten ATX3.0 Netzteile voraussichtlich nicht, aber diese sind wohl angeraten für RTX 4080 und vor allem RTX 4090 Karten.

Von Seasonic gibt es für die ATX 3.0 Netzteile der Vertex Serie jetzt erste Listenpreise:

1664071426104.png


PLATINUM EFFICIENCY MSRP
  • VERTEX PX-1200: $ 259.99 / € 309.00
  • VERTEX PX-1000: $ 219.99 / € 259.00
  • VERTEX PX-850: $ 189.99 / € 229.00
  • VERTEX PX-750: $ 169.99 / € 199.00
GOLD EFFICIENCY MSRP

  • VERTEX GX-1200: $ 229.99 / € 269.00
  • VERTEX GX-1000: $ 199,99 / € 239,00
  • VERTEX GX-850: $ 169,99 / € 199.00
  • VERTEX GX-750: $ 149,99 / € 179.00
 
  • Gefällt mir
Reaktionen: xexex
Wenn man bedenkt wie lange ATX 3.0 Netzteile schon angekündigt sind, ist das Datum aber nicht wirklich vielversprechend.
The new Seasonic Vertex power supply units will be available Mid-December 2022 in North America, Europe, and Asia markets.
 
  • Gefällt mir
Reaktionen: Recharging, Chismon und Kommando
Ich bin mir ganz sicher, ein anständiges vor-3.0 Netzteil mit guter Garantielaufzeit wirds auch tun. Ich würde meines jedenfalls nicht austauschen.

Igor wirds bestimmt testen.
 
DLSS 3 Increases Latency | How fast is RTX 4000 without fake frames?

 
Chismon schrieb:
Preiswert werden die meisten ATX3.0 Netzteile voraussichtlich nicht, aber diese sind wohl angeraten für RTX 4080 und vor allem RTX 4090 Karten.
Für mein Corsair HX1200i kommt direkt von Corsair ein Kabel da bin ich zum Glück nicht auf Adapter angewiesen.
Und kann mir ein neues Netzteil sparen!
Wäre auch schade gewesen nach gerade mal 2 Jahren ein neues kaufen zu müssen!
https://www.corsair.com/de/de/Kategorien/Produkte/Zubehör-|-Teile/PC-Komponenten/Netzteile/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284

Den entsprechenden Adapter hat der Hersteller auf der eigenen Webseite bereits gelistet und ab Ende des Monats soll er erhältlich sein. Der Adapter ist dabei mit allen Type-4-Netzteilen kompatibel, was abermals in einer Liste überprüft werden kann. Um jedoch die vollen 600 Watt über den neuen 12VHPWR senden zu können, setzt Corsair jedoch ein Netzteil mit 1.200 Watt oder mehr voraus. Modelle mit 1.000 Watt dürfen 450 Watt liefern und für 300 Watt über den neuen Anschluss ist ein Modell mit mindestens 750 Watt nötig.

https://www.pcgameshardware.de/Netz...-an-bis-zu-1200-Watt-Netzteil-noetig-1404042/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zockmock und Chismon
Sun-Berg schrieb:
ein anständiges vor-3.0 Netzteil mit guter Garantielaufzeit wirds auch tun. Ich würde meines jedenfalls nicht austauschen.
Das wird von Corsair bspw. so kolportiert, denn dort wird man für ältere High End PSUs auch ein 600W 12-Pin Kabel wohl zum nachrüsten anbieten.

Ich würde bei meinem Focus GX-850 (SeaSonic) ATX 2.3 Netzteil aber auch bleiben, wenn ich eine High End nVidia Karte kaufen würde (wobei das spätestens ab einer RTX 4080Ti auch undervoltet knapp werden würde) und ich denke/hoffe bei RDNA3 wird der 12-Pin Stecker und die Adapterfummelei aufgrund des geringeren Verbrauchs sowieso nicht nötig sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sun-Berg
4080 12gb bzw. die 4070 ist ohne dlss 3 also etwa auf 3090 (ti) level, was keineswegs schlecht ist.
"Nur" der Preis ist das Problem

Man kann aber sagen: die hohen fps Angaben der rtx 4080/90 zeichnen da "ein falsches Bild"
 
Zuletzt bearbeitet:
Zurück
Oben