Test Nvidia Reflex (Analyzer) im Test: Der Latenz auf der Spur

Jetzt brauch ich nur noch ein paar Pillen, um die Latenz in meinem Hirn von 300ms auf 100ms zu boosten 😭

Aber die Entwicklung finde ich klasse, ein Spiel wie Valorant ist zwar grafisch hĂ€sslich, aber die Reaktionsfreudigkeit ist branchenfĂŒhrend. Wer danach sowas wie Skyrim startet fĂŒhlt sich, als wĂŒrde er mit einem Lenkrad spielen. Und das beste: Reflex ist fĂŒr alle Nvidia Besitzer ab Maxwell verfĂŒgbar und reduziert gerade auch bei Ă€lteren Karten die Eingabelatenz, da schwĂ€chere GPUs stĂ€rker im GPU Limit sind. Free Lunch gibts nicht oft, liebe esport Entwickler, bitte alle fleißig das SDK implementieren :daumen:
 
  • GefĂ€llt mir
Reaktionen: LukS, [wege]mini, Makso und eine weitere Person
Man kann Nvidea mögen oder nicht und Nvidea Reflex fĂŒr sinnvoll erachten oder nicht, aber man muss objektiv eingestehen, dass es immer wieder Nvidea ist, die in ihren Bereich technologietreibend sind.
 
  • GefĂ€llt mir
Reaktionen: -WATC-, lynx007, 7H0M45 und 2 andere
AtotheX schrieb:
dass es immer wieder Nvidea ist, die in diesem Sektor technologietreibend sind.
...und sanfte Haut machen sie auch noch ;)
 
  • GefĂ€llt mir
Reaktionen: Lamaan, blaizebulla, killakaktus und 33 andere
Jan schrieb:
Sehr deutlich wird, dass der eigentliche Render-Vorgang schnell nur ein sehr kleines Glied in der Kette ausmacht: LĂ€uft ein Spiel mit 100 FPS, dauert das Rendern eines Bildes auf der GPU lediglich 10 ms. Die Verzögerung, die auf einem 60-Hertz-Display durch einen gerade verpassten Refresh-Zyklus bei aktivem VSync hinzukommt, ist mit 16,7 ms fast 70 Prozent grĂ¶ĂŸer.
Bei nicht aktiviertem Vsync wird ein Schuh draus. Bei aktiviertem Vsync auf einem 60Hz Display, lÀuft das Spiel auch nur mit 60Fps und somit dauert das Rendern eines Bildes auch 16,7 ms.
 
  • GefĂ€llt mir
Reaktionen: tgsn4k3, McTheRipper und Makso
Und wieder ein proprietÀre Geschichte ... G-Sync, PhysX, Mantle etc. .... GÀhn ... Langweilig
Bitte ein offenen Standard etablieren ... dann können wir weiterreden.
 
  • GefĂ€llt mir
Reaktionen: Lamaan, killakaktus, cbmik und 11 andere
dr. lele schrieb:
Sehe ich das richtig, dass eine 5600 XT insgesamt weniger Systemlatenz als eine 3080 verursacht? sieht so als als wÀre man mit Anti-Lag bei 39,6 vs 52 ms bei Reflex?

Die 5600XT kann in Fortnite kein RT, daher ist dein Vergleich Äpfel und Birnen.
Du musst den Wert ohne RT nehmen, der liegt bei Nvidia klar drunter, die 1650 schafft was um die 45ms, ist ja auch viel viel langsamer die Karte.
Insgesamt lĂ€sst sich wohl sagen, dass Nvidia mit Reflex die niedrigeren Latenzen aufweist, nur schade, dass ein 360 Hertz Monitor recht teuer sein dĂŒrfte, dennoch werd ich ihn mir wohl holen, zu den 240 Hertz aktuell wird das noch eine spĂŒrbare Verbesserung sein.


NighteeeeeY schrieb:
WIE VIEL BESSER ICH SEIN KÖNNTE WÜRDE ICH DOCH BLOSS DIE PASSENDE GAMING HARDWARE KAUFEN :rolleyes:

Mit den Spezifikationen die du da nutzt, könntest du eine Ecke besser sein, definitiv.
 
Jan schrieb:
Echt? Ich dachte herausgelesen zu haben, dass man einen dieser neuen Monitore benötigt.
Also geht es theoretisch auch auf meinem ACER Predator X34 mit ner RTX2070 dran?
 
Nikon71 schrieb:
wieder ein proprietÀre Geschichte ... G-Sync, PhysX, Mantle etc.
Aus Mantle wurde immerhin Vulkan und das ist herstellerunabhÀngig.

KlaraElfer schrieb:
Insgesamt lÀsst sich wohl sagen, dass Nvidia mit Reflex die niedrigeren Latenzen aufweist,
Das wĂŒrde ich gerne mal in einem Test sehen, besonders mit den neuen AMD-GPus vs die neuen Nvidia GPUs. Und auch AMD CPUs vs Intel CPUs.
 
JDBryne schrieb:

Danke fĂŒr das poste, war sehr interessant. Es wĂŒrde mich jetzt interessieren, ob dieses Verhalten auch mit Reflex zutrifft, da es ja scheinbar wirklich eine neue Technologie ist, wĂ€hrend der "Ultra Low Latency Mode" ja schon fast ein Urgestein darstellt.
 
  • GefĂ€llt mir
Reaktionen: dr. lele
Nikon71 schrieb:
Bitte ein offenen Standard etablieren ... dann können wir weiterreden.

Ich schĂ€tze, das Thema ist so eine extreme Nische, dass sich da ein Standard nicht lohnen wĂŒrde. Das wĂ€re wie ein Standard fĂŒr die Befestigung von FuchsschwĂ€nzen an Autoantennen. 😉

Aber interessant ist das trotzdem, denn mit diesen Tools können Experten dem Thema Latenz schön auf den Grund gehen und vielleicht profitieren davon ja am Ende sogar alle ein wenig, auch wenn man keine entsprechende Hardware oder eine Nvidia-Karte hat. Z.B. indem Spieleprogrammierer und Hardwarehersteller ihre Produkte insgesamt mehr in Richtung niedriger Latenzen optimieren.

Erinnert mich ein bisschen an das Thema Mikroruckler. Auch da musste erstmal herausgefunden werden, wie man das Ganze ĂŒberhaupt vernĂŒnftig messen und die Ergebnisse vergleichen kann. Ich meine, dazu hatte Nvidia damals auch eine eigene Messmethode im Angebot.
 
  • GefĂ€llt mir
Reaktionen: blackTEHhawk, Affe007 und AtotheX
Eine "System Latency Definition", x und y Achse ohne richtige Einheiten... geht's noch ?
 
  • GefĂ€llt mir
Reaktionen: Schmarall
Bornemaschine schrieb:
Eine "System Latency Definition", x und y Achse ohne richtige Einheiten... geht's noch ?
Ähm ja, genau ... und die 3. Dimension fehlt auch! Auch nicht so genau aufgepasst im Unterricht, was? :p

An 60Hz/VSync-On sieht man eindeutig, dass Fortnite ein Sampling/Queue-Problem hat. Kein Wunder, dass bei so einer Grundlage nVidia-Reflex abgeht wie Schmidt's Katze. :freak:

Das Sampling-Problem ist ja nicht neu.
Machst'e es dynamisch, biste bei krassen Frame-Time-Peaks gekniffen. Machst'e es adaptiv-konstant, geht die Latency hoch. Machst'e Over-Sampling verbrennst'e CPU-Power.
Die Event-/Sync-Idee ist richtig. Da werden auf Dauer auch AMD-User profitieren. Selbst wenn AMD jetzt nicht direkt ein Pendant nachliefert.
 
Zuletzt bearbeitet:
Die grĂ¶ĂŸte Latenz hat glaube ich meine eigene "Schaltzentrale".:p
 
  • GefĂ€llt mir
Reaktionen: Bornemaschine, bad_sign, blackTEHhawk und 3 andere
ZurĂŒck
Oben