News Nvidia Reflex 2 ausprobiert: Mod ermöglicht Test in früher Version (+LDAT-Messung)

lejared schrieb:
Aber wie kann Reflex hier eingreifen oder beschleunigen?
Die Eingabeverzögerung durch die Hardware kann Reflex natürlich nicht beeinflussen.
Aber Wartezeiten der CPU auf die GPU, Frame Queue und mit Frame Warp wird die neue Perspektive durch die Mauseingabe mit dem gerenderten Bild, also dem letzten Schritt in der GPU Pipeline verknüpft.
lejared schrieb:
Auf diese jeweilige Strecke kann es ja gar keinen Einfluss nehmen.
Es bleibt die physikalisch bedingte Restlatenz, die man natürlich auch messen kann.
Polling Rate, Treiberverarbeitung, outputpath, display und halt auch welche Displaytechnologie man hat bzw. Hertz.
lejared schrieb:
Und das sind bei 144 FPS besagte 7ms (14 bei double buffering). Also wo setzt da Reflex an?
Die 7ms sind nur die Renderzeit, nicht die I/O Latenz und da ist ziemlich viel Holz zu holen.:)
 
Quidproquo77 schrieb:
Die Eingabeverzögerung durch die Hardware kann Reflex natürlich nicht beeinflussen.
Aber Wartezeiten der CPU auf die GPU, Frame Queue und mit Frame Warp wird die neue Perspektive durch die Mauseingabe mit dem gerenderten Bild, also dem letzten Schritt in der GPU Pipeline verknüpft.

Die 7ms sind nur die Renderzeit, nicht die I/O Latenz und da ist ziemlich viel Holz zu holen.:)

Du schreibst oben, dass Reflex nur die Wartezeit der CPU auf die GPU verkürzen kann, solange die GPU quasi noch beschäftigt ist, das aktuelle Bild fertig zu rendern. Bei 144 FPS sind das aber besagte 7ms. Danach fängt die GPU mit dem nächsten Bild an und nimmt dafür natürlich die aktuellsten Daten von der CPU.

Wie (oder besser wo) kann Reflex also mehr als diese 7ms aus der Latenz rausholen.
Klar ist die i/O-Latenz länger als die 7 ms. Aber wie du ja auch geschrieben hast, kann sie an dem physischen Teil (Maus > CPU und GraKa > Monitor) nichts beschleunigen. Also können wir das aus der Betrachtung raus lassen.

Wo stecken also die übrigen ms und wie greift Reflex da ein?
Ich sehe halt nur die Möglichkeit zwischen zwei Bilder ein zugreifen. Bei 144 FPS sind das 7 ms.
Bei nur 60 FPS und dazu noch FG wären es mehr. Weil wegen GF auf das übernächste Bild gewartet werden muss kann Reflex in dem Fal bei 60 FPS bis zu 3x16ms = 48 ms rausholen. Aber bei 144 FPS und ohne FG sehe ich das nicht.
 
  • Gefällt mir
Reaktionen: SweetOhm
lejared schrieb:
Wo stecken also die übrigen ms und wie greift Reflex da ein?
In dem Vergleich vom Artikel kommen die übrigen ms wahrscheinlich daher, dass der "Reflex 2 aus"-Fall ein unrealistisches Scenario ist. Wahrscheinlich ohne Reflex 1 oder andere Techniken. Mehr als 16 ms sind bei 60 FPS nicht möglich.
edit: Ach ist ja sogar bei 144 FPS. Dann die 7 ms, die Demo ist Quatsch. Schöne Werbung für Nvidia ...
lejared schrieb:
Ich sehe halt nur die Möglichkeit zwischen zwei Bilder ein zugreifen. Bei 144 FPS sind das 7 ms.
Korrekt, mehr als die 7 ms wird Reflex nicht rausholen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lejared
lejared schrieb:
Du schreibst oben, dass Reflex nur die Wartezeit der CPU auf die GPU verkürzen kann, solange die GPU quasi noch beschäftigt ist, das aktuelle Bild fertig zu rendern.
Ja, Reflex 1 ist eine rein softwarebasierte Optimierung des Renderpfads bzw, der Renderwarteschlange zwischen GPU und CPU um diese zu synchronisieren, während die Renderzeit, also die angezeigten FPS, in deinem Fall 144FPS/Hertz ja immer 6,94 Millisekunden betragen bis das neue Bild angezeigt wird. Reflex reduziert die Systemlatenz und diese 6,94 Millisekunden können nicht unterschritten werden, zumindest nicht mit Reflex1.

Vom Drücken einer Taste oder dem Bewegen der Maus zur letztendlichen Reaktion auf dem Bildschirm und das kann dann durch Frame Warp sprich Reflex 2 weniger sein als die 6,94ms. Das muss man halt alles auseinanderhalten können.
Das verwirrt mich selber. :D
lejared schrieb:
Wie (oder besser wo) kann Reflex also mehr als diese 7ms aus der Latenz rausholen.
~7ms ist ja nicht die Hardwarelatenz, sondern die Renderzeit deines Bildes bei 144FPS.
Also wenn man mit LDAT nachmessem würde, dann wäre die Eingabelatenz kleiner als die Framezeit.
Mit Reflex 1 war es nicht möglich die Eingabelatenz unter die Framezeit zu drücken, aber an der Hardwareverzögerung ändert das auch nix. Das sind aber nur 2-3ms oder so. USB Übertragung, da landet man glaube ich bei unter 1ms, aber sicher weiß ich das nicht. Meine letzte Messung mit LDAT ist 3 Jahre her.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Vom Drücken einer Taste oder dem Bewegen der Maus zur letztendlichen Reaktion auf dem Bildschirm und das kann dann durch Frame Warp sprich Reflex 2 weniger sein als die 6,94ms. Das muss man halt alles auseinanderhalten können.
Das verwirrt mich selber. :D
Ok, und was macht Reflex 2 hier anders als Reflex 1 um mehr als nur die Zeit zwischen zwei Frames (=7 ms bei 144 FPS) rausholen zu können?

Sorry für mein Nachfragen, aber ich verstehe es nicht. Im Artikel steht es halt auch nicht (da hätte ich mir ehrlich gesagt etwas mehr erhofft).

Und auch das Beispiel mit den 144 FPS stammt nicht von mir, sondern direkt aus dem Artikel. Da wird ja geschrieben, dass Reflex 2 bei 144 FPS die Latenz von 24ms auf 5 ms reduziert. Und da würde mich halt interessieren, wo es das herholen will, wenn der Spielraum eigentlich nur die Zeit zwischen zwei Frames (7 ms) sind. Und (M)FG scheint nicht aktiviert zu sein (wird im Artikel zumindest nicht erwähnt).
 
  • Gefällt mir
Reaktionen: Wichelmanni und SweetOhm
lejared schrieb:
Ok, und was macht Reflex 2 hier anders als Reflex 1 um mehr als nur die Zeit zwischen zwei Frames (=7 ms bei 144 FPS) rausholen zu können?
Tut es nicht (und kann es auch nicht). Bzw. in dem Beispiel des Artikels wahrscheinlich durch Verwenden von anderen Technologien. Das "Ohne Reflex 2"-Szenario ist sehr wahrscheinlich auch ohne Reflex 1 und andere Verbesserung der Input-Latenz die an den anderen Latenzen ansetzen.
 
lejared schrieb:
Ok, und was macht Reflex 2 hier anders als Reflex 1 um mehr als nur die Zeit zwischen zwei Frames (=7 ms bei 144 FPS) rausholen zu können?
Den Input aus der aktuellen Eingabe mitzunehmen und mit dem aktuellen Bild zu verarbeiten.
Auf den Input würdest du mit Reflex 1 weiterhin warten bis dein nächstes Bild angezeigt wird, oder darüber hinaus.
joomoo schrieb:
Das "Ohne Reflex 2"-Szenario ist sehr wahrscheinlich auch ohne Reflex 1 und andere Verbesserung der Input-Latenz die an den anderen Latenzen ansetzen.
Ja, das ist ohne jeden Eingriff, ansonsten könnte das nicht nur ~1/5 sein.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Auf den Input würdest du mit Reflex 1 weiterhin warten bis dein nächstes Bild angezeigt wird.
Genau. Und zwar 7 ms.
 
Für mich wäre dieses Feature das einzige sinnvolle Feature seit der Einführung von Reflex bei Nvidia. Und es kommt wieder nur für die neuen Karten, geil.
 
Sollte es nicht, da es hauptsächlich Benchmark-Austricksen ist: Wenn man die Latenz so misst, dass man die Maus bewegt und guckt wann "was passiert", ja dann kann es die Latenz (um maximal 1/FPS) verringern. Aber ist das das wichtige in eSports? Da spiele ich eh bei 240 Hz. Der Effekt ist super gering. Und selbst mit dem Effekt: Keinen Einfluss nimt es auf andere optische Clues wie z. B. Mündungsfeuer oder Spells - das kann die AI auch nicht hervorsehen. Also es verbessert wirklich nur die Latenz deines Blickwinkels um ein paar ms.

Oder anderes Beispiel: Ein Gegner kommt hinter einer Ecke hervor und du möchtest schnell reagieren. Reflex 2 wird dir dabei nicht helfen (sondern die Situation sogar verschlechtern aufgrund des zusätzlichen Processing): Der Gegner ist auf dem Input-Bild für die KI noch nicht drauf, er wird es auch nicht mit der geänderten Perspektive sein. Die KI kann nicht wissen, dass hinter den Wand-Pixeln ein Gegner kommt.

Bei Low-FPS sind die Artefakte wahrscheinlich so stark, dass es das auch nicht wert ist. Würde ich lieber die Settings runterstellen um mehr FPS zu bekommen oder Upscaling verwenden.

Alles in allem genau so sinnvoll wie MFG. Aber wirkt natürlich erstmal geil in den Benchmarks. Erst FPS künstlich hoch, jetzt die Latenz künstlich runter. Am Ende sieht das Resultat aus wie Scheiße aber 300 FPS und 1 ms Latenz xD
 
  • Gefällt mir
Reaktionen: NTOAO und Qyxes
Boulettendieb schrieb:
Dem Vorposter ging's um Framegen, nicht um Reflex.
Dachte eigentlich, das geht aus dem Kontext hervor.
Ich bin etwas verwirrt; Wieso zitierst du meinen Beitrag, wenn du auf jemand anderen Bezug nimmst? In meinem Beitrag ging es schließlich nicht um FG.
 
joomoo schrieb:
Wenn man die Latenz so misst, dass man die Maus bewegt und guckt wann "was passiert", ja dann kann es die Latenz (um maximal 1/FPS) verringern.
Wenn du stabile 240 FPS hast und dein Monitor diese auch anzeigen kann, dann musst du ~4,20ms auf den nächsten Frame warten und zusätzlich kann die gesamte Latenzkette (Maus Eingabe, CPU Verarbeitung, GPU Renderzeit, Engine, Treiber, Frame Wartezeit, Display Latenz) da trotz solcher hohen FPS weit darüberliegen, also auch bei 10-20ms bis das ankommt was du eingibst.

1/FPS ist also die falsche Metrik.
joomoo schrieb:
Da spiele ich eh bei 240 Hz.
Die Hertz alleine bringen nicht viel.
Unbenannt.PNG

joomoo schrieb:
Der Effekt ist super gering. Und selbst mit dem Effekt: Keinen Einfluss nimt es auf andere optische Clues wie z. B. Mündungsfeuer oder Spells - das kann die AI auch nicht hervorsehen.
Die AI sieht erst einmal wenig vorher, sondern füllt wenn dann nur die aufgetretenen Lücken.
joomoo schrieb:
Also es verbessert wirklich nur die Latenz deines Blickwinkels um ein paar ms.
Es hilft dir die Reaktionszeit zwischen Eingabe und Bildausgabe zu minimieren, sodass man sein Fadenkreuz schneller auf ein Ziel bewegen kann. Der Effekt ist bei hohen FPS natürlich geringer als bei eher mäßigen.
joomoo schrieb:
Reflex 2 wird dir dabei nicht helfen (sondern die Situation sogar verschlechtern aufgrund des zusätzlichen Processing): Der Gegner ist auf dem Input-Bild für die KI noch nicht drauf, er wird es auch nicht mit der geänderten Perspektive sein. Die KI kann nicht wissen, dass hinter den Wand-Pixeln ein Gegner kommt.
Du verwechselst an der Stelle Perspektive und Bildinhalt.
joomoo schrieb:
Bei Low-FPS sind die Artefakte wahrscheinlich so stark, dass es das auch nicht wert ist.
Das würde ich eher vorerst auf die Mod schieben.
joomoo schrieb:
Alles in allem genau so sinnvoll wie MFG. Aber wirkt natürlich erstmal geil in den Benchmarks. Erst FPS künstlich hoch, jetzt die Latenz künstlich runter. Am Ende sieht das Resultat aus wie Scheiße aber 300 FPS und 1 ms Latenz xD
Da würde ich erst einmal entsprechende Tests abwarten, rein konzeptionell ist das genial. ;)
joomoo schrieb:
Genau. Und zwar 7 ms.
Auch nicht, da die 7ms nur die Renderzeit des Bildes sind.^^
 
Zuletzt bearbeitet:
onkuri schrieb:
Ja, das wurde schon vor 10 Monaten zum Blackwell-Release angekündigt, wahrscheinlich weil sie überhaupt irgendwas bringen mussten, weil Blackwell so underwhelming war, inkl. MFG mit dessen Latenz.
Unsinn siehe Outer Worlds 2 Test wo man mit MFG + Reflex weit unter der Latenz ohne Reflex liegt. Würde also laut deiner Aussage heißen das Radeon dort unspielbar ist weil kein FG und kein Antilag 2
 
Naja wenn es nur bei high refreshrate (100+FPS) funktioniert ist das ganze ja sowieso fragwürdig...
Ich merke zu 99% ja nichmals ob Reflex überhaupt an ist oder nicht..
Geschweige denn das es in so manchen Spielen auch zu FPS Drops und Stutter führt.. teilweise FPS kostet (AMDs Alternative allerdings ebenfalls fairerweise gesagt)
Gerade im CPU Limit ist das ganze immer wieder vergleichswürdig.

Und ich komme aus einer Zeit wo Pre rendered Frames=3 noch Treiber Standart war und wir trotzdem Shooter damit erfolgreich gespielt haben.

Btw BF6 hat in den Optionen nach wie vor Future frame Rendering (pre rendered frames=2) und bekommt damit n schönen fps boost.


Also entweder werde ich zu Alt da noch Unterschiede zu fühlen.. hab mit der 5090+9800x3D +OLED kombi zuviel FPS aufm Tacho..
Oder das ganze Thema ist einfach nur Krass hochgelabert.
 
  • Gefällt mir
Reaktionen: NTOAO, Qyxes und Wichelmanni
Quidproquo77 schrieb:
Wenn du stabile 240 FPS hast und dein Monitor diese auch anzeigen kann, dann musst du ~4,20ms auf den nächsten Frame warten und zusätzlich kann die gesamte Latenzkette (Maus Eingabe, CPU Verarbeitung, GPU Renderzeit, Engine, Treiber, Frame Wartezeit, Display Latenz) da trotz solcher hohen FPS weit darüberliegen, also auch bei 10-20ms bis das ankommt was du eingibst.

1/FPS ist also die falsche Metrik.
An der gesamten Latenzkette ändert Reflex 2 (vs Reflex 1) nichts, daher ist 1/FPS die richtige Metrik.

Quidproquo77 schrieb:
Die Hertz alleine bringen nicht viel.
Anhang anzeigen 1669971
Ja die Hz bringen erstmal nichts (bzw. wenig), muss natürlich mit den FPS gematched werden. Dachte das wär implizit klar, dass ein eSport-Gamer bei nem 240 Hz Monitor auch mit 240 FPS spielt.

Quidproquo77 schrieb:
Du verwechselst an der Stelle Perspektive und Bildinhalt.
Wieso?

Quidproquo77 schrieb:
Das würde ich eher vorerst auf die Mod schieben.
Nein, das liegt an der Sache sich. Man kann die Lücken nicht einfach von KI generieren lassen ohne Artefakte, siehe Framegen.

Quidproquo77 schrieb:
Da würde ich erst einmal entsprechende Tests abwarten, rein konzeptionell ist das genial. ;)
Deine Meinung. Ich find's ne interessante Idee, aber kompletten Quatsch wenn man länger drüber nachdenkt. Aber gut fürs Marketing.
 
Ich wette die bekommens nicht hin weil jetzt die Waffe schießt und der Windows Ton Jahre zu spät kommt.
Wir reden auch ohne Reflex auf einem 480Hz OLED Monitor (nicht LCD Müll) davon, dass der Ton jetzt schon zu spät und asynchron neben dem Bild läuft.

Quetschen das letzte Zehntel ausm Bild raus und die Ohren machen garnichts mehr.
 
  • Gefällt mir
Reaktionen: NTOAO
Allzu hoch ist die Aussagekraft aus verschiedenen Gründen jedoch nicht. So ist es unklar, ob die finale Version von Reflex 2 dieselben Ergebnisse zeigt wie die „gehackte“, nicht offizielle Variante. Und dann stellt sich die Frage, ob in Spielen dieselben Ergebnisse erzielt werden können wie in der Techdemo. Und darüber hinaus ist es unklar, wie denn der Wert ohne Reflex 2 in der Demo überhaupt entsteht. Zum Beispiel ist es unklar, ob dort das normale Reflex genutzt wird. Das und das große Fragezeichen bei der Bildqualität wird erst zum offiziellen Start von Reflex 2 geklärt werden können.
Im Prinzip ist alles total unklar, oder? Ist nicht böse gemeint, aber wozu dann der Artikel?!? 🤷‍♂️
 
joomoo schrieb:
An der gesamten Latenzkette ändert Reflex 2 (vs Reflex 1) nichts, daher ist 1/FPS die richtige Metrik.
Reflex 2 beschleunigt die Ausgabe und Reflex 1 ist auf die Framezeit beschränkt.
Reflex 1 kann die Latenz um bis zu 1 "Frame-zeit" reduzieren, Reflex 2 deutlich mehr, da das Bild direkt vor der Ausgabe geändert wird und die aktuellste Mausbewegung berücksichtigt wird.
joomoo schrieb:
Dachte das wär implizit klar, dass ein eSport-Gamer bei nem 240 Hz Monitor auch mit 240 FPS spielt.
Ja könnte man durchaus annehmen.
joomoo schrieb:
Na, weil sich der Bildinhalt nicht ändert, die Processing-Time irrelevant ist und man nicht länger warten muss bis ein Gegner um die Ecke kommt. Ich verstehe gar nicht wie du darauf kommst. Der Gegner wäre ja auch nicht eher da, wenn du die Perspektive nicht just-in-time aktualisierst, aber dein Fadenkreuz ist besser mit deiner Eingabe synchronisiert, was den Gegner zum einfacheren Ziel macht.
joomoo schrieb:
Nein, das liegt an der Sache sich. Man kann die Lücken nicht einfach von KI generieren lassen ohne Artefakte, siehe Framegen.
Ich nutze FrameGen regelmäßig bei 30-40 FPS Basis und sehe dort ehrlichgesagt kaum bis keine Artefakte.
Die Artefakte durch die geringen FPS fallen mir dort deutlich mehr auf.
Aber klar, bei weniger visuellen Daten pro Sekunde muss das KI-Modell eben besonders gut sein, um die größeren Lücken zu füllen, da bin ich aber hoffnungsvoll. ;)
joomoo schrieb:
Hat man damals zu DLSS 2.0 auch gesagt und heute mit besseren Modellen sieht selbst der Performancemodus besser aus als Nativ und man kann je nach Spiel gleich Ultra Performance mit einem 4K Monitor nutzen.
joomoo schrieb:
Ich find's ne interessante Idee, aber kompletten Quatsch wenn man länger drüber nachdenkt. Aber gut fürs Marketing.
Ja, aber dann muss man die richtigen Schlüsse ziehen. Und wenn eines gezeigt wurde, dann ist es das, dass die KI-Modelle immer besser werden. Deshalb würde ich bei so einer Mod nicht darauf vertrauen, dass das das finale Ergebnis ist.
 
Zurück
Oben