News AMD FSR 3: „Frame Generation“ läuft of­fi­ziell ab RX 5000 und RTX 2000

MrHeisenberg schrieb:
Frame Generation ist aber kein Upscaling. DLSS und FG sind gesondert aufgeführt.
Du bist offensichtlich von der einfachen Grafik schon überfordert, aber willst den Usern hier erklären, wie DLSS und co. funktionieren. :daumen:
in der grafik (ich hab mir nur die von der 4090 angeschaut) wird framegenerierung überhaupt nicht einzeln getestet, sondern immer zusammen mit reflex. dabei ist die latenz schlechter, als mit reflex alleine, also erhöht framegenerierung die latenz.

reflex verringert die latenz und die fps bei gleicher auflösung.
framegenerierung erhöht die fps und die latenz, aber nur durch dazuerfinden von bildern inkl artefakten.
upscaling erhöht die auflösung, aber nur durch dazuerfinden von pixeln inkl artefakten.
bzw upscaling erhöht die fps und verringert die latenz, wenn man nicht die native auflösung mit nativer auflösung vorm upscaling vergleicht sondern nativ mit der endauflösung nach upscaling.

durch fehlende tests von gleicher auflösung nativ mit nativ vorm upscaling gibt es keine vergleiche zu fps und latenz, und genau das fordere ich. ich gehe aber stark von einer verringerung der fps und erhöhung der latenz aus. framegenerierung (was übrigens auch müll ist) und reflex hast du ins spiel gebracht, darum gehts mir hier doch gar nicht.
 
khgffs schrieb:
in der grafik (ich hab mir nur die von der 4090 angeschaut) wird framegenerierung überhaupt nicht einzeln getestet, sondern immer zusammen mit reflex.
Ach echt? Warum wohl? Du kannst FG nicht getrennt von Reflex aktivieren, weil Reflex durch FG immer forciert wird.
Informier dich doch bitte erst über die Techniken.
 
MrHeisenberg schrieb:
Ach echt? Warum wohl? Du kannst FG nicht getrennt von Reflex aktivieren, weil Reflex durch FG immer forciert wird.
Informier dich doch bitte erst über die Techniken.
den nächsten satz hast du gekonnt ignoriert:
dabei ist die latenz schlechter, als mit reflex alleine, also erhöht framegenerierung die latenz.
 
Ja natürlich ist sie schlechter als mit Reflex alleine, aber das war nie die Aussage. Eure Aussage war, dass die Latenz nativ besser wäre als mit FG und das ist sie nicht.
 
ist sie doch, nur maskiert das aktivierte reflex dieses ergebnis.
vergleiche nativ inkl reflex mit nativ und framegenerierung inkl reflex, dann siehst du, dass framegenerierung die latenz verschlechtert.
nvidia lässt es halt ohne reflex nicht zu, um es besser darzustellen. dann muss man es aber auch mit aktiviertem reflex vergleichen.
 
MrHeisenberg schrieb:
Eure Aussage war, dass die Latenz nativ besser wäre als mit FG und das ist sie nicht.
Kann sie durchaus sein, sofern man unter dem gpu limit blieb.
0ssi schrieb:
Sicher, dass es im GPU Limit mehr Input Lag gibt ? Höre ich um 1.Mal !? 90% aller User Zocken im GPU Limit
weil keine Frame Limiter genutzt wird. Je mehr FPS desto weniger Input Lag also wenn dann Cap = mehr Lag.
Tja, die meisten glauben dann wohl immer noch: mehr fps- kürzere Frametimes= geringerer Lag
Messungen zeigen da logischerweise etwas anderes auf, da eine voll ausgelastete GPU die Renderqueue nicht zeitig leeren kann.

Nvidia reflex übernimmt die Aufgabe automatisch, anti lag+ dürfte ähnlich vorgehen.
Beides muss aber bei der Spielentwicklung implementiert werden und bleibt proprietär, nur dass reflex auch mit älteren nvidia gpus verfügbar ist, während anti lag+ neuere amd gpus voraussetzt.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
ThirdLife schrieb:
Das eigentliche Witzige ist, dass es bei FG ein riesen Aufhänger war von wegen die LATENNNZENNNN (die ich für quasi nicht spürbar halte - wir reden hier von teils 10-20ms Differenz beim Input) aber jetzt bei FSR is das völlig ejaaaal.

Auf einmal sind die Latenzen sicher das Unwichtigste auf dem Planeten - ist ja AMD, da verzeiht man irgendwie jeden Scheiss. 🤣
Aber wirklich witzig sind immer noch die Typen, die ständig erklären, wieso FG nur für die 4000 Gen funktionsfähig ist.

Höhere Latenzen vs ich muss ma den neusten scheiss kaufen. Aber gut letzter Punkt ist für einige sowieso ein Pluspunkt.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
pipip schrieb:
Aber wirklich witzig sind immer noch die Typen, die ständig erklären, wieso FG nur für die 4000 Gen funktionsfähig ist.
Wieso ? Einfach nur ein Zwischenbild generieren ist auf jeder Karte möglich. Den OFA verwenden geht halt nicht wenn der nicht mit der nötigen Leistung auf RTX3000 existiert. Hast du schon FSR3 Footage gesehen ? Freie Tests ? Nein ?

Woher weisst du dann was wie und in welcher Qualität möglich ist ?

pipip schrieb:
Höhere Latenzen vs ich muss ma den neusten scheiss kaufen. Aber gut letzter Punkt ist für einige sowieso ein Pluspunkt.
Müssen tust du gar nix. Essen, scheissen, schlafen und trinken. Da hörts dann auf. Alles andere ist optional. Und FrameGen ist ja sowieso kacke, ausser AMD macht das auch. :daumen:
 
MrHeisenberg schrieb:
Ja natürlich ist sie schlechter als mit Reflex alleine, aber das war nie die Aussage. Eure Aussage war, dass die Latenz nativ besser wäre als mit FG und das ist sie nicht.
Bist du nicht einer derer, die mir weiss machen wollten, dass FG die Reaktionszeit verringert?
Und jetzt bei FSR3 dann nicht?

Dann kam von euch ein Link, wo man die gesamte generierte Frameanzahl nahm und die Latenz mass zwischen den Bildern samt Fake-Frames.
Nach diesem Konzept würde man hier auch zu diesem Resultat kommen.

Blödsinn.
Natürlich hat man unter dem Strich länger, wenn mehr dazwischen passiert. Und die Fake-Frames sind nun mal nicht dein Input und zählen nicht!
 
Pleasedontkill schrieb:
Bist du nicht einer derer, die mir weiss machen wollten, dass FG die Reaktionszeit verringert?
Nochmal: NEIN! Nicht FG vermindert sie, sondern Reflex, aber FG forciert Reflex und ist nicht ohne nutzbar.
Dadurch ist sie niedriger als nativ.

Es ist ein Fakt, dass du mit FG fast immer eine bessere Latenz als nativ hast. Grund dafür ist aber Reflex. Spielt aber keine Rolle, weil es Teil von FG ist.

Pleasedontkill schrieb:
Dann kam von euch ein Link, wo man die gesamte generierte Frameanzahl nahm und die Latenz mass zwischen den Bildern samt Fake-Frames.
Ja, weil man so die Latenz feststellt und von der reden wir hier die ganze Zeit.

Pleasedontkill schrieb:
Nach diesem Konzept würde man hier auch zu diesem Resultat kommen.
Das kann man so nicht sagen. FG nutzt die OFA, also spezielle Hardware der Ada Karten, um die Latenz so nierdig wie möglich zu halten. AMD kann dies nicht. Alleine aus diesem Grund ist anzunehmen, dass FSR3 gegen FG Latenzmäßig den Kürzeren zieht.
Hardware ist immer schneller als Software.
 
  • Gefällt mir
Reaktionen: xXBobbyXx und ThirdLife
@MrHeisenberg Das stimmt nicht so ganz. Gibt auch Fälle wo eine gute Software Abstimmung besser sein kann als stärkere Hardware. Beispiel Apple.
 
Nein, Hardwarebeschleunigung ist immer schneller und effizienter als Softwarelösungen. Andersrum wäre es auch unlogisch. Software benötigt Hardware, um ausgeführt werden zu können.

Auch bei Apple liegt es an der Hardware. Die SOCs der iPhones sind den Snapdragons massiv überlegen.
Beim Mac wurde der SOC so designt, dass er für die Hauptbereiche am besten performt.
Du wirst Beispiele finden in denen Macs gegen Intel/AMD abstinken.

Warum hast du sonst eine Grafikkarte im Rechner? Deine CPU kann die Berechnungen auch ausführen, ist aber viiiiiel langsamer, weil sie nicht für diese Aufgaben spezialisiert ist, sondern alles können muss.

RT funktioniert auch per Software ist aber in Echtzeit nicht möglich.

Emulatoren (PS1, PS2 etc.) benötigen schnellere Hardware als die, welche sie emulieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx
Nein das war bei Apple nicht immer so das die SoCs der iPhones besser waren.

Schau dir mal ältere Generationen an, da liefen die Apple Sachen flüssiger bzw. genauso flüssig wie die Konkurrenz Produkte und das mit weniger RAM etc.
 
Dass Software A schneller als Software B sein kann, bestreite ich nicht, aber beide werden durch die Hardware limitiert.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Ne was ich sagen wollte, das z.B. Software A mit "schwächerer" Hardware A genauso schnell laufen kann wie Software B mit "stärkerer" Hardware B.

Also das Hardware alleine noch nicht ausreicht.
 
Jaein. Grundsätzlich schon, aber du vermischt hier einiges.
Die iPhones waren trotz schlechterer Hardware performanter, weil die Software und Hardware aufeinander perfekt abgestimmt waren. Android muss auf einer großen Variation an Hardware laufen, iOS nicht. Genau das gleiche hast du hier bei FG und FSR. FG und die GPUs wurden füreinander designt. FSR muss überall laufen. Letzteres kann gegen ersteres nicht anstinken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx und Oudenstekelig
Ja genau das ist das was ich die ganze Zeit meinte. Dann sind wir uns einig. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oudenstekelig und MrHeisenberg
MrHeisenberg schrieb:
Das kann man so nicht sagen. FG nutzt die OFA, also spezielle Hardware der Ada Karten, um die Latenz so nierdig wie möglich zu halten. AMD kann dies nicht. Alleine aus diesem Grund ist anzunehmen, dass FSR3 gegen FG Latenzmäßig den Kürzeren zieht.
Reflex braucht keine spezielle Hardware.

Man kann es auch unter Linux mit jeder Hardware verwenden, die Beschränkung auf NVIDIA ist rein künstlich:
1695027357313.png

https://github.com/ishitatsuyuki/LatencyFleX
 
  • Gefällt mir
Reaktionen: H1ldegunst und Windell
Zurück
Oben