News AMD FSR 3: „Frame Generation“ läuft of­fi­ziell ab RX 5000 und RTX 2000

khgffs schrieb:
wow. nvida macht alles proprietär und nur auf neuster hardware lauffähig und du findest das auch noch toll.

amd dagegen macht es frei für alle und auch für alte generationen und du kannst es auf deiner neusten nvidia-grafikkarte auch kostenlos nutzen.
Immer das gleiche Thema in dem Zusammenhang, öde!
Ohne nvidia sähen wir diese features von amd ganz sicher nicht,
und anti lag+ ist ebenso proprietär wie nvidia's reflex, muss vom jeweiligen Entwickler implementiert werden, nur dass man zur Nutzung auch noch eine der neueren amd gpus besitzen muss.
Nvidia reflex ist hingegen auch auf älteren Karten nutzbar, aber das lässt man bei der Gegenüberstellung natürlich unerwähnt.
Ja, fsr 3.0 ist an sich nicht an den Hersteller gebunden, aber man sollte Qualität+ Latenzen erstmal abwarten, bevor man ins Schwärmen gerät.
Natürlich ist mir ein offener Ansatz an sich lieber (profietieren auch die Konsolen von), aber die Features der letzten Jahre haben wir nun mal nvidia zu verdanken, ob man sie nun zu schätzen weiß oder nicht.
Ergänzung ()

"FMF ist eher dafür gedacht, wenn ein Spiel einfach nicht flüssig laufen will und man bereit dazu ist, Bildqualität gegen Performance einzutauschen. FMF soll die Geschwindigkeit um bis zu 90 Prozent erhöhen können – die 100 Prozent von FSR 3 scheinen also nicht erreicht zu werden. Darüber hinaus wird als Minimum-Framerate 70 FPS anstatt 60 FPS empfohlen, denn je höher die Framerate ist, desto weniger Interpolationsfehler gibt es."
ahja
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg und ThirdLife
Suspektan schrieb:
Immer das gleiche Thema in dem Zusammenhang, öde!
Ohne nvidia sähen wir diese features von amd ganz sicher nicht,
und anti lag+ ist ebenso proprietär wie nvidia's reflex, muss vom jeweiligen Entwickler implementiert werden, nur dass man zur Nutzung auch noch eine der neueren amd gpus besitzen muss.
Nvidia reflex ist hingegen auch auf älteren Karten nutzbar, aber das lässt man bei der Gegenüberstellung natürlich unerwähnt.
Ja, fsr 3.0 ist an sich nicht an den Hersteller gebunden, aber man sollte Qualität+ Latenzen erstmal abwarten, bevor man ins Schwärmen gerät.
Natürlich ist mir ein offener Ansatz an sich lieber
also ich halte jedes upscaling für müll, egal von welchem hersteller, also schwärmen werd ich sicherlich von keinem.
aber proprietärer müll ist noch schlimmer als offener müll, auch egal von welchem hersteller.
nvidia hätte ja auch alles offen entwickeln können und auch lauffähig auf alter hardware (die upscaling nötiger hat als neue).

ich habe das "immer gleiche öde" zu jemandem geschrieben, der es toll findet, die neuste grafikkarte kaufen zu müssen, um die neusten proprietären features nutzen zu dürfen. auf der laufen auch die kundenfreundlich offenen features der konkurrenz. und anstelle die konkurrenz zu belohnen wird doch wieder zur teureren nvidia gegriffen und auch noch dafür bedankt...

also weiter teil des problems sein und nvidia bestätigen.
 
khgffs schrieb:
nvidia hätte ja auch alles offen entwickeln können

Sorry aber dann verstehst du DLSS und Tensor 0,00.

AMD hätte auch mal den Arsch haben können zu sagen, nein wir supporten kein Nvidia, wenn nicht von direkt von Anfang an, dann halt spätestens bei FSR3. Man siehe sich zB Steam Charts an, Nvidia GPUs inkl. der 4000er sind deutlich häufiger vertreten als Radeons der selben Gen und jetzt liefern sie weiter Features für Nvidia User….

So freuen sich halt Nvidia User, dass ihnen im Gegensatz zu AMD alle Türen offen stehen für alle aktuellen Techniken und am Ende vielleicht dann doch einige, inklusive mir, doch zu Nvidia wieder greifen oder greifen werden. Software Features in 2023 machen auch Kaufgründe aus.

Klar darf man sich als Nvidia User da freuen. Sehe da absolut nichts verwerfliches dran - außer man ist AMD Fanboy 😉
 
  • Gefällt mir
Reaktionen: MrHeisenberg
MrHeisenberg schrieb:
Das witzige ist ja, bei Nvidia hättest du nicht ein höhere Latenz, sondern eine niedrigere.
Du hast als AMD Nutzer nichts vergleichbares zu Reflex und mit Reflex ist die Latenz von FG fast immer niedriger als nativ.
Ich nutze FG wo ich nur kann und habe den Latenzunterschied noch nie gemerkt. Ich meine, wir reden hier von ein paar millisekunden. Das kann niemand merken.
FG oder vergleichbares ist nie schneller als ohne.
Da gibt es kein Gefühl, das ist offiziell.
 
Pleasedontkill schrieb:
FG oder vergleichbares ist nie schneller als ohne.
FG + Reflex ist schneller als kein FG und kein Reflex. Und so haben ja die meisten Leute bisher auch problemlos spielen können aber jetzt wirds zum Problem ? Please.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Pleasedontkill schrieb:
FG oder vergleichbares ist nie schneller als ohne.
Da gibt es kein Gefühl, das ist offiziell.
Irgendwie doch:
Unbenannt.jpg


Nativ: 191,2 ms
FG: 109,9ms
FG + DLSS: 99,9ms

In welcher Welt sind 191,2 ms kleiner als 109,9 ms?
 
  • Gefällt mir
Reaktionen: ThirdLife
0ssi schrieb:
weil es etwas erzeugt, was nicht da ist und deshalb nur schätzen kann, wie es aussehen soll.
somit das bild verfälscht und artefakte produziert.

MMIX schrieb:
Sorry aber dann verstehst du DLSS und Tensor 0,00.
ach "ki"-beschleuniger gibts nur auf nvidia-karten? wieso können die von der konkurrenz das nicht auch? na weil es absichtlich proprietär und nur auf neuster hardware lauffähig gestaltet ist, um mehr geld zu scheffeln. wäre es nämlich offen für alle (auch für die eigene ältere hardware), wäre die auswahl größer und die preise niedriger.
wie kann man etwas toll finden, das zum eigenen nachteil ist? (übrigens genauso bei apple/tesla etc)
 
  • Gefällt mir
Reaktionen: Pleasedontkill
MrHeisenberg schrieb:
Irgendwie doch:
Anhang anzeigen 1391850

Nativ: 191,2 ms
FG: 109,9ms
FG + DLSS: 99,9ms

In welcher Welt sind 191,2 ms kleiner als 109,9 ms?
Was wird hier genau gemessen?
Es muss die Zeit gemessen werden von gerenderten Bildern, nicht von gerendertem Bild (wenn man so will, Maus-Reaktive) zu Fake-Frame (oder zwischengeschobenen Bild).

Das wäre natürlich kürzer und passt wie die Faust aufs Auge, mit genau diesen Zahlen resp. den zu erwarteten fps ink. Fake-Frame. Das wäre natürlich Bullshit und widerlegt nichts, was ich sage, gar bestätigt es.

Ich bezweifle das, würde es aber gerne nachrecherchieren, um mich eines Besseren belehren zu lassen. Kann ich den Link haben?


Zur klaren Definition:
Das Zwischenbild, ist nicht as Resultat von der "Aktion" deiner Maus+Keyboard und dem Empfang dessen Befehls auf dem Monitor vor dir.
Sonst füge ich dir 50Bilder dazwischen und noch je ein Schwarzbild (Stroboskop) dann fällt es nicht so auf und nenne mich den Grössten. Versteht Ihr wo das hinführt, weil da bin ich mir nicht sicher, ob wir vom Gleichen reden?

Das Zwischenbild ist bei Fernsehen der letzten 10Jahre auch nie ein Problem gewesen, weil Reaktionszeit kein gewichtiges Thema ist, ausserhalb von Gaming.
 
Pleasedontkill schrieb:
Was wird hier genau gemessen?
Die Latenz. Egal wie du es drehst, sie ist niedriger als nativ.
Es steht sogar im Bild: "PC Latency" und die Latenz gibt an, wie lange der PC benötigt, um eine Eingabe zu verarbeiten und auf dem Monitor anzuzeigen.
Mit FG, DLSS und Reflex ist sie niedriger als nativ. Das ist Fakt und in fast jedem Spiel so. Nur im FlugSim ist sie in etwa gleich.

Pleasedontkill schrieb:
Ich bezweifle das, würde es aber gerne nachrecherchieren, um mich eines Besseren belehren zu lassen. Kann ich den Link haben?
https://www.computerbase.de/2023-06.../2/#abschnitt_benchmarks_in_fhd_mit_dlss_2__3
Du kannst eigentlich jeden Test einer Ada Karte nehmen. Bei allen ist es so.

Hier die 4090:
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/4/
Selbes Ergebnis. Die schlechteste Latenz liefert nativ und das mit großem Abstand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
khgffs schrieb:
weil es etwas erzeugt, was nicht da ist und deshalb nur schätzen kann, wie es aussehen soll.
somit das bild verfälscht und artefakte produziert.
Aber was nützt ein natives Bild wenn es bei Bewegung schlecht aussieht !?
Man braucht in Spielen ja immer eine effektive Kantenglättung, auch in 4K.

TAA ist das Einzige was kaum Leistung kostet aber das sieht bescheiden aus.
DLSS liefert ein besseres Anti Aliasing und dazu noch 30-100% mehr FPS. :cool_alt:
 
  • Gefällt mir
Reaktionen: Suspektan, ThirdLife und MrHeisenberg
@0ssi sein nativ gibt es in den aktuellen AAA RT Titeln auch gar nicht. Ohne DLSS ist das dann immer TAA und das ist schlechter als DLSS.
 
MrHeisenberg schrieb:
Die Latenz. Egal wie du es drehst, sie ist niedriger als nativ.
dann vergleiche doch besser mal die native auflösung vorm upscaling mit der gleichen nativen auflösung ohne upscaling.

ich nehme mal an, dass für eine anzeigeauflösung 3840x2160 dlss performance nativ 1920x1080 und dlss quality nativ 2560x1440 bedeutet.

also vergleiche mal bitte die latenz von 4k und dlss performance mit nativen fhd sowie quality mit nativen qhd.
wird dann immer noch das upscaling bezüglich latenz gewinnen, welches ja noch millionen pixel (oder komplette fake-bilder mit framegenerierung) dazuerfinden muss?
 
@khgffs hör auf zu trollen. Im Bild ist nativ + FG ebenfalls zu sehen und dort ist die Latenz auch niedriger als rein nativ, weil Reflex die Latenz senkt für FG.
DLSS ist separat aufgeführt.
 
  • Gefällt mir
Reaktionen: ThirdLife
dort ist nativ 3840x2160.
upscaling rechnet aber viel weniger native pixel (meine annahmen kannst du gerne korrigieren) + ein paar dazuerfundene.
deshalb schreib ich doch, die gleiche native auflösung miteinander zu vergleichen anstatt eine 4x so hohe.

die fps sollten dann mit dlss performance entsprechend 4x so hoch und die latenz 1/4 von nativ uhd sein, sind sie das?
 
Frame Generation ist aber kein Upscaling. DLSS und FG sind gesondert aufgeführt.
Du bist offensichtlich von der einfachen Grafik schon überfordert, aber willst den Usern hier erklären, wie DLSS und co. funktionieren. :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
Man muss berücksichtigen, dass die verringerte Latenz durch nvidia reflex auch auf Vermeidung des gpu Limits beruht, was aber auch zuvor schon durch manuelle fps Begrenzung erreicht werden konnte.
Vergleicht man lediglich max fps ohne/mit reflex, wird dieser Umstand nicht ersichtlich.
Und JA, wer Inputlag niedrig halten wollte, hat auch schon vor nvidia reflex die fps entsprechend begrenzt.


Und hier noch ein paar Vergleiche
https://www.igorslab.de/en/radeon-anti-lag-vs-nvidia-reflex-im-test-latenzvergleich/
 
Suspektan schrieb:
Vergleicht man lediglich max fps ohne/mit reflex, wird dieser Umstand nicht ersichtlich.
Wieso sollte man das tun? Mit FG + Reflex sind max FPS eh um ein vielfaches höher.
 
Man sollte es nicht tun, aber die Messungen weisen üblicherweise nur die uncapped fps aus, was die gpu eben ins Limit bringen und damit den Inputlag erhöhen kann.
Von fg redete ich nicht
 
Sicher, dass es im GPU Limit mehr Input Lag gibt ? Höre ich um 1.Mal !? 90% aller User Zocken im GPU Limit
weil keine Frame Limiter genutzt wird. Je mehr FPS desto weniger Input Lag also wenn dann Cap = mehr Lag.
 
Zurück
Oben