News FSR Redstone (für RX 9000): Das steckt hinter FSR Upscaling, Frame Generation und Co

K1LL3RC0W schrieb:
Den gleichen Bruch gab es bei NV mit Wechsel von GTX auf RTX und nun vollzieht AMD diesen Bruch.
Ja klar aber NV kommunziert das auch entsprechend, bei AMD wird immer herumgeeiert und vor FSR4 war noch das Mantra das ja alle Features auf jede GPU laufen müssen und closedsource ja voll kacke ist. Bei FSR4 kam auch noch diese ML2Code Ansage wo das ja auch überall laufen soll.

Jetzt ist man auch mit FSR4 bzw Redstone voll closed und die können langsam mal ihren Websitenamen von GPUOpen auf GPUClosed ändern...
 
@TheInvisible AMD hat aber NIE gesagt, dass FSR4 für die 7000er kommt. Man wollte / wolle eine sinnvolle Machbarkeit prüfen. AMD ist im Vergleich zu NV ja auch noch ein "kleiner Laden" und zudem mit CPU und GPU-Entwicklung auf zwei Hochzeiten anwesend. Die müssen ihre Ressourcen schon sinnvoll einsetzen und können halt nicht Manpower und Geld in hohem Maße für "vergangene" Produkte vorhalten.

Und mal ganz ehrlich. Ich kaufe doch keine Grafikkarte, weil ich hoffe, dass da in Zukunft noch sonst was kommt. Man guckt zum Zeitpunkt des Kaufs, was der Markt aktuell! bietet und entschiedet dann. Wenn ich ein Produkt erst toll finde, wenn es bestimmte Dinge kann, dann kaufe ich auch erst dann.
 
  • Gefällt mir
Reaktionen: MariaDocks und Andre83hro
Capthowdy schrieb:
DLSS4 bis runter zur RTX 2000er Generation verfügbar zu machen war eigentlich ein Move, den man von AMD erwartet hätte. nVidia hätte einfach sagen können "DLSS4 nur für RTX 5000".
Ja, Redstone fühlt sich ein wenig wie verkehrte Welt an. Normalerweise sind es die AMD-Teams, die Barrieren (wie K-Modelle) nieder reißen, auf offene Standards setzen (und diese unterstützen), und die eine Reputation als "freie Hardware für freie Bastler" haben. Aber jetzt ist es Team Radeon, das Barrieren, die schon fast nieder gerissen wurden, befestigt und damit treuen Radeon-Kunden und -Besitzern vor den Kopf stoßen, während NVidia, die bis vor einigen Jahren ein VESA-Feature so ausgeführt haben, dass es nur im G-Sync-Ökosystem genutzt werden konnte, nun innerhalb der RTX-Architektur neuste KI-Features bis nach fast ganz hinten im Produkt-Stammbaum durchreichen.

Natürlich steckt hinter diesem Rollentausch kein Sinneswandel und keine Charakterentwicklung der beiden Parteien, sondern einfache technologische Gründe. Nvidia hatte als ki-vorreiter die Zeit, um die plattform von Grund auf so zu entwickeln, dass sie nun neue KI-Features bis weit nach unten durchreichen können. Radeon hingegen hat zunächst auf Rasterisierungs-Performance gesetzt. Durchaus nachvollziehbar, da die frühen RTX-Chips hier eine Schwäche hatten, da sie viel Chipfläche für RT und KI geopfert haben.

Dummerweise für Radeon hat sich der Markt aber wieder mal in Richtung Nvidia (wofür es auch gute Gründe gibt), sodass sich auch Radeon irgendwann in Richtung RT und KI bewegen mussten - mit einer Architektur, die für klassisches Rasterizing designt wurde. RDNA 2, 3 und 4 sind demnach Evolutionsstufen in der Entwicklung einer Radeon-Interpretation einer RT- und KI-Architektur. Team Radeon hat nun das Probleme, neue KI-Features nicht ohne Weiteres nach unten durchreichen zu können, weil älteren und kleineren GPUs kritische Features fehlen oder einfach nicht die Rechenleistung haben, um den Performance-Impact von workarounds wie der INT8-Umwandlung abzufangen.

Ein Stück weit kann ich verstehen, dass sich Team Radeon nicht damit belasten möchte, über alle RDNA-Produkte hinweg zu schauen, was auf diesen lauffähig ist, und wo man mit mal mehr, mal weniger aufwand um Grenzfall-lösungen ringen müsste. Okay, verstehe ich Team Radeon. Ihr müsst mit euren endlichen Ressourcen darauf konzentrieren, gute Archtektur-Fundamente fpr die Zukunft zu legen.

Aber dann gebt das SDK wenigstens offiziell frei! Dann können die MESA-Entwickler schauen, was sie für Linux-User hinzaubern können. Windows-User kriegen dann vielleicht eine Implementierung in Tools wie Lossless Scaling. Und Spiele-Entwickler könnten ihre eigene Implementierungen maßschneidern.

Capthowdy schrieb:
Das man sich scheinbar dazu entschlossen hat darauf zu verzichten, ist kein besonders schlauer Move, aber vielleicht kommt in der Richtung ja doch noch was.
Eigentlich muss da ja was kommen, zumindest dahingehend, dass Valve und Sony es in ihren Geräten implementieren können. AMD kann hier schlecht sagen "Danke, dass ihr unsere RDNA-GPUs in euren Geräten verwendet. Mmmh, ja, schon irgendwie doof, dass ihr euch für RDNA-Architekturen entschieden habt, die zu alt für Redstone sind. Na ja, viellleicht bei eurer nächsten Konsolen-Generation. Wir arbeiten dann ja wieder zusammmen, oder?"

Zumindest für Linux bin ich zuversichtlich, dass da noch was kommt, alleine schon weil Valve mit im boot sitzt.
 
  • Gefällt mir
Reaktionen: IceCore und Capthowdy
TheInvisible schrieb:
Ach ja, sieh mal in den entsprechenden Threads.
1. was kann da AMD dafür? Wenn die Entwickler sie boykottieren / Stiefmütterlich unterstützen teilweise?
2. ist das eine zusätzliche Option, es ist keine Vorraussetzung für FSR4, bei Nvidia wurde das von deren Treiberentwicklern so entwickelt das man deren 1000 Optionen hat, Nvidia könnte hergehen und die Entwickler zwingen keine Optionen mehr an zu bieten oder gute Standardprofile hinter Mittel / hoch und so weiter zu verstecken dann nur unter "experteneinstellungen" das an bieten.
3. Besticht zum Teil Nvidia durch z.B. kostenlose Entwicklerzeit wie bei Cyberpunk AMD nicht gut zu unterstützen, ja man kann wegen Starfield wurde das zum Teil auch gemacht, aber die Frage ist ja wer hat angefangen, natürlich kann irgendwann AMD auch nimmer zu nem Gunfight mit nem Messer kommen.
4. würde Nvidia doch AMD verklagen würden sie einfach mit nem Hebel ins Gamemenü DLSS emulation oder übersetzung implementieren weil Nvidia die Firmen bestochen hat nur die zu unterstützen zumindest Teilweise. Also Nvidia stellt AMD vor die Wahl entweder ihr leeked irgendwas das Optiscaler von 3rd party irgendwie möglich macht oder ihr werdet von 90% der Spieleentwickler boykottiert dann verliert ihr noch mehr kunden und am Ende sinkt auch die FSR Unterstützung auf 0 weil es 0 Karten mehr gibt.

Wobei schon interessant ist das Intel mit 0% Marktanteil trotzdem überall XeSS Support kriegt, hat da Nvidia keine Bestechungsgelder gezahlt oder liegts daran das sie auch AMD und glaub auch Nvidia damit unterstützen bisher....

Der Punkt ist das ist nichts offizielles von AMD wieso beurteilst du sie danach? AMD kann nur die Hardware und die Treiber releasen alles andere sind Software-entwickler und wenn die sich weigern AMD FSR4 überall zu implementieren und es dann ne Notlösung über Optiscaler gibt dann ist das nicht AMDs schuld.
Ergänzung ()

sverebom schrieb:
Durchaus nachvollziehbar, da die frühen RTX-Chips hier eine Schwäche hatten, da sie viel Chipfläche für RT und KI geopfert haben.
Naja dafür hätte man dann halt auch deutlich bessere zumindest Preis/Leistung haben müssen wenn einem die einen 2 Chips verkaufen Nvidia und die anderen 1 Chip, wenn aber Nvidia bei Raster AMD immer noch vernichtet und auch bei Preis Leistung nie es massiv besser bei Nvidia war also sowas wie 50% Preis pro Raster Leistung und die Krone man nicht hatte, ja dann hat man auch 0 Marktanteil... so hat man ne Loose Loose man verliert trotz dieser Nutzlosen Hardware bei Nvidia am Anfang massiv Marktanteile und wenn sichs durch setzt ist man noch 100 Jahre hinten dran... also so sehr Nachvollziehbar ist das nicht, man hat halt komplett versagt damals...
 
  • Gefällt mir
Reaktionen: Andre83hro
TheInvisible schrieb:
...und der letzte Treiber brachte 32bit Physx Support wieder für rtx5000,
... für ein paar wenige ausgewählte Spiele.
Soviel zum Theme 'brachte 32bit-PhysX-Support zurück'

TheInvisible schrieb:
informiert euch mal anstatt immer Falschaussagen zu tätigen
Is gut; die Falschaussagen überlassen wir also besser dir :heilig:
 
  • Gefällt mir
Reaktionen: zeedy
TheInvisible schrieb:
Nö Physx ist schon länger opensource und der letzte Treiber brachte 32bit Physx Support wieder für rtx5000
Absolut korrekt von dir.
Und es hat sich bisher niemand von der Community um Besserung gekümmert, weil die maximal 10 Games, die je damit releast worden sind so alte Schinken sind, dass es jedem schlichtweg egal ist.
Somit, alles fine.
@Araska
Hab mir die komplette Liste nicht angeschaut, aber paar waren dabei wo nun wieder gehen, ansonsten sind das wirklich so vernachlässigbare Zahlen, dass das alles vollkommen Wurscht ist. Oder nicht?
 
  • Gefällt mir
Reaktionen: Andre83hro
Nordbadener schrieb:
@Nighteye
Du hast aber schon mitbekommen, dass Steam RDNA4 statistisch überhaupt nicht erfasst. Solange Steam das nicht ändert, werden die immer NULL Prozent haben...
Glaube nicht an diese Verschwörungstheorie.
Ich Spiele Star Citizen mit ca 40 Leuten. Und niemand von denen hat eine RDNA 4.
3 haben eine RX7900XTX, einer eine 7800XT, ich die RX6800, der rest hat alles Geforce.
Von RTX 5090 bis RTX 4090, 5080, 5070ti, 4070ti, 5060ti 16GB, 3060 12GB alles dabei.
 
blackiwid schrieb:
1. was kann da AMD dafür? Wenn die Entwickler sie boykottieren / Stiefmütterlich unterstützen teilweise?
2. ist das eine zusätzliche Option, es ist keine Vorraussetzung für FSR4, bei Nvidia wurde das von deren Treiberentwicklern so entwickelt das man deren 1000 Optionen hat, Nvidia könnte hergehen und die Entwickler zwingen keine Optionen mehr an zu bieten oder gute Standardprofile hinter Mittel / hoch und so weiter zu verstecken dann nur unter "experteneinstellungen" das an bieten.
3. Besticht zum Teil Nvidia durch z.B. kostenlose Entwicklerzeit wie bei Cyberpunk AMD nicht gut zu unterstützen, ja man kann wegen Starfield wurde das zum Teil auch gemacht, aber die Frage ist ja wer hat angefangen, natürlich kann irgendwann AMD auch nimmer zu nem Gunfight mit nem Messer kommen.
4. würde Nvidia doch AMD verklagen würden sie einfach mit nem Hebel ins Gamemenü DLSS emulation oder übersetzung implementieren weil Nvidia die Firmen bestochen hat nur die zu unterstützen zumindest Teilweise. Also Nvidia stellt AMD vor die Wahl entweder ihr leeked irgendwas das Optiscaler von 3rd party irgendwie möglich macht oder ihr werdet von 90% der Spieleentwickler boykottiert dann verliert ihr noch mehr kunden und am Ende sinkt auch die FSR Unterstützung auf 0 weil es 0 Karten mehr gibt.

Wobei schon interessant ist das Intel mit 0% Marktanteil trotzdem überall XeSS Support kriegt, hat da Nvidia keine Bestechungsgelder gezahlt oder liegts daran das sie auch AMD und glaub auch Nvidia damit unterstützen bisher....

Der Punkt ist das ist nichts offizielles von AMD wieso beurteilst du sie danach? AMD kann nur die Hardware und die Treiber releasen alles andere sind Software-entwickler und wenn die sich weigern AMD FSR4 überall zu implementieren und es dann ne Notlösung über Optiscaler gibt dann ist das nicht AMDs schuld.
Boah da ist so viel Unsinn dabei das ich gar nicht wüsste wo ich anfangen soll, darum lasse ich es gleich. Als würde Nvidia mit 92% Marktanteil nötig haben irgendwem zu bestechen bzw gleich die ganze Spieleindustrie. Der einzige Fall war das von AMD mit Starfield, das andere von dir ist einfach harte Speku und Lügen.
Ergänzung ()

Nordbadener schrieb:
@Nighteye
Du hast aber schon mitbekommen, dass Steam RDNA4 statistisch überhaupt nicht erfasst. Solange Steam das nicht ändert, werden die immer NULL Prozent haben...
Unsin, stell mal bei der Steam HW Survey auf DX12 um da sind sie vertreten mit 0,11%...
Ergänzung ()

Araska schrieb:
... für ein paar wenige ausgewählte Spiele.
Soviel zum Theme 'brachte 32bit-PhysX-Support zurück'
Ja weil es auch nur ein paar ausgewählte Spiele mit 32bit Physx mit GPU Beschleunigung gab...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: el_froggo
  • Gefällt mir
Reaktionen: Unti
blackiwid schrieb:
Nein man kann hier ja Tests lesen und die massiven Nachteile:
1. brauchst 1000 fps basis in 4k um es überhaupt sinnvoll nutzen zu können.
2. generell steigt Lag etwas das Leute hassen.
3. Bildfehler.
Die Latenz mit FG + Reflex ist (laut den Tests die ich gelesen habe) meistens in etwa vergleichbar mit dem, was man ohne Framegen und ohne Reflex hätte.
Wer also früher (vor den ganzen modernen KI-Features) mit 60 normalen/echten fps zufrieden war, wird das höchstwahrscheinlich auch mit framegen + reflex bei 60 base fps sein.

30fps waren, sind (und bleiben vermutlich) Murks, egal welche Features man zuschaltet. Ich glaube Nvidia hat sich mit dieser "RTX 5070 >= RTX 4090"-Geschichte damals mächtig selbst ins Bein geschossen und dem Feature damit einen schlechten Ruf verpasst, indem sie generierte Frames und echte Frames quasi gleichgesetzt haben.
Man muss sich einfach klar machen:
FG dient weder erwarten nicht der Performance, sondern der Bildqualität. -> Zumindest wenn man Performance im klassischen Sinne mit der "responsiveness" gleichsetzt und Bildqualität für mehr als nur Detailgrad steht.

Die hinzugefügten Frames bringen einen deutlichen optischen Vorteil:
In (schneller) Bewegung bleibt das Bild viel klarer und ruhiger als mit einer niedrigeren Framerate. Wenn du in Battlefield von hinten beschossen wirst und dich schnell umdrehst, wirst du bei 60fps die genaue Position der Gegner erst präzise ausmachen können, wenn die Kameradrehung abgeschlossen ist, oder zumindest soweit verlangsamt wurde, dass deine Augen über die mehr oder weniger ruckeligen Einzelbilder keinen natürlichen Blur mehr legen.
Mit dreistelligen fps wird dir die Erkennung deutlich leichter fallen auch wenn dir die "Fakeframes" keine Vorteile hinsichtlich schnellerem oder präziserem zielen gegenüber den 60 base fps geben. Die höhere Framerate fühlt sich für mich über längere Sessions subjektiv auch angenehmer/weniger anstrengend an.
Kurz:
Was FG dir gibt, ist bessere visuelle Nachverfolgung/Erkennung der interessanten Ziele, aber eben keine schnellere Reaktionskette zwischen Input und Game State (eher sogar minimal schlechter.)

Das ist natürlich ein Trade-off aber einen Kompromiss zwischen "möglichst schön/detailreich" und "möglichst schnell/responsiv" hatte man bei Computergrafik ja schon immer. Mittlerweile ist das ganze Thema aber etwas komplizierter geworden als früher, wo man den Kompromiss nur zwischen hohen Grafiksettings vs. hohen fps ausmachen musste.
Für mich persönlich lohnt sich Framegen, solange die Hardware genug leistet für mindestens 50-80 base-fps (je nach Titel).
 
  • Gefällt mir
Reaktionen: Taxxor
Holzfällerhemd schrieb:
Sag das mal den Leuten, die sich unter Umständen eine RTX3090(ti) für sehr viel Geld gekauft (bin selbst ein RTX3090-Besitzer) und dann hieß es einfach, dass es kein NVIDIA Frame Generation gibt
Und du willst wirklich die Relevanz von DLSS/FSR und FG auf eine Ebene stellen? Nicht dein Ernst :lol:
Holzfällerhemd schrieb:
Ich würde meine RTX3090 sofort gegen eine 9070xt tauschen.
Dann mach das doch? Aktueller durchschnittlicher Verkaufspreis für eine 3090 bei Ebay: 800€ …
Ergänzung ()

OpenSystemFan schrieb:
Sind wirklich die ersten 4 Kommentarseiten von NV Fanboys gefüllt? Hat mal wer gezählt, wieviele Beiträge Quid und TheInvisible haben? Den geht doch bestimmt wieder einer steil beim Bashen, oder?
Das schenkt sich doch (zumindest dieses Mal) überhaupt nichts zu den Nvidia-Kommentarsektionen - auch wenn die meisten kritischen Kommentare doch eher von anderen und größtenteils unterschiedlichen Nutzern kamen … die beiden scheinen es dir aber angetan zu haben :p
OpenSystemFan schrieb:
Ggü den NV Fanboys hier im Forum könnte man ihn aber fast neutral nennen.
OpenSystemFan schrieb:
Bislang relativiert er ja eher das Fanboy-Geschwafel hier.

OpenSystemFan schrieb:
Es meckern zum Großteil die NV Fanboys.

OpenSystemFan schrieb:
Ich zähl vielleicht mal die Beitragsdichte der NV Fanboys. Das wäre bestimmt interessant.
Hier scheint es dich aber deutlich mehr zu beschäftigen :p
 
Zuletzt bearbeitet:
blackiwid schrieb:
so viel Blödheit trau ich AMD nicht zu
Zitat, das Albert Einstein zugeschrieben wird: „Zwei Dinge sind unendlich: das Universum und die menschliche Dummheit; aber beim Universum bin ich mir noch nicht ganz sicher.“
 
zeedy schrieb:
Es geht doch nicht um das GN Video sondern den Fakt, dass ihm keine "big flaws" aufgefallen sind...

Du verstehst es nicht oder?

Wenn ich FSR Frame Gen einschalte und die Smoothness nur minimal oder überhaupt nicht ansteigt, dann sind das bereits "big flaws" die die Technik praktisch unbrauchbar machen, auch wenn das Spielgefühl mit eingeschalteter Frame Gen quasi genauso gut wie ohne ist.

Wenn Frame Gen 120 FPS anzeigt, dann muss es auch wie 120 FPS aussehen. Das ist der einzige Zweck dieser Technik. Bei FSR Frame Gen hat man aber oft das Problem, dass 120 FPS eben wie 60 FPS aussehen. Also genauso oder vielleicht minimal besser wie ganz ohne Frame Gen, weil AMD den generierten Frame oft zu schnell nach dem letzten echten Frame ausgibt.

Kannst es auch anders herum sehen. Wenn 120 FPS aussehen wie 60, dann ist das ein "big flaw".

Und wie ich schon erklärt habe, wirst du das schlechte Framepacing nicht in Form von stärkeren Rucklern oder ähnliches feststellen. Es ist einfach nur die fehlende oder zu geringe Smoothness die das Nutzen von FSR FG sinnfrei machen.

Und natürlich ist das für Leute die keinen direktvergleich mit DLSS FG machen können schwer zu beurteilen. Wenn man FG an macht und fast die doppelte Framerate auf dem Zähler steht, es sich aber nur ein bisschen Smoother anfühlt, dann schlägt in erster Linie auch der Placebo zu. Man sieht viel mehr FPS auf dem Zähler, es fühlt sich gleich oder etwas flüssiger an. Also pass schon. Keine Probleme, alles Top. Und man sagt ja eh immer, dass FG kein Ersatz für tatsächlich höhere FPS sei. Also wird das einfach akzeptiert und als sollzustand hingenommen.
Erst wenn du dann DLSS FG aktivierst und das Spiel bei gleicher Framerate plötzlich sehr viel Smoother ist, realisierst du erst richtig, dass bei FSR FG was falsch läuft.
 
Xes schrieb:
Die Latenz mit FG + Reflex ist (laut den Tests die ich gelesen habe) meistens in etwa vergleichbar mit dem, was man ohne Framegen und ohne Reflex hätte.
Bin da kein Experte aber reden wir von Input oder Output Latency, gibts ja wohl nen Unterschied.

Du solltest nicht biased Nivdia Propaganda als Basis für dein Glauben her nehmen sondern unabhängige Tests.

Aber selbst wenn es funzen sollte, ist das ja erst Releavnt bei frühestens 144hz besser gleich 240hz Monitor und nur in Single play da für Competetive das äußerst schwierig ist wenn nicht problematisch.

Aber in Single player will man zuerst halbwegs gute Pixeldichte und Ultra Grafik, also ist wenn man nur die Wahl zwischen 4k und >144hz hat die 4k wichtiger im Single player und Oled für Kontrast usw. Wieviel % können sich nen 4k >144hz Oled Monitor und ne Grafikkarte wo die Leute die 60hz nativ + Framegen überhaupt stabil halten kann leisten?

Die RX 9070 XT ist da in den meisten Spielen zu Schwachbrüstig. Da der Algo nicht die Daten hat das in Counterstrike wer um die Ecke kommt kann er das auch nicht in ein Fantasie / Fakeframe anzeigen lassen und auch nur minimal höherer Input lag willst du im Competitive nicht haben.

Außerdem kommt ihr hier mit solchen Beta Features das mal in 1-2 Games gut läuft in ganz spezifischen sehr genau eingestellten Settings und Hardware / Software Kombinationen und gleichzeitig muss ich mir anhören das FSR4 nicht überall unterstützt wird... also beim einen Anbieter hat man da solche Anforderungen an ne Technik beim anderen einen komplett anderen, das schon bisschen nen Doppelstandard.

Und zumindest Chatgpt sieht das noch anders als du:

Short answer: No — Reflex won't fully cancel the extra latency introduced when using frame generation (e.g., DLSS Frame Generation) with a 60 FPS base even if your monitor is 140 Hz or 240 Hz.
"In Etwa" ist halt sehr relativ das ist halt ne Relativierung wo du viel weg reden kannst mit:
Multiple H2‑2025 lab tests and analyses agree: frame generation (DLSS FrameGen / DLSS4 MFG) reduces display output spacing (smoother motion) but typically adds measurable input‑to‑display latency versus native rendering at the same base sampling rate. Reflex (and Reflex 2/Frame Warp integrations) reduces GPU/driver latency but does not fully eliminate the extra latency introduced by frame‑generation. Typical added input latency (60 FPS base → 120–240 Hz output via FG) in lab measurements is commonly reported in the low‑to‑mid tens of milliseconds (roughly ~5–30 ms) depending on game, GPU, monitor and test method — Reflex cuts some of that but not all.

Zugegeben ist bisschen hart genaue Tests zu finden die super aktuell sind und nicht von Nvidia, wenn du bessere Quellen hast die belegen das es bei 0 oder fast 0 ist durch gehend bei allen Spielen oder vielen... gerne her damit, sonst vertrau ich auch CB hier die ungefähr das auch so sagen z.B. im Podcast das es Inputlag nicht weg macht.

Es mag hier und da ein nettes Feature sein mit mehr Nutzen als Schaden, aber es ist kein Killerfeature und weit von nativen Frames entfernt, während Upscaling ja offenbar teils die Bildqualität dabei noch verbessert...
 
Zuletzt bearbeitet:
blackiwid schrieb:
Und zumindest Chatgpt sieht das noch anders als du:

Nö, in sehr vielen Fällen hast du mit DLSS FG + Reflex bessere Latenzen als wenn beides aus ist.
Reflex überkompensiert. Gibt genug Tests und Messungen dazu, auch hier auf CB.

Du kannst natürlich ohne FG dann nochmal bessere Latenzen erreichen, aber das liegt ja in der Natur der Sache. Die Niedrigsten latenzen erreichst du nur, wenn du Reflex nutzt und alle Grafikeffekte im Spiel abschaltest oder auf Low stellst.

Die beste Optik bekommst du, wenn du alle Grafikeffekte hoch stellst und auch FG aktivierst. Grafikeffekte und FG kosten Latenz. Aber ich halte den Trade off mit aktivierter Frame Gen und dafür doppelter Framerate für deutlich besser als z.B. die höheren latenzen die man durch die Nutzung von Ultra Settings bekommt, weil die GPU dann eben langsamer rendert... Keine Ahnung, warum das immer ignoriert wird.
Frame Gen latenzen sind der Teufel höchst persönlich, aber wenn man für ein 0,01% besseres Bild Ultra statt High Settings nutzt und dabei genauso viel Latenz opfert, dann ist das immer völlig okay. :freak:
Und dass man mit Upscaling auch schon enorm viel Latenz gut machen kann wird auch gerne ignoriert. Haputsache man kann auf den FG latenzen herumreiten. Alles andere was viel mehr latenz erzeugt wird komplett ignoriert.

Bei solchen Diskussionen merkt man immer schnell, wer sich tatsächlich Gedanken darüber macht und es verstanden hat und wer nicht.

EDIT: Wenn man vom Teufel Spricht. Hier sieht mans direkt: https://www.computerbase.de/artikel/grafikkarten/amd-fsr-redstone-frame-generation.95385/seite-3

Wie ich sagte. Reflex + FG ist besser als ohne.
 
Zuletzt bearbeitet:
K1LL3RC0W schrieb:
@TheInvisible AMD hat aber NIE gesagt, dass FSR4 für die 7000er kommt. Man wollte / wolle eine sinnvolle Machbarkeit prüfen. AMD ist im Vergleich zu NV ja auch noch ein "kleiner Laden" und zudem mit CPU und GPU-Entwicklung auf zwei Hochzeiten anwesend. Die müssen ihre Ressourcen schon sinnvoll einsetzen und können halt nicht Manpower und Geld in hohem Maße für "vergangene" Produkte vorhalten.
Die Machbarkeit ist aber gegeben. Die Community hat es gezeigt und trotzdem kommt da nichts.
 
MalWiederIch schrieb:
Hier scheint es dich aber deutlich mehr zu beschäftigen :p
Ja, es ist halt null Wertig und nur noch druff. Eine News wo AMD drin steht und die Beiden droppen den gleichen Sermon 50mal. Man kann ja mal die KI drüber laufen lassen, oder? Mit Zwang AMD schlecht reden. Bei NV news bin ich wenig aktiv, sehe da aber auch weniger so nen Müll.
 
  • Gefällt mir
Reaktionen: Alphanerd
Mimir schrieb:
Nö, in sehr vielen Fällen hast du mit DLSS FG + Reflex bessere Latenzen als wenn beides aus ist.
Reflex überkompensiert. Gibt genug Tests und Messungen dazu, auch hier auf CB.
1. Testen die wie hier auch nur Durchschnittslatenzen, nicht 1% oder so, das wäre aber das entscheidende. Zum anderen muss man mal sehen was 60FPS heißt das heißt nicht 60FPS im Schnitt sondern mindestens. Und es bleiben Fakeframes also gibts auch noch Artefakte, selbst wenn der Lag "gelöst" wäre.

2. such grad nach Reflex erste was ich finde nach Datum sortiert ist Call of Duty:
Da Latenz in einem Competitive-Multiplayerspiel wie Call of Duty sehr wichtig ist, ist es für die meisten ratsam, Frame Generation generell abgeschaltet zu lassen.
Dying lite und Pagonia war noch drüber ein Spiel das sicher keine 240hz und fake frames braucht und davon wenig profitiert also dieses Pagonia daher skippe ich das also Dying lite wie siehst da aus/ naja außer ein Haken wird da nicht genannt.

Anno unterstützt es offenbar nicht... wie gehts weiter, Outer Worlds 2 auch nur ein Haken kein Kommentar dazu.

Battlefield 6:
Mit DLSS MFG gibt es immer mal wieder Spiele, wo das Frame Pacing etwas durcheinander gerät – Battlefield 6 ist eines davon.

VRR Monitor ist hierbei wohl auch sehr wichtig, um Probleme zu verschleiern, die Probleme mögen nicht immer riesig sein der Nutzen ist aber auch sehr klein... das muss man dem immer Gegenüber stehen.
Das hat zur Folge, dass die Latenzen mit DLSS FG sowie DLSS MFG immer etwas schlechter sind also ohne die Features, sodass sich Frame Generation nie ganz so direkt anfühlt wie rein gerenderte Bilder. Die Unterschiede sind jedoch sehr gering, den meisten Spielern werden diese bei ausreichender Framerate vermutlich gar nicht auffallen.
"meiste Spieler" "vermutlich" sehr defensive Sprache.

Nicht auffallen heißt aber es ist da zumindest Messbar muss es dann sein nur will CB das hier halt nicht tun wegen Aufwand.

Cronos - the new Dawn:
schlechter Titel weil das Spiel von haus aus 100ms Latenz hat.

Hör hier mal auf, man muss auch dazu sagen das Wolfgang offenbar einer der größeren Fans der Technologie in der Redaktion ist, das sehen andere durchaus zumindest durchwachsener.

Teilweise wird auch in Spielen oder von Testern steht nicht immer explizit da Reflex nur anmachbar zu sein in Kombination mit FG, so das man nicht mal testen kann ob vielleicht Reflex ohne Framegen das eigentlich beste wäre für viele Leute...

Aber wie gesagt selbst wenn man das toll findet, selbst eine 5070 Ti ist nicht grad billig und nen 4k Monitor mit 144hz oder 240hz ist auch nicht billig... Also da kannst mal nur für die 2 Komponenten 1500-2000 Euro hin legen.

Auch versteh ich die positive Bewertung nicht da die immer so tun als wären diese 55fps oder 60fps so easy zu erreichen, wahrscheinlich weil sie irgendwelche mikrigen Auflösungen anschauen, in Call of Duty z.B. packt doch auch die sehr teure RTX 5070 ti nur 29 FPS im Schnitt mit RT.

Oder ist RT plötzlich doch nimmer wichtig und schaltest das ab? Oder wie machst das im einen Spiel schaltest RT ab und MFG an im anderen umgekehrt? Oder hast ne 5090?

Als Tester mit ner 5090 würde ich ne Technologie die viele base FPS braucht auch besser finden als der normalo mit ner 300-500 Euro oder mal 800 euro maximal Grafikkarte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro
Was zietierst denn du da zusammen? Das ist alles nicht von mir, bis auf das erste Zitat.

Außerdem habe ich gerade den FSR Test von heute verlinkt, da siehst du bestätigt, was ich sagte: https://www.computerbase.de/artikel...performance_von_fsr_redstone_frame_generation

Und was willst du jetzt mit Raytracing in Call of Duty? Das kostet so viel wie Pathtracing in anderen Spielen und bietet nur Reflexionen. Das ist offensichtlich kompletter Schrott.
Aber du nutzt es als generelle Argumentationsgrundlage? :freak:
Das ist schon echt wild...
 
  • Gefällt mir
Reaktionen: Quidproquo77
Zurück
Oben