News FSR Upscaling 4.1: Besseres Upscaling für AMD Radeon RX 9000

Fragger911 schrieb:
Dafür solltest Du immun gegen überzogen hektisch wippende Vegetation sein... abartig.
Genau das ist mir schon in den Trailern aufgefallen, dachte, man weht da ein Wind :rolleyes:
 
  • Gefällt mir
Reaktionen: Venora Valyria und xXDariusXx
GerryB schrieb:
dann doch bitte beide Grakas mit ähnlichen non-default Settings, sprich
Profil L vs Model 5

Äpfel vs. Birnen gibts im Gemüseladen
Es wurden die zu dem Zeitpunkt jeweils aktuellen Settings verglichen.
 
Grestorn schrieb:
Upscaling sieht immer besser aus als klassisches native + Anti-Aliasing. Es lohnt sich also immer, auch wenn man es nicht "braucht".

Ich hab das mal für dich korrigiert.

Upscaling sieht nicht immer besser aus als klassisches native + Anti-Aliasing. Es lohnt sich also nicht "immer", vor allem wenn man es nicht "braucht".
 
  • Gefällt mir
Reaktionen: Hibbelharry und Micha_80
Grestorn schrieb:
Es wurden die zu dem Zeitpunkt jeweils aktuellen Settings verglichen.
Model L ist aktuell nicht automatisch für 4k performance aktiv.
Da musste schon nachhelfen!

= dumme Trickserei, ausversehen oder mit Absicht
 
daknoll schrieb:
Ich hab das mal für dich korrigiert.

Upscaling sieht nicht immer besser aus als klassisches native + Anti-Aliasing. Es lohnt sich also nicht "immer", vor allem wenn man es nicht "braucht".
Du hast doch gar nichts "korrigiert"? Das Quote von mir ist unverändert.

Wann sieht denn Upscaling (bei ausreichender Render-Auflösung, also Q oder B) nicht besser aus als Nativ? Und warum? Technische Erklärung bitte (ich weiß, warum es nicht so ist, und kann es auch erklären. Aber Du behauptest etwas, also belege es auch).
Ergänzung ()

GerryB schrieb:
Model L ist aktuell nicht automatisch für 4k performance aktiv.
Da musste schon nachhelfen!

= dumme Trickserei, ausversehen oder mit Absicht
Doch, es ist aktiv, wenn man im Treiber auf "Empfohlen" stellt.

Dass der Treiber nicht manipuliert (also das Model, das das Spiel vorgibt, von sich aus tauscht), wenn man es ihm nicht explizit sagt, ist doch klar.

Das hat nichts mit Trickserei zu tun. Ach ich vergaß, wir reden von NVidia, die tricksen ja immer und haben nur das schlechteste für den Kunden im Sinn.
 
Grestorn schrieb:
Doch, es ist aktiv, wenn man im Treiber auf "Empfohlen" stellt.
Wo und Wie macht Das der 0815 Out of The Box -Player?
Profil L als empfohlen, ... würde mal denken, gar nicht
 
@GerryB Wie gesagt, der Treiber hat nicht an den Einstellungen des Spiels zu manipulieren, ohne dass man es ihm sagt. Sollte der AMD-Treiber auch nicht machen. Hoffe ich.

Und ich denke, das machen alle, die sich ein wenig auskennen. Oder sie erzwingen gleich Model L.
 
Grestorn schrieb:
Oder sie erzwingen gleich Model L.
This!
dachte ich, hat HardwareUnboxed getan

und
gerade heute würde ich gern FSR4.1 mit Model 5@4k sehen wollen, auch wenn AMD da keinen Schalter im Treiber/Inspektor hat, sondern man den Optiscaler braucht
(sollte für Bildqualität-Junkies kein Problem sein)
 
Habe diese Woche aus Versehen ein billiges Indie Spiel mit automatisch aktivem Raytracing gespielt, ansonsten rastert meine 9070 XT noch unter Linux rum.
Habs dann einfach angelassen, weil nativ in WQHD über 100FPS laufen.
Den ganzen neuen Hype brauche ich nicht.
Denn erstens läuft das imemr nur für wenige Monate auf der allerneuesten Hardware und sehr wenige Spiele.
Danach komtm wieder ein neues Featureset, wo eine neue Karte für gebraucht wird, die auch mehr Leistung braucht.
Siehe DLSS 5.0, wo 2(!) 5090 für eine flüssige Bildrate laufen müssen, ergo wird wieder wie immer eine neue 6090 Vorraussetzung!
Das alles ist aber super extrem teuer geworden.
Ernsthaft: wer macht den ganzen Bullshit mit?!
Bestes Raytracing ist bereits zu teuer, Pathtracing und nun KI-Modelle sind völlig unerschwinglich.
Die Sache mit niedrigere Auflösungen und Detailreduzierungen sind kontraproduktiv und absolut paradox.
Das Streben nach noch besserer Grafik durch das herunterdrehen der Grafik?
Mal ehrlich, ich hab mal ein Spiel getestet, da habe ich Raytracing nur auf Mittel gestellt, da sahen die Wasserfützen bald schon schlechter aus als die Fake-Darstellung im Rastermodus.
Es gibt keinen Menschen, der das erklären könnte, warum sich die Menschen das antun sollen und wollen, außer Trump vielleicht. ahaha ;-P
Wie gesagt, das alles macht nur Sinn, wenn man das einfach an sich vorbei gehen lässt, und dann Jahre später mal Spiele günstig im Sale oder im Humble Coice oder so mitnimmt und dann auf seiner mittlerweile "kompatibler" Hardware anstellt und dann den Mehrwert auch tatsächlich genießen kann, ohne sich um irgendetwas kümmern zu müssen.
Keine Featuretricks hier, keine Einstellungen da, keine neue teure Hardware nur für dieses eine neue Spiel, keine Kompromisse bei der Qualität und Leistung ohne wirklichen Optikgewinn.
Einfach installieren, starten, Spaß haben.
So wie es damals einmal war.
Ach ja, jetzt mit der neuen Karte, da darf Cyberpunk ruhig als GOTY für 20 Euro auf dem Grabbeltisch landen, dann werde ich vielleicht weich, ansonsten halt weiter Indie Games, und dafür dann Pathtracing mit der nochmals nächsten Karte.
Ich kaufe und spiele Spiele halt nur, wenn ich gut aufdrehen kann, um das so zu erleben, wie der Hersteller es damals mal gedacht hatte.
Siehe Crysis, da habe ich mindestens 7 Jahre und 2 Rechner-Lebenszyklen warten müssen.
Aber es hat sich dann auch gelohnt. In FullHD mit HD Mod alles auf Ultra, statt 720p und Mittel. :-)
Und diesen Unterschied hat man nunmal auch jetzt noch, wenn man 4K Pathtracing und Ultra mit FullHD Raytracing und Mittel vergleicht.
Das will niemand freiwillig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
GerryB schrieb:
This!
dachte ich, hat HardwareUnboxed getan

und
gerade heute würde ich gern FSR4.1 mit Model 5 sehen wollen, auch wenn AMD da keinen Schalter im Treiber/Inspektor hat, sondern man den Optiscaler braucht
(sollte für Bildqualität-Junkies kein Problem sein)
Dann mach einen solchen Vergleich. Hindert Dich keiner daran. Was ist Dein Punkt? Bei AMD darf man manipulieren (über Optiscaler oder sonst wie), bei NVidia muss man aber die Spiele für einen fairen Bildvergleich so testen, wie sie per Default laufen?
 
mixn_mojo schrieb:
Hm, kannst du das etwas weiter ausführen?
Nicht wirklich, da ich auch nur die Patchnotes gelesen habe und nur RDNA2 habe, alsi nicht selbst testen kann.

Aber wenn die geleakte DLL nicht mehr verfügbar ist, kann ja jetzt die DLL direkt aus dem Treiber verwendet werden. Die wird ja einfach nur im Repo hinterlegt, auf das Protkntricks zugreift.
GerryB schrieb:
wenns in der kurzen Zeit geht bitte auch auf RDNA3@INT8
Es gibt keine INT8-Version von FSR4.1, nur 4.0.2
 
Tevur schrieb:
Es gibt keine INT8-Version von FSR4.1, nur 4.0.2
Aha,
dann gänge nur die FP8-Version in Linux für RDNA3
da sollte doch FSR 4.0.3-->4.1 möglich sein
 
  • Gefällt mir
Reaktionen: xXDariusXx und Tevur
Jan schrieb:
um sich die Sache genauer anzusehen. :)
Also, der erste Test gestern mit FSR4 Native ist auch besser geworden, wollte ich mal nur sagen. Auch der VRAM-Bedarf ist etwas gesunken.
 
@Grestorn Ich habe es gerade ausprobiert. Die Empfohlen-Einstellung in der Nvidia-App stellt bei Performance Preset M ein, nicht L. L gibt es nur bei Ultra Performance.
 
  • Gefällt mir
Reaktionen: GerryB
GerryB schrieb:
da sollte doch FSR 4.0.3-->4.1 möglich sein
Si!
Einfach die neue 4.1 ins Präfix packen (lassen).

Proton GE ider Proton cachyos nutzen und
PROTON_FSR4_RDNA3_UPGRADE %command%
als Startparameter nutzen.
 
Alphanerd schrieb:
Das stimmt. NV zeigt mit der DLSS 5 Präsi wie man es richtig macht.
Und im Anschluss die Kunden beleidigen. So muss das.
 
  • Gefällt mir
Reaktionen: dx1, Nihil Baxxter, muvmend und 2 andere
Grestorn schrieb:
Vom Grundprinzip her ist das Bild mit FSR 4 (bei ausreichender Renderauflösung, also Q oder B) immer detailreicher als nativ. Das liegt einfach daran, dass mehr Details abgetastet werden und damit korrekt wiedergegeben werden können als bei nativ.
Vom Grundprinzip her ist das Bild mit FSR 4 (bei ausreichender Renderauflösung, also Q oder B) immer detailreicher als TAA. Das liegt einfach daran, dass mehr Details abgetastet werden und damit korrekt wiedergegeben werden können als bei TAA.

Wieso schreibst du eigentlich immer nativ wenn TAA meinst? Die ganze Konversationen sind doch fürn Arcsh, wenn einer absichtlich Sachen falsch benennt, dann wird doch nur aneinander vorbei geredet. Hab noch kein FSR nativAA gesehen, welches schlechter als FSR Q, B, P oder UP aussah. Ebenso ist TAA nativ (Renderauflösung) besser, als TAA 67%, 50%..

Nativ kann nicht mit TAA gleichgesetzt werden, dazu müsste das Wort nativ grundsätzlich was anderes bedeuten.
 
Gute Neuigkeiten, endlich weniger verwaschen und weniger unscharf!
 
Grestorn schrieb:
Dann mach einen solchen Vergleich. Hindert Dich keiner daran. Was ist Dein Punkt? Bei AMD darf man manipulieren (über Optiscaler oder sonst wie), bei NVidia muss man aber die Spiele für einen fairen Bildvergleich so testen, wie sie per Default laufen?
mario_mendel34 schrieb:
@Grestorn Ich habe es gerade ausprobiert. Die Empfohlen-Einstellung in der Nvidia-App stellt bei Performance Preset M ein, nicht L. L gibt es nur bei Ultra Performance.
Danke für die Klarstellung Mario!
also hat Hardware Unboxed nicht default getestet


Beide mit gleichen Settings, das kann doch nicht so schwierig zu verstehen sein.
(gerne Beide nondefault in der besseren Qualität L vs 5)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mario_mendel34
Zurück
Oben