Genau das ist mir schon in den Trailern aufgefallen, dachte, man weht da ein WindFragger911 schrieb:Dafür solltest Du immun gegen überzogen hektisch wippende Vegetation sein... abartig.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News FSR Upscaling 4.1: Besseres Upscaling für AMD Radeon RX 9000
- Ersteller Kaito Kariheddo
- Erstellt am
- Zur News: FSR Upscaling 4.1: Besseres Upscaling für AMD Radeon RX 9000
Hm, kannst du das etwas weiter ausführen? Wenn ich mir das changelog zu dem Update ansehe, seh ich da auch nur, dass die URL zur 4.1.0 dll hinzugefügt wurde, welche aber halt nicht mehr verfügbar ist.Tevur schrieb:Also das neuste GE Proton bringt bereits die Funktion mit, die mittels protonfix ins Präfix zu laden.
https://www.gamingonlinux.com/2026/...or-vr-outside-of-steam-fsr-upgrades-and-more/
Es wurden die zu dem Zeitpunkt jeweils aktuellen Settings verglichen.GerryB schrieb:dann doch bitte beide Grakas mit ähnlichen non-default Settings, sprich
Profil L vs Model 5
Äpfel vs. Birnen gibts im Gemüseladen
daknoll
Lieutenant
- Registriert
- Jan. 2014
- Beiträge
- 922
Grestorn schrieb:Upscaling sieht immer besser aus als klassisches native + Anti-Aliasing. Es lohnt sich also immer, auch wenn man es nicht "braucht".
Ich hab das mal für dich korrigiert.
Upscaling sieht nicht immer besser aus als klassisches native + Anti-Aliasing. Es lohnt sich also nicht "immer", vor allem wenn man es nicht "braucht".
GerryB
Rear Admiral
- Registriert
- Sep. 2016
- Beiträge
- 5.281
Model L ist aktuell nicht automatisch für 4k performance aktiv.Grestorn schrieb:Es wurden die zu dem Zeitpunkt jeweils aktuellen Settings verglichen.
Da musste schon nachhelfen!
= dumme Trickserei, ausversehen oder mit Absicht
Du hast doch gar nichts "korrigiert"? Das Quote von mir ist unverändert.daknoll schrieb:Ich hab das mal für dich korrigiert.
Upscaling sieht nicht immer besser aus als klassisches native + Anti-Aliasing. Es lohnt sich also nicht "immer", vor allem wenn man es nicht "braucht".
Wann sieht denn Upscaling (bei ausreichender Render-Auflösung, also Q oder B) nicht besser aus als Nativ? Und warum? Technische Erklärung bitte (ich weiß, warum es nicht so ist, und kann es auch erklären. Aber Du behauptest etwas, also belege es auch).
Ergänzung ()
Doch, es ist aktiv, wenn man im Treiber auf "Empfohlen" stellt.GerryB schrieb:Model L ist aktuell nicht automatisch für 4k performance aktiv.
Da musste schon nachhelfen!
= dumme Trickserei, ausversehen oder mit Absicht
Dass der Treiber nicht manipuliert (also das Model, das das Spiel vorgibt, von sich aus tauscht), wenn man es ihm nicht explizit sagt, ist doch klar.
Das hat nichts mit Trickserei zu tun. Ach ich vergaß, wir reden von NVidia, die tricksen ja immer und haben nur das schlechteste für den Kunden im Sinn.
GerryB
Rear Admiral
- Registriert
- Sep. 2016
- Beiträge
- 5.281
Wo und Wie macht Das der 0815 Out of The Box -Player?Grestorn schrieb:Doch, es ist aktiv, wenn man im Treiber auf "Empfohlen" stellt.
Profil L als empfohlen, ... würde mal denken, gar nicht
GerryB
Rear Admiral
- Registriert
- Sep. 2016
- Beiträge
- 5.281
This!Grestorn schrieb:Oder sie erzwingen gleich Model L.
dachte ich, hat HardwareUnboxed getan
und
gerade heute würde ich gern FSR4.1 mit Model 5@4k sehen wollen, auch wenn AMD da keinen Schalter im Treiber/Inspektor hat, sondern man den Optiscaler braucht
(sollte für Bildqualität-Junkies kein Problem sein)
Habe diese Woche aus Versehen ein billiges Indie Spiel mit automatisch aktivem Raytracing gespielt, ansonsten rastert meine 9070 XT noch unter Linux rum.
Habs dann einfach angelassen, weil nativ in WQHD über 100FPS laufen.
Den ganzen neuen Hype brauche ich nicht.
Denn erstens läuft das imemr nur für wenige Monate auf der allerneuesten Hardware und sehr wenige Spiele.
Danach komtm wieder ein neues Featureset, wo eine neue Karte für gebraucht wird, die auch mehr Leistung braucht.
Siehe DLSS 5.0, wo 2(!) 5090 für eine flüssige Bildrate laufen müssen, ergo wird wieder wie immer eine neue 6090 Vorraussetzung!
Das alles ist aber super extrem teuer geworden.
Ernsthaft: wer macht den ganzen Bullshit mit?!
Bestes Raytracing ist bereits zu teuer, Pathtracing und nun KI-Modelle sind völlig unerschwinglich.
Die Sache mit niedrigere Auflösungen und Detailreduzierungen sind kontraproduktiv und absolut paradox.
Das Streben nach noch besserer Grafik durch das herunterdrehen der Grafik?
Mal ehrlich, ich hab mal ein Spiel getestet, da habe ich Raytracing nur auf Mittel gestellt, da sahen die Wasserfützen bald schon schlechter aus als die Fake-Darstellung im Rastermodus.
Es gibt keinen Menschen, der das erklären könnte, warum sich die Menschen das antun sollen und wollen, außer Trump vielleicht. ahaha ;-P
Wie gesagt, das alles macht nur Sinn, wenn man das einfach an sich vorbei gehen lässt, und dann Jahre später mal Spiele günstig im Sale oder im Humble Coice oder so mitnimmt und dann auf seiner mittlerweile "kompatibler" Hardware anstellt und dann den Mehrwert auch tatsächlich genießen kann, ohne sich um irgendetwas kümmern zu müssen.
Keine Featuretricks hier, keine Einstellungen da, keine neue teure Hardware nur für dieses eine neue Spiel, keine Kompromisse bei der Qualität und Leistung ohne wirklichen Optikgewinn.
Einfach installieren, starten, Spaß haben.
So wie es damals einmal war.
Ach ja, jetzt mit der neuen Karte, da darf Cyberpunk ruhig als GOTY für 20 Euro auf dem Grabbeltisch landen, dann werde ich vielleicht weich, ansonsten halt weiter Indie Games, und dafür dann Pathtracing mit der nochmals nächsten Karte.
Ich kaufe und spiele Spiele halt nur, wenn ich gut aufdrehen kann, um das so zu erleben, wie der Hersteller es damals mal gedacht hatte.
Siehe Crysis, da habe ich mindestens 7 Jahre und 2 Rechner-Lebenszyklen warten müssen.
Aber es hat sich dann auch gelohnt. In FullHD mit HD Mod alles auf Ultra, statt 720p und Mittel. :-)
Und diesen Unterschied hat man nunmal auch jetzt noch, wenn man 4K Pathtracing und Ultra mit FullHD Raytracing und Mittel vergleicht.
Das will niemand freiwillig.
Habs dann einfach angelassen, weil nativ in WQHD über 100FPS laufen.
Den ganzen neuen Hype brauche ich nicht.
Denn erstens läuft das imemr nur für wenige Monate auf der allerneuesten Hardware und sehr wenige Spiele.
Danach komtm wieder ein neues Featureset, wo eine neue Karte für gebraucht wird, die auch mehr Leistung braucht.
Siehe DLSS 5.0, wo 2(!) 5090 für eine flüssige Bildrate laufen müssen, ergo wird wieder wie immer eine neue 6090 Vorraussetzung!
Das alles ist aber super extrem teuer geworden.
Ernsthaft: wer macht den ganzen Bullshit mit?!
Bestes Raytracing ist bereits zu teuer, Pathtracing und nun KI-Modelle sind völlig unerschwinglich.
Die Sache mit niedrigere Auflösungen und Detailreduzierungen sind kontraproduktiv und absolut paradox.
Das Streben nach noch besserer Grafik durch das herunterdrehen der Grafik?
Mal ehrlich, ich hab mal ein Spiel getestet, da habe ich Raytracing nur auf Mittel gestellt, da sahen die Wasserfützen bald schon schlechter aus als die Fake-Darstellung im Rastermodus.
Es gibt keinen Menschen, der das erklären könnte, warum sich die Menschen das antun sollen und wollen, außer Trump vielleicht. ahaha ;-P
Wie gesagt, das alles macht nur Sinn, wenn man das einfach an sich vorbei gehen lässt, und dann Jahre später mal Spiele günstig im Sale oder im Humble Coice oder so mitnimmt und dann auf seiner mittlerweile "kompatibler" Hardware anstellt und dann den Mehrwert auch tatsächlich genießen kann, ohne sich um irgendetwas kümmern zu müssen.
Keine Featuretricks hier, keine Einstellungen da, keine neue teure Hardware nur für dieses eine neue Spiel, keine Kompromisse bei der Qualität und Leistung ohne wirklichen Optikgewinn.
Einfach installieren, starten, Spaß haben.
So wie es damals einmal war.
Ach ja, jetzt mit der neuen Karte, da darf Cyberpunk ruhig als GOTY für 20 Euro auf dem Grabbeltisch landen, dann werde ich vielleicht weich, ansonsten halt weiter Indie Games, und dafür dann Pathtracing mit der nochmals nächsten Karte.
Ich kaufe und spiele Spiele halt nur, wenn ich gut aufdrehen kann, um das so zu erleben, wie der Hersteller es damals mal gedacht hatte.
Siehe Crysis, da habe ich mindestens 7 Jahre und 2 Rechner-Lebenszyklen warten müssen.
Aber es hat sich dann auch gelohnt. In FullHD mit HD Mod alles auf Ultra, statt 720p und Mittel. :-)
Und diesen Unterschied hat man nunmal auch jetzt noch, wenn man 4K Pathtracing und Ultra mit FullHD Raytracing und Mittel vergleicht.
Das will niemand freiwillig.
Zuletzt bearbeitet:
Dann mach einen solchen Vergleich. Hindert Dich keiner daran. Was ist Dein Punkt? Bei AMD darf man manipulieren (über Optiscaler oder sonst wie), bei NVidia muss man aber die Spiele für einen fairen Bildvergleich so testen, wie sie per Default laufen?GerryB schrieb:This!
dachte ich, hat HardwareUnboxed getan
und
gerade heute würde ich gern FSR4.1 mit Model 5 sehen wollen, auch wenn AMD da keinen Schalter im Treiber/Inspektor hat, sondern man den Optiscaler braucht
(sollte für Bildqualität-Junkies kein Problem sein)
- Registriert
- Dez. 2020
- Beiträge
- 1.985
Nicht wirklich, da ich auch nur die Patchnotes gelesen habe und nur RDNA2 habe, alsi nicht selbst testen kann.mixn_mojo schrieb:Hm, kannst du das etwas weiter ausführen?
Aber wenn die geleakte DLL nicht mehr verfügbar ist, kann ja jetzt die DLL direkt aus dem Treiber verwendet werden. Die wird ja einfach nur im Repo hinterlegt, auf das Protkntricks zugreift.
Es gibt keine INT8-Version von FSR4.1, nur 4.0.2GerryB schrieb:wenns in der kurzen Zeit geht bitte auch auf RDNA3@INT8
GerryB
Rear Admiral
- Registriert
- Sep. 2016
- Beiträge
- 5.281
Aha,Tevur schrieb:Es gibt keine INT8-Version von FSR4.1, nur 4.0.2
dann gänge nur die FP8-Version in Linux für RDNA3
da sollte doch FSR 4.0.3-->4.1 möglich sein
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.454
Also, der erste Test gestern mit FSR4 Native ist auch besser geworden, wollte ich mal nur sagen. Auch der VRAM-Bedarf ist etwas gesunken.Jan schrieb:um sich die Sache genauer anzusehen.![]()
mario_mendel34
Lieutenant Pro
- Registriert
- März 2010
- Beiträge
- 559
- Registriert
- Dez. 2020
- Beiträge
- 1.985
Si!GerryB schrieb:da sollte doch FSR 4.0.3-->4.1 möglich sein
Einfach die neue 4.1 ins Präfix packen (lassen).
Proton GE ider Proton cachyos nutzen und
PROTON_FSR4_RDNA3_UPGRADE %command%als Startparameter nutzen.
- Registriert
- Dez. 2014
- Beiträge
- 9.620
Und im Anschluss die Kunden beleidigen. So muss das.Alphanerd schrieb:Das stimmt. NV zeigt mit der DLSS 5 Präsi wie man es richtig macht.
Fika
Lt. Commander
- Registriert
- Okt. 2014
- Beiträge
- 1.230
Vom Grundprinzip her ist das Bild mit FSR 4 (bei ausreichender Renderauflösung, also Q oder B) immer detailreicher als TAA. Das liegt einfach daran, dass mehr Details abgetastet werden und damit korrekt wiedergegeben werden können als bei TAA.Grestorn schrieb:Vom Grundprinzip her ist das Bild mit FSR 4 (bei ausreichender Renderauflösung, also Q oder B) immer detailreicher als nativ. Das liegt einfach daran, dass mehr Details abgetastet werden und damit korrekt wiedergegeben werden können als bei nativ.
Wieso schreibst du eigentlich immer nativ wenn TAA meinst? Die ganze Konversationen sind doch fürn Arcsh, wenn einer absichtlich Sachen falsch benennt, dann wird doch nur aneinander vorbei geredet. Hab noch kein FSR nativAA gesehen, welches schlechter als FSR Q, B, P oder UP aussah. Ebenso ist TAA nativ (Renderauflösung) besser, als TAA 67%, 50%..
Nativ kann nicht mit TAA gleichgesetzt werden, dazu müsste das Wort nativ grundsätzlich was anderes bedeuten.
GerryB
Rear Admiral
- Registriert
- Sep. 2016
- Beiträge
- 5.281
Grestorn schrieb:Dann mach einen solchen Vergleich. Hindert Dich keiner daran. Was ist Dein Punkt? Bei AMD darf man manipulieren (über Optiscaler oder sonst wie), bei NVidia muss man aber die Spiele für einen fairen Bildvergleich so testen, wie sie per Default laufen?
Danke für die Klarstellung Mario!mario_mendel34 schrieb:@Grestorn Ich habe es gerade ausprobiert. Die Empfohlen-Einstellung in der Nvidia-App stellt bei Performance Preset M ein, nicht L. L gibt es nur bei Ultra Performance.
also hat Hardware Unboxed nicht default getestet
Beide mit gleichen Settings, das kann doch nicht so schwierig zu verstehen sein.
(gerne Beide nondefault in der besseren Qualität L vs 5)
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 444
- Aufrufe
- 27.717
- Antworten
- 59
- Aufrufe
- 5.100
- Antworten
- 181
- Aufrufe
- 12.559
- Antworten
- 134
- Aufrufe
- 28.362
- Antworten
- 0
- Aufrufe
- 859