News FSR Redstone: AMD legt mit Upgrades für FSR 4(.1?) auf RDNA 4 nach

Taxxor schrieb:
Egal wie man es anstellen würde, die Mühe würde sich doch kein Entwickler für ein älteres Spiel machen, wenn sowieso jeder direkt per Nvidia App mit einem Klick wählen kann welche Version er in welchem Spiel nutzen will.
Nicht mehr für alte spiele, aber wo wäre das Problem dies in eine Spiele Engine zu packen, wie ich schon erwähnt habe. Liefern doch Nvidia und AMD entsprechende Feature plugins für Spiele Engines. Da hat der Spiele Entwickler doch keinen mehraufwand. Auch die bereitstellung der dlss versionen könnte über Windows, oder aus dem Nvidia treiber kommen. die Dll's sind ja nicht wirklich gross.

Es wird ja auch immer als Easy und einfach gewertet. Aber selbst Microsoft bekommt ihr Direkt SR nicht auf die Kette. Welches dies für Spiele vereinfachen soll.
Ergänzung ()

Cool Master schrieb:
Am Ende kommt es auf die FPS an die ausgegeben werden
Aber doch nur wenn du 2 Karten anderer Leistungsklassen vergleichst und nicht deren Architektur.
 
Northstar2710 schrieb:
Liefern doch Nvidia und AMD entsprechende Feature plugins für Spiele Engines. Da hat der Spiele Entwickler doch keinen mehraufwand.
Naja kommt drauf an was du letztendlich davon willst, wenn du die DLSS Version wählen können willst muss ja trotzdem ne Option in den Spielen dafür eingebaut werden und da kommt wieder die Frage selbst wenn es nur ne halbe Stunde Aufwand wäre für einen Entwickler, wozu einbauen wenn es die gleiche Funktion schon über den GPU Treiber gibt
 
@Taxxor Wie meinst du das? DLSS Version wählst du ja im Treiber aus
 
ChatGehPeeTee schrieb:
DLSS Version wählst du ja im Treiber aus
Sagte ich doch, deshalb die Frage wozu die Funktion noch woanders einbauen
 
Taxxor schrieb:
wenn du die DLSS Version wählen können willst muss ja trotzdem ne Option in den Spielen dafür eingebaut werden und da kommt wieder die Frage selbst wenn es nur ne halbe Stunde Aufwand wäre für einen Entwickler, wozu einbauen wenn es die gleiche Funktion schon über den GPU Treiber gibt
Er baut ja schliesslich schon das entsprechende plugin ein damit Dlss im spiel gewählt werden kann. Wo ist das mehrarbeit für den spiele Entwickler wenn das Plugin der Spiele Engine diese Auswahl funktion beherscht?
 
Northstar2710 schrieb:
Aber doch nur wenn du 2 Karten anderer Leistungsklassen vergleichst und nicht deren Architektur.

Ich stand ja erst vor ~2 Wochen vor der Frage: 5090, 9700 XT oder 7900 XTX? Die Architektur war nie eine Frage bei mir. Mir ist wichtig was am Ende auf dem Bildschirm steht. Klar, die 5090 wäre die beste Lösung aber bei so viel negativ Meldungen sei es fehlende Recheneinheiten, Stromstecker usw. ist es die 7900 XTX geworden und ehrlich gesagt ich spiele in 4k alles mit 60 bis 240+ FPS. Bei einem 4k 120 Hz Bildschirm also alles im Lot. Die 9700 XT ist rausgefallen weil nur 16 GB VRAM. Mit 8 GB mehr kann man halt doch einiges machen.
 
Northstar2710 schrieb:
Wo ist das mehrarbeit für den spiele Entwickler wenn das Plugin der Spiele Engine diese Auswahl funktion beherscht?
Das menü zur Auswahl der unterschiedlichen DLSS Stufen selbst ist ja auch schon ein Aufwand, den er betreibt, schließlich ist das nicht automatisch mit Einbindung des Plugins vorhanden und auch je nach Spiel individuell und nicht durch das Plugin festgelegt, welche Stufen er anbieten will oder ob er gar eine fein granulare Prozenteinstellung der Auflösung erlaubt.

Die Wahl der konkreten DLSS Version wäre noch mal ein weiteres Dropdown Menü mit weiteren Auswahlpunkten, das er einbauen müsste.
Wenn man die ganzen DLSS Versionen generell mitliefern würde, wäre der Aufwand zwar sehr gering, aber eben trotzdem da und müsste trotzdem gerechtfertigt werden mit einem Komfortgewinn der Nutzer.
Und den sehe ich einfach nicht, denn im Normalfall setze ich doch per Trteiber generell alle meine Spiele automatisch auf die neuste Version und möchte das gar nicht pro Spiel einzeln einstellen(was ich aber ja an sich auch über den Treiber kann).


Und wenn das Spiel über das Plugin mit dem Treiber kommunizieren soll um darüber die Versionen ziehen zu können, müsste ja sogar zusätzlich zum Einfügen eines Menüpunktes auf seiten der Entwickler Nvidia auch ihr Plugin entsprechend anpassen, das ist ja noch weniger begründbar, weil die dann natürlich sagen, wir bieten die Funktion doch längst über den Treiber
 
Zuletzt bearbeitet:
Cool Master schrieb:
Ich stand ja erst vor ~2 Wochen vor der Frage: 5090, 9700 XT oder 7900 XTX?

Von welcher bist du eig gekommen? Finde die Grafikkartenauswahl im Moment echt bekloppt.
 
Cool Master schrieb:
9700 XT oder 7900 XTX? Die Architektur war nie eine Frage bei mir
Ist ja auch Ok, aber dann nen doch einfach die Karten und brich es nicht auf die Architektur runter.
 
  • Gefällt mir
Reaktionen: Taxxor
Cool Master schrieb:
Ich stand ja erst vor ~2 Wochen vor der Frage: 5090, 9700 XT oder 7900 XTX? Die Architektur war nie eine Frage bei mir. Mir ist wichtig was am Ende auf dem Bildschirm steht. Klar, die 5090 wäre die beste Lösung aber bei so viel negativ Meldungen sei es fehlende Recheneinheiten, Stromstecker usw. ist es die 7900 XTX geworden und ehrlich gesagt ich spiele in 4k alles mit 60 bis 240+ FPS. Bei einem 4k 120 Hz Bildschirm also alles im Lot. Die 9700 XT ist rausgefallen weil nur 16 GB VRAM. Mit 8 GB mehr kann man halt doch einiges machen.
Für die Zukunftssicherheit aber sicher die schlechteste Lösung, kein AI, schlechte RT Performance und keine neueren AI-Upscaling/Reconstruction/FG Updates. Außer du brauchst den VRAM wirklich.
 
Taxxor schrieb:
Die Wahl der konkreten DLSS Version wäre noch mal ein weiteres Dropdown Menü mit weiteren Auswahlpunkten, das er einbauen müsste.
Wenn man die ganzen DLSS Versionen generell mitliefern würde, wäre der Aufwand zwar sehr gering, aber eben trotzdem da und müsste trotzdem gerechtfertigt werden mit einem Komfortgewinn der Nutzer, und den sehe ich einfach nicht
Tun wir mal nicht so das 30min so viele Probleme machen bei der Entwicklung eines spiel. Da kostet die Kaffee pause eines teams um ein vielfaches mehr. Es ist ja nicht so das diese option Nachteilig für ein alterndes spiel ist.
 
Cool Master schrieb:
Die Architektur war nie eine Frage bei mir.
Dann schreib doch aber auch nicht was von der RT Leistung zwischen RDNA 3 und 4, denn die Architektur vergleichst du ja nicht, die RT Leistung von RDNA 4 ist bedeutend höher als die von RDNA 3.
Der Unterschied den du beschreibst kommt doch nur daher, dass du eine Ober- mit einer Mittelklasse Karte vergleichst.

Da kann ich auch sagen die 4090 ist in RT schneller als ne 5080 also ist Ada sogar besser in RT als Blackwell. Denn dass die 4090 für ihre ~15-20% mehr RT Leistung auch 50% mehr RT Cores besitzt, ist da schon von Relevanz wenn ich eine Aussage über die RT Leistung zweier Architekturen tätige.

Ergänzung ()

Northstar2710 schrieb:
Tun wir mal nicht so das 30min so viele Probleme machen bei der Entwicklung eines spiel.
Natürlich nicht, aber so läuft es nun mal, wenn etwas nicht unbedingt nötig ist, wird es halt nicht gemacht.

Es wäre auch wenig Aufwand, die FSR Version von älteren Spielen per kurzem Patch anzuheben, sobald ein Spiel älter als ein Jahr ist, macht sic hden Aufwand aber trotzdem so gut wie niemand
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer
Ich freue mich dass AMD nachlegt. Leider finde ich es traurig dass RDNA 3.5 nicht kompatibel ist. Die ganzen handheld und APUs wie StrixHalo basieren darauf und auch die Nachfolger basieren aus diesen Architekturen.
 
ChatGehPeeTee schrieb:
Von welcher bist du eig gekommen? Finde die Grafikkartenauswahl im Moment echt bekloppt.

Ja die Auswahl ist aktuell echt fürn Hintern... Ich bin von einer EVGA RTX 2070 gekommen. Die hatte ich auch nur weil meine 1080 kaputt ging und die wurde auf Garantie getauscht. Problem an der Karte sind halt die 8 GB was mir nicht langt. Für SD habe ich damit kein großen Test gemacht. Da das erst im letzen Jahr dazu gekommen ist und es so oder so als "Low RAM" gilt.

TheInvisible schrieb:
Für die Zukunftssicherheit aber sicher die schlechteste Lösung, kein AI, schlechte RT Performance und keine neueren AI-Upscaling/Reconstruction/FG Updates. Außer du brauchst den VRAM wirklich.

Wird eh zum Großteil für SD und LLM eingesetzt da ist RAM halt King und auch wenn es keine explizite "AI Karte" ist ist sie auf jeden Fall besser als die 2070 oder der M1 Max, auch wenn der mehr VRAM hat (bis zu 64 GB) spürt man halt das es ein SoC ist und die GPU halt nicht die schnellste ist. In Sachen SD ist es für ein Bild auf dem M1 Max bei ~2 Min. und auf der 7900 XTX bin ich bei 20-30 Sekunden. Natürlich bei gleichem Modell und Prompt.
 
Seit 20 Jahren baue ich meine PC zusammen und es ist das erste mal das ich in einen Build verliebt bin. Am liebsten würde ich sie ausbauen und Abend neben mir in's Bett legen: 9700x und 9070 XT 💋 Gemessen an meiner gesamten Zeit die ich am PC verbringe sind davon ca. 35% für Gaming aber aktuell kann ich einfach nicht aufhören mit spielen weil die Frames gefühlt überall unendlich sind...
 
Northstar2710 schrieb:
warum muss es denn die dlss version ersetzen, es kann doch genauso eine Auswahl bereitstellen. ob ich jetzt zwischen FSR/xess/dlss wähle oder zwischen versionen von dlss. So das die Originale immer verfügbar bleibt.
Mach es doch gar nicht!?
Es "überschreibt" die Einstellung. Warum sollte der eine Hersteller die Option anbieten, ein Produkt Dritter zu nutzen? Das ergibt doch von der Forderung keinen Sinn. NV bietet Treiberseitig die Option die Einstellung zu überschreiben mit ihrer eigenen Software. Was Dritte machen ist da doch gar nicht relevant. Man müsste wie oben beschrieben die Entwickler in die "Pflicht" nehmen, wenn sowas gewünscht ist - aber ich behaupte, das wird nix, weil diese eben in aller Regel bis auf Ausnahmen keinen Livetime Support für ihre Software bereit stellen.

Taxxor schrieb:
Das was du da beschreibst ist aber nicht Upscaling.

Upscaling bedeutet immer dass die Renderauflösung geringer als nativ ist, du skalierst ja auf eine höher Auflösung herauf.
Wo steht das denn definiert!?
Upscaling ist ein Mechanismus um von einer Auflösung x auf eine Auflösung y hoch zu skalieren. Ob bzw. was davon "nativ" ist (was auch immer nativ sein soll - es gibt kein nativ in diesem Zusammenhang), ist doch völlig irrelevant.

Und wenn man das mal weg blendet, also dass die Ausgabe auf einem aktuell üblichen LCD, LED oder was auch immer Gerät erfolgt - auf nem alten CRT gibt es bspw. keine native Auflösung... So kann man natürlich beliebig die Renderauflösung wählen (in dem man bspw. Quality, Performance, ... Present nutzt) und in Abhängigkeit der theoretischen Ausgabeauflösung kann man da fast beliebig Kombinationen puzzeln.

Es ist technisch kein Problem bspw. auf einem WQHD Display via DLSS Performance auf UHD hoch zu skalieren und dann von UHD auf WQHD zu downsampeln. Dann hast du letztlich die Renderauflösung FHD im Spiel, gehst via DLSS Performance auf die vierfache Pixelanzahl hoch und rechnest das dann via DSR wieder runter. Oder über ne Custom Auflösung wenn das Spiel sich dabei zickig hat und DSR nicht funktioniert.
Taxxor schrieb:
Und da wurde früher immer bessere Performance gegen schlechtere BQ eingetauscht bei den spatialen Upscalern wie es FSR1 z.B. einer war.
Ab DLSS2 fing es dann an, dass die schlechtere BQ immer weniger zu erkennen war und mittlerweile ist sie eben oft sogar besser
Das ist doch aber ein ganz anderes Thema. DLSS ist potentiell in der Lage durch die Art und Weise Bildinformationen in das Frame einzufügen, die ohne dieses gar nicht gerendert wurden wären. Aber das ist eben keine Neuheit von DLSS oder Upscaling allgemein. Sondern einfach dem geschuldet, dass letztlich die Informationen verfügbar sind und anders als beim rendern in der niedrigen Auflösung und 1:1 Ausgabe dort eben nicht fehlt.

Einen anderen Effekt mit ähnlichem Ausmaß kann man auch mit Downsampling erreichen. Da wird nur halt dann höher aufgelöst gerendert, also mehr Details werden sichtbar und bleiben, da sie eben dann im Zweifel vorhanden sind, weiter sichtbar, wenn auch mit schlechterer Optik als ohne DS, wenn man es runter skaliert.

Die Infos die ein DLSS an mehr dem Bild hinzufügt kommen ja nicht aus der Luft, das wurde dem Ding irgendwo antrainiert bzw. es wurde explizit für diese Art der Bildhinzugewinnung geschaffen.

Zu sagen, dass Upscaling sich jetzt dazu mausert, die BQ zu steigern ist halt dahingehend irreführend, weil es das schon immer konnte und schon immer so genutzt wurde. Man hat nur halt immer falsch verglichen. Durch Upscaling kommen Bildinformationen dazu. Und diese kommen eben wegen Upscaling dazu. Selbst wenn das früher in den Anfängen von sagen wir WQHD auf UHD skaliert im gesamten schlechter war als direkt UHD zu rendern - so ist bei einem fairen Vergleich WQHD zu UHD@Upscaled doch dennoch ein positiver Effekt vorhanden. Und das schon immer. Die Frage damals war nur, ob die Nachteile in den Anfängen die Vorzüge soweit aufgefressen haben, dass man es dennoch nicht nutzen wollte!? Denn Anfangs kamen ja noch sehr viele Probleme mit Upscaling dazu.
Northstar2710 schrieb:
Er baut ja schliesslich schon das entsprechende plugin ein damit Dlss im spiel gewählt werden kann. Wo ist das mehrarbeit für den spiele Entwickler wenn das Plugin der Spiele Engine diese Auswahl funktion beherscht?
Du hast da eine zu einfache Vorstellung...
Der Entwickler baut das ein was er im Zweifel über die Lebzeit der Software supporten kann und will. Und exakt nur das. Alles was er im Zweifel gar nicht wissen kann, weil das morgen völlig anders ausschaut wird er nicht einbauen.

Dass da jetzt über Mittel und Wege die Einstellung änderbar ist, weil der Treiber die Features sozusagen mitbringt und die Schnittstelle für die genannten DLSS Versionen bspw. die selbe ist - also spielseitig völlig transparent durch geht, was da in der Schnittstelle angesprochen wird, ist doch völlig losgelöst davon was die Entwickler für Aufwände haben.
NV gibt im Treiber die Option das, was hinter der Schnittstelle sitzt zu drehen.

Vereinfacht gesagt, wenn ich am Hoteltresen sage, ich möchte ein Zimmer und das Hotel Management entscheidet, alle die ein Zimmer buchen, bekommen aktuell die Präsidentensuite ohne dass sie davon wissen oder das was kostet, dann hast du exakt die Konstellation wie sie heute praktisch läuft. Die Schnittstelle in der Mitte definiert einfach, dass anstatt die Rümpelkammer die beste Suite genutzt wird. Was aber nicht passieren wird ist, wie du oben angedeutet hast - warum dann dort nicht auch das Zimmer vom Nachbarhotel über die Straße angeboten wird. Ja weil das nicht dazu gehört...
 
Balikon schrieb:
Wenn ich richtig informiert bin, läuft FSR 4(.1) auf allen Spielen, die FSR 3 unterstützen.
Ab 3.1 über den Treiber ja. Über das gewisse Tool auch mit dlss als Basis.
 
  • Gefällt mir
Reaktionen: Balikon
Taxxor schrieb:
Es wäre auch wenig Aufwand, die FSR Version von älteren Spielen per kurzem Patch anzuheben, sobald ein Spiel älter als ein Jahr ist, macht sic hden Aufwand aber trotzdem so gut wie niemand
... und dann geht irgendwas nicht und der Shitstorm ist groß. So liefert man es wie man es liefert. Der Kunde kann über den Treiber die Version überschreiben und wenn dann doch irgendwo irgendwas nicht geht, sind alle fein raus und können sagen, das was im Paket geliefert wird funktioniert, das manuelle Ändern auf was anderes eben nicht.

Ehrlicherweise müsste ich lügen wo so eine Konstellation überhaupt real praktisch fabriziert wird!?
Bei Proton auf dem Steamdeck - viel mehr fällt mir nicht ein, wäre die Konstellation ähnlich. Aber selbst da mit der großen Community und dem Fokus auf Gaming zeigt sich, mal eben einfach tauschen ist ohne Test nicht. Und selbst das was heute mal in die ProtonDB rein geschrieben wurde, muss morgen nicht immer noch stimmen.
 
fdsonne schrieb:
Ob bzw. was davon "nativ" ist (was auch immer nativ sein soll - es gibt kein nativ in diesem Zusammenhang
Das was dein Monitor halt an Pixeln für die Ausgabe zur Verfügung hat.
Rendere ich in einer niedrigeren Auflösung als das, betreibe ich Upscaling, rendere ich in einer höheren, betreibe ich Downsampling.
Man kann nun noch anführen, dass man mit DLSS Quality eigentlich Supersampling betreibt, weil wir ja mehr Bildinformationen als nativ rausbekommen trotz geringerer Auflösung(was ja der Grund ist warum es mittlerweile besser als nativ aussehen kann), aber der Einfachheit halber bleiben wir lieber beim Begriff Upscaling.

Die Kombination aus Upscaling und anschließendem Downsampling, das wäre heute ja DLDSR, existiert zwar, realistischerweise glaube ich aber kaum, dass mehr als 1% der Leute sowas nutzen geschweige denn daran denken, wenn sie den Begriff Upscaling hören, denn wenn man diese Begriffe verwendet, dann redet man idR über das was passiert, bevor das Bild auf den Monitor kommt, und das wäre in dem Fall Downsampling.

Wenn ich Upscaling + anschließendes Downsampling betreibe, sage ich nicht ich betreibe Upscaling, sondern ich sage entweder ich betreibe Upscaling+Downsampling oder einfach nur ich betreibe Downsampling, weil das der relevante Part ist.
fdsonne schrieb:
Zu sagen, dass Upscaling sich jetzt dazu mausert, die BQ zu steigern ist halt dahingehend irreführend, weil es das schon immer konnte und schon immer so genutzt wurde. Man hat nur halt immer falsch verglichen. Durch Upscaling kommen Bildinformationen dazu. Und diese kommen eben wegen Upscaling dazu. Selbst wenn das früher in den Anfängen von sagen wir WQHD auf UHD skaliert im gesamten schlechter war als direkt UHD zu rendern - so ist bei einem fairen Vergleich WQHD zu UHD@Upscaled doch dennoch ein positiver Effekt vorhanden.
Den Umstand werden aber die wenigsten in Zusammenhang mit Upscaling bringen.
Wenn man einen UHD Monitor hat, sah WQHD auf UHD hochskaliert natürlich auch schon vor DLSS2 besser aus als WQHD.
Aber der Vergleich ist ja das auf die Bildschirmauflösung skalierte Bild vs das Bild welches nicht skaliert wurde, in dem Fall natives UHD.

Wenn in einer höheren als der nativen Bildschirmauflösung gerendert wird, und dann Downsampling betreibt auf die native Auflösung, also auf einem WQHD Monitor in UHD rendern und dann in WQHD ausgeben, dann kenne ich das einfach nur als Downsampling.



Aber um nochmal auf den Ursprung zurück zu kommen
fdsonne schrieb:
Du kannst doch die höhere Performance schon immer in mehr BQ eintauschen.
Man konnte die Performance verringern und dafür mehr BQ bekommen durch Downsampling, oder die Performance erhöhen und dafür weniger BQ bekommen durch einfaches Upscaling.
Auch wenn ich auf eine höhere als die Monitorauflösung hochskaliere und im Anschluss Downsampling betreibe, verliere ich ja trotzdem Performance ggü dem rendern in Bildschirmauflösung im Tausch gegen bessere BQ(weniger Performanceverlust als bei reinem Downsampling, aber auch weniger BQ Gewinn)

Jetzt geht es ja darum, dass man sowohl mehr Performance als auch gleichzeitig mehr BQ bekommen kann, weil ein in niedrigerer Auflösung gerendertes Bild welches per DLSS skaliert wird, besser aussieht als ein natives Bild+TAA.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tevur
Zurück
Oben