News Open Source: AMD veröffentlicht FidelityFX SDK mit FSR3-Quellcode

N0Thing schrieb:
Klingt für mich nicht sonderlich dramatisch.
Ist auch nicht korrekt. Es betrifft sämtliche HUD Elemente und es ist kein Flimmern, sondern um diese Elemente herum läuft der Bildinhalt nur mit halber Framerate, so z.B. auch der Ausdauer/Lebenspunkte-Bereich unten in der Mitte.
Da hast du dann ständig einen deutlich sichtbaren Kasten drum herum, innerhalb dessen alles mit halber Bildrate läuft.
Das ist die Art, wie Ubisoft Artefakte bei den HUD Elementen verhindern möchte.


Bei DLSS FG hast du sowas nicht. Statische HUD Elemente sind grundsätzlich nicht beeinträchtigt.
Da kann es maximal vorkommen, dass bei dynamischen Elementen wie Missionsmarkern, die sich auch im Bild mit bewegen, Artefakte auftreten können, was aber in den letzten FG Versionen eigentlich so gut wie gar nicht mehr vorkommt.
 
  • Gefällt mir
Reaktionen: Quidproquo77
jonderson schrieb:
Hardware ist nicht Closed Source.
Sondern Hardware muss über ihre Treiber genaue OFFENE APIs ansprechen können. Genau so funktionieren APIs wie DX, Vulkan, OpenGL und vieles vieles mehr.
Das sind zwei völlig verschiebende Sachen. Nur weil etwas Standards implementiert, ist es noch lange nicht Open Source. Das gilt für Hard- und Software.
Die meiste Hardware ist NICHT Open Source. Kannst AMD ja mal nach genauen Plänen zu deren Chips fragen, werden die nicht rausrücken.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Taxxor schrieb:
Ist auch nicht korrekt. Es betrifft sämtliche HUD Elemente und es ist kein Flimmern, sondern um diese Elemente herum läuft der Bildinhalt nur mit halber Framerate, so z.B. auch der Ausdauer/Lebenspunkte-Bereich unten in der Mitte.
Kommt tatsächlich darauf an, wie es implementiert wurde.

"[05:16]LukeFZ: fsr3 provides three different options to render the output ui
[05:17]LukeFZ: either you give it the ui, you give it the output without the ui, or you give it a function that renders the ui"

Nutze FSR3 seit gestern in unter anderem The Last Of Us und bin begeistert. +50% FPS gegenüber gleichwertigen DLSS2-Settings.

Da nehm ich die Artefakte auf dem HUD gern in Kauf.
Hänge mal ein Beispiel für die "Artefaktbildung" beim drehen der Kamera an.

Screenshot 2023-12-17 052956.png
 
  • Gefällt mir
Reaktionen: Snoop7676 und MrHeisenberg
Taxxor schrieb:
Ich bin erst mal gespannt, wie in zukünftigen Titeln bei deren FMF Implementierung mit HUD Elementen umgegangen wird. Denn das ist weit entfernt von "einwandfrei".
Nvidia hat mit solchen transparenten Elementen doch die gleichen Probleme.
Taxxor schrieb:
Überzeugt mich ohne entsprechende Belege persönlich nicht. Mal davon abgesehen, dass es überhaupt nicht zeitkritisch ist ein Bild zwischen zwei Bilder einzufügen, wenn die beiden Bilder bereits vorliegen. Die Erstellung des Zwischenframes kostet meinetwegen etwas Vram, aber extra Hardware ist dafür nicht nötig.

Ich halte das für Marketing.
 
Quidproquo77 schrieb:
Dann bitte den Link zur Quelle mit dem entsprechenden Beweis.

Das läuft nicht auf Ampere. Der Treiber lässt es nicht zu, auch nicht auf Entwicklerebene.
Welchen Hack hat @sEnTinel benutzt und wo sind die Ergebnisse aufgeführt?
Hier der Link: https://www.computerbase.de/forum/t...koennte-dlss-blockieren.2149515/post-28366887

Quidproquo77 schrieb:
Dazu müsste die technische Begründung unabhängig überprüfbar sein.
Bzw. zumindest schlüssig sein. Die Erzeugung des Zwischenbildes erfolgt nach der Berechnung der beiden "echten" Frames und wird mit etwas Verzögerung dann dazwischen eingefügt.
Nein, muss es nicht unbedingt. Es ist proprietär bzw. closed source. 100% kannst du das so wie du es willst eh nicht überprüfen.

Quidproquo77 schrieb:
AMD zeigt, dass FG gut auf Ampere läuft. Damit ist Nvidias Aussage angreifbar.
Das ist kein Argument. Die Frage ist nicht, ob man es auch kann, sondern wie gut man es kann und DLSS sieht bekanntermaßen fast immer besser aus als FSR, aber man glaubt auch hier eher an ne Verschwörungstheorie.
AMDs FG läuft erst ab 60 FPS annehmbar. Nvidia empfiehlt 40 FPS.
Woher kommt die Differenz von 20 FPS? Könnte das nicht vielleicht an den OFA liegen?

Natürlich läuft DLSS und FG theoretisch auch auf anderen Karten oder der Konkurrenz, aber dann leidet die Qualität. AMD zeigt ja, dass es geht, aber Nvidia hat einen anderen Anspruch als nur "läuft".
Ist bei XeSS nicht anders. Das sieht und läuft auf Intelkarten am besten, aber dort hinterfragt das niemand.

Quidproquo77 schrieb:
Überzeugt mich ohne entsprechende Belege persönlich nicht. Mal davon abgesehen, dass es überhaupt nicht zeitkritisch ist ein Bild zwischen zwei Bilder einzufügen, wenn die beiden Bilder bereits vorliegen. Die Erstellung des Zwischenframes kostet meinetwegen etwas Vram, aber extra Hardware ist dafür nicht nötig.
Und wer berechnet das Zwischenbild? Bei Nvidia die OFA. Bei AMD wird die Renderpipeline damit belastet.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Ergänzung ()


Davon höre ich zum ersten Mal. Kann ich mir nicht vorstellen.

Nennt sich Panel-Self-Refresh und das gab schon bei den Laptops, bevor G-Sync angekündigt wurde. Da es ein Bestandteil von eDP 1.3 (Erste Demo soweit ich weiß war September 2011) verpflichtet ist, können theoretisch alle heutigen Laptop "AdaptiveSync", ob die Hersteller es sauber implementiert haben ist eine andere Sache. Der Name AdaptiveSync wurde nur eingeführt für DP, weil die PSR Komponente dort immer noch nur optional ist. Heißt wenn der Laptop-Hersteller ein Display ohne G-Sync Ultimate Modul reinbaut, ist das aber praktisch immer noch Display G-Sync Compatible also AdaptiveSync!

G-Sync hat schlicht bei eDP abgeguckt und dann ein eigenes Modul rausgebracht, bevor die VESA es dann selbst gemacht mit den offiziellen Standard.

Was glaubst wieso AMD nach nicht Mal drei Monaten eine lauffähige FreeSync Demo vorstellen konnten. Es waren tatsächlich die, welche die Idee hatten beim VESA-Gremium, das DP das PSR vom eDP übernimmt. Und die VESA gab das mit mit dem neuen Namen "AdaptiveSync" dann offiziell Mai 2014 frei!

Schade das AdaptiveSync immer noch verpflichtend ist.
Aber immerhin gibt es jetzt eine Zertifizierung seit letztem Jahr!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Simon#G und CyberdyneSystem
MrHeisenberg schrieb:
Das ist absolut kein Argument.
Die Tatsache, dass FSR FMF auf allen GPUs vergleichbar läuft, zeigt, dass die Erzeugung eines interpolierten Frames nicht so Zeit und Latenzkritisch ist, wie es Nvidia gerne darstellen möchte.

Für mich überwiegen ganz klar die Hinweise, dass Nvidia in diesem Fall Upselling betreibt und eine wirkliche Limitierung auf Ada Lovelace Hardware und dem OFA eine strategische Entscheidung ist, beweisen kann man das aber nicht mit Sicherheit.

Dieser Sentinel ist mir mit seinem Beitrag viel zu unkonkret.

MrHeisenberg schrieb:
DLSS sieht bekanntermaßen fast immer besser aus als FSR, aber man glaubt auch hier eher an ne Verschwörungstheorie.
Das Upscaling ist deutlich besser, die Frame Generation finde ich durch den offenen Ansatz von AMD besser gelöst.
MrHeisenberg schrieb:
AMDs FG läuft erst ab 60 FPS annehmbar. Nvidia empfiehlt 40 FPS.
FSR FMF läuft in Avatar auch mit niedrigen Basis FPS gut.
 
  • Gefällt mir
Reaktionen: Snoop7676
Quidproquo77 schrieb:
Die Tatsache, dass FSR FMF auf allen GPUs vergleichbar läuft, zeigt, dass die Erzeugung eines interpolierten Frames nicht so Zeit und Latenzkritisch ist, wie es Nvidia gerne darstellen möchte.
Es läuft aber nicht vergleichbar. FMF benötigt mindestens 60 FPS, FG aber nur 40.

Quidproquo77 schrieb:
Dieser Sentinel ist mir mit seinem Beitrag viel zu unkonkret.
Er ist Spieleentwickler und wird mit Sicherheit nicht einfach so irgendwas leaken.

Quidproquo77 schrieb:
Das Upscaling ist deutlich besser, die Frame Generation finde ich durch den offenen Ansatz von AMD besser gelöst.
Das kannst du finden wie du willst. Fakt ist, dass FG min. 40 FPS benötigt und FMF min. 60 als Basis, was deine Aussage entkräftet. Es gibt also selbst für den Enduser einen nachvollziehbaren Unterschied. Den kannst du gerne ignorieren, aber damit erledigt sich dann jegliche weitere Diskussion.

FG läuft auch für mich mit 30 FPS oder etwas weniger sehr gut. Einige andere finden das nicht zumutbar.
Ich selbst habe FMF bisher nicht getestet und kann mich nur auf die CB Tests stützen, welche genau das widerspiegeln: 60 FPS sollten die Basis sein.

When using AMD FSR 3 frame generation with any upscaling quality mode OR with the new “Native AA” mode, it is highly recommended to be always running at a minimum of ~60 FPS before frame generation is applied for an optimal high-quality gaming experience and mitigate any latency introduced by the technology.
https://community.amd.com/t5/gaming/amd-fsr-3-now-available/ba-p/634265
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RogueSix
Fegr8 schrieb:
Heißt wenn der Laptop-Hersteller ein Display ohne G-Sync Ultimate Modul reinbaut, ist das aber praktisch immer noch Display G-Sync Compatible also AdaptiveSync!
Gsync wird auf notebooks komplett ohne eigenen chip realisiert, auch ultimate
https://www.trustedreviews.com/news/nvidia-g-sync-ultimate-gaming-notebooks-announced-2926940

"the G-Sync Ultimate Gaming Notebooks range, unlike the desktop GPUs, it’s the Notebook GPU that is directly driving the panel"
"
Moreover, it means no extra cost to laptop manufacturers, as is the case with G-Sync desktop monitors where a separate module is required.."


Naja, die Zertfifizierung wird sich nvidia wohl auch bei notebooks bezahlen lassen, denke ich.

Ergänzung ()

Fegr8 schrieb:
Nennt sich Panel-Self-Refresh und das gab schon bei den Laptops, bevor G-Sync angekündigt wurde. Da es ein Bestandteil von eDP verpflichtet ist, können theoretisch alle heutigen Laptop "AdaptiveSync", ob die Hersteller es sauber implementiert haben ist eine andere Sache.
Ich bezweifle, dass alle heutigen Panels zu adaptivesync fähig sind, die meisten amoled Notebooks unterstützen kein (internes) adaptivesync, auch wenn es eDP an sich tut.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Da müsste CB uns auf die Sprünge helfen, wo genau AMD eine Verbesserung des Upscalers als Neuerung von FSR3 verkündet hat @Jan, @Wolfgang.
Ich finde jedenfalls weder in der Dokumentation noch auf der Website Hinweise, dass der Upscaler sich von FSR 2.2.2 unterscheidet, sondern lediglich, dass dieser gleich bleibt.

Das ist auch die Aussage von Hardware Unboxed in ihrem Pinned Comment im aktuellen FSR Video.

Ich hab jedenfalls das Gefühl ComputerBase liegen veraltete/falsche Informationen vor.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jlnprssnr
Suspektan schrieb:
Ich bezweifle, dass alle heutigen Panels zu adaptivesync fähig sind, die meisten amoled Notebooks unterstützen kein (internes) adaptivesync, auch wenn es eDP an sich tut.

Wenn sie eDP 1.3 oder höher verwenden ist die Hardwareseitige Unterstützung vorhanden!
Aber vielleicht benutzten diese noch eDP 1.2 oder haben intern sogar nur einfach DP reinbaut.
 
Quidproquo77 schrieb:
Nvidia hat mit solchen transparenten Elementen doch die gleichen Probleme.
Kannst du ein Video verlinken wo man solche Probleme sieht?
Diese “ausgeschnittenen” Bereiche in denen FG deaktiviert ist, hab ich bei Nvidia noch nie gesehen
 
MrHeisenberg schrieb:
Es läuft aber nicht vergleichbar. FMF benötigt mindestens 60 FPS, FG aber nur 40.
Auch wieder eine Aussage von AMD bzw. Nvidia. Ich finde beides funktioniert gleich gut.
Sprich FSR3 FMF auch mit einer Basis von 40 Frames in Avatar:Frontiers of the Pandora auf einer RTX 4080.

Das ist aber auch das bisher erst zweite Spiel in dem AMDs Frame Generation Lösung funktioniert wie sie soll.
MrHeisenberg schrieb:
Er ist Spieleentwickler und wird mit Sicherheit nicht einfach so irgendwas leaken.
Er sagt ja auch, dass es auf einer 3090 schon ganz gut laufen würde. Dementsprechend müsste es auf einer 3080 oder 3070 doch auch laufen, denn deren OFA Einheit ist auch nicht langsamer.

Brian Cantanzano meint dazu folgendes:

Screenshot 2023-12-17 133520.png

Ich würde so weit gehen und sagen: Ja das läuft auch, aber vielleicht etwas schlechter.
Dann dauert die Erstellung des Zwischenbildes vielleicht etwas länger. Das kann schon sein.
Die Dokumentation von Nvidia hierzu finde ich im Netz nicht mehr.

MrHeisenberg schrieb:
Das kannst du finden wie du willst.
Es amüsiert mich wie einige User einfach irgendwelche Aussagen eines Boardies ohne Belege für bare Münze nehmen und Unternehmen die häufig damit aufgefallen sind voreilig alte Zöpfe abzuschneiden zu verteidigen.
MrHeisenberg schrieb:
Fakt ist, dass FG min. 40 FPS benötigt und FMF min. 60 als Basis, was deine Aussage entkräftet.
Das sind Marketingangaben von AMD und Nvidia. Der Test hier sagt etwas anderes. Auch die Messungen.
Durch und durch auf demselben Niveau, auch die Latenzen stimmen.
MrHeisenberg schrieb:
Den kannst du gerne ignorieren, aber damit erledigt sich dann jegliche weitere Diskussion.
Ich diskutiere sowieso ungern mit Markenfans, daher passt mir das ganz gut.;)
Forspoken bzw. Aveum sind alt und erhielten nicht die aktuellen FSR Verbesserungen.
Damit zu argumentieren zeigt mir: Du möchtest warum auch immer, dass FG als besser wahrgenommen wird als FSR FMF ist. Beide Techniken sind aber auf Augenhöhe und damit ist Nvidias Frame Generation ab heute für GeForce Nutzer in neuen Spielen fast nutzlos. AMD müsste lediglich die Kombination mit DLSS freischalten, was sie aber aufgrund des unterlegenen Upscalers noch sperren.
Ergänzung ()

Taxxor schrieb:
Kannst du ein Video verlinken wo man solche Probleme sieht?
Ob das bis heute in Formel 1 behoben wurde, weiß ich nicht, ich spiele das Spiel nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snoop7676
Quidproquo77 schrieb:
Ich würde so weit gehen und sagen: Ja das läuft auch, aber vielleicht etwas schlechter.
Dann dauert die Erstellung des Zwischenbildes vielleicht etwas länger. Das kann schon sein.
Ja richtig, aber genau das ist der Punkt. Man will keine schlechtere Lösung, sondern die beste.
Natürlich geht alles irgendwie auch anders, führt aber nicht zum gleichen Ergebnis.
Du kannst Ray Tracing auch via Software auf jeder Hardware laufen lassen, allerdings mit < 1 FPS oder du machst es wie Lumen, verlierst dabei aber massiv an Qualität.
 
Quidproquo77 schrieb:
Ob das bis heute in Formel 1 behoben wurde, weiß ich nicht, ich spiele das Spiel nicht.
Das ist, wie gesagt, nicht das gleiche Problem.

Da geht es um dynamische Elemente, die sich mit der Spielegrafik verschieben, aber selbst da siehst du keine Boxen um diese Elemente, bei denen das Spiel mit halben FPS läuft, sondern es können eben mal Artefakte an den Elementen auftreten.
Und die sind in F1 im Video mit der aktuellen Version auch deutlich weniger auffällig und nur wirklich gut zu sehen bei 3x Zoom und 10% Speed.

Bei Avatar und FMF betrifft es sämtliche HUD elemente, auch die statischen, die nichts mit der 3D-Welt zu tun haben und man sieht es ohne Zoom und Frame by Frame Analyse
 
Zuletzt bearbeitet:
MrHeisenberg schrieb:
Er ist Spieleentwickler
Und du arbeitest vermutlich für Nvidia.

Akzeptierst einfach nicht wenn der Konkurrent fast immer gleichwertige Qualität zu geringeren Preisen bei politisch korrektem Vorgehen anbietet.
 
  • Gefällt mir
Reaktionen: SweetOhm und jonderson
Quidproquo77 schrieb:
Er sagt ja auch, dass es auf einer 3090 schon ganz gut laufen würde. Dementsprechend müsste es auf einer 3080 oder 3070 doch auch laufen, denn deren OFA Einheit ist auch nicht langsamer.
Er sagte
Sie könnten es wohl auch auf einer 3090 freigeben. Darunter würde auch ich sagen ist es aufgrund der oben von mir aufgelisteten Gründe eng.

Und ja, Nvidia hatte damals bereits gesagt, dass es, um auf Ampere zu laufen, noch einger weiterer Optimierungsarbeit bedarf.

Es kann also auch sein, dass wir mit RTX5000 nicht, wie von einigen hier heraufbeschworen, ein weiteres Feature bekommen, welches dann nur exklusiv auf den 5000ern läuft, sondern im Gegenteil, mit einem "DLSS4" dann auch Frame Generation von 3000-5000 möglich gemacht wird.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Taxxor schrieb:
Es kann also auch sein, dass wir mit RTX5000 nicht, wie von einigen hier heraufbeschworen, ein weiteres Feature bekommen, welches dann nur exklusiv auf den 5000ern läuft, sondern im Gegenteil, mit einem "DLSS4" dann auch Frame Generation von 3000-5000 möglich gemacht wird.

Ist aber doch sehr unwahrscheinlich nach hier (und ich glaube sogar von dir selbst) schon öfter ins Feld geführter Logik.
Wenn AMD nur deswegen Sachen großzügig für alle öffnet, weil sie müssen (wenig Marktanteil etc.), dann wird Nvidia doch wohl kaum die 3xxx Serie so aufwerten, dass die Leute weniger 4er und 5er Serie kaufen, wenn sie nicht müssen.

Sein kann natürlich alles, vielleicht verkaufen sie die 5er Serie zum Selbstkostenpreis oder querfinanzieren für die Gamer aus Liebe weil sie eh nicht mehr wissen wohin mit der KI-Kohle 🙄.
 
  • Gefällt mir
Reaktionen: up.whatever und jonderson
OldboyX schrieb:
Ist aber doch sehr unwahrscheinlich nach hier (und ich glaube sogar von dir selbst) schon öfter ins Feld geführter Logik.
Nachdem Nvidia selbst bereits gesagt hat dass es möglich gemacht werden kann, und sie sich mit DLSS 3.5 ja auch dafür entschieden haben, Ray Reconstruction für alle RTX GPUs freizugeben, fände ich das wirklich nicht abwegig.

Und wenn die 5000er rauskommen gibt es auch nichts mehr aus der 3000er zu kaufen
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Zurück
Oben