Test DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

@R4nd0 Jeder kann von sich behaupten "Engine Dev" zu sein. Dazu gehört nicht viel :)

Dieser Channel ist das letzte und wer das nicht merkt....

Es gab und gibt ja auch genügend "Ärzte" die behauptet haben, dass Corona nie existiert hat.
 
Grestorn schrieb:
Diese YouTube-Channels sind pure Agitation und lassen jede Menge Fakten weg und stellen auch Dinge in ein falsches Licht. Wer solchen Channels glaubt, hat in meinen Augen schon verloren.
Diese YouTube Channels? Ich habe dir einen Engine Dev verlinkt, möchtest du nicht von intelligenten und fähigen Menschen lernen die wirklich von ihrer Materie Bescheid Wissen? Ich definitiv, und da geht es nicht um Glaube, wir bewegen uns in der Tech Welt.
Ergänzung ()

@Grestorn Was hat den Corona mit Game Engines zu tun 🤨. Mir ist es Egal was du Glaubst, es gibt Technische Sachverhalte die nunmal sind wie sie sind. Das ist eher Komplex und wir sind auf Menschen aus der Branche angewiesen die uns erklären wie Bild auf den Bildschirm kommt. Einem Coder der offensichtlich weis was er redet ist einem Journalisten zu bevorzugen, mMn. Hast du etwa ausgelernt? 😇
 
Zuletzt bearbeitet:
mario_mendel34 schrieb:
alle Informationen eines DLSS-Frames sind echt, gewonnen aus der temporalen Akkumulation, da wird nichts interpoliert. Das immer als Upscaling zu bezeichnen, bestärkt nur die Meinung der "Native Warrior", die DLSS als Teufelszeug abtun.
Da würde ich widersprechen. Also wenn Du jetzt von DLSS SR spricht. "DLSS Frame" ist sehr weit gefasst, weil da eben auch Frame Generation und Denoising enthalten sein kann.

Wenn DLSS SR Pixel in einen Frame rendert, die dort hinein passen aber ursprünglich nicht enthalten waren, handelt es sich faktisch um eine Interpolation (nur eben nicht bikubisch, etc.). Es kommen eben auch nicht alle neu erzeugten Pixel aus der temporalen Komponente (bzw. vorherigen Frames). Da kommen noch sehr viel mehr Kniffe zum Zuge. DLSS SR erkennt meines Wissens z.B. auch aufgrund von Trainingsdaten, wie etwas aussehen sollte (Wahrscheinlichkeit, usw). Weicht das Bild davon ab, wird eben nach Wahrscheinlichkeit aufgefüllt. Ein gutes Beispiel wären durch fehlende Pixel zerschossene Stromleitungen oder Zäume. DLSS SR "weiß" (durch Mustererkennung, der Paradedisziplin der Transformer KI) wie so etwas aussehen müsste. Nvidia wirbt doch selbst mit KI Rekonstruktion (faktisch eine Art Interpolation).

Mach Dir doch mal den Spaß, kopiere Deine Aussage in ChatGPT und frage nach einer Bewertung der Faktenaussagen.
 
Lexor-tm schrieb:
Da würde ich widersprechen. Also wenn Du jetzt von DLSS SR spricht. "DLSS Frame" ist sehr weit gefasst, weil da eben auch Frame Generation und Denoising enthalten sein kann.
In diesem Artikel geht es aber nur um Super Resolution, von Frame Generation war hier nie die Rede.

Lexor-tm schrieb:
Es kommen eben auch nicht alle neu erzeugten Pixel aus der temporalen Komponente (bzw. vorherigen Frames).
Doch, die erzeugten Pixel kommen aus der temporalen Komponente.

Lexor-tm schrieb:
Weicht das Bild davon ab, wird eben nach Wahrscheinlichkeit aufgefüllt. Ein gutes Beispiel wären durch fehlende Pixel zerschossene Stromleitungen oder Zäume. DLSS SR "weiß" (durch Mustererkennung, der Paradedisziplin der Transformer KI) wie so etwas aussehen müsste.
Die Information, wie die Stromleitung aussieht, kommt von der temporalen Komponente. Die Bilder werden gejittert, in jedem Frame wird der Bildausschnitt minimal verschoben, sodass immer unterschiedliche Lücken in der Stromleitung sind. Daraus kann in der Akkumulation wieder die komplette Stromleitung rekonstruiert werden. Das Transformer-Modell beurteilt nur, welche Bildinformationen richtig sind, und welche eventuell Fehler aus der temporalen Akkumulation sind (Disocclusion oder Ghosting). Das Transformer-Modell erfindet keine neuen Pixel mehr hinzu, das kommt alles schon aus den gewonnenen Spiel-Frames.
 
  • Gefällt mir
Reaktionen: Grestorn
Lexor-tm schrieb:
Ein gutes Beispiel wären durch fehlende Pixel zerschossene Stromleitungen oder Zäume. DLSS SR "weiß" (durch Mustererkennung, der Paradedisziplin der Transformer KI) wie so etwas aussehen müsste.
Das habe ich noch nie gesehen. Wenn sich die Pixel nicht durch Akkumulation rekonstruieren lassen, dann fehlen sie auch. Hochspannungsleitungen und Zäune haben auch bei DLSS 4.5 Lücken. Es wäre fatal für die temporale Stabilität, wenn es eine musterbasierte Rekonstruktion gäbe, weil diese stets mit der Akkumulation im Wettstreit stünde und ein angenommenes Muster wieder verworfen werden müsste, wenn die Akkumulation dann andere Fakten liefert.
 
  • Gefällt mir
Reaktionen: Grestorn
Grestorn schrieb:
Es ist im Prinzip immer Upscaling
Das ist doch genau meine Aussage! DLSS SR ist immer Upscaling und Upscaling ist immer eine Form von Upsampling. Aber nicht jede Form von Upsampling ist auch Upscaling.
Deswegen ist DLSS Super Resolution ja auch ein Bestandteil von DL Super Sampling
 
  • Gefällt mir
Reaktionen: Andre83hro
@Lexor-tm Es spielt keine Rolle, ob Du es Upscaling oder Upsampling nennst. Du implizierst eine Bedeutung und spielst dabei darauf an, dass das Ergebnis detailärmer oder Fake sein müsse, weil ja aus geringer Auflösung hochskaliert.

Aber wie wir Dir versuchen seit einigen Seiten hier zu erklären, ist dem nicht so. Bei einem statischen Bild hat ein temporal gejittertes Bild IMMER eine WESENTLICH höhere Detailabbildung als ein in der Zielauflösung gerendertes Bild. Es kann gar nicht anders sein. Und zwar unabhängig von der Renderauflösung.

Im Prinzip reicht sogar eine Renderauflösung von lediglich 2x2 Pixeln. Renderst Du das nur oft genug und mit jeweils neuem Jitter-Offset, kriegst Du am Ende das komplette Bild in höchster Detailabbildung und beliebiger Ziel-Auflösung raus.

Die Zahl der Renderdurchläufe ersetzt sozusagen die Renderauflösung. Nur dass sie eben nach oben unbegrenzt ist, denn Du kannst ja immer weitere Frames rendern und damit das Bild immer weiter verbessern.
 
@mario_mendel34 ChatGPT hat meine Aussage bestätigt, er hat sogar darauf hingewiesen das dies die falsche Frage sei, aber auch bestätigt das in schlecht optimierten Engines Upscaler besser aussehen. Dies ist ja auch die wirkliche Aussage des Artikels auch wenn es nicht für alle offensichtlich ist.

Genau was ich zum Ausdruck brachte und der schwurbel Kanal 🫶🏼

„Sieht native auflösung in einem gut optimierten spiel/engine besser aus als eine upscaling lösung?“ war meine Frage an ChatGPT.
 
Nolag schrieb:
Das habe ich noch nie gesehen. Wenn sich die Pixel nicht durch Akkumulation rekonstruieren lassen, dann fehlen sie auch. Hochspannungsleitungen und Zäune haben auch bei DLSS 4.5 Lücken. Es wäre Fatal für die temporale Stabilität, wenn es eine musterbasierte Rekonstruktion gäbe, weil diese stets mit der Akkumulation im Wettstreit stünde und ein angenommenes Muster wieder verworfen werden müsste, wenn die Akkumulation dann andere Fakten liefert.
Ja, das Ganze hat natürlich Grenzen. DLSS zeichnet keine Stromleitung zwischen zwei Strommasten, die vorher ohne Leitungen tot in der Landschaft gestanden haben. Und Lücken in den Bildinformationen können auch einfach zu groß sein, um sie generativ sinnvoll zu füllen. Wobei die Toleranzen immer weiter angehoben werden können, wie die 160p zu 2160p DLSS SR Upscaling Videos beweisen.

DLSS SR ist eben mehr als nur reine Akkumulation von bekannten Daten.
Es nutzt darüber hinaus spatiale Informationen (was ist in der unmittelbaren Umgebung) und statistische Erwartungen darüber, wie Bildstrukturen typischerweise aussehen.
 
Grestorn schrieb:
Im Prinzip reicht sogar eine Quelle die mit 2x2 Pixel aufgelöst ist. Renderst Du es nur oft genug und mit jeweils neuem Jitter-Offsets, kriegst Du am Ende das komplette Bild in höchster Detailstufe und beliebiger Auflösung raus.
Dazu fällt mir dieses Video ein, das zeigt wie DLSS 4.5 bei 32x22 Pixeln aussieht.
 
  • Gefällt mir
Reaktionen: Bccc1 und Rickmer
Grestorn schrieb:
@Lexor-tm Es spielt keine Rolle, ob Du es Upscaling oder Upsampling nennst.
Naja, offenbar ja nicht. Deswegen habe ich ja gefragt, warum manche User hier darauf bestehen, Upscaling explizit Upsampling zu nennen.

Grestorn schrieb:
@Lexor-tmDu implizierst eine Bedeutung und spielst dabei darauf an, dass das Ergebnis detailärmer oder Fake sein müsse, weil ja aus geringer Auflösung hochskaliert.
Wie kommst Du auf diese These? Ich finde DLSS komplett genial und spiele nie ohne, wenn ich die Möglichkeit habe.
 
Zuletzt bearbeitet:
@Lexor-tm Naja, Du sprichst halt immer noch von "Mustererkennung" und meinst, DLSS 4.5 wäre grundsätzlich irgendwie anders.

Was anders ist im Transformer-Modell, ist sicher, wie die Frames verrechnet und gewichtet werden, eventuell auch die Zahl der verwendeten Frames, aber vor allem der Algorithmus, der die klassischen Artefakte bekämpft, die beim temporalen Rendern auftreten, speziell bei Bewegung und Okklusion.

Aber das Grundprinzip ist immer noch das Gleiche.
 
Grüne Wiese, perfekte Engine und DLSS4.5. Welchen nutzen hat DLSS4.5 generell? Performance gewinn bei minimalen optischen Einbussen.

Die Aussage upscaler sieht besser aus als nativ stimmt nur wenn die Engine nicht gut optimiert ist. Das ist nicht Allgemein wahr!
Ergänzung ()

Nolag schrieb:
Dazu fällt mir dieses Video ein, das zeigt wie DLSS 4.5 bei 32x22 Pixeln aussieht.
Offensichtlich besser als Nativ 🤪 Spass beiseite, super beindruckend!
 
Grestorn schrieb:
@Lexor-tm Naja, Du sprichst halt immer noch von "Mustererkennung" und meinst, DLSS 4.5 wäre grundsätzlich irgendwie anders.

Was anders ist im Transformer-Modell, ist sicher, wie die Frames verrechnet und gewichtet werden, eventuell auch die Zahl der verwendeten Frames, aber vor allem der Algorithmus, der die klassischen Artefakte bekämpft, die beim temporalen Rendern auftreten, speziell bei Bewegung und Okklusion.

Aber das Grundprinzip ist immer noch das Gleiche.
Auf die Mustererkennung bin ich eingegangen, weil weiter vorne im Thread behauptet wurde, DLSS SR erfinde keine Pixel dazu sondern akkumuliere nur Pixel aus den vorangegangen Frames. Das stimmt eben nicht, soweit ich DLSS SR verstanden habe (was zugegeben nur recht oberflächlich der Fall ist).
Dinge wie Artefakte lassen sich eben ganz wunderbar unterbinden, wenn zu allem anderen noch Statistik / Wahrscheinlichkeit / Mustererkennung hinzu kommt. Aber "echt" im Sinne der "Nativ-Puristen" ist an den generierten Pixeln nach meinem Verständnis nicht mehr viel. Mir ist das Wumpe, solange die Bildqualität davon profitiert. Wobei das ursprünglich gar nicht mein Thema war...
 
  • Gefällt mir
Reaktionen: Andre83hro
Grestorn schrieb:
Och, HIMEM.SYS and EMM386.EXE, um jedes Byte kämpfen um Ultima 7 zum Laufen zu bekommen...

Interrupt Probleme mit der Soundblaster...

Ich könnte da so die eine oder andere Story erzählen... :)
Ja gut, kenne ich schon auch noch. Aber selbst mit dem .arj Entpacken so mancher Games fand ich das damals weniger verwirrend als die heutigen Einstellungen die ich alleine im GPU Treiber alles einstellen kann. :D

Also so eine Flut an einstellbaren Dingen gab es früher beileibe nicht meiner Meinung nach....
Da gab es diese ganzen Techniken noch nicht. Das war doch alles deutlich einfacher gestrickt.
 
  • Gefällt mir
Reaktionen: Andre83hro
R4nd0 schrieb:
Diese YouTube Channels? Ich habe dir einen Engine Dev verlinkt, möchtest du nicht von intelligenten und fähigen Menschen lernen die wirklich von ihrer Materie Bescheid Wissen?

Der Typ ist ein selbstgefälliger schwurbler und Betrüger mit sehr viel Halbwissen.

Wenn du glaubst da was sinnvolles zu lernen, hast du meine Beileidsbekundung. Aber mehr als warnen kann man nicht…
 
  • Gefällt mir
Reaktionen: Return2Burn, Grestorn, Neubauten und eine weitere Person
R4nd0 schrieb:
„Sieht native auflösung in einem gut optimierten spiel/engine besser aus als eine upscaling lösung?“ war meine Frage an ChatGPT.
Erstmal kann man auf ChatGPT Aussagen nicht viel geben, dem kannst du 10x die gleiche Frage stellen und bekommst 3 verschiedene Antworten.

Desweiteren ist der Prompt ja schon falsch gestellt, da mit „Upscaling Lösung“ natürlich alles mögliche gemeint sein kann, auch sowas wie im Monitor integrierte spatiale Upscaler. Man müsste schon wenigstens temporales supersampling schreiben, besser noch direkt explizit DLSS
 
  • Gefällt mir
Reaktionen: Grestorn und gartenriese
@Mimir
Darfst mir gerne helfe ich weiterzubildend. Nehmen wir das Video über Days Gone. Was ist inhaltlich nicht korrekt?
 
R4nd0 schrieb:
ChatGPT hat meine Aussage bestätigt,
ChatGPT neigt dazu, den Nutzer immer zu bestätigen, genauso wie selbst die neuesten Modelle immer noch fleißig am Halluzinieren sind. ChatGPT ist kein Faktencheck.

Mal abgesehen davon war deine Frage einfach zu allgemein gestellt. DLSS 4.5 ist ja nicht irgendeine Upscaling-Lösung, sondern der beste Super-Resolution-Algorithmus, den es bis dato gibt. Würde es den in irgendeiner alten Engine geben, wäre das Ergebnis auch besser als das der klassischen AA-Verfahren.
 
  • Gefällt mir
Reaktionen: Grestorn und Taxxor
Lexor-tm schrieb:
Auf die Mustererkennung bin ich eingegangen, weil weiter vorne im Thread behauptet wurde, DLSS SR erfinde keine Pixel dazu sondern akkumuliere nur Pixel aus den vorangegangen Frames. Das stimmt eben nicht, soweit ich DLSS SR verstanden habe (was zugegeben nur recht oberflächlich der Fall ist).

Zumindest laut NVIDIAs eigener Dokumentation tut DLSS SR dies nicht.

http://behindthepixels.io/assets/files/DLSS2.0.pdf

Der machine learning Algorithmus zur Mustererkennung wird nur für das Auflösen von Kollisionen genutzt. Also welches von den überlagerten Pixeln jetzt noch Teil der Stromleitung ist und welches der Pixel eigentlich zur Wiese im Hintergrund gehört. Der Algorithmus sortiert dann die Pixel die zur Wiese gehören aus und nur die Leitung bleibt. Neue Pixel werden dadurch jedoch nicht generiert.

Das ganze nennt sich neighborhood clamping und kommt z.B. auch schon länger bei Kameras zum Einsatz, wo das Bild auch durch temporales jittering super sampled wird. Aus der Ecke (Satelliten- und Flugzeugfotos) kommt die Technik ursprünglich.

Problem hierbei ist die Entscheidung, was an den Pixeln weg kann und was gut ist. Da gibt es auch klassische heuristiken wie sie seit 50 Jahren eingesetzt werden. Die haben jedoch alle ziemliche Probleme mit fehlerhafter Klassifizierung was weg kann.

https://www.sciencedirect.com/science/article/abs/pii/S092427162030277X?via=ihub

Da sind ML basierte klassifizierer besser, aber auch rechenintensiver.
 
Zurück
Oben