Notiz Nvidia: Neue Spiele mit Raytracing, DLSS und Reflex angekündigt

ThePlayer schrieb:
Ja bitte Lemmings, Maniac Mansion und Turrican ;)
Ein Unreal, Half Life Jedi Knight würden schon reichen ;)
 
feidl74 schrieb:
dlss ist nun nicht wirklich neu, heist nur anderst und ist wohl perforanter wie das alte nvidia gedöns.
feidl74 schrieb:

Und wie genau sollte jetzt DSR der schlechter performende Vorgänger zu DLSS sein? Scheint als hättest du ziemlich wenig Ahnung was das angeht.

DSR, wie der Name schon sagt ist DOWN-Sampling. DLSS ist SUPER-Sampling.

Nur zur Verdeutlichung. DSR hat eine hohe Auflösung genommen und diese runter gesampled, um Aliasing und Texturen-Flickern zu verhindern.
DLSS nimmt eine niedrige Auflösung und sampled die mittels KI auf eine hohe Auflösung rauf. Fehlende Infos durch die schlechte Auflösung werden durch die KI dazu interpretiert.

Also erstmal richtig informieren, bevor man Blödsinn schreibt.
 
  • Gefällt mir
Reaktionen: foo_1337
Bei DLSS nicht vergessen dass dort auch PixelJitter benutzt wird um SubPixel Infos zu bekommen, daher kommen auch Details/Infos zustande welche in der Nativen Auflösung teils fehlen.
 
Gut zu wissen. So genau kenne ich es dann auch nicht.

WAs ich aber ursprünglich vergessen hatte zu sagen war: DLSS ist Super, zumindest für Single Player Spiele. BEi Spielen Wie Warzone oder War Thunder kann ich davon nur abraten. Also alles was kompetitiv ist. Bei War Thunder habe ich vermehrt das PRoblem im Simulator Modus, dass gewisse Flugzeugtypen (Besonders die BF109 E Serien) in Dogfight-Nähe nur die Flügel, Stabilisatoren und Propeller gerendert werden. Der Rumpf wird durchsichtig.
Weiters interpretiert DLSS die Propeller falsch. Gegner fliegen bei mir prinzipiell mit stehendem Propeller. Ziemlich ungut, wenn man denkt, man habe dem Gegner den Motor zerschossen und wird dann ein paar Meter drüber vom gleichen geholt.
Und der nächste Fehler, und ich denke das ist eventuell nur implementationssache, mit aktivierten DLSS sind die Godrays der Sonne verschoben. ohne DLSS gehen die direkt von der Sonne weg, und nicht weitab daneben.

Habe WT nur auf Quality gespielt, weil alle anderen Einstellungen darunter Probleme machen bei Antennen die in den Himmel ragen usw. DA will ich nicht Gefahr laufen irgendjemanden der evtl halb hinterm Busch steht und nicht gerendert wird.
 
ph0enX schrieb:
DSR, wie der Name schon sagt ist DOWN-Sampling. DLSS ist SUPER-Sampling.
Naja, eigentlich müsste DLSS (ursprünglich DLSSAA) DLAA heißen weil klassisches Supersampling (SSAA)
genauso wie DSR/Downsampling (OGSSAA) funktioniert also AA aus einer höhere Auflösung errechnet !?
Deep Learning Anti Aliasing klang Nvidia wohl nicht spektakulär genug also Super Sampling mit dazu. :confused_alt:
 
DarkerThanBlack schrieb:
DLSS ist bei mir immer OFF. Möchte mein Bild nicht verschlimmbessern.
Ich liebe scharfe Texturen, daher ist DLSS für mich ein NOGO. Ab 4K stelle ich sogar das AA aus, weil es auch nur ein Filter ist.

Die Texturen sind mit DLSS on besser aufgelöst als mit DLSS off. Liegt daran, dass DLSS im Quellmaterial 16k und höher aufgelöste Texturen verwendet.
 
0ssi schrieb:
Naja, eigentlich müsste DLSS (ursprünglich DLSSAA) DLAA heißen weil klassisches Supersampling (SSAA)
genauso wie DSR/Downsampling (OGSSAA) funktioniert also AA aus einer höhere Auflösung errechnet !?
Deep Learning Anti Aliasing klang Nvidia wohl nicht spektakulär genug also Super Sampling mit dazu. :confused_alt:
Nein eigentlich genau umgekehrt. Außerdem ist es keine einfache Kantenglättung (deswegen auch nicht AA). Die KI wird mit einem 720p Bild gefüttert. dieses wird dann hochskaliert (supersampled) auf 1080p bzw 1440p. Natürlich fehlen da massiv Bildinformationen. Diese dichtet sich dann eben die KI aus dem was sie schon weiß dazu. Und je mehr und öfter es verwendet wird oder schon von Grund aus vom Entwickler in die KI geworfen wird umso besser das Ergebnis.

Hatte nicht schon Jahre vor Erscheinen von DLSS nVidia so einen "KI Bildrestaurator" gezeigt, in dem man ein total niedrig aufgelöstes Bild hineinwerfen konnte und dieser dann das Bild auf großer Auflösung errechnet hatte? Das waren doch die ersten Krabbelversuche in Richtung DLSS wie wir es heute kennen
 
ArcherV schrieb:
Die Texturen sind mit DLSS on besser aufgelöst als mit DLSS off. Liegt daran, dass DLSS im Quellmaterial 16k und höher aufgelöste Texturen verwendet.
Die Daten liegen in 4K und nicht in 16K vor! 16K gibt es gar nicht. Wo sollen denn diese Texturen untergebracht werden? Auf einer Serverfarm oder wie? 🤔
 
DarkerThanBlack schrieb:
Die Daten liegen in 4K und nicht in 16K vor!

Doch, 16k.


Nvidia trainiert das neuronale Netz jetzt mit 16K-Bildmaterial, das insbesondere feine Details in 3D-Spielen verbessern soll.

[...]

16K- statt 4K-Auflösung zum Trainieren​

Mit DLSS 2.0 wagt Nvidia nun einen zweiten Versuch, die Tensor-Kerne in die Darstellung von 3D-Spielen einzubringen. Dazu hat der Hersteller vornehmlich das Trainingsprozedere geändert: Als Basis dienen bei DLSS 2.0 jetzt 16K-Bilder mit 15.360 × 8640 Pixeln – 16-mal mehr Bildpunkte als früher. Nvidia erhöht damit die Details, die das Upscaling reproduzieren kann. Maschendrahtzaun oder feine Antennen, die früher verschwanden, sollen jetzt zuverlässig dargestellt werden. Nutzern stehen bei DLSS 2.0 drei statt einer Qualitätsstufe zur Auswahl: „Performance“ viertelt die Render-Auflösung, zum Beispiel von Ultra- auf Full HD, „Quality“ halbiert sie, „Balanced“ liegt dazwischen.


https://www.heise.de/newsticker/mel...ate-in-Spielen-deutlich-steigern-4688882.html
 
ph0enX schrieb:
Natürlich fehlen da massiv Bildinformationen. Diese dichtet sich dann eben die KI aus dem was sie schon weiß dazu.
...
Hatte nicht schon Jahre vor Erscheinen von DLSS nVidia so einen "KI Bildrestaurator" gezeigt, in dem man ein total niedrig aufgelöstes Bild hineinwerfen konnte und dieser dann das Bild auf großer Auflösung errechnet hatte?
Und so funktioniert DLSS 2.0 eben nicht. Das Netz wird nicht auf die Rekonstruktion von fehlenden Bildinformationen trainiert, sondern auf die allgemeine Rekonstruktion eines höher aufgelösten Bildes aus einer Sequenz von "jittered" Images (Stichwort: Multi-Frame Super-Resolution). Genau aus diesem Grund muss das Netz auch nicht mehr auf jedes Game neu trainiert werden. Das hat nichts mehr mit den GANs zu tun, die Einzelbilder hochskalieren.
Und wenn das Bild dann im Ergebnis besser aussieht als das native Bild, dann liegt das meist daran, dass das TAA des nativen Bildes mit mehr Schärfeverlust verbunden ist, als das AA, das DLSS im Ergebnis liefert. Die Entwickler sagen selbst, dass keine zusätzlichen Texturdetails erzeugt werden.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Dafür braucht es keine Quelle, da die Trainingsdaten bei DLSS 2.0 nichts mit den Texturen des Spiels zu tun haben. Das sind generische Bilder.
 
Doch, wenn man groß ins Forum kotzt sollte man seine Aussagen auch belegen können.
 
@Nolag danke. Dann habe ich das falsch verstanden, ich habe meine Beiträge mit der falschen Aussagen entfernt.
 
ph0enX schrieb:
Außerdem ist es keine einfache Kantenglättung (deswegen auch nicht AA).
Supersampling ist auch keine einfache Kantenglättung aber wird SSAA genannt statt SS
weil das Ziel ist Kantenflimmern zu vermeiden und für Bildruhe bei Bewegung zu sorgen.
Da DLSS das gleiche Ziel verfolgt und das gleiche Resultat liefert, ist es für mich DLSSAA.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Naja es verfolgt ja nicht das gleiche Ziel. SSAA nimmt eine hohe Auflösung und rechnet es runter (braucht mehr leistung)
DLSS nimmt eine bescheiden Auflösung und rechnet es hoch. Mit Hilfe von KI um die fehlenden Informationen zu erhalten. (spart Leistung)
 
Zurück
Oben