Eure Meinungen zu NVIDIAs DLSS5

Mojo1987 schrieb:
So einfach wirds nicht sein, wenn man Nvidia kennt.
Wieso? Welche nVidia Technologie ist denn zwingend notwendig? Du kannst auf Physx, Reflex, GSync, DLSS, Raytracing etc. verzichten. Mir ist keine Technologie bekannt im Gaming Bereich, die aktiv aufgezwungen wird. Was kennst du denn in dem Bereich von nVidia, was ich übersehe?
 
@Grimba
Irgendwo habe ich gelesen, dass die Charaktere nicht einfach mit einem Filter überzogen werden, der es live berechnet und daher immer anders aussehen könnte.

Der Charakter wird einmalig mit DLSS berechnet und so fest und für immer gleich bleiben.

Hören-Sagen!
 
  • Gefällt mir
Reaktionen: MeisterJoda
Grimba schrieb:
Die typischen Ai Gesichter mal dahingestellt
Was halt schon Quatsch ist. Wenn man sich die Bilder mal neutral anschaut, dann sind das noch immer dieselben Gesichter nur mit mehr "Tiefe"... Keins der Bilder ist irgendein "AI Slop"... Es im Grunde nicht mehr als ein "erweitertes Raytracing" wo durch Licht und Schatten einfach mehr Tiefe zugefügt wird. Das funktioniert bei den Charakteren in den Gesichtern echt gut. An anderen Stellen sehe ich aber noch schwächen, insbesondere da, wo Hintergrunde oder auch andere Teile des Bildes aufgehellt werden, die eigentlich dunkel sein und bleiben sollten.

dx1 schrieb:
Ich finde hier sieht man das eigentlich sehr sehr gut. Insbesondere wenn man sich die DLSS5-Bilder mal ohne Vergleich ansieht. Bei Prof. Hecat aus Hogwarts Legacy sieht man das eigentlich besonders gut. Mehr Falten durch mehr Licht und Schatten und ein gewisser "Glow".
Und auch beim zweiten Screenshot aus Hogwarts Legacy.
Auch bei den Screenshots aus Resident Evil... Ich sehe da noch immer dasselbe Charakterdesign. Einfach mit mehr Details.

Bei den Screenshots wo nicht ein Gesicht im Profil gezeigt wird, sieht man halt den Effekt ganz wunderbar. Beispielsweise in Assassins Creed Shadow. Da tut sich nämlich so gut wie nichts. Etwas mehr Tiefe durch mehr Licht und Schatten.
Die Grafik wirkt etwas plastischer und nicht mehr so flach wie im "Original"...

Für mich eine Aufwertung des Bildes.


Insgesamt können wir doch eigentlich froh sein, dass NV nach wie vor Muße hat, Features für Gamer zu entwickeln...
 
  • Gefällt mir
Reaktionen: MeisterJoda
@Zweite Sonja Und wie/wo wird das alles, was da so live berechnet wird, dann abgelegt? Einmal durch ein Zimmer gegangen, VRAM voll? Und "was" ist das Ergebnis? Ein Polygonmodell? Eine Textur? Ein eindeutiger Inputstring? Alles Probleme, die bei einem Vorher-Nachher Video mit kleinem Kameraschwenk nicht auftauchen.

@kachiri ich hatte das geschrieben, weil ich explizit auf die nicht eingehen wollte, deswegen dahingestellt. Und genau das pickst du dir raus. Das ist ne Geschacksfrage bei den Gesichtern, daher möchte ich mich an dieser Diskussion nicht beteiligen, weil das nichts bringt.
 
Zuletzt bearbeitet:
Sicher ist das eine Geschmacksfrage. Ist es bei allen. Aber ich sehe da halt keinen AI Slop, sondern einfach unterschiedliche Belichtung im Vergleich zum Ursprung. Den so die meisten wohl auch nie sehen, weil ja ohnehin immer DLSS oder FSR an sein dürfte...
 
Ich habe doch nirgends von Slop gesprochen. Das einzige Attribut dazu von mir war "typisch". Den Rest hast du draus gemacht.
 
  • Gefällt mir
Reaktionen: dx1
kachiri schrieb:
Keins der Bilder ist irgendein "AI Slop"...
genau so ergeht es mir auch.
Ja, es gibt ein paar typische AI Probleme mit den Augen, aber im Grossen und ganzen, find ich das durchaus beeindruckend.
Ergänzung ()

Grimba schrieb:
ich habe doch nirgends von Slop gesprochen.
Aber das halbe Internet schon ;)
 
  • Gefällt mir
Reaktionen: MeisterJoda
Und wenn's das Ganze wäre ließe ich mir das nicht in den Mund legen. Diskutiert die Gesichterfrage unter euch aus lasst mich da raus.
 
  • Gefällt mir
Reaktionen: dx1
Da es zu DLSS5 noch keine mannigfaltigen Endnutzererfahrungen gibt, bilde ich mir auch noch keine Meinung.

Die präsentierte Nvidia-Werbeveranstaltung ist für mich eben nur das: Werbung.

Außerdem wird auch DLSS5 wohl die Grafik in einem meiner Lieblingsspiele nicht verbessern können, denke ich... ;):D
 
  • Gefällt mir
Reaktionen: dx1 und Grimba
Ich habe seit einem Jahr keine RTX‑Karte mehr, daher könnte ich es sowieso nicht nutzen.

Ich bin aber auch ehrlich: Das, was DLSS 5 am Bild verändert, spricht mich überhaupt nicht an.

Ich kann außerdem nur dieses Video von Daniel Owen empfehlen.

Denn was dort gezeigt wird, macht ziemlich deutlich, dass DLSS 5 sehr generativ arbeitet. Es werden nicht nur Zwischenbilder wie bei klassischem DLSS „erdacht“, sondern das endgültige Bild ist eine Interpretation der generativen KI, auch wenn sie sich stark an der Vorlage orientiert. Im Grunde fühlt es sich an wie ein AI‑Filter, der über jeden von der Engine ausgegebenen Frame gelegt wird. Dadurch sieht man am Ende gar nicht mehr das tatsächliche Rendering der Engine, sondern nur noch die KI‑Interpretation des Bildes.

Warum ich von einem AI‑Filter spreche, weil DLSS 5 bezieht sich ausschließlich auf das 2D‑Frame plus Bewegungsvektoren, ohne jegliche Informationen über Materialien oder deren physische Eigenschaften. Das klang im Marketing‑Sprech vorher etwas anders, aber im Video wird klar, dass die KI nur die Informationen aus dem 2D‑Render zur Verfügung hat.

Dadurch interpretiert die KI mehr, als man zunächst denkt. So entstehen Effekte wie zusätzliche Details wie Make‑up, weichere oder detailliertere Haut oder ein veränderter Haaransatz , nicht, weil die Engine das so rendert oder die Informationen mitgegeben werden, sondern weil das trainierte Modell solche Muster entsprechend gewichtet. Das wirkt vielleicht realistischer, ist aber nicht im originalen Render enthalten, sondern kommt rein aus dem Trainingsmodell.

Das erzeugt unter Umständen eine ganz andere Stimmung oder verändert sogar Wesenszüge von Figuren.

Daniel Owen geht im Video auf eine E‑Mail zwischen ihm und einem NVIDIA‑Mitarbeiter ein. Aus dieser E‑Mail und seiner Einschätzung habe ich die oben genannten Schlüsse gezogen.

 
  • Gefällt mir
Reaktionen: Cat Toaster und DefinitivEinBot
kachiri schrieb:
Insgesamt können wir doch eigentlich froh sein, dass NV nach wie vor Muße hat, Features für Gamer zu entwickeln...
Das war auch mein Gedanke...:(;)
 
CountSero schrieb:
Das erzeugt unter Umständen eine ganz andere Stimmung oder verändert sogar Wesenszüge von Figuren.

Meinst Du wirklich, dass DLSS 5 Charaktereigenschaften ändern können wird, also z.B. aus einer neugierigen Figur eine gleichgültige oder diebische macht, aus einer liebevollen eine gewaltbereite oder aus einer verschlagenen eine grundehrliche?
 
  • Gefällt mir
Reaktionen: kachiri und MeisterJoda
@dx1 Ich meine schon Wesenzüge und nicht Charaktereigenschaften.

Von daher nein, ich spreche nicht von Charaktereigenschaften im erzählerischen oder psychologischen Sinn. DLSS 5 verändert keine Persönlichkeit und macht aus einer Figur keine andere Figur im narrativen Kontext. Mir geht es ausschließlich um die visuelle Darstellung.

Da DLSS 5 das Bild generativ interpretiert und nicht das tatsächliche Engine‑Rendering zeigt, kann es bestimmte optische Merkmale so verändern, dass die Figur anders wirkt, als es die Entwickler vorgesehen haben. Eine Figur, die ursprünglich eher ängstlich, vorsichtig oder schlicht ungeschminkt dargestellt ist, kann durch die KI‑Interpretation plötzlich glatter, gleichgültiger oder sogar leicht geschminkt erscheinen. Das ist keine inhaltliche Veränderung, sondern eine rein visuelle Verschiebung, die aus dem Trainingsmodell der KI entsteht und nicht aus dem eigentlichen Render. Das sieht man auch an den Hogwarts‑Beispielen, wo Figuren aus dem Nichts deutlich älter wirken, als es offensichtlich von den Entwicklern beabsichtigt war.

Solche Veränderungen beeinflussen jedoch die Wahrnehmung der Figur und können dadurch eine ganz andere Stimmung erzeugen. Die Figur bleibt dieselbe, aber der Eindruck, den sie vermittelt, kann sich deutlich verschieben.
 
  • Gefällt mir
Reaktionen: DefinitivEinBot
Ich finde die Grafische "Aufhübschung" sehr gelungen und gut.
Mehr nervt es mich das alle RTX 4000er in die Röhre schauen.
 
Benutzer0815 schrieb:
Wieso? Welche nVidia Technologie ist denn zwingend notwendig? Du kannst auf Physx, Reflex, GSync, DLSS, Raytracing etc. verzichten. Mir ist keine Technologie bekannt im Gaming Bereich, die aktiv aufgezwungen wird. Was kennst du denn in dem Bereich von nVidia, was ich übersehe?
Du bist nicht Allwissend, du hast nicht die Schlauheit mit dem Löffel gefressen. Und du liegst falsch.
Kannst du mir kurz erklären, wo ich in der Borderlands-Serie as PhysX ausschalte? Ich dachte immer, das ist unmöglich.

Aber ich Wette, das nächste mal wirst du wieder so deinen Mund aufreissen.

edit: Gab es da nicht mal ein Indiana Jones spiel, das zwingen RayTracing benötigte? Habe das nie gespielt und lassen wir bitte hacks usw. weg.
 
Die sollen lieber eine KI erfinden, die den neumodischen Konsolendreck vernünftig an Maus und Tastatur anpasst, und die regelmäßig verweigerte freie Speicherfunktion ergänzt.

Im Grunde war mir schon die Grafik von Half-Life 2 gut genug, und die Rückschritte bei Gameplay und Steuerung seitdem haben mir den Spaß an AAA-Games gründlich verdorben.
 
Ich finde DLSS 5 und seine realistischeren Gesichter prinzipiell gut. Damit die AI nicht zu viel "fantasiert" könnte man ihr Grenzen setzen, vielleicht auch im Spielmenu auswählbar.

Ich bin gespannt, was AMD auf die Dauer als Alternativangebot bringt.
 
Zuletzt bearbeitet:
Ich erwarte, dass sich für mich mit DLSS 5 nichts ändern wird: 95% der Spiele werden mich nicht interessieren oder sind einfach crap. Von den 5% die mir gefallen werden, werde ich aus Zeitgründen nur 1% spielen können. Von diesem 1% werde ich 51% spielen, weil mir das Spielprinzip und die Grafik gefällt. 49% werde ich spielen, obwohl mir die Grafik gar nicht oder nur mäßig gefällt, das Spielprinzip es aber rausreisst. Ob mit oder ohne DLSS, DFB oder DLRG ist völlig Banane.
 
  • Gefällt mir
Reaktionen: JMP $FCE2
CountSero schrieb:
Warum ich von einem AI‑Filter spreche, weil DLSS 5 bezieht sich ausschließlich auf das 2D‑Frame plus Bewegungsvektoren, ohne jegliche Informationen über Materialien oder deren physische Eigenschaften. Das klang im Marketing‑Sprech vorher etwas anders, aber im Video wird klar, dass die KI nur die Informationen aus dem 2D‑Render zur Verfügung hat.
Genau das ist passiert, was einige sicher befürchtet haben. Ich habe mir das ganze Video angeschaut. tl,dr ist praktisch, dass nur das reine 2D Bild (also einfach gesagt Screenshots) angeschaut werden von der KI (inkl. Bwewegungsvektoren) und dann wird es einfach "Yassified". Diese granularen Option, die Stärke, Effekte und ähnliches zu tweaken, existiert in dem Umfang wie Nvidia es behauptet auch nicht. Zumindest noch nicht. Das komplette 2D Bild wird von der KI angeschaut, interpretiert und dann hingerotzt. Ohne Rücksicht auf das Oberflächenmaterial, das in einem Game abgebildet wird. Glas, Stoff, Stein, Leder, Haut, etc. So wird schon mal aus einem Dach im alten Japan, das mit Holzschindeln bedeckt ist, ein reflektierendes Metall- oder Solardach. Oder was auch immer die KI gerade herbei halluziniert. Also klassischer AI Slop. Nein danke, auf den Dreck kann ich verzichten.
 
Zuletzt bearbeitet:
Zurück
Oben