Kommentar Kommentar: Nvidia DLSS 5 ist technisch krass, vergeigt es grafisch nicht!

Imbarius schrieb:
Unglaublich, wie die Leute die Fassung verlieren, aufgrund eines KI-Filters. Geht mal raus an die frische Luft!
Ich glaube die aufgebrachte Stimmung ist verschiedenen Einflüssen geschuldet:
  • zunehmende negative Weltlage
  • recht hohe Hardware-Preise und schlechte Verfügbarkeit
    • "Rechenzentren kaufen einem alles weg"
  • kaum richtiger Fortschritt (auf Chip-/Hardwarebasis - RTX 5000er quasi nur ein Refresh der 4000er)
  • Nvidia geht damit ein paar Schritte zu weit, statt die Problem/Forderungen der Gamer/User zu adressieren
  • [weiteres]
:schaf:
 
  • Gefällt mir
Reaktionen: Innocience, grond0r, Imbarius und 5 andere
Anstelle nur die Texturen zu laden, die du für deine Auflösung brauchst, wird KI den gesamten verbleibenden RAM mit Slop-Reimagines vollballern. Ergo: DU brauchst mehr VRAM!
Was kostet die Hardware die sowas kann? Wie viel Strom wird das alles brauchen? Wie viel Kupfer brauchen die Kühler? Leute, das wird teuer in der Anschaffung und im Betrieb.

Reden wir in 5-10 Jahren noch mal darüber. Bis dann wissen wir auch was mit 2D Spielen passieren wird und wie lange nVidia die Interessenten auf ihren Vorbestellungen sitzen gelassen hat, weil AI Center noch mehr Profit abwerfen.
 
  • Gefällt mir
Reaktionen: JarlBallin
Sieht irre gut aus. Verstehe die ganze Kritik nicht, vor 10 Jahren hätte man sich jeden Finger einzeln abgeleckt wenn es sowas gegeben hätte. Damit wird echter Fotorealismus in Spielen überhaupt erst möglich.


Digital Foundry - Hands-On With DLSS 5 Our First Look At Nvidia's Next-Gen Photo-Realistic Lig...png


Digital Foundry - Hands-On With DLSS 5 Our First Look At Nvidia's Next-Gen Photo-Realistic Lig2.png
 
  • Gefällt mir
Reaktionen: LikeHike, Sensei21, UVLWheezle und 3 andere
fox40phil schrieb:
Ich glaube die aufgebrachte Stimmung ist verschiedenen Einflüssen geschuldet:
  • zunehmende negative Weltlage
  • recht hohe Hardware-Preise und schlechte Verfügbarkeit
    • "Rechenzentren kaufen einem alles weg"
  • kaum richtiger Fortschritt (auf Chip-/Hardwarebasis - RTX 5000er quasi nur ein Refresh der 4000er)
  • Nvidia geht damit ein paar Schritte zu weit, statt die Problem/Forderungen der Gamer/User zu adressieren
  • [weiteres]
:schaf:
Der wichtigste Punkt ist imho das wir doch alle schon erleben wie verdammt lästig der AI Slop ist. Youtube ist voll davon, Social Media ist voll davon. Propaganda nutzt das auch überall, und ja, wenn man nicht genau hinschaut geht das auch oft als echt durch. Schaut man genauer klar, fallen einem die ganzen Glitches und Schwächen durchaus auf, aber für Low Quality Content geht es halt durch, deswegen wird es ja Slop genannt und die Masse isst diesen Müll ja auch brav und konsumiert ihre fiktiven AI "news" und bildet sich auf dieser Basis ihre Meinung aus dem aktuellen Weltgeschehen, einfach weil es Leute jetzt schon immer auseinandern halten können.

Also potential für die Zukunft hat das durchaus in Spielen. Aber noch sieht es halt ziemlich nach dem gleichen AI Slop den man auch auf Youtube und sonst überall findet aus und oben drauf hängt genau an diesem Look auch die ganzen anderen negativen Gesellschaftlichen Entwicklungen der letzten 10 Jahre mit dran.
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Innocience, JarlBallin und 5 andere
Die ein oder andere Szene/Charakter sieht tatsächlich besser aus, aber andere sehen völlig verhunzt aus (z.b. zu viele Lichtflecken im Gesicht oder falsche Kontraste) und Details aus dem Nichts zaubern, finde ich auch sehr seltsam.

Dazu soll das ja auf 2x RTX 5090 gelaufen sein, sprich eine fürs Rendering mit z.b. Direct3D 12/Vulkan und eine für DLSS. Das ist daher noch Meilenweit davon entfernt auf nur einer GPU zu laufen und wird vermutlich erst mit Gen 6000/7000 möglich - aber dann mit noch höherem Stromverbrauch (1000W+) - weil wir habens ja.
 
  • Gefällt mir
Reaktionen: gartenriese und Apocalypse
Matthias80 schrieb:
Es gibt ein vram Problem. Ein allgemeines. Ja.
Aber lies alles! Es wird bei schwachen Karten mit zu wenig vram erst recht zum Problem!
Da geb ich aber eher dem VRAM-Mangel die Schuld anstatt dem Upscaling. Seit Jahren wird ja schon gesagt, dass man keine Grafikkarten mit 8GB kaufen soll. KI kann halt auch nicht zaubern.
 
Um mal etwas Heiterkeit in diesen thread zu bringen, frisch von Reddit :D

Screenshot 2026-03-17 124638.png
 
  • Gefällt mir
Reaktionen: deer, trommelmaschine, the_IT_Guy und 20 andere
Apocalypse schrieb:
auf Neural Rendering wird man dort aber auch quasi sofort springen
Wenn die Hardware das kann, vermutlich. Ich finde das auch nicht verwerflich, wichtig ist, was am Ende rauskommt, und wenn einem das nicht gefällt, dann kauft man es eben nicht, es wird Alternativen geben.
 
  • Gefällt mir
Reaktionen: gartenriese
Gigaherz schrieb:
Speak for yourself. Die Kritik an RT nimmt berechtigterweise auch fast 10 Jahre nach Ankündigung nicht ab.
Ich sehe sowas nicht bei normal mapping oder Tesselation. Wäre wirklich alles so super würde sich das besser integrieren.
Welche Kritik? Meinst du die der AMD-Jünger, die erstmal alles schlecht finden, was nur die Konkurrenz kann, aber sobald es AMD kann ist es plötzlich super?
 
Mimir schrieb:
ber Fakt ist auch dass es von den Entwicklern frei konfigurierbar ist
Das Gezeigte spiegelt dies aber noch nicht wieder. Bisher sehen gerade Gesichter sehr stark verändert aus sodass es nicht mehr das original Material widerspiegelt. Es ist bisher keine Verbesserung des Originals sondern eher eine komplette Neuinterpretation.
 
  • Gefällt mir
Reaktionen: jo0 und Andre83hro
Grafikaufhübschung mit KI empfinde ich als super Einsatzgebiet für die Technik.
Habe schon vor 5 Jahren oder so, bei Vorstellung von DLSS, die Möglichkeit in Betracht gezogen, dass Games nur noch grob berechnet werden (Geometrie, Topographie etc.) und den Rest der Bildausgabe eine KI generieren wird.
Ähnlich gut fände ich KI für "realistische" NPCs, was Verhalten und Rede angeht.
Oder für eine bessere Weltgenerierung in Survival Crafting Games wie Hytale (interessiert mich am meisten, Spiele mit schöner Graphik zocke ich kaum noch, sind meist quälend langweilig und seelenlos).
 
  • Gefällt mir
Reaktionen: ParrotHH, Sirhaubinger und K3ks
HerrRossi schrieb:
Wenn die Hardware das kann, vermutlich. Ich finde das auch nicht verwerflich, wichtig ist, was am Ende rauskommt, und wenn einem das nicht gefällt, dann kauft man es eben nicht, es wird Alternativen geben.
Oh, total, natürlich, keiner muss ja jetzt die ganzen UE5 slop games kaufen und erstaunlich viele machen das auch nicht, was für mich die eigentliche Überraschung ist.

Aber man wird dann halt noch mehr ab vom Mainstream sein mit seinem Slay the Spire, Ori oder Silksong ... oh, oder vielleicht auch nicht? Die Zukunft wirkt aber dieser Tage eben mit AI deutlich ungewisser als einem lieb sein kann .. aber hey, im Vergleich zu den 80er ist ja noch alles top, was wir hier an Perspektiven haben ;-)
Ergänzung ()

cele schrieb:
Oder für eine bessere Weltgenerierung in Survival Crafting Games wie Hytale (interessiert mich am meisten, Spiele mit schöner Graphik zocke ich kaum noch, sind meist quälend langweilig und seelenlos).
Die Ironie schmerzt irgendwie.
 
  • Gefällt mir
Reaktionen: the_IT_Guy
Apocalypse schrieb:
Die Ironie schmerzt irgendwie.
Keineswegs. Eine sinnvolle Topographie mit Bachläufen, die zu Flüssen werden die ins Meer münden, zwischen Hügeln und Bergen mit Siedlungen, die mit Straßen verbunden sind, auf Kontinenten und Inseln würde ich in einer ohnehin generierten Welt weniger beliebig und seelenlos empfinden als die zufällig zusammengestellten Biome aktueller Games.
 
Wenn aktuell 2x 5090 für diesen Effekt benötigt werden, stellt sich die Frage, was zu Release effektiv noch benötigt wird. Also ob das überhaupt optimiert unterhalb einer 5090 brauchbar ist. Aber werden wir dann im Herbst sehen.

Was den Artstyle betrifft will ich mir noch kein endgültiges Urteil erlauben. Auf jeden Fall ein bemerkenswerter Sprung in Richtung Fotorealismus, unabhängig davon, das die Richtung immer noch sehr künstlich und nach Instainfluencer aussieht.

Schauen wir uns erstmal an, was im Herbst wirklich kommt. Nur deswegen, würde ich trotzdem keine 3-5000€ für eine Grafikkarte ausgeben.
 
Finde die Gesichter mit DLSS5 deutlich besser.
Wir reden hier nicht über die Mona Lisa, das sind Unterhaltungsprodukte.
Erinnert ein bisschen an die Diskussion um die "erweiterten" Star-Wars-Filme. Auf einmal ist das Zeug höchste Kunst, die nicht verändert werden darf.

Was wohl Beuys dazu gesagt hätte..
 
  • Gefällt mir
Reaktionen: ParrotHH und cele
Mimir schrieb:
Das wird halt noch stark work in Progress sein.
Ein UE5 Game im Editor braucht auch 64-128 GB RAM. Das Shipping Build dann nur noch 8. So what? So funktioniert Entwicklung eben.
Eine interessante Frage ist auch ob das zusätzlichen VRAM brauchen wird und wie viel zusätzlichen VRAM.
Vlt. kriegt der Mainstream so xx60 ja Ende der Dekade endlich 18GB-24GB.

gartenriese schrieb:
🥴 Ich nutze kein RT, aber als Kritik fällt mir eher so die benötigte Mehrleistung ein, das war's.
gartenriese schrieb:
Meinst du die der AMD-Jünger
AMD-Jünger? Ach, komm, wo?
gartenriese schrieb:
aber sobald es AMD kann ist es plötzlich super?
Ach, komm...

cele schrieb:
Ähnlich gut fände ich KI für "realistische" NPCs, was Verhalten und Rede angeht.
Schon irgendwie geil.
 
  • Gefällt mir
Reaktionen: JarlBallin
Snoopmore schrieb:
btt: Ich würde heute gerne in der nvidia-chefetage mäusschen spielen und sehen, wie da die stimmung ist. :D
Tapfer, dass die Kommentare unter den Videos noch offen sind. @nlr kann ja vor Ort mal nachfragen.
banditone schrieb:
Damit wird echter Fotorealismus in Spielen überhaupt erst möglich.
Ist dieser Fotorealismus hier bei uns im Raum?
Screenshot_2026-03-17-13-03-28-238_com.android.chrome.jpg

Wachsfigur

Auch werden die Animationen durch DLSS 5 nicht besser. Das gibt eine Rutschpartie auf den tiefsten Grund des uncanny valley.


Und du musst bedenken, dass das dlss5 off Bild auf den maximalst niedrigsten Einstellungen läuft.
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Schokolade, Innocience und 5 andere
gartenriese schrieb:
Meinst du die der AMD-Jünger, die erstmal alles schlecht finden, was nur die Konkurrenz kann...
Naja, prinzipiell ist es schon nicht gut, wenn es Features in Games gibt, die an eine bestimmte Hardware gebunden ist. Nvidia steuert immer mehr auf ein Monopol hin, sowas wie DLSS (und im AI Bereich CUDA) befeuert diese Tendenz noch. Für uns Verbraucher ist das nicht gut.
 
  • Gefällt mir
Reaktionen: jo0, Return2Burn, Alphanerd und eine weitere Person
Zurück
Oben