Kommentar Kommentar: Nvidia DLSS 5 ist technisch krass – Vergeigt es grafisch nicht!

DerAnnoSiedler schrieb:
Zugegeben, Starfield ist die Situation besser. Also mein Post sollte DLSS5 kritisieren, natĂŒrlich aber nicht verteufeln.
Habe ich auch so aufgefasst, keine Angst.

Genau den Ausschnitt den du gezeigt hast, habe ich im DC auch gezeigt.
Die Details durch die Texturen die durch die KI "verbessert" werden, sowie die Beleuchtung der Umgebung ist meiner Meinung nach besser (in dem Ausschnitt -> muss nicht ĂŒberall gelten).

Der StahltrÀger wirkt realistischer, die Beleuchtung bei "diesigem Wetter -> Nieselregen" wirkt realistischer.

Und wenn du den gleichen Screenshot nutzt und rechts den Laden anschaust.
Dort ist die MĂŒlltonne "verbeult" im Original kann man es erahnen, mit der KI Verbesserung hat es dennoch mehr Details und wirkt realistischer.

Das ganze muss natĂŒrlich stimmig in die Spiele untergebracht werden.

Wenn der Entwickler sagt, ich möchte den "Stil" nicht Àndern, aber eine Optimierung ist okay, darf DLSS 5 hier nicht den Stil Àndern (Farben der Lichquelle etc pp)

Wenn das erstmal ausgereift ist, wird das sicher gut aussehen.

Falls sich noch jemand erinnern kann an die ganzen "Texure Packs (TW3, Skyrim etc etc)" welche die gesamten Texturen hochauflösender gemacht haben, dann aber doch irgendwie "falsch" wirkten, weil nicht richtig zur Umgebung passend...

Wenn das DLSS 5 final besser hinbekommt, warum nicht?


NV Könnte tatsĂ€chlich eine RT / PT / DLSS AI Karte entwickeln, die zusĂ€tzlich eingebaut werden kann, wie damals bei PhysX, dann kann jeder der es haben möchte sich solch eine Karte einbauen und die extra Berechnungen darauf ausfĂŒhren (AMD könnte es ebenfalls gleichtun).

Somit hat man dann zwar eine weitere Karte im PC, aber man hat die Entscheidung selbst.

Will ich AI / PT / RT "fluffig" dann kaufe ich mir eine Karte. Will ich es nicht, nutze ich die Optionen, welche mir der Entwickler der Spiele von sich aus bereit stellt.

Zumindest solange, bis die HW das alles in einer einzelnen Karte verbinden kann.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Jan
xexex schrieb:
NatĂŒrlich.... Ist schlechter als das was im Spiel geboten wird weil..... ???
Weil es nir ein verdammtes Bild.ist. Eine RĂŒstung im Spiel besteht aus Mesh, Textur, mehreren Shadern,...

Und, um den ganzen Schwachsinn endlich mal in die Köpfe zu kriegen:
1. Erstelle mir genau das identische Modell, meinetwegen nur das gleiche Bild, mit dem gleichen Prompt nochmal!
2. Denk mal drĂŒber nach.

Letztendlich ist das doch wieder genau die selbe TraumtÀnzerei wie bei NFTs: TraumtÀnzerei von Leuten, die von Spielen und deren Technik keinen Dunst haben.
 
  • GefĂ€llt mir
Reaktionen: the_IT_Guy
Tevur schrieb:
1. Erstelle mir genau das identische Modell, meinetwegen nur das gleiche Bild, mit dem gleichen Prompt nochmal!
Mit entsprechender Vorlage ist das durchaus relativ einfach. Man mĂŒsste eben das Bild als "Referenz" nutzen und dieses der AI beibringen immer zu nutzen.

Gerade bei Spielen, die alle die selben Texturen als Referenz haben durchaus "machbar" nicht perfekt und Abweichungen kann es sicher geben, aber wenn man es richtig Programmiert und Trainiert ist auch dies machbar.

Gebt dem ganzen einfach mehr Zeit fĂŒr Optimierungen, sowohl von NV (und hoffentlich auch von AMD) als auch von den Entwicklern.. Es kann nur besser werden.

Und wenn man es nicht mag, kann man es eben so erleben wie der Entwickler es Programmiert hat "Vanilla"
 
  • GefĂ€llt mir
Reaktionen: xexex
Verangry schrieb:
Mit entsprechender Vorlage ist das
Ah, ich mĂŒsste also im Spiel die Daten der passenden Models und Texturen vorhalten, damit die Render-Pipeline darauf zugreifen kann...

Merkste hoffentlich selbst?!
 
ElliotAlderson schrieb:
Wenn ich mir die Kommentarsektion so ansehe, scheint fast jeder eine zu haben ;)

Ich gehöre zB nicht dazu.
Die ĂŒberzogenen Preise + Schrottstecker haben mich zu AMD wechseln lassen.

Ich wĂŒrde viel lieber Umgebungen und alte Games mal mit DLSS5 sehen. Gothic zB đŸ€ŁđŸ‘

Die VerÀnderungen sind teils erheblich.

Ob vergeigen oder nicht vergeigen - bin ich mir unsicher. Aber! Hab sowieso keine Blackwell und sehr "dafĂŒr" auch keinen Grund mir sowas abzutun (Hardware & Software)
 
Das Spiel hat Texturen. Diese dienen als Referenz.

Nun wird die KI trainiert, damit diese Texturen immer genutzt werden und daraus erfolgen dann eben die neuen Bilder, die sich nicht großartig unterscheiden dĂŒrften (wenn genug trainiert wurde).

Du darfst das nicht mit einem "Online Bilderstellungsprogramm" vergleichen, das bei selben prompt ohne Bezugsquelle immer ein anderes Ergebnis liefert.

Die Bezugsquellen (Texturen aus den Spieldateien) sind immer die selben.


Wie bereits mehrfach erwÀhnt, gebt dem Ganzen etwas Zeit.

Ich erinnere mich noch an SĂ€tze wie "So unglaublich realistische Grafik" -> aus dem Jahr 2000 und frĂŒher..
Vergleicht man das nun mit dem heute gezeigtem Material (egal ob durch KI oder nicht) ist das alles Besser als damals und dort hat es auch niemanden gestört, dass die Köpfe eckig waren :D (Gothic 1)
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Shinigami1, xexex, F4T4L1TYftw und 2 andere
Verangry schrieb:
Das Spiel hat Texturen. Diese dienen als Referenz.
Und hier kommt das Problem: Wenn die Referenz mal in irgendeinem Bereich nicht besonders gut ist, oder sogar öfters nicht gut genug ist... dann ist einfach nicht klar, was DLSS 5 draus macht.

Die Referenz muss halt wirklich so gut sein, dass die Wahrscheinlichkeits-Algorithmen immer zum selben Ergebnis kommen. Was genau die Rahmenbedingungen sind, damit die Referenz gut genug ist, wissen wir (noch) nicht.
 
  • GefĂ€llt mir
Reaktionen: Scheinriese
Atnam schrieb:
Nvidia sagt ja selbst das die Studios das selber festlegen. (...) Vorallem ist es halt auch ne Preview, da wird noch jede Menge Feinschliff betrieben werden bis zum Release.
Das ist Material, dass expliziet von Nvidia ausgewÀhlt wird um DLSS zu bewerben!

Zum Feinschliff; bin mir ziemlich sicher dass Nvidia erst einmal beschÀftigt ist mit der Performance.
Sprich, dass man nicht gerade ne 5090 braucht - also exklusic fĂŒr DLSS, zusĂ€tzlich zu der regulĂ€ren GPU fĂŒr das Spiel.
=> Also ich wĂŒrde die PrĂ€sentation als das derzeitige Optimum ansehen und - Erwartungshaltemanagement - das sicherlich nicht zum Launch erwarten.

Edit: Andererseits, vielleicht könnte bisschen dezenteres weil mit deutlich weniger Resourcen gerechnetes, DLLS5 sogar Probleme lösen ;)

Wie viel das Artteam dann tatsĂ€chlich konfigurieren kann: In dieser Szene diese Lampe nicht anrĂŒhren - ich wage es zu bezweifeln. Gerade zum Launch wĂŒrde ich aus der Richtung quasi gar nichts erwarten; DLSS5 wird wohl erst einmal nur ĂŒbergestĂŒlpt und das Entwicklungstarget natĂŒrlich ohne AI.
Sollte das irgendwann in paar Jahren zum Standard werden, sieht die Sache natĂŒrlich anders aus. Dann aber wohl auch nicht (nur) als DLSS sondern in irgendeiner Form die auch auf AMD / Konsolen klappt.
 
Zuletzt bearbeitet:
Booth schrieb:
Was genau die Rahmenbedingungen sind, damit die Referenz gut genug ist, wissen wir (noch) nicht.
Genau deswegen einfach abwarten, was wir bekommen, wenn es denn "fertig" ist.

Das was wir aktuell als unfertige Preview Version bekommen haben, lÀsst mich aber hoffen.
 
  • GefĂ€llt mir
Reaktionen: Shinigami1
Macht die scheiß "AAA"-games von heutzutage leider auch nicht besser.
 
Ich finde es geil, ob AI slop oder nicht.
Wenns gut aussieht und performt, dann bin ich dabei.

Verstehe bis heute die Upscaling Hater nicht.
Sieht oft besser aus als nativ und performt deutlich besser. Easy.
 
  • GefĂ€llt mir
Reaktionen: pietcux, ParrotHH, Shinigami1 und 2 andere
Tevur schrieb:
Und, um den ganzen Schwachsinn endlich mal in die Köpfe zu kriegen:
1. Erstelle mir genau das identische Modell, meinetwegen nur das gleiche Bild, mit dem gleichen Prompt nochmal!
2. Denk mal drĂŒber nach.

Letztendlich ist das doch wieder genau die selbe TraumtÀnzerei wie bei NFTs: TraumtÀnzerei von Leuten, die von Spielen und deren Technik keinen Dunst haben.

Ich hab fĂŒr Dich mal ChatGPT befragt:

Warum Bildgeneratoren ĂŒberhaupt variieren

Typische Modelle wie Stable Diffusion oder DALL·E arbeiten so:
  1. Start mit [B]Zufallsrauschen[/B]
  2. Iteratives „Entrauschen“ (50–100 Schritte)
  3. Jeder Schritt hÀngt vom vorherigen ab
👉 Kleine Unterschiede am Anfang → können sich verstĂ€rken

🔑 Die wichtigsten Stellschrauben


Der Start-Rauschvektor wird durch einen [B]Seed[/B] bestimmt.

👉 Gleicher Prompt + gleicher Seed:
  • → meist sehr Ă€hnliches bis identisches Bild

Ich erspare uns jetzt hier die weiteren AusfĂŒhrungen. Wenn Dich mehr Details interessieren, frag einfach das LLM Deines Vertrauens, die erklĂ€ren das wirklich hervorragend - wenn auch jedes Mal mit anderen Worten, denn auch Dein Kontext wird mit einem guten Schuss Entropie gewĂŒrzt (aka Temperatur).

Gehen wir einfach mal davon aus, dass DLSS5 nicht fĂŒr jeden Frame mit einem individuellen Random Seed, sondern mit einer fixen Zahl initialisiert wird, die exakt so auch schon beim Entwickler verwendet wurde. Was war jetzt Dein Punkt?
 
Das ist schon extrem krass und ein Gamechanger und scheint die Zukunft von Games zu sein. Hoffentlich zieht AMD zeitnah was Ă€hnliche aus dem Ärmel.
 
Tevur schrieb:
1. Erstelle mir genau das identische Modell, meinetwegen nur das gleiche Bild, mit dem gleichen Prompt nochmal!
2. Denk mal drĂŒber nach.
WĂŒrdest du dich auch nur 5 Sekunden mit dem Thema befassen und selbst mal das Hirn einschalten, wĂ€re dir vielleicht aufgefallen dass es nicht darum geht, mit einem Prompt bestehend aus zwei Worten Texturen zu erstellen. Bei DLSS5 geht es (noch) nicht einmal darum sie ĂŒberhaupt neu zu erstellen, sondern schlichtweg wie mit bereits mit bekannten Tools zu verbessern.

Ein schönes Beispiel hierfĂŒr ist Topaz Gigapixel, was unter anderem Nvidia als Kunden listet.
1773797260515.png

https://www.topazlabs.com/topaz-gigapixel

Was liegt also nÀher als mithilfe von AI, auf Basis von Texturen mit geringerer Auflösung und Details, sich höher aufgelöstes und mit zusÀtzlichen Details versehenes Material zu generieren? Es sind Tools die bereits heutzutage millionenfach verwendet werden, selbst Wikipedia erklÀrt es Anhand von ein paar Beispielen.
1773797720126.png

https://en.wikipedia.org/wiki/Image_scaling

Richtig an dieser Stelle ist, mit DLSS5 wird der Nutzer noch nicht selbst völlig neue Texturen erstellen können, aber in der Zukunft? Ein Mesh aus einem Bild zu erstellen ist heutzutage kein Problem mehr. Warte noch ein paar Jahre und dann wirst du ein Bild deiner Wahl nehmen können und schon wird der Spielecharakter so aussehen wie auf dem Bild.
1773798906843.png

https://www.meshy.ai/

Oder wir gehen noch einen Schritt weiter und zukĂŒnftig erstellst du dir deinen Spielecharakter mit ein paar Worten und nicht mit unhandlichen Charaktereditoren.
1773799224135.png
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: ParrotHH und Sensei21
samuelclemens schrieb:
Mal ernsthaft, will man wirklich hyperrealistische Grafik und Physik wenn man sich durch abartig mutierte eiternde Tentagel Schleimmonster metzelt oder in Ballerspielem seinem menschlichen GegenĂŒber das Hirn rausblĂ€st!? Oder wenn man selbst getroffen wird im der third person perspektive die eigene Hirnmasse an die Kameralinse klatscht?
Ich fand es bisher immer ganz gut durch die unrealistishe Grafik mental leicht eine Grenze ziehen zu können.
Das kann man auch nicht mit realismus im Film vergleichen da man dort nur ein außenstehender Beobachter ist und durch den Umstand nichts beinflussen zu können einem auch die sinnbildliche verantwortung genommen wird.
vielleicht wird den meistens dann endlich mal klar was das fĂŒr ein Graus ist in so einer Situation zu sein und wenden sich dann etwas mehr an die frische Luft von Zeit zu Zeit, bevor sie wieder zocken :skull_alt:

hyperrealistisch - noch intensiveres Erlebnis und Immersion :)
 
  • GefĂ€llt mir
Reaktionen: BeowulfAgate und samuelclemens
Linmoum schrieb:
Alles in allem einfach nur beeindruckend.
Nein. Ist es nicht. Ich habe schonmal erwĂ€hnt, dass hier eine gute bis sehr gute Grafik halt noch besser gemacht wird. Von 95% QualitĂ€t auf 98%. DafĂŒr wird aktuell ein fĂŒr 99% unbezahlbare Aufwand betrieben.
Ich habe vor 15 Jahren super geniale Demos gesehen z.B. von WĂ€ldern, die es bis heute so in quasi keinem Spiel gibt (und kein Spiel ist dadurch schlechter).

Was ich nicht verstehe, ist wieso Dich ein paar Bilder so anfixen, dass Du Dich fĂŒr etwas hypen lĂ€sst von dem Du keine Ahnung hast, wie es sich in 1 Jahr oder auch 5 Jahren real in Spielen nutzen lĂ€sst.

WĂŒrdest Du noch nie im Gaming Bereich enttĂ€uscht?
Und wenn Du den Begriff "KI" vermisst... ich brauche diesen Begriff gar nicht um eine kritische Haltung gegenĂŒber Demo #250 in den letzen 20 Jahren zu haben.

Hinzu kommt der Hinweis dass eine gute Anpassung eben auch qualitativ gute Referenzen braucht. Und das möglichst in jedem Bild. Zudem ist völlig unklar wie sich die Performance zeigt. Ich kann mir gut vorstellen dass die sich mit 2 x 5090 trotzdem alles an MFG reingeballert haben, was geht. Wie gut sich das anzeigt, muss sich eben noch zeigen.

Hast Du wirklich NULL Skepsis wenn ein gewinnorientierter Konzern den nÀchsten Hype auftischen möchte?

xexex schrieb:
Es sind Tools die bereits heutzutage millionenfach verwendet werden
Und hunderttausendfach Slop produzieren. Bevor ich eine Technik abschließend bewerte ist es doch logisch sie grundlegend testen zu lassen, und nicht den Versprechen eines Konzerns blind zu vertrauen?
 
  • GefĂ€llt mir
Reaktionen: BeowulfAgate, the_IT_Guy und Scheinriese
Aslo schrieb:
Hoffentlich zieht AMD zeitnah was Ă€hnliche aus dem Ärmel.
Ja, in 25 Jahren. :smokin: Und wenn wirds wieder nicht abwÀrtskompatibel sein.
 
Der technische Ansatz verwundert mich. DLSS 5 hat "Frames + Motion Vectors" als Inputs - soll also z.B. die Beleuchtung realistischer machen, indem es aus ein paar Frames mit vermutlich zu kurzem Kontextfenster korreliert, was die Lichtquellen sind und wie die Szene auf und abseits des Frames auf das Licht einwirkt.
Wie soll der Output ĂŒber den Verlauf des Spiels konsistent bleiben, ohne dass die Devs massiv Aufwand in Prebaking speziell fĂŒr DLSS 5 investieren (z.B. Referenzbilder aus verschiedenen Winkeln, Tageszeiten, ĂŒberdacht oder unter freiem Himmel, etc. fĂŒr jede Szene)? Oder soll es nur fĂŒr kurze Clips mit vorsichtiger KamerafĂŒhrung gut aussehen?

Wenn man mal vom HDR-Filter-Look absieht, lassen selbst die kurzen Clips nichts gutes erahnen. Ausleuchtung und Schatten teils völlig am Original vorbei, das ja bereits mit modernen Techniken gerendert wurde; Gesicher, die einerseits völlig anders / generisch aussehen, andererseits Eigenarten wie umherwabernde Augen haben. Dann wollen sie das Modell noch kleinprĂŒgeln und das polierte Endprodukt im Herbst rausbringen.
 
  • GefĂ€llt mir
Reaktionen: N0Thing, the_IT_Guy, Tevur und eine weitere Person
Sapphire Forum
ZurĂŒck
Oben