Kommentar Kommentar: Nvidia DLSS 5 ist technisch krass – Vergeigt es grafisch nicht!

DerAnnoSiedler schrieb:
Zugegeben, Starfield ist die Situation besser. Also mein Post sollte DLSS5 kritisieren, natĂŒrlich aber nicht verteufeln.
Habe ich auch so aufgefasst, keine Angst.

Genau den Ausschnitt den du gezeigt hast, habe ich im DC auch gezeigt.
Die Details durch die Texturen die durch die KI "verbessert" werden, sowie die Beleuchtung der Umgebung ist meiner Meinung nach besser (in dem Ausschnitt -> muss nicht ĂŒberall gelten).

Der StahltrÀger wirkt realistischer, die Beleuchtung bei "diesigem Wetter -> Nieselregen" wirkt realistischer.

Auch wenn du den gleiche Screenshot nutzt und rechts den Laden anschaust.
Dort ist die MĂŒlltonne "verbeult" im Original kann man es erahnen, mit der KI Verbesserung hat es dennoch mehr Details und wirkt realistischer.

Das ganze muss natĂŒrlich stimmig in die Spiele untergebracht werden.

Wenn der Entwickler sagt, ich möchte den "Stil" nicht Àndern, aber eine Optimierung ist okay, darf DLSS 5 hier nicht den Stil Àndern (Farben der Lichquelle etc pp)

Wenn das erstmal ausgereift ist, wird das sicher gut aussehen.

Falls sich noch jemand erinner kann an die ganzen "Texure Packs (TW3, Skyrim etc etc)" welche die gesamten Texturen hoch auflösender gemacht haben, dann aber doch "falsch" wirkten, weil nicht richtig zur Umgebung passend...

Wenn das DLSS 5 final besser hinbekommt, warum nicht?


NV Könnte tatsĂ€chlich eine RT / PT / DLSS AI Karte entwickeln, die zusĂ€tzlich eingebaut werden kann, wie damals bei PhysiX, dann kann jeder der es haben möchte sich solch eine Karte einbauen und die extra Berechnungen darauf ausfĂŒhren (AMD könnte es ebenfalls gleichtun).

Somit hat man dann zwar eine weitere Karte im PC, aber man hat die Entscheidung selbst.

Will ich AI / PT / RT "fluffig" dann kaufe ich mir eine Karte. Will ich es nicht, nutze ich die Optionen, welche mir der Entwickler der Spiele von sich aus bereit stellt.

Zumindest solange, bis die HW das alles in einer einzelnen Karte verbinden kann.
 
Zuletzt bearbeitet:
xexex schrieb:
NatĂŒrlich.... Ist schlechter als das was im Spiel geboten wird weil..... ???
Weil es nir ein verdammtes Bild.ist. Eine RĂŒstung im Spiel besteht aus Mesh, Textur, mehreren Shadern,...

Und, um den ganzen Schwachsinn endlich mal in die Köpfe zu kriegen:
1. Erstelle mir genau das identische Modell, meinetwegen nur das gleiche Bild, mit dem gleichen Prompt nochmal!
2. Denk mal drĂŒber nach.

Letztendlich ist das doch wieder genau die selbe TraumtÀnzerei wie bei NFTs: TraumtÀnzerei von Leuten, die von Spielen und deren Technik keinen Dunst haben.
 
Tevur schrieb:
1. Erstelle mir genau das identische Modell, meinetwegen nur das gleiche Bild, mit dem gleichen Prompt nochmal!
Mit entsprechender Vorlage ist das durchaus relativ einfach. Man mĂŒsste eben das Bild als "Referenz" nutzen und dieses der AI beibringen immer zu nutzen.

Gerade bei Spielen, die alle die selben Texturen als Referenz haben durchaus "machbar" nicht perfekt und Abweichungen kann es sicher geben, aber wenn man es richtig Programmiert und Trainiert ist auch dies machbar.

Gebt dem ganzen einfach mehr Zeit fĂŒr Optimierungen, sowohl von NV (und hoffentlich auch von AMD) als auch von den Entwicklern.. Es kann nur besser werden.

Und wenn man es nicht mag, kann man es eben so erleben wie der Entwickler es Programmiert hat "Vanilla"
 
  • GefĂ€llt mir
Reaktionen: xexex
Verangry schrieb:
Mit entsprechender Vorlage ist das
Ah, ich mĂŒsste also im Spiel die Daten der passenden Models und Texturen vorhalten, damit die Render-Pipeline darauf zugreifen kann...

Merkste hoffentlich selbst?!
 
ElliotAlderson schrieb:
Wenn ich mir die Kommentarsektion so ansehe, scheint fast jeder eine zu haben ;)

Ich gehöre zB nicht dazu.
Die ĂŒberzogenen Preise + Schrottstecker haben mich zu AMD wechseln lassen.

Ich wĂŒrde viel lieber Umgebungen und alte Games mal mit DLSS5 sehen. Gothic zB đŸ€ŁđŸ‘

Die VerÀnderungen sind teils erheblich.

Ob vergeigen oder nicht vergeigen - bin ich mir unsicher. Aber! Hab sowieso keine Blackwell und sehr "dafĂŒr" auch keinen Grund mir sowas abzutun (Hardware & Software)
 
Das Spiel hat Texturen. Diese dienen als Referenz.

Nun wird die KI trainiert, damit diese Texturen immer genutzt werden und daraus erfolgen dann eben die neuen Bilder, die sich nicht großartig unterscheiden dĂŒrften (wenn genug trainiert wurde).

Du darfst das nicht mit einem "Online Bilderstellungsprogramm" vergleichen, das bei selben prompt ohne Bezugsquelle immer ein anderes Ergebnis liefert.

Die Bezugsquellen (Texturen aus den Spieldateien) sind immer die selben.


Wie bereits mehrfach erwÀhnt, gebt dem Ganzen etwas Zeit.

Ich erinnere mich noch an SĂ€tze wie "So unglaublich realistische Grafik" -> aus dem Jahr 2000 und frĂŒher..
Vergleicht man das nun mit dem heute gezeigtem Material (egal ob durch KI oder nicht) ist das alles Besser als damals und dort hat es auch niemanden gestört, dass die Köpfe eckig waren :D (Gothic 1)
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: xexex, F4T4L1TYftw, catch 22 und eine weitere Person
Verangry schrieb:
Das Spiel hat Texturen. Diese dienen als Referenz.
Und hier kommt das Problem: Wenn die Referenz mal in irgendeinem Bereich nicht besonders gut ist, oder sogar öfters nicht gut genug ist... dann ist einfach nicht klar, was DLSS 5 draus macht.

Die Referenz muss halt wirklich so gut sein, dass die Wahrscheinlichkeits-Algorithmen immer zum selben Ergebnis kommen. Was genau die Rahmenbedingungen sind, damit die Referenz gut genug ist, wissen wir (noch) nicht.
 
Atnam schrieb:
Nvidia sagt ja selbst das die Studios das selber festlegen. (...) Vorallem ist es halt auch ne Preview, da wird noch jede Menge Feinschliff betrieben werden bis zum Release.
Das ist Material, dass expliziet von Nvidia ausgewÀhlt wird um DLSS zu bewerben!

Zum Feinschliff; bin mir ziemlich sicher dass Nvidia erst einmal beschÀftigt ist mit der Performance.
Sprich, dass man nicht gerade ne 5090 braucht - also exklusic fĂŒr DLSS, zusĂ€tzlich zu der regulĂ€ren GPU fĂŒr das Spiel.
=> Also ich wĂŒrde die PrĂ€sentation als das derzeitige Optimum ansehen und - Erwartungshaltemanagement - das sicherlich nicht zum Launch erwarten.

Edit: Andererseits, vielleicht könnte bisschen dezenteres weil mit deutlich weniger Resourcen gerechnetes, DLLS5 sogar Probleme lösen ;)

Wie viel das Artteam dann tatsĂ€chlich konfigurieren kann: In dieser Szene diese Lampe nicht anrĂŒhren - ich wage es zu bezweifeln. Gerade zum Launch wĂŒrde ich aus der Richtung quasi gar nichts erwarten; DLSS5 wird wohl erst einmal nur ĂŒbergestĂŒlpt und das Entwicklungstarget natĂŒrlich ohne AI.
Sollte das irgendwann in paar Jahren zum Standard werden, sieht die Sache natĂŒrlich anders aus. Dann aber wohl auch nicht (nur) als DLSS sondern in irgendeiner Form die auch auf AMD / Konsolen klappt.
 
Zuletzt bearbeitet:
Booth schrieb:
Was genau die Rahmenbedingungen sind, damit die Referenz gut genug ist, wissen wir (noch) nicht.
Genau deswegen einfach abwarten, was wir bekommen, wenn es denn "fertig" ist.

Das was wir aktuell als unfertige Preview Version bekommen haben, lÀsst mich aber hoffen.
 
Macht die scheiß "AAA"-games von heutzutage leider auch nicht besser.
 
Ich finde es geil, ob AI slop oder nicht.
Wenns gut aussieht und performt, dann bin ich dabei.

Verstehe bis heute die Upscaling Hater nicht.
Sieht oft besser aus als nativ und performt deutlich besser. Easy.
 
  • GefĂ€llt mir
Reaktionen: Verangry
Tevur schrieb:
Und, um den ganzen Schwachsinn endlich mal in die Köpfe zu kriegen:
1. Erstelle mir genau das identische Modell, meinetwegen nur das gleiche Bild, mit dem gleichen Prompt nochmal!
2. Denk mal drĂŒber nach.

Letztendlich ist das doch wieder genau die selbe TraumtÀnzerei wie bei NFTs: TraumtÀnzerei von Leuten, die von Spielen und deren Technik keinen Dunst haben.

Ich hab fĂŒr Dich mal ChatGPT befragt:

Warum Bildgeneratoren ĂŒberhaupt variieren

Typische Modelle wie Stable Diffusion oder DALL·E arbeiten so:
  1. Start mit [B]Zufallsrauschen[/B]
  2. Iteratives „Entrauschen“ (50–100 Schritte)
  3. Jeder Schritt hÀngt vom vorherigen ab
👉 Kleine Unterschiede am Anfang → können sich verstĂ€rken

🔑 Die wichtigsten Stellschrauben


Der Start-Rauschvektor wird durch einen [B]Seed[/B] bestimmt.

👉 Gleicher Prompt + gleicher Seed:
  • → meist sehr Ă€hnliches bis identisches Bild

Ich erspare uns jetzt hier die weiteren AusfĂŒhrungen. Wenn Dich mehr Details interessieren, frag einfach das LLM Deines Vertrauens, die erklĂ€ren das wirklich hervorragend - wenn auch jedes Mal mit anderen Worten, denn auch Dein Kontext wird mit einem guten Schuss Entropie gewĂŒrzt (aka Temperatur).

Gehen wir einfach mal davon aus, dass DLSS5 nicht fĂŒr jeden Frame mit einem individuellen Random Seed, sondern mit einer fixen Zahl initialisiert wird, die exakt so auch schon beim Entwickler verwendet wurde. Was war jetzt Dein Punkt?
 
Das ist schon extrem krass und ein Gamechanger und scheint die Zukunft von Games zu sein. Hoffentlich zieht AMD zeitnah was Ă€hnliche aus dem Ärmel.
 
Tevur schrieb:
1. Erstelle mir genau das identische Modell, meinetwegen nur das gleiche Bild, mit dem gleichen Prompt nochmal!
2. Denk mal drĂŒber nach.
WĂŒrdest du dich auch nur 5 Sekunden mit dem Thema befassen und selbst mal das Hirn einschalten, wĂ€re dir vielleicht aufgefallen dass es nicht darum geht, mit einem Prompt bestehend aus zwei Worten Texturen zu erstellen. Bei DLSS5 geht es (noch) nicht einmal darum sie ĂŒberhaupt neu zu erstellen, sondern schlichtweg wie mit bereits mit bekannten Tools zu verbessern.

Ein schönes Beispiel hierfĂŒr ist Topaz Gigapixel, was unter anderem Nvidia als Kunden listet.
1773797260515.png

https://www.topazlabs.com/topaz-gigapixel

Was liegt also nÀher als mithilfe von AI, auf Basis von Texturen mit geringerer Auflösung und Details, sich höher aufgelöstes und mit zusÀtzlichen Details versehenes Material zu generieren? Es sind Tools die bereits heutzutage millionenfach verwendet werden, selbst Wikipedia erklÀrt es Anhand von ein paar Beispielen.
1773797720126.png

https://en.wikipedia.org/wiki/Image_scaling

Richtig an dieser Stelle ist, mit DLSS5 wird der Nutzer noch nicht selbst völlig neue Texturen erstellen können, aber in der Zukunft? Ein Mesh aus einem Bild zu erstellen ist heutzutage kein Problem mehr. Warte noch ein paar Jahre und dann wirst du ein Bild deiner Wahl nehmen können und schon wird der Spielecharakter so aussehen wie auf dem Bild.
1773798906843.png

https://www.meshy.ai/
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Sensei21
samuelclemens schrieb:
Mal ernsthaft, will man wirklich hyperrealistische Grafik und Physik wenn man sich durch abartig mutierte eiternde Tentagel Schleimmonster metzelt oder in Ballerspielem seinem menschlichen GegenĂŒber das Hirn rausblĂ€st!? Oder wenn man selbst getroffen wird im der third person perspektive die eigene Hirnmasse an die Kameralinse klatscht?
Ich fand es bisher immer ganz gut durch die unrealistishe Grafik mental leicht eine Grenze ziehen zu können.
Das kann man auch nicht mit realismus im Film vergleichen da man dort nur ein außenstehender Beobachter ist und durch den Umstand nichts beinflussen zu können einem auch die sinnbildliche verantwortung genommen wird.
vielleicht wird den meistens dann endlich mal klar was das fĂŒr ein Graus ist in so einer Situation zu sein und wenden sich dann etwas mehr an die frische Luft von Zeit zu Zeit, bevor sie wieder zocken :skull_alt:

hyperrealistisch - noch intensiveres Erlebnis und Immersion :)
 
ZurĂŒck
Oben