Kommentar Kommentar: Nvidia DLSS 5 ist technisch krass, vergeigt es grafisch nicht!

Overprime schrieb:
Ich verstehe die massive Kritik nicht. In ein paar Jahren reicht dann eine einfache Grafikkarte für bombastische Grafik aus, die über ML immer potenter wird… Geld sparen, weniger Schrauben. 😅
Das wird sicher nicht im Interesse von Nvidia liegen, dass die Leute nur noch Einstigeskarten kaufen.

guillome schrieb:
Ich wunder mich halt wie ein toter Pixelbrei "anders" werden kann wenn das Urbild und dessen Erschaffung sowieso 100% künstlich ist. Und nicht nur dieser NPC sondern das geamte Setting ist künstlich
Es ging doch nie um Künstlichkeit, sondern um künstlerische Selbstbestimmung und inhaltliche Kohärenz.

Da du Grace als NPC bezeichnest, hast du RE9 offensichtlich nicht gespielt. Es hat schon seinen Grund, dass sie im Original so aussieht, wie sie aussieht. Die DLSS5-Version ist nicht nur anders, sondern passt auch nicht zu der Figur und dem Setting.

samuelclemens schrieb:
Ich fand es bisher immer ganz gut durch die unrealistishe Grafik mental leicht eine Grenze ziehen zu können.
Irgendwie muss ich hier an den Spruch denken "Das Leben ist scheiße, aber die Grafik ist geil" :)
 
  • Gefällt mir
Reaktionen: the_IT_Guy, samuelclemens und JarlBallin
@Jan wird CB auch Frage nachgehen, in wieweit die KI die künstlerische Vielfalt verwaschen und vereinheitlichen wird?
Das Ausgangsbild ist ja schon, zum Teil deutlich, anders.a
Wie sehen das die Zeichner/innen selbst, dass eine KI da einfach, übee ihr Kunstwerk, drüber schruppt?
 
Zuletzt bearbeitet:
Ahja der thread zum Glück auf ch nicht dicht ....

Ich bin auch ein nee sager das ist genauso schlimm wie zuvor .....wie war das noch man wollte das man gute frames auf langsamen Rechner bekommt zumindestens 60 ...sind nun soweit das ich Spielstudios das optimieren sparen , 60fps auf einer 5090 sind nen witz ..

Und jetzt kann man übertrieben die Grafikdesigner rausschmeißen und strichmänchen zeichnen .... Die KI macht das schon

Absolut kein Fan

Ich hol Mal weit her es gab ne Zeit da hat man Bäume und Pflanzen von nem Programm platzieren lassen .... Sah sehr bescheiden aus dafür sahen von Hand designte Landschaften viel schöner aus ...
 
Lazzarus schrieb:
@Scheinriese oder die Schattendarstellung von DLSS5 betont ihre Gesichtspartie anders als im Original.
Denn man sieht auch das ihr Gesicht im ersten Foto runder ist, im letzten sieht es definierter aus.
Könnte aber auch sein das es auch sonst definierter ist, die derzeitige RA Engine es aber so wie im ersten Bild darstellt.
Könnte auch einfach so ausschauen wie ein generisches KI Bild einer blonden Frau, weil es einfach auch das ist. Insta etc. ist ja auch voll mit eben exakt jenem Gesicht, daher scheint das training material wohl auch recht ähnlich zu anderen KIs gewesen zu sein. Daher find ich das auch sehr gewagt von Nvidia die RE demo so präsent zu zeigen.

Immerhin sind die meisten anderen Gesichter etwas besser getroffen.
 
  • Gefällt mir
Reaktionen: Alphanerd
viele spiele sehen nur noch aus wie ein UE baukasten
viele spiele nutzen KI, baukasten elemente, etc und fühlen sich deshalb gleich an
und jetzt kommt nvidia und legt einen filter, der die grafik "neu interpretiert" drüber, was auch alles in eine richtung verändern wird


hiermit werden noch mehr spiele rauskommen, die möglichst wenig handarbeit beinhalten.

ich halte sehr wenig davon. AMD und INTEL werden das natürlich nachmachen und dann sieht dasselbe spiel immer anders aus.
 
Was ich dabei denke, genial! Man braucht sich nur anzuschauen was heute schon in älteren Spielen mit Reshade und Co. möglich ist. Schade an dieser Stelle nur, es braucht eine explizite Unterstützung, gerade für ältere Titel wäre sowas eine Offenbarung.

Auf der anderen Seite, irgendwann werden die aktuellen Titel ebenfalls im Rentenalter ankommen. Wenn es dann reicht eine aktuelle GPU zu kaufen um ihre Optik aufzufrischen, ist dieses Feature ein riesiger Meilenstein für zukünftige Spieleentwicklung.
 
Naja ich weiß nicht so recht. Die Beispiele ohne AI sehen für mich aus, als wären diese mit niedrigsten Grafik Einstellungen gemacht worden.
 
  • Gefällt mir
Reaktionen: PrussianHeathen und Alphanerd
@xexex ist ein zweischneidiges Schwert, optische "Aufwertung" gegen Nostalgie.
 
🤣🤣🤣
 
  • Gefällt mir
Reaktionen: the_IT_Guy, ruthi91, RMS_der_Zweite und 7 andere
piccolo85 schrieb:
Ich finde vor allem die Namensgebung unglücklich. DLSS = Deep Learning Super Sampling - das hier gezeigte hat aber nichts mit Super Sampling zu tun. Was hier gezeigt wird ist Deep Learning Neural Rendering. NVIDIA hätte die Technologie meiner Meinung nach DLNR nennen und deutlich von DLSS absetzen sollen. So bleiben für mich zu viele Fragen offen, die sich alleine aus der Namensgebung ergeben.

  • Kann man Super Sampling (DLSS 4.X) und Neural Rendering (DLSS 5) zusammen nutzen?
  • Wird DLSS 4.X, also Super Sampling noch weiter entwickelt?
Das ist ja etwas was ich nicht verstehe. Diese Technik ist irgendwie out of scope für DLSS. Als eigene Funktion kann ich das ja noch verstehen ,warum man das aber ins DLSS reinpackt erschließt sich mir nicht. Naja und das Ergebnis, hier wird viel zu sehr geändert vom Original und ich find es ehrlich gesagt ein Schritt in die falsche Richtung.
 
  • Gefällt mir
Reaktionen: Schokolade
Exit666 schrieb:
Marginal würde ich das aber nicht nennen. Nach meiner Meinung ist das potentiell einer der größten Sprünge der letzten Jahre.
Alleine der weibliche Charakter bei Starfield. Da sind dann Haare auf dem Kopf, statt brauner Spaghetti.
Ein eher schlechtes Spiel grafisch aufzumotzen ... finde ich eh weird. Klar - die paar Starfield-Freunde, die dann auch noch HighEnd Grafik haben, wird es freuen.

Ich habe mir nur Requiem angeschaut. Haare finde ich aber tatsächlich total marginal. Die müssen sich für mich nicht bewegen oder besonders toll aussehen.
Wenn aber tatsächlich Nudeln aufm Kopf sind... OK. Verstehe.

Alles was ich gesehen habe, halte ich für marginal - übrigens ja bereits seit Jahren (meine Prozentzahlen waren schon bewusst so, dass der Sprung von Cyberpunk zu Requiem für mich gerade mal 5% ausmacht). Vielleicht gucke ich mir mal die Spaghetti an.
 
Das Ding ist halt, wir wissen einfach noch nicht genug, um das irgendwie fundiert bewerten zu können, wir wissen es läuft auf 2x RTX 5090, wir wissen es nutzt die Engine als Vorlage, es soll später für vorerst RTX 5000 Karten verfügbar sein, wir haben erstes Material und DLSS 5 soll scheinbar anpassbar sein, aus Sicht der Entwickler usw. aber wir wissen NICHTS darüber, wie es final umgesetzt und aussehen wird. Vielleicht ist das DLSS 5, was wir sehen, auf Stufe 11/10 hochgeschraubt und sieht am Ende viel natürlicher aus. Vielleicht geht AMD mit dem Helix Project gerade genau den gleichen Weg, dort redet man auch von Next Gen "Upscaling" usw.
 
  • Gefällt mir
Reaktionen: SaoJoaoBatista, Return2Burn und K3ks
Overprime schrieb:
Ich verstehe die massive Kritik nicht. In ein paar Jahren reicht dann eine einfache Grafikkarte für bombastische Grafik aus, die über ML immer potenter wird… Geld sparen, weniger Schrauben. 😅
Sie ist halt auch vollkommen daneben. Es gibt Stimmen von Journalisten vor Ort, die es selbst in Spielen sehen durften (womöglich ist der Kommentar von Ryan Shrout hier schon verlinkt) und die die ganze Internetkritik ad absurdum führen. Zumal die Entwickler auch noch selbst die Handhabe haben (werden) und entscheiden, wie stark sie es nutzen wollen.

Das ist ein generelles Phänomen, dass viele Leute aus unerfindlichen Gründen "AI" pauschal ablehnen und diskreditieren.

Wer wirklich ins Detail geht und sich hiermit befasst hat, der sieht erstmal, dass vor allem die viel belächelten Gesichter nicht per de schlecht(er) aussehen, sondern anders. Gewaltiger Unterschied.

Wer sich noch mehr damit auseinander setzt, der sieht dann relativ schnell, dass nicht nur irgendein "AI Slop" Dinge hinzudichtet, sondern dass jetzt erst Details und Konturen hervorgehoben werden, die vorher schon vorhanden waren, aber schlicht abgesoffen sind. Was es umso absurder macht.

Dass der 0815-Gamer, der von sowas und technischen Hintergründen keine Ahnung hat (bzw. sich nicht dafür interessiert), ist das eine. Das andere sind Leute, die sich damit befassen und durchaus Ahnung haben, das dann aber zerreißen. Das wirft dann doch Fragen auf.

Perfekt ist nichts und wird es niemals sein. Wie auch? Der Sprung, den DLSS5 hier aber andeutet, ist nicht nur ein weiterer Schritt in der Computergrafik. Das sind mindestens drei große Schritte, die man hier sehen kann. Alles in allem einfach nur beeindruckend. Das Jahresende kann gar nicht schnell genug kommen.
 
  • Gefällt mir
Reaktionen: ParrotHH, Lazzarus und mani89
gruuli schrieb:
Das Ding ist halt, wir wissen einfach noch nicht genug, um das irgendwie fundiert bewerten zu können, wir wissen es läuft auf 2x RTX 5090, wir wissen es nutzt die Engine als Vorlage, es soll später für vorerst RTX 5000 Karten verfügbar sein, wir haben erstes Material und DLSS 5 soll scheinbar anpassbar sein, aus Sicht der Entwickler usw. aber wir wissen NICHTS darüber, wie es final umgesetzt und aussehen wird. Vielleicht ist das DLSS 5, was wir sehen, auf Stufe 11/10 hochgeschraubt und sieht am Ende viel natürlicher aus. Vielleicht geht AMD mit dem Helix Project gerade genau den gleichen Weg, dort redet man auch von Next Gen "Upscaling" usw.
was sieht da nicht natürlich aus?? siehts ohne natürlicher aus?🤣🤣🤣
Ergänzung ()

Linmoum schrieb:
Sie ist halt auch vollkommen daneben. Es gibt Stimmen von Journalisten vor Ort, die es selbst in Spielen sehen durften (womöglich ist der Kommentar von Ryan Shrout hier schon verlinkt) und die die ganze Internetkritik ad absurdum führen. Zumal die Entwickler auch noch selbst die Handhabe haben (werden) und entscheiden, wie stark sie es nutzen wollen.

Das ist ein generelles Phänomen, dass viele Leute aus unerfindlichen Gründen "AI" pauschal ablehnen und diskreditieren.

Wer wirklich ins Detail geht und sich hiermit befasst hat, der sieht erstmal, dass vor allem die viel belächelten Gesichter nicht per de schlecht(er) aussehen, sondern anders. Gewaltiger Unterschied.

Wer sich noch mehr damit auseinander setzt, der sieht dann relativ schnell, dass nicht nur irgendein "AI Slop" Dinge hinzudichtet, sondern dass jetzt erst Details und Konturen hervorgehoben werden, die vorher schon vorhanden waren, aber schlicht abgesoffen sind. Was es umso absurder macht.

Dass der 0815-Gamer, der von sowas und technischen Hintergründen keine Ahnung hat (bzw. sich nicht dafür interessiert), ist das eine. Das andere sind Leute, die sich damit befassen und durchaus Ahnung haben, das dann aber zerreißen. Das wirft dann doch Fragen auf.

Perfekt ist nichts und wird es niemals sein. Wie auch? Der Sprung, den DLSS5 hier aber andeutet, ist nicht nur ein weiterer Schritt in der Computergrafik. Das sind mindestens drei große Schritte, die man hier sehen kann. Alles in allem einfach nur beeindruckend. Das Jahresende kann gar nicht schnell genug kommen.
so siehts aus. viele sprechen von einem filter die keine ahnung haben. für einen filter 2x 5090 sagt e schon alles
 
Wieso heißt es überhaupt noch DLSS? Was hat das mit Super Sampling zu tun? DLR, Deep Learning Reshading wäre doch passender.

Auch wenn das Ergebnis gut bzw deutlich besser als das Original aussehen kann(!), sehe ich den Bedarf nicht wirklich. Die Entwickler können diesen Realismusgrad auch so erreichen, das sieht man ja immer wieder an den Tech Demos, die bis zum Release mehrere Downgrades erfahren. Mit 2 teuersten High End GPUs ist das Stand heute nur eine Machbarkeitsstudie. Und jede der gezeigten Demos sieht für mich wie eine Grafikmod aus, auch unbeachtet der teilweise lächerlichen Gesichtsupgrades.

Die Entwickler haben mit den modernen Engines jede Menge Tools, die ihre Arbeit vereinfachen. Mit Framegeneration und Upscalern hat man ihnen auch Optimierungsarbeit abgenommen, was sie offensichtlich sehr gerne angenommen haben. Dann lass sie doch zumindest noch ihre Spiele selbst designen. Wenn selbst das die KI übernimmt, braucht man die Entwickler bald ja gar nicht mehr. Einfach bei Nvidia Server mieten und die KI mit prompts füttern. Die Traumzukunft der Lederjacke.
 
  • Gefällt mir
Reaktionen: the_IT_Guy, SaoJoaoBatista und Andre83hro
trockenerToast schrieb:
Könnte auch einfach so ausschauen wie ein generisches KI Bild einer blonden Frau, weil es einfach auch das ist. Insta etc. ist ja auch voll mit eben exakt jenem Gesicht, daher scheint das training material wohl auch recht ähnlich zu anderen KIs gewesen zu sein. Daher find ich das auch sehr gewagt von Nvidia die RE demo so präsent zu zeigen.

Immerhin sind die meisten anderen Gesichter etwas besser getroffen.
schon mal daran gedacht dass es vielleicht noch nicht dort ist wo Nvidia es haben will und sie etwas nachgeholfen haben? Könnt ich mir gut vorstellen, und das dies der Grund ist das es etwas anders aussieht.

Ich begrüße jedes Insta Modelface zu dem was bisher in den Games ist. Für mich realistischer als das heute gebotene. Wir wissen das es inGame fake ist, wie in der Realität, aber mich stört es nicht. Es wird sicher besser werden.

Es kam auch zuerst RayTracing, erst dann kam das bessere PathTracing. So...
 
ruthi91 schrieb:
Vorallem die Veränderung bei den Haaren finde ich gut, die sind ja schon ewig ein Manko bzw Schwergewicht beim Rendering. Den Augen wird auch mehr Realismus und Leben eingehaucht.
Aber es ist eben ein schmaler Grat zum uncanny valley bzw. die sollten nicht über jeden Charakter den Standardfilter drüberklatschen. Auch die Wachshaut oder das übertriebene Kontrast hochdrehen für Falten finde ich nicht gut.

Ich bin dafür Nvidia sollte den Spieleschmieden oder Engineentwicklern diese Werkzeuge zur Verfügung stellen, aber nicht eigenmächtig zum Teil derart kräftig ins Artdesign der Entwickler eingreifen.
Besonders Bethesda hätte es bitter nötig damit nicht nochmal so eine grafische Unterwältigung wie Starflop rauskommt.


Die Befürchtung liegt nahe, dass die Werbefilme auf einer 5090 in 1080p mit MFGx4 erstellt wurden 😅
Ich stimme deiner Meinung komplett ein. Genau so sehe ich das auch.
 
HerrRossi schrieb:
Auf jeden Fall, ich habe schon am Amiga 3D-Bilder mit raytracing (Imagine) berechnen lassen, da dauerte ein Bild dann aber die ganze Nacht, trotz Turbokarte.
Jap, ich hab damals in der Uni auch den ganzen Computerraum belegt weil ich alle PCs parallel an einem 800x600-Bild rechnen lassen habe 😁
 
Zurück
Oben