News Was macht DLSS 5?: Nvidias Antwort in einem Satz ist „die KI weiß, was sie tut“

TheSomeone schrieb:
Jetzt muss man schon einzelframes von einem Stream und Preview Version hernehmen um Nvidia eins reinzudrücken.

Ja, deswegen musst ausgerechnet du in jedem nVidia Thread irgendwelche AMD Sprüche dazuschreiben, dabei geht es hier nur um nVidia und wie Lederjacke die Leute für dumm verkauft.

Genau das, was es angeblich nicht ist, ist es dann leider doch.
 
  • Gefällt mir
Reaktionen: derkleinedieb, BeowulfAgate, JarlBallin und 3 andere
Che-Tah schrieb:
Kritik gibt es heute nicht mehr. Hype-Train oder Shitstorm... dazwischen scheint es für viele nichts mehr zu geben.
Naja du hast es ja durch "für viele" schon selbst impliziert, dass es eben doch noch Zwischentöne gibt. Aber ja, das stimmt, die sind schon manchmal arg in der "Verdeckung".

Che-Tah schrieb:
Jetzt fordern die Leute bei DLSS5 genau das Gegenteil, als was sie bei DLSS1 gefordert hatten
Bei DLSS ging es ursprünglich darum, Rechenleistung einzusparen (mit dem Nebeneffekt von AA). Das "native" Bild sollte möglichst 1:1 erhalten bleiben, bei höherer Performance.

Bei DLSS5 geht es jetzt auf einmal darum, das ursprüngliche Bild aufzuhübschen. Somit kommen die Forderungen nach einem vernünftigen "Anlernen" durch die kreativen Köpfe des zugrundeliegenden Inhalts natürlich wieder auf. Das empfinde ich nicht als Widerspruch.

Zumindest aktuell entscheidet nämlich der Algo darüber, ob die Protagonistin Lippenstift trägt oder nicht.

Daher die "Kritik". Damit diese Innovation sich entsprechend verbessert.
 
  • Gefällt mir
Reaktionen: JarlBallin und edenjung
TheSomeone schrieb:
Ja so tot wie rt und AI 2018
Meine Güte du gibst dir ja echt Mühe hier. Schon ziemlich bitter wenn man sich deine Historie anschaut.
 
  • Gefällt mir
Reaktionen: thom_cat, JarlBallin, edenjung und 2 andere
@Nihil Baxxter
Es waren auch "viele" die über DLSS1 geschimpft haben. So unsachliche Beißreflexe zu einem Preview einer neuen Technik ist aber weit weg von einer Diskussion.

Jein, DLSS5 soll Details hinzufügen die sonst mehr Rechenleistung brauchen würden. Aber ja es erfindet auch Sachen.

Wie viele Details das sein werden hängt doch vom Grundmodell ab. Je detailierter das ist umso weniger wird hinzugefügt werden.

Ich denke auch dass DLSS5 (Wie auch DLSS1+2) noch unbrauchbar sein wird. z.B. dass ich um eine Person herumlaufe, und je nach Blickrichtung die Person anders aussieht. Also Artefakte in der Hinsicht dass Details mal da sind und mal nicht.

Wird aber völlig egal sein, wenn DLSS5 eventuell eh nur auf einer 5080/5090 sinnvoll lauffähig sein wird und es bis RTX6000 nicht mehr ganz in den Kinderschuhen stecken wird.
 
johnieboy schrieb:
Also ist es derzeit doch nur ein KI Filter der übers fertige Bild gebügelt wird.
Dass muss definitv geändert werden damit diese Technik irgendwann Akzeptanz findet.
Warum?
Mir ist egal wie das Bild entsteht. Hauptsache das fertige Produkt sieht gut aus.
Keine Ahnung warum sich alle so darüber aufregen.
 
Nihil Baxxter schrieb:
Bei DLSS ging es ursprünglich darum, Rechenleistung einzusparen (mit dem Nebeneffekt von AA). Das "native" Bild sollte möglichst 1:1 erhalten bleiben, bei höherer Performance.
Schon beim Turing Test 2018, dem vorab Release von DLSS schrieb CB im Test: "DLSS kann Spiele schön und schneller machen".

Im Endeffekt ist das so gar nicht differenzierbar, weil der Hübsch-Faktor an der verfügbaren Rechenleistung hängt und Teile von hübsch eben nicht nur AA oder "nativ" gerendert bedeutet sondern vor allem auch subjektive Dinge wie Flimmern oder Unschärfe drin vor kommen.
Nihil Baxxter schrieb:
Bei DLSS5 geht es jetzt auf einmal darum, das ursprüngliche Bild aufzuhübschen. Somit kommen die Forderungen nach einem vernünftigen "Anlernen" durch die kreativen Köpfe des zugrundeliegenden Inhalts natürlich wieder auf. Das empfinde ich nicht als Widerspruch.
Das lässt sich nicht so schwarz/weiß sehen. Zudem ja doch auch nicht die KI am Ende entscheidet sondern irgendwo der Entwickler das Ergebnis der KI ins Spiel baut, sprich der ganze Aufschrei aktuell geht gegen den Kontent den der Entwickler so letztlich abgenickt hat.

Warum sollte das jetzt ein Problem sein? Aufhübschen können andere Post Prozessing Effekte auch. Hier ist es halt nur NV die das Werkzeug liefern. Das wo und wie und wieviel definiert doch weiter der Entwickler- und auch nur der...
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
Lasyx schrieb:
Keine Ahnung warum sich alle so darüber aufregen.
Falls du einer Arbeit nach gehst...

Stell dir vor irgendwer oder irgendetwas würde alles was du getan hast, ob gut oder schlecht nochmal "besser" machen. Da könnte der jenige Höhenflüge bekommen und sagen... Mmh also du kannst dann mal nach Hause gehen!

Nvidia soll das machen was sie können und die Entwickler und Designer ihren Job machen lassen!
 
  • Gefällt mir
Reaktionen: Fyrex, edenjung und dx1
Das verstehe ich nicht.
Gamer wollen geile Grafik für möglichst günstige Grafikkarten.
Warum werden jetzt auf einmal die Arbeitsplätze der Grafiker in die Rechnung einbezogen? Moral hat bei Geizhals, Black Friday, xxx-Sale auch nichts zu suchen und je günstiger gekauft wird um so geiler ist man.
Wie gesagt, verstehe deinenArgumentationsansatz nicht!
 
fdsonne schrieb:
und Teile von hübsch eben nicht nur AA oder "nativ" gerendert bedeutet sondern vor allem auch subjektive Dinge wie Flimmern oder Unschärfe drin vor kommen.
Flimmern oder Unschärfe werden doch aber durch verbessertes AA verbessert und ja, das macht das Spiel natürlich schöner, fügt aber an keiner Stelle Haare oder Lippenstift hinzu, sondern steigert nur die Qualität der beabsichtigten Darstellung.

fdsonne schrieb:
Das lässt sich nicht so schwarz/weiß sehen. Zudem ja doch auch nicht die KI am Ende entscheidet sondern irgendwo der Entwickler das Ergebnis der KI ins Spiel baut
Nichts lässt sich schwarz weiß sehen aber wenn man immer alles komplett durchdifferenziert kommt man vom hundersten ins tausendste und kann irgendwann gar keinen Punkt mehr machen. Aber ja, natürlich werden die Entwickler der Zukunft dem NR-Algorithmus besser in die Hände spielen, denke ich schon auch.

fdsonne schrieb:
der ganze Aufschrei aktuell geht den Kontent den der Entwickler Publisher so letztlich abgenickt hat
Den Unterschied würde ich schon gerne machen.
 
Es muss doch klar sein das die gezeigten, handverlesenen Demos das aktuelle Optimum darstellen, und selbst da ist alles voll mit Artefakten und braucht massiv Performance.

Wie soll das ganze dann bis Herbst soweit verbessert werden das es besser aussieht und auf nur einer 5090 läuft, das ist doch völlig utopisch.

Wer schonmal mit Stable-Diffusion oder Wan-Video gearbeitet hat weiß wie viel Müll man oft generieren muss bis das Ergebnis zur eigenen Erwartung passt, bei Bildern und Videos ist das ja kein Problem. Das ganze dann aber in Echtzeit ohne menschliche Endkontrolle ist in meinen Augen aber unmöglich in akzeptabler Qualität zu realisieren.
 
  • Gefällt mir
Reaktionen: JarlBallin, edenjung, iron_monkey und eine weitere Person
So, jetzt also doch ein Filter für das fertige Bild?
Amüsant. 2D Frame + Motion Vector geht, Bild wird mit annahn dem Werten für Blending, Kontrast, Sättigung und Game generiert, mit null einfluss der Entwickler welche Details generiert werden, welches Makeup hinzugefügt wird, welche Beleutung hinzufügt wird, etc

JonaK schrieb:
  1. Entwicklern detaillierte Steuerungsmöglichkeiten wie Intensität und Farbkorrektur zur Verfügung stellt. Künstler können damit Mischung (Blending), Kontrast, Sättigung und Gamma anpassen und festlegen, wo und wie Verbesserungen angewendet werden, um die einzigartige Ästhetik des Spiels zu erhalten.

Masken werden sie auch noch anlegen dürften, was dann aber sehr aufwendig klingt, aber ok. Das ist zumindest etwas. Kann man dann Teile von Graces Gesicht maskieren um das Make-Up zu unterdrücken ... eventuell.

Aber natürlich sind 4 Regler für einen Instagram filter jetzt nicht sehr viele Einstellungsmöglichkeiten, erst recht für ein AI Bildgenerator. Keinerlei Einfluss auf die Trainingsdaten, keinerlei Einfluss auf den Prompt, keinerlei Einfluss auf das Model.

Ziemlich wenig kreative Freiheit, oder? Da muss noch mehr kommen.
Ergänzung ()

metoer schrieb:
Das ganze dann aber in Echtzeit ohne menschliche Endkontrolle ist in meinen Augen aber unmöglich in akzeptabler Qualität zu realisieren.
Sehen andere halt anders, die glauben das geht schon … oder glauben das bis zum Herbst sich die Leute genug an AI Slop gewöhnt haben und der Einsatz in Spielen hilft die allgemeine Akzeptanz zu erhöhen. Nein, glaube ich nicht wirklich, ist einfach zu weit hergeholt.

Aber verstehen tue ich diese Demo immer noch nicht, egal, sehen wir später mehr dazu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: the_IT_Guy, edenjung, Alphanerd und eine weitere Person
Apocalypse schrieb:
So, jetzt also doch ein Filter für das fertige Bild?
Amüsant. 2D Frame + Motion Vector geht, Bild wird mit annahn dem Werten für Blending, Kontrast, Sättigung und Game generiert, mit null einfluss der Entwickler welche Details generiert werden, welches Makeup hinzugefügt wird, welche Beleutung hinzufügt wird, etc
Yup, es erklärt auch warum Lichtquellen nach belieben entfernt (Lampe beim Resi shot) oder hinzugefügt (Starfield Shot mit dem Mann und der Frau) werden ohne dass es Sinn ergibt. Und warum jeder Typ Hero Lighting hat.
Und warum Jeffrey Elfsteins Bart sich in Bewegung verändert:

Das Ding ist quasi ein KI generiertes ENB Mod für jedes Frame - ohne Gedächtnis und Kontextinformationen.
 
  • Gefällt mir
Reaktionen: dx1 und edenjung
Lasyx schrieb:
Das verstehe ich nicht.
Gamer wollen geile Grafik für möglichst günstige Grafikkarten.
Warum werden jetzt auf einmal die Arbeitsplätze der Grafiker in die Rechnung einbezogen? Moral hat bei Geizhals, Black Friday, xxx-Sale auch nichts zu suchen und je günstiger gekauft wird um so geiler ist man.
Wie gesagt, verstehe deinenArgumentationsansatz nicht!

Diese, relativ geistarme, Argumentation hört man ja immer wieder. "Du tankst an der Tankstelle, also MÜSSEN dir zivile Kriegsopfer im nahen Osten egal sein!" Ich kann trotzdem meine Meinung formulieren und auch ein Gefühl von Moral haben, auch wenn ich an der Sache selbst nicht sofort was ändern kann.

In deiner Welt sollen wir also alle Absurditäten von Nvida einfach so akzeptieren, weil wir schonmal über Geizhals eingekauft haben?

Was "Gamer" wollen, weiß ich nicht, aber ich will nicht möglichst GEILE Grafik, sondern möglichst GUTE Grafik. Das ist ja grade der Punkt. Das was Nvidia grade zeigt, mag ja cool aussehen, ist nett, um's jemanden am Handy zu zeigen. GUT ist es aber nicht.
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Apocalypse, JarlBallin und eine weitere Person
Erinnert stellenweise an ältere oder auch aktuelle Stable Diffusion-Modelle, bzw. vergleichbare Gen-LLMs, denen genauso die Weltkenntnis fehlt, die bereits vierjährige Kinder besitzen, die in einem dreidimensionalen Raum aufwachsen und deren Sehorgane und neuronale Verarbeitung genau darauf ausgerichtet sind.

Die Qualität wird sich auf dem Zeitstrahl in die Zukunft weiter verbessern, ohne das aktuell erkennbar ist, wann der nächste Qualitätssprung erreicht sein wird. Vermutlich eher mittelfristig.

Spannend wird werden, welche Implikationen das mit sich bringen wird. Aber auch hier kann sehr schön beobachtet werden, wie KI langsam in alle Bereiche unseres Lebens vordringt. Und das hat gerade erst angefangen.

Finde das extrem ambivalent. Einerseits die Demokratisierung von Fähigkeiten, andererseits die Entwertung persönlicher Skills und der enorme Energiebedarf, der die Bemühungen für mehr Effizienz und regenerative Quellen torpediert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse, BeowulfAgate, dx1 und 3 andere
Nihil Baxxter schrieb:
Flimmern oder Unschärfe werden doch aber durch verbessertes AA verbessert und ja, das macht das Spiel natürlich schöner, fügt aber an keiner Stelle Haare oder Lippenstift hinzu, sondern steigert nur die Qualität der beabsichtigten Darstellung.
Woher kommt denn das mit dem Lippenstift und den Haaren?
Ich würde ganz stark davon ausgehen, dass der Entwickler klar in der Hand hat, ob das Ergebnis Haare oder Lippenstift bekommen soll.
Da wird nichts hinzugefügt werden und wenn, dann ist es immernoch der Entwickler, der das dem Objekt jeweils hinzufügt bzw. möchte dass das dazu kommt oder wenigstens dein behält und so nutzt wie es DLSS5 da ausgibt.

Bzw. ich hatte vor x-Jahren achonmal so einen Aha Moment in Skyrim, wo nativ auf einem FHD Screen die Kopfhaare vom Pferd auf dem man reitet, eher schwer zu erahnen waren, dann aber mit echtem 4xSGSSAA kombiniert mit 2x2er DS über den Treiber (noch vor DSR) auf dem selben Monitor auf einmal da waren und man diese zählen konnte.
Da wurden also auch Haare hinzugefügt und sichtbar.

Am Ende ist das ein fließender Übergang, wie viel Aufwand und Rechenleistung steckt der Entwickler in Dinge und wie viel kann man von diesen Aufwänden sparen, wenn man stattdessen DLSS5 für Details oder Teile der Ausgestaltung nutzt. Gesparte Aufwände fließen dann im Zweifel in andere Details.
Nihil Baxxter schrieb:
Nichts lässt sich schwarz weiß sehen aber wenn man immer alles komplett durchdifferenziert kommt man vom hundersten ins tausendste und kann irgendwann gar keinen Punkt mehr machen. Aber ja, natürlich werden die Entwickler der Zukunft dem NR-Algorithmus besser in die Hände spielen, denke ich schon auch.
Im Moment sieht man aber doch eine klare Gegenhaltung, obwohl überhaupt nicht gesagt und bestätigt ist, wie das am Ende im Detail ausschaut. Hübsch liegt halt im Auge des betrachters, es gibt haufenweise Spiele, die finde ich vom Artdesign maximal unansprechend, da kann die Grafik noch so sauber umgesetzt sein und der Entwickler 100% geliefert haben. Im Zweifel sieht es nicht schön aus.

Genau hier aber setzt doch der DLSS5 Ansatz an. Gefällt es ider nicht, das WIE interessiert heute nicht und wird morgen auch nicht interessieren. Maximal noch paar Leute aus der Tech-Bubble. Beim Rest muss nur der Output überzeugen und da sehe ich aktuell bei DLSS5 keinen Showstopper, der das in der Pauschale verhindern sollte, wie es aktuell kritisiert wird.
Nihil Baxxter schrieb:
Den Unterschied würde ich schon gerne machen.
Der Publisher entwickelt doch keine Spiele - und um bei deinem Beispiel zu bleiben, der sagt auch nicht ob irgend ein NPC im Spiem Haare oder Lippenstift hat.
Das ist am Ende die Wntscheodung vom Entwickler, sinnbildlich gemeint, also die Gruppe von Leuten, die das Spiel erschaffen. Inkl der Design Personen. Der Publisher kommt erst ganz am Ende ins Spiel, orher hat in dem Beispiel der Entwickler doch den Lippenstift schon abgenickt oder selbst eingebaut. Umd wenn der das eben abnickt, dann soll es offenbar so sein? Oder was spricht dageben? DLSS5 wird sehr sicher nicht Haare auf den Kopf bauen, wo der Protagonist ein Glatzkopf sein soll. Nur definiert eben das doch der Entwickler?
 
Andy_K schrieb:
3. Dem Spieler rechts, mit der Nummer 10 ist noch etwas an seinem Arm gewachsen?
Meinst du an seinem rechten Arm? Das ist die Hand von Nummer 22. und der Arm von Nummer 10 ist halt hinter Nummer 4. An dem Bild sehe ich keinen Slop.

Was mich wundert, wenn das jetzt doch "nur" ein Filter war, wozu dann eine eigene 5090 dafür?
 
fdsonne schrieb:
... hat in dem Beispiel der Entwickler doch den Lippenstift schon abgenickt oder selbst eingebaut. Umd wenn der das eben abnickt, dann soll es offenbar so sein? Oder was spricht dageben? DLSS5 wird sehr sicher nicht Haare auf den Kopf bauen, wo der Protagonist ein Glatzkopf sein soll. Nur definiert eben das doch der Entwickler?
Mit den Informationen die wir jetzt haben ist aber genau das nicht der Fall, da DLSS5 lediglich den aktuellen Frame + Motion Vektoren als Informationsquelle hat. DLSS5 weis also nicht wo genau man sich im 3D-Raum befindet, wo sich Lichtquellen befinden die nicht im Frame sind und hat keine Tiefeninformationen, deswegen wirken die Ergebnisse auch wie ein typischer AI-Filter wo jeder Charakter mit Influencer-Studiobeleuchtung ausgeleuchtet wird und wie ein Supermodel aussieht.
habla2k schrieb:
Was mich wundert, wenn das jetzt doch "nur" ein Filter war, wozu dann eine eigene 5090 dafür?
Weil das in Echtzeit in hoher Auflösung noch immer extrem rechenintensiv ist und das Modell wahrscheinlich sehr viel VRAM braucht.
 
  • Gefällt mir
Reaktionen: the_IT_Guy und habla2k
CountSero schrieb:
Es geht darum, dass die KI Dinge ergänzt oder verändert, die nie Teil der kreativen Vision waren. Und wenn alle Studios dasselbe Modell nutzen, besteht für mich die Gefahr, dass Spiele visuell ähnlicher werden, weil dieselben Muster und Artefakte überall auftauchen.
Das das eine, aber was wenn dann DLSS 5.X ein neues Modell bringt? Sieht es dann immer noch wie von den Spieleschmieden gedacht aus? Damit das konsistent bleibt, müssten die Spiele dann beim alten DLSS5 verbleiben, nix mehr mit DLSS Updates. Zumal ich nicht mal so recht glauben kann, dass das was nVidia mit DLSS 5 bisher gezeigt hat, von den Spieleschmieden so für DLSS 5 parametriert wurde. Sieht imho so aus als ob nVidia alleinig ihr DLSS 5 drüber gebügelt hat, oder wollen die Schmieden wirklich, dass das so aussieht?
 
  • Gefällt mir
Reaktionen: the_IT_Guy und metoer
fdsonne schrieb:
Woher kommt denn das mit dem Lippenstift und den Haaren?
Ich würde ganz stark davon ausgehen, dass der Entwickler klar in der Hand hat, ob das Ergebnis Haare oder Lippenstift bekommen soll.
Das kommt aus den aktuellen Demos von NVidia, wo genau das geschehen ist, es wurden durch DLSS5 Details wie Schminke und Haare dazuerfunden. Hier wird sich recht umfassend damit auseinandergesezt und Nvidia selbst gibt offizielle und aufschlussreiche Antworten.

fdsonne schrieb:
DLSS5 wird sehr sicher nicht Haare auf den Kopf bauen, wo der Protagonist ein Glatzkopf sein soll. Nur definiert eben das doch der Entwickler?
Doch genau so etwas in der Art ist ja leider geschehen und auch abgenickt worden aber eben durch die Publisher ("Ja nutzt gerne unser Spiel als Werbematerial für eure neue Tech") und nicht durch das Grafik Team hinter den Games, die jahrelang an einem Art-Design gearbeitet haben, das nun mal eben durch KI "verschönert" wird.

Die gezeigten Spiele wurden allerdings auch nicht auf DLSS5 hin entwickelt. Zukünftige Games werden und müssen dem Algorithmus besser zuarbeiten, sodass das Ergebnis tatsächlich im Sinne der Entwickler ist. Dafür braucht es vor allem mehr Stellschrauben für die Devs als lediglich "Intensity and Color Grading".
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Apocalypse, dx1 und 2 andere
fdsonne schrieb:
Da wird nichts hinzugefügt werden und wenn, dann ist es immernoch der Entwickler, der das dem Objekt jeweils hinzufügt bzw. möchte dass das dazu kommt oder wenigstens dein behält und so nutzt wie es DLSS5 da ausgibt.
Wo kommen die Haare in dem im Artikel angesprochenen Video her? Sieht man auch ch im Thumbnail.

Da DLSS 5 keine Ahnung vom 3D Modell, dem Renderprozess oder sonst irgendetwas hat, sondern nur ein 2D Bild plus Bewegungsvektor nutzt erfindet er natürlich was das Zeug hält. Das ist der Sinn hinter Gen AI.

Es stellt sich 2 Fragen
Was sehe ich da?
Wie kann ich da Slop draus machen?
fdsonne schrieb:
Beim Rest muss nur der Output überzeugen und da sehe ich aktuell bei DLSS5 keinen Showstopper, der das in der Pauschale verhindern sollte, wie es aktuell kritisiert wird.
Doch. Der Stopper ist, dass wirklich jeder, der wollte, es sofort als slop erkannt hat.

Es sieht aus wie jedes ki generierte Bild.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: the_IT_Guy, Apocalypse, BeowulfAgate und 4 andere
Sapphire Forum
Zurück
Oben