News AI-Slop-Kritik an DLSS 5: Jensen Huang: „Spieler liegen mit ihrer Kritik völlig falsch“

ampre schrieb:
Ok deine ChatGPT Antworten kannst du dir sparen.

Lies dir das hier durch und versuche zu vestehen: https://www.osti.gov/servlets/purl/2538294
Mal ganz ehrlich: Die von dir verlinkte Studie ist zwar spannend, hat mit der optischen Konsistenz von DLSS 5 aber so gut wie gar nichts zu tun. Hier werden Äpfel mit Kernreaktoren verglichen.

Hier liegt dein Denkfehler:

In der Studie geht es um Floating-Point Non-Associativity. Das bedeutet: Wenn ein Computer Millionen von Zahlen in einer anderen Reihenfolge addiert, werden sie minimal anders gerundet. Das führt zu Abweichungen im Bereich von winzigen Nachkommastellen (Bits). Für Wissenschaftler, die Supercomputer für Klimamodelle oder Atomphysik nutzen, ist das wichtig.

Warum das für DLSS 5 egal ist: Diese winzigen Bit-Unterschiede führen nicht dazu, dass ein KI-Bild plötzlich „anders“ aussieht oder flackert. Das menschliche Auge kann diese mikroskopischen Rechenabweichungen in einem Frame mit 60 oder 120 FPS überhaupt nicht wahrnehmen.

DLSS 5 ist kein Würfelspiel. Du scheinst DLSS mit „Generativer KI“ (wie Midjourney) zu verwechseln, die aus Rauschen jedes Mal ein neues Bild generiert. DLSS 5 ist Neural Rendering. Es bekommt vom Spiel feste Daten: Bewegungsvektoren, Tiefenpuffer und Geometrie. Die KI „rät” also nicht, wo die Kante eines Hauses ist, das Spiel sagt es ihr ganz genau.
NVIDIA nutzt dafür massive temporale Filter für zeitliche Stabilität. Das heißt, das neue Bild wird immer mit den Daten der vorherigen Bilder abgeglichen, um genau diese „Inkonsistenz” zu verhindern.


Fazit: Die Studie beweist lediglich, dass Computer beim Rechnen minimal runden. Sie beweist jedoch nicht, dass ein KI-gestütztes Upsampling wie DLSS 5 instabil ist. Das System ist durch die Engine-Daten viel zu stark „eingemauert“, als dass diese Rechenungenauigkeiten ins Gewicht fallen würden.

Anstatt hier also ständig arrogant aufzutreten und anderen Unfähigkeit zu unterstellen, solltest du dich vielleicht vorher informieren, was du hier überhaupt postest.



TomH22 schrieb:
Das wird bei generativem KI Rendering nicht so sein. Da brauch man eher Vorgaben in Form von Metadaten für die Generierung, z.B. für die Generierung von Gesichtern ob die Person schwitzen soll oder nicht, wie alt die Person ist, ist sie müde und erschöpft, usw. Sicher wird man auch eine Form von "Zielaussehen" benötigen um ein konsistentes Ergebnis zu erreichen, und zu vermeiden, dass die Person in jeder Szene anders aussieht.
Guter Punkt mit den Metadaten! Aber die KI braucht eine hochwertige Basis, um nicht zu halluzinieren.
Selbst wenn die Metadaten der KI sagen, was sie tun soll, beispielsweise, dass jemand schwitzt, liefert die Rastergrafik der Engine immer noch das Skelett, also die exakten Tiefendaten, Kanten und Bewegungsvektoren. Je detaillierter diese Vorgabe aus der Engine ist, desto weniger muss die KI raten, wo genau der Schweiß hinfließen soll oder wie sich eine Falte im Gesicht beim Sprechen physikalisch korrekt bewegen soll.
Letztendlich ist es ein Zusammenspiel: Die Metadaten liefern den Kontext (das „Was”), aber die präzise Raster-Basis liefert die Struktur (das „Wo”), damit das Ergebnis konsistent und glaubwürdig bleibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomH22
Che-Tah schrieb:
Welcher Spieleentwickler hat noch seine eigene Engine? Die meisten Spiele bestehen nur aus zusammen gekauften Assets aus dem Store von UE, Unity etc..
Keine Ahnung, ich dachte immer wenn ich Resident Evil Requiem starte und da "RA-Engine" steht das es die von CapCom ist, aber was weiß ich schon.
 
NovumVeritas schrieb:
Es geht nicht darum das nicht jeder daran mitarbeitet. Es geht mehr darum das CAPCOM die Entwickler und Künstler gar nicht informiert hat.
Die haben ihr monatliches Gehalt erhalten wie immer und fertig.
 
Araska schrieb:
Ähm... inwiefern soll auf einer solchen Basis eine sinnvolle Diskussion stattfinden können?
So fälscht man auch jede Statistik, in dem man genau das herauspickt um seinen Strandpunkt zu bekräftigen.
 
NovumVeritas schrieb:
Es geht nicht darum das nicht jeder daran mitarbeitet. Es geht mehr darum das CAPCOM die Entwickler und Künstler gar nicht informiert hat.
Problem wird aber immer sein dass die Abteilung die das Projekt finanziert dann auch bestimmt was damit passiert.
Capcom wird auch das Studio nicht fragen ob das Spiel zeitexklusiv für Plattform oder Store erscheint.

Genau wie Nintendo nicht die Studios an letzten Mario Teilen wohl gefragt hat ob da Film entstehen darf.

Wir wissen ja leider eh nie genau wer bestimmtes Design letzten Endes abgesegnet hat. Wer hat den bestimmt wie Grace im Spiel dann final aussieht? Der Designer? Menschliche Charaktermodell/Schauspieler? Der Abteilungsleiter für die grafische Darstellung oder der oberste Projektleiter?

Immer schwierig zu sagen wer da seine Vision durchdrückt oder es Vorgaben von Oben gibt.
 
banditone schrieb:
Fazit: Die Studie beweist lediglich, dass Computer beim Rechnen minimal runden. Sie beweist jedoch nicht, dass ein KI-gestütztes Upsampling wie DLSS 5 instabil ist. Das System ist durch die Engine-Daten viel zu stark „eingemauert“, als dass diese Rechenungenauigkeiten ins Gewicht fallen würden.

Anstatt hier also ständig arrogant aufzutreten und anderen Unfähigkeit zu unterstellen, solltest du dich vielleicht vorher informieren, was du hier überhaupt postest.
Arroganz? Du bist doch genau so Arrogant. Du hast genau so wenig verstanden und kommst mit irgend einer ChatGPT Anwort.

Ja PCs runden und KI und Neuronale Netzwerke sind Iterativ also werden sich Rundungsfehler dort aufsummieren, so das eben nicht immer das gleiche Ergebnis zu erwarten ist. Hinzu kommt das die Vorherigen Ausgangssituationen nie gleich sind. Mal kommst du von rechts an das Haus gelaufen mal von Links. All das beeinflusst die Berechnung.

Und die Additionsreinfolge wird in jeder GPU immer anders ausgeführt weil der Scheuleder Aufgaben nach einem vorgelegten Algorithmus je nach Auslastung die Aufgaben anders verteilt.
 
Taxxor schrieb:
Es gibt ja auch heute noch genug Leute die behaupten, bei DLSS SR sieht ne KI einen Zaun und rekonstruiert ihn dann in einr bestimmten Art und Weise weil ihr beigebracht wurde wie ein Zaun idR aussehen muss und daher ist es nicht genau der Zaun wie ihn die Entwickler designed haben.
Im Prinzip nicht ganz verkehrt 😅 es wird angenommen das der Zaun so auszusehen hat. Allerdings genauso wie der Entwickler es vorgesehen hat.
Also quasi werden Details hinzugefügt die durch das geringere Renderbild verloren gegangen sind liege ich da richtig?
 
TomH22 schrieb:
Gehe ich absolut mit. Ich habe kürzlich die Mass Effect Legendary Edition gekauft. Speziell Mass Effect 1 merkte man das Alter trotz Remastering extrem an und es war schon etwas öde.
Offtopic: Mir hat es auch in der zweiten Runde noch gefallen. Die Legendary Edition macht aber den Original-Artstyle, der definitiv vorhanden war und auch ziemlich gelungen für die Zeit, leider komplett kaputt. Gerade Teil 1 verliert dadurch komplett die Atmo.

1773851994310.png


1773852053470.png
 
KuroSamurai117 schrieb:
Immer schwierig zu sagen wer da seine Vision durchdrückt oder es Vorgaben von Oben gibt.
Das stimmt, leider. Da man nicht weiß wie es im Unternehmen aussieht, ist es schwierig das klar zu beurteilen.
 
  • Gefällt mir
Reaktionen: KuroSamurai117
ParrotHH schrieb:
... sondern eine Straße am Abend mit diversen Straßenlaternen, beleuchteten Schaufenstern und spiegelnden Glasscheiben parkender Autos...
Aber auch das sorgt nicht dafür, dass ein Gesicht aussieht, wie perfekt im Fotostudio ausgeleucht. Außerdem habe ich als Beispiel auch gar nicht Grace aus Resident Evil erwähnt (auch wenn deren DLSS 5 Beleuchtung nicht ganz der Umgebung entspricht), sondern Hogwards Legacy, wo es sehr stark auffällt.

1773852149645.png

1773852179105.png
 
Lazzarus schrieb:
DLSS usw. helfen uns, den Gamern. Es nicht zu nutzen, Geruckel in kauf zu nehmen und was sonst noch, ist für mich echt unbegreiflich.1
Stockholm Syndrom. Die helfen AMD und Nvidia an erster Stelle und an zweiter den Entwicklern. Die Spieler kommen nur als Geldgeber in dieser Rechnung vor.
 
  • Gefällt mir
Reaktionen: Tamahagane und Andre83hro
ampre schrieb:
Arroganz? Du bist doch genau so Arrogant. Du hast genau so wenig verstanden und kommst mit irgend einer ChatGPT Anwort.

Ja PCs runden und KI und Neuronale Netzwerke sind Iterativ also werden sich Rundungsfehler dort aufsummieren, so das eben nicht immer das gleiche Ergebnis zu erwarten ist. Hinzu kommt das die Vorherigen Ausgangssituationen nie gleich sind. Mal kommst du von rechts an das Haus gelaufen mal von Links. All das beeinflusst die Berechnung.

Und die Additionsreinfolge wird in jeder GPU immer anders ausgeführt weil der Scheuleder Aufgaben nach einem vorgelegten Algorithmus je nach Auslastung die Aufgaben anders verteilt.
Computer runden und ja, neuronale Netze arbeiten iterativ. Aber du ziehst das in der Praxis falsch. Nur weil ein System iterativ ist, heißt das nicht, dass das Ergebnis instabil oder unvorhersehbar ist.

DLSS ist ein deterministisches Modell. Jeder Frame wird mit harten Daten aus der Engine festgehalten, also mit Bewegungsvektoren und Tiefenpuffern. Die Daten sind wie Schienen. Eine Rundungsabweichung von 0,00001 % ist überhaupt kein Problem. Das führt weder dazu, dass der Zug entgleist noch, dass das Bild instabil wird. DLSS checkt vorherige Frames ab, um das aktuelle Bild zu stabilisieren. Auch wenn bei der Bearbeitung ein kleiner Rundungsfehler entstehen sollte, wird der sofort beim Abgleich mit den Vorframes geglättet.

Noch mal kurz zur Studie: Da geht's um High Performance Computing. Das steht für exakte wissenschaftliche Reproduzierbarkeit auf Bit-Ebene. Für ein Videosignal ist es völlig egal, ob ein Pixel den Farbwert 255,00001 oder 255,00002 hat. Für den Monitor und das Auge ist beides exakt dasselbe Weiß.

Kurz gesagt: Du nimmst ein winzig kleines, mathematisches Problem (Rundung) und behauptest, es hätte riesige Auswirkungen auf die Bildstabilität. Das ist so, als würdest du sagen, man könne kein Haus bauen, weil sich die Atome im Ziegelstein bewegen. Ja, die Dinger bewegen sich schon, aber das Haus steht trotzdem noch. DLSS 5 basiert auf Neural Real-Time Rendering. Die zeitliche Konsistenz ist dort das Hauptfeature, nicht der Bug.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mimir
Lazzarus schrieb:
So fälscht man auch jede Statistik, in dem man genau das herauspickt um seinen Strandpunkt zu bekräftigen.
Ich habe keinen Strandpunkt bekräftigt.
Ich habe die Sprache unter der Gürtellinie beanstandet.
 
  • Gefällt mir
Reaktionen: banditone und Andre83hro
Ein Händler von Maschinen die AI-Slop produzieren besteht darauf, dass AI-Slop toll ist? Damit konnte ja niemand rechnen.

Zu dem Argument, dass man dieses Feature ja nicht nutzen muss: Hoffen wir es mal.
Leider zeigt die Erfahrung, dass ein Feature das Potential zur Arbeits- und damit Geldersparnis auf Kosten von Qualität hat, von Anzugträgern sehr gerne genutzt wird, um Arbeitsplätzue wegzurationaliseren und das Quartals-/Jahres-/ Whateverergebnis (Und damit ihren Bonus) aufzupäppeln. Siehe Framegeneration.

Im Hinblick auf DLSS5 werden dann ordentliche Texturen, Charaktermodelle, Beleuchtung, etc. wegrationalisert, weil das macht ja dann alles die magische KI.

Und da es leider tatsächlich Leute gibt, die AI-Slop mögen(Findet man ja hier im Thread zu Genüge) würde sich so ein Machwerk dann vlt. sogar verkaufen. Schöne neue Welt.
 
  • Gefällt mir
Reaktionen: Zensored
banditone schrieb:
DLSS ist ein deterministisches Modell. Jeder Frame wird mit harten Daten aus der Engine festgehalten, also mit Bewegungsvektoren und Tiefenpuffern. Die Daten sind wie Schienen. Eine Rundungsabweichung von 0,0001 % ist überhaupt kein Problem. Das führt weder dazu, dass der Zug entgleist noch, dass das Bild instabil wird. DLSS checkt vorherige Frames ab, um das aktuelle Bild zu stabilisieren. Auch wenn bei der Bearbeitung ein kleiner Rundungsfehler entstehen sollte, wird der sofort beim Abgleich mit den Vorframes geglättet.
Du eist schon das die Studie sich auf KI bezog:

https://www.osti.gov/servlets/purl/2538294

Impacts of floating-point non-associativity onreproducibility for HPC and deep learningapplications
 
Ich sehe in der Technik eine Chance, aber wichtig wäre es mir, die Wahl zu haben. Manchmal gefällt mir die Spielästhetik so, wie sie ist, mit all ihren Glitches und Limitierungen. Zu viel Realismus kann das Spielgefühl in beide Richtungen entwickeln, das hängt ganz vom Spiel und vom Spieler ab.

KI kann aber nicht nur Realismus: Auch ganz andere Stile wären denkbar, wie zum Beispiel ein Comic-Stil, Anime, Semi-Real, und was auch immer zum jeweiligen Spiel oder dem Spieler passt.

Von daher wäre es optimal, wenn man den Nachbearbeitungs-Stil in den Spiel-Optionen selbst wählen oder natürlich auch deaktivieren könnte, also als optionales Feature neben dem normalen Upscaling à la DLSS4.5.

Also Optionen wie:
  • Upscaling: Aus, Performance, Ausgeglichen, Qualität
  • Frame-Generation: Aus, 2x, 4x, 6x, etc.
  • Nachbearbeitung: Aus, Realistisch, Semi-Realistisch, Cinematisch, Comic, Anime, etc.

Mit solch einer Umsetzung wäre ich happy!
 
Nvidia all in. :smokin:
 
  • Gefällt mir
Reaktionen: pietcux
Ich denke, wenn ein völlig neues Spiel mit der hier kritisierten DLSS5 Technologie herausgekommen wäre, ohne solche Demos, wären fast alle begeistert. Mir, der das RE Spiel nicht gespielt hat, gefällt die KI Grace besser als das Original.
 
  • Gefällt mir
Reaktionen: Bright0001, bickid, fullnewb und eine weitere Person
Die Antwort wundert mich auch nicht von meinem Unternehmen, die 0% Einsicht zeigen bei ihrer Fehlkonstruktion eines Steckers.
 
  • Gefällt mir
Reaktionen: Ko3nich, spw und Andre83hro
Zurück
Oben