News AI-Slop-Kritik an DLSS 5: Jensen Huang: „Spieler liegen mit ihrer Kritik völlig falsch“

Ich habe mir nicht alle Kommentare durchgelesen, aber alle Artikel zu diesem Thema verfolgt.

Beim Release von DLSS 1 war ich auch total dagegen. Ich habe mich damals aber sachlich verhalten, da ich es ohnehin nicht nutzen konnte :D.
Als FSR erschien, konnte ich das Upscaling bei God of War nutzen , mit meiner RX 480 auf 1440p war das Ergebnis für mich perfekt.

Später bin ich auf eine RTX 4090 umgestiegen und habe Chernobylite mit DLSS auf qualität gespielt. Zuerst dachte ich bei einem leicht flackernden Gebüsch, es läge an der KI Komponente des Upscalers. Als ich DLSS jedoch deaktivierte, flackerte das Gebüsch so extrem, dass mir erst klar wurde, wie viel Stabilität DLSS eigentlich reinbringt.

Seitdem bin ich offen für KI-Features.
Frame Generation? Witcher 3 Next Gen wirkt damit wesentlich flüssiger. Cyberpunk mit Pathtracing ist ohne FG kaum denkbar. Und auch Hogwarts Legacy profitiert optisch (mit angepasster .ini) massiv davon.

Wenn DLSS 5 kommt und ich die passende Hardware habe, werde ich es definitiv ausprobieren. Ich werde den Teufel tun und neue Technologien verurteilen, ohne sie selbst getestet zu haben.
Bei DLSS 1 lag ich mit meiner Skepsis falsch und am Ende ist ja niemand gezwungen, DLSS, DSR oder ähnliche Features zu nutzen.

Man kann Bedenken äußern, einige sind sicher berechtigt. Aber den optischen Mehrwert kann man schlicht nicht abstreiten. AMD wird früher oder später einen ähnlichen Weg gehen.

Reines Rasterizing wird nicht mehr die Sprünge wie vor zehn Jahren machen, da die Fertigungssprünge stagnieren und die Designs weitestgehend optimiert sind. Die Zukunft liegt wohl zwangsläufig in der KI-Unterstützung.
 
  • Gefällt mir
Reaktionen: nexradar, bickid, Snapuman und 3 andere
banditone schrieb:
Je besser die Rastergrafik und die Details, desto besser und genauer ist am Ende die KI.
Das wird bei generativem KI Rendering nicht so sein. Da brauch man eher Vorgaben in Form von Metadaten für die Generierung, z.B. für die Generierung von Gesichtern ob die Person schwitzen soll oder nicht, wie alt die Person ist, ist sie müde und erschöpft, usw. Sicher wird man auch eine Form von "Zielaussehen" benötigen um ein konsistentes Ergebnis zu erreichen, und zu vermeiden, dass die Person in jeder Szene anders aussieht.
 
Also ich feier die Memes rund ums Thema. Und diesen Thread, der ist auch pures Popcorn mal wieder.
Was das Thema ansonsten angeht: mal abwarten, was draus wird und ob/wie es dann von Entwicklern unterstützt wird.
 
ampre schrieb:
Selbst bei normalen Rechenopperationen auf GPUs ist das Ergebniss nicht 100% Reproduzierbar.
wie konnten wir 30 Jahre lang so spielen ?
 
Aber wie wollen sie denn von zwei 5090 auf eine 5090 bis Ende des Jahres kommen? Liegt es nur an dem VRAM Bedarf, den sie bis dahin dann entsprechend reduzieren wollen?

Und wegen der Bilder. Es liegt also nicht an der Technik, sondern an der Implementierung? 😄
 
Araska schrieb:
Ähm... inwiefern soll auf einer solchen Basis eine sinnvolle Diskussion stattfinden können?
Die Basis existiert nicht, wenn eine Seite von Anfang an alles, was mit AI zu tun hat, als "Slop" bezeichnet.
 
Btw Nvidia hat hier betrogen neben dem AI slop zeug, sie haben irgendwelche vermutlich Xbox S schrott versionen von den Figurer mit dem AI zeug gegenüber gestellt, auf ner Playstation Pro oder selbst ner normalen oder aufm PC auf Ultra sehen die normalen Versionen auch besser aus, halt der übliche Marketinglügner ist ja in den USA erlaubt solche Täuschungen.
 
ParrotHH schrieb:
Wer lesen kann...
sorry nicht so raus gelesen. Ändert nix daran das es ANGEBLICH ja nur was am

"indem Entwicklern detaillierte Steuerungsmöglichkeiten wie Intensität und Farbkorrektur zur Verfügung gestellt werden. Künstler können damit Mischung (Blending), Kontrast, Sättigung und Gamma anpassen und festlegen, wo und wie Verbesserungen angewendet werden, um die einzigartige Ästhetik des Spiels zu erhalten."

anpasst. Change my mind!
 
Zuletzt bearbeitet:
flynn9 schrieb:
Wäre doch schön wenn das zu modden ginge und im nächsten Witcher Spiel Ciri wie in Teil 3 aussehen würde. Und nicht wie die neue Darstellerin.

Das geht wohl auch klassisch per Mods, aber erfahrungsgemäß funktionieren dann die Hälfte der Gesichtsanimationen nicht mehr.
Genau das geht mit DLSS5 NICHT. DLSS5 verändert keine Modelle; es verbessert das Licht auf so fundamentale Weise, dass es photorealistischw wird. Wenn du mal Blender benutzt hast, kennst du vielleicht den Effekt, wenn du ein Model erstellt hast und dann das "Licht" aktivierst. Plötzlich sieht dein Computer-Modell aus wie ein realer Gegenstand. Sehr vereinfacht erklärt, aber so ist es im Prinzip mit DLSS5. Es verändert nichts. Außer der Beleuchtung.
 
  • Gefällt mir
Reaktionen: flynn9
Serandi.87 schrieb:
Du sprichst einen sehr geilen Punkt an über den wirklich wahrscheinlich nur ältere erfahrene Spieler, die die ganze Entwicklung, oder den größten Teil davon, miterlebt haben!

Ich erwische mich immer wieder dabei, dass ich ältere Spiele, die überdimensional schlechter aussehen als neue Spiele, deutlich lieber Spiele und auf die Grafik gar nicht wirklich achte und absolut kein Problem damit habe, wenn die Grafik nicht ausgereift wirkt wie heute!
Andererseits Schrecken mich irgendwie sehr realistische Spiele mehr ab als mich anzusprechen.
ich merk das bei Echtzeitstrategie (RTS), Stragiespielen oder so manch Aufbauspiel:

mir ist es teils "zuviel" bei den neuen Spielen...

objektiv sind die Details der Einheiten, die realitische Darstellung, die Masse an Einheiten, die Wälder die sich bewegen, das super realistische Wasser etc. etc.. naütrlich alles viel besser (aus grafischer Sicht)
mir aber irgendwie fast too-much

und sowas wie ein altes Command and Conquer, wo meine Einheiten die eine Farbe haben, die anderen einheiten ne komplett andere,
sich nicht 1000 Bäume im Blickfeld bewegen, die Auflösung geringer ist und die Einheiten somit weniger Details haben
eigentlich lieber beim Spielen
Ergänzung ()

ampre schrieb:
Ok deine ChatGPT Antworten kannst du dir sparen.

Lies dir das hier durch und versuche zu vestehen: https://www.osti.gov/servlets/purl/2538294
aber das trifft laut paper ja auch auf "normale" Computergrafik dann zu
"Nichtassoziativität von Gleitkomma‑Operationen (Floating-Point Non‑Associativity, FPNA) in Kombination mit asynchroner Parallelisierung – vor allem auf GPUs."

sprich: haben wir jetzt ganze Zeit unsere Spiele mit nicht-reproduzierbarer Grafik gespielt ??

die Frage ist also eher: wie groß ist dieses problem der nicht-100% reproduzierbarkeit..
ist es sehr viel stärker durch DSLL ?
oder ist es in einem Bereich - bei 60fps+ - wo es sowieso niemanden auffällt ?
wird sich hier um etwas gestritten, was in der Praxis völlig irrelevant ist ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Serandi.87
karl_laschnikow schrieb:
AMD wird früher oder später einen ähnlichen Weg gehen.
Neural Rendering ist doch schon für rdna5 angedacht und für die xbox und sony bestätigt. Die frage bleibt nur in wie weit hat die Hardware auf die Qualität einfluss und teilen sich alle Hersteller das gleiche ki Modell und ist das ergebniss das gleiche? das modell müsste ja der spiele engine und nicht dem treiber beiligen.
 
banditone schrieb:
Das ist auch so und wird in Zukunft wohl genau so kommen. Man sieht ja jetzt schon, wie viele Entwickler nötig sind, um eine gute Grafik abzuliefern. Mit KI kann man erheblich Zeit und vor allem Personal einsparen.
Ja gut das hat aber auch vorher ohne diese Technologien Funktioniert.
und genau wie du sagst liegt ja der Hase im Pfeffer vergraben.

Ich hatte mich ja auch auf die Leistung bezogen. Hast du Bock mit 30 fps irgendwo Rumzueiern oder mit 60FPS auf Grottengrafik zu spielen ?
Das ist ist auch immer alles eine Kostenfrage. Was die Devs dann sparen müssen wir durch Hardwarekosten ausgleichen. Und da hat keiner Lust drauf. Gibt ja auch noch andere Dinge im Leben.

Das sieht man ja hier an den Kommentaren.
 
MaverickM schrieb:
Aber sonst geht es dir schon noch gut?
Nein, mir geht's gar nicht gut.
MaverickM schrieb:
Auch damals wurde das schon beklagt. Das geschah quasi mit jeder modernen Neuerung, die Arbeitsplätze kostete, angefangen mit dem Beginn der Industrialisierung. Deine Behauptung ist haltlos.
Von wem wurde das beklagt? Den Kutschern selbst? Klar. Aber sonst?

Und wo haben diejenigen, die jetzt alles für Künstler geben, sich aufgeregt, als Truck-Fahrer ihre Jobs verloren haben an autonomes Fahren? Wo war deren Aufschrei, als Brotbackgeräte zu Bäckereischließungen führten? Wo die Kritik als ChatGPT nur Text konnte? Ich weiß noch, wie gespottet wurde, als der erste hässliche Will Smith Spaghetti essen wollte. Da war NICHTS. Aber für fancy Künstler setzt man sich jetzt ein. Da kotze ich. Man setzt sich für die privilegiertesten Menschen dieser Welt ein, Menschen, die viel Geld mit ihrer innersten Leidenschaft verdienen. Währenddessen werden bei uns dank neuer Grundsicherung die Ärmsten der Armen jetzt aktiv in die Obdachlosigkeit getrieben, aber dazu dröhnendes Schweigen. Sorry, aber wenn Reiche und Privilegierte sich gegenseitig schützen, dann schwillt mir der Kamm bis zum Mond.

MaverickM schrieb:
Ach, nicht? Und was ist mit den Datenkraken "KI Bros", die sich freizügig an Urheberrechtlichem Material bedienen, um die Modelle zu trainieren? :rolleyes:
Und was hat er jetzt verloren? Er kann immer noch weitermalen. Niemand hält ihn auf. Was ist denn das für ein perverses Verständnis für Kunst, wenn es um Geld geht?! Kunst ist der Inbegriff des Antikapitalismus. Kunst kann alles sein, was jemand formt und zum Ausdruck bringt. Dafür braucht es kein Geld. Die meisten von uns werden nicht für's Malen bezahlt und erschaffen dennoch Kunst. Sei doch wenigstens so ehrlich und sag, dass es um Geld geht. Punkt. Aber dann sind wir wieder bei der Debatte, wer soviel Fürsprecherei nötiger hat: hochprivilegierte Künstler oder ... so gut wie alle anderen Arbeiter in unserer Gesellschaft.
 
Kraeuterbutter schrieb:
aber das trifft laut paper ja auch auf "normale" Computergrafik dann zu
Ja aber bei normaler Grafik wird das vorherige Ergebnis nicht recycelt. Es gibt immer wieder ein neues Ergebnis weshalb es hier egal ist. Beim anderen kannst du einen Fehler über mehre Frames durchschleifen. Dadurch wird der Fehler aufsummiert. (Schmetterlings Effekt / Caos Theorie)
 
Zuletzt bearbeitet:
Kano schrieb:
CAPCOM hat über 3000 Mitarbeiter. Schon klar, dass da nicht jeder einzelne an einer Tech-Demo mitarbeitet.
Es geht nicht darum das nicht jeder daran mitarbeitet. Es geht mehr darum das CAPCOM die Entwickler und Künstler gar nicht informiert hat.
 
KuroSamurai117 schrieb:
Folgevideo von DF zu dem Thema:

"Wir hätten erst auf die Reaktionen und Meinungen unserer Zuschauer warten sollen bevor wir unsere Meinung teilen."

Was für ein furchtbares, peinliches Video.
 
ampre schrieb:
Ok deine ChatGPT Antworten kannst du dir sparen.

Lies dir das hier durch und versuche zu vestehen: https://www.osti.gov/servlets/purl/2538294
Mal ganz ehrlich: Die von dir verlinkte Studie ist zwar spannend, hat mit der optischen Konsistenz von DLSS 5 aber so gut wie gar nichts zu tun. Hier werden Äpfel mit Kernreaktoren verglichen.

Hier liegt dein Denkfehler:

In der Studie geht es um Floating-Point Non-Associativity. Das bedeutet: Wenn ein Computer Millionen von Zahlen in einer anderen Reihenfolge addiert, werden sie minimal anders gerundet. Das führt zu Abweichungen im Bereich von winzigen Nachkommastellen (Bits). Für Wissenschaftler, die Supercomputer für Klimamodelle oder Atomphysik nutzen, ist das wichtig.

Warum das für DLSS 5 egal ist: Diese winzigen Bit-Unterschiede führen nicht dazu, dass ein KI-Bild plötzlich „anders“ aussieht oder flackert. Das menschliche Auge kann diese mikroskopischen Rechenabweichungen in einem Frame mit 60 oder 120 FPS überhaupt nicht wahrnehmen.

DLSS 5 ist kein Würfelspiel. Du scheinst DLSS mit „Generativer KI“ (wie Midjourney) zu verwechseln, die aus Rauschen jedes Mal ein neues Bild generiert. DLSS 5 ist Neural Rendering. Es bekommt vom Spiel feste Daten: Bewegungsvektoren, Tiefenpuffer und Geometrie. Die KI „rät” also nicht, wo die Kante eines Hauses ist, das Spiel sagt es ihr ganz genau.
NVIDIA nutzt dafür massive temporale Filter für zeitliche Stabilität. Das heißt, das neue Bild wird immer mit den Daten der vorherigen Bilder abgeglichen, um genau diese „Inkonsistenz” zu verhindern.


Fazit: Die Studie beweist lediglich, dass Computer beim Rechnen minimal runden. Sie beweist jedoch nicht, dass ein KI-gestütztes Upsampling wie DLSS 5 instabil ist. Das System ist durch die Engine-Daten viel zu stark „eingemauert“, als dass diese Rechenungenauigkeiten ins Gewicht fallen würden.

Anstatt hier also ständig arrogant aufzutreten und anderen Unfähigkeit zu unterstellen, solltest du dich vielleicht vorher informieren, was du hier überhaupt postest.



TomH22 schrieb:
Das wird bei generativem KI Rendering nicht so sein. Da brauch man eher Vorgaben in Form von Metadaten für die Generierung, z.B. für die Generierung von Gesichtern ob die Person schwitzen soll oder nicht, wie alt die Person ist, ist sie müde und erschöpft, usw. Sicher wird man auch eine Form von "Zielaussehen" benötigen um ein konsistentes Ergebnis zu erreichen, und zu vermeiden, dass die Person in jeder Szene anders aussieht.
Guter Punkt mit den Metadaten! Aber die KI braucht eine hochwertige Basis, um nicht zu halluzinieren.
Selbst wenn die Metadaten der KI sagen, was sie tun soll, beispielsweise, dass jemand schwitzt, liefert die Rastergrafik der Engine immer noch das Skelett, also die exakten Tiefendaten, Kanten und Bewegungsvektoren. Je detaillierter diese Vorgabe aus der Engine ist, desto weniger muss die KI raten, wo genau der Schweiß hinfließen soll oder wie sich eine Falte im Gesicht beim Sprechen physikalisch korrekt bewegen soll.
Letztendlich ist es ein Zusammenspiel: Die Metadaten liefern den Kontext (das „Was”), aber die präzise Raster-Basis liefert die Struktur (das „Wo”), damit das Ergebnis konsistent und glaubwürdig bleibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomH22
Che-Tah schrieb:
Welcher Spieleentwickler hat noch seine eigene Engine? Die meisten Spiele bestehen nur aus zusammen gekauften Assets aus dem Store von UE, Unity etc..
Keine Ahnung, ich dachte immer wenn ich Resident Evil Requiem starte und da "RA-Engine" steht das es die von CapCom ist, aber was weiß ich schon.
 
NovumVeritas schrieb:
Es geht nicht darum das nicht jeder daran mitarbeitet. Es geht mehr darum das CAPCOM die Entwickler und Künstler gar nicht informiert hat.
Die haben ihr monatliches Gehalt erhalten wie immer und fertig.
 
Zurück
Oben