News „Ich mag keinen AI Slop“: Nvidias CEO versucht die DLSS-5-Wogen zu glätten

Ich bin überzeugt, dass DLSS5 eine gute Sache wird, bin nur gespannt, ob das auch mit meiner Grafikkarte
funktionieren wird, hab leider keine zwei 5090 in meinem Rechner.
Wäre schön, wenn Herr Jensen dazu auch mal was sagen würde, bis Herbst ist es ja so lange nicht mehr hin.
 
Was erzählt der eigentlich und wieso? Gibts da draußen etwa irgendjemanden, der noch eine Silbe glaubt, die dem seinen Mund verlassen? Abgesehen von den AI-Bros?
 
Es ist halt bisschen nvidias "Do you guys not have phones?" moment wo ihnen im Vorfeld hätte auffallen müssen das ihre Zielgruppe mit dem dargestellten Probleme haben könnte. Die Diskussionen um AI Nutzung in Spielen ist ja auch nicht neu.

Ich würde gerne abwarten wie sich das weiter entwickelt, was gezeigt wurde finde ich eher schlecht bisher. Eine bessere Implementierung wo es nicht so hart uncanny valley ist für meinen Geschmack, wäre aber sicher interessant in Zukunft.
Solange die Entwickler das letzte wort haben und ich es auch an/aus machen kann. Kann nvidia den Ansatz gerne weiter entwickeln und wenn es gut ist raushauen.
 
Saryus schrieb:
dass die künstlerische Freiheit nicht beschränkt wird, wenn jedes Spiel stärker belichtet und fotorealistischer gemacht wird. Dadurch wird halt alles zum (AI Slop) Einheitsbrei.
Du kannst das aber auch anders sehen. Jedes Spiel welches Dlss5 integriert hat kann das Ergebnis so zeigen wie es der künstler gewollt hat. Und ohne Dlss5 ist es ein Kompromiss des künstlers.

Diese Option in Dlss5 muss manuell im Spiel aktiv geschaltet werden. in wie weit sich Entwickler bei ihren alten spielen dazu noch mühe machen wenn es nachträglich integriert wird, steht auf einem anderen Blatt.
 
Heavynator schrieb:
Das grundlegende Modell bleibt gleich.
Das habe ich verstanden. Nur weil das zugrundeliegende Modell gleich bleibt, heißt es nicht das keine Variabilität möglich ist.
 
herby53 schrieb:
Angenommen es gibt so etwas dann auch von Intel und AMD, sehen die selben Spiele dann unterschiedlich aus, weil jeder Hersteller seine eigene Interpretation hat?
DLSS / RT ist ja auch eine Erfindung von Nvidia, und heute hat AMD vergleichbares, sieht auch gar nicht mal so
unterschiedlich aus, oder?
So wird es auch hier wieder sein.
Der Motor der Weiterentwicklung lässt sich nicht aufhalten, und Nvidia legt halt vor.
 
LikeHike schrieb:
Das habe ich verstanden. Nur weil das zugrundeliegende Modell gleich bleibt, heißt es nicht das keine Variabilität möglich ist.
Genau das hätte Nvidia halt zeigen müssen, damit es die aktuelle Diskussion nicht gibt. So sahen unterschiedliche Spiele mit DLSS5 ähnlicher zueinander aus und haben einen Teil ihres "Charakters" verloren. Das ist halt ein Problem. Jetzt erzählt Nvidia viel, aber das ändert halt nichts mehr an dem, was sie gezeigt haben.
 
stefan92x schrieb:
Jetzt erzählt Nvidia viel, aber das ändert halt nichts mehr an dem, was sie gezeigt haben.
Eben, das was bei den Leuten jetzt erstmal hängen geblieben ist, ist der erste Eindruck anhand dessen, was Nvidia prominent während der Keynote gezeigt hat. Die nachträglichen Erklärungsversuche erreichen nur noch deutlich weniger Leute. Und selbst wer die Erklärungen mitbekommt, haben die ohne Bilder als Beleg halt weniger Gewicht als der Ersteindruck auf Basis der Präsentation.
 
  • Gefällt mir
Reaktionen: stefan92x
Okay, das Marketing bemüht sich als um Schadensbegrenzung, ansonsten nichts Neues im Westen.

Ich hätte ja gern mal noch ein paar Beispiele gesehen in Bewegung oder wie sich unterschiedliche Parameter von DLSS5 innerhalb eines Spieles auf die Ausgabe auswirken...also die Parameter, welche die Entwickler zur Verfügung haben.

Gab es eigentlich eine genauere Info zu den beiden 5090ern aus dem Präsentationssystem? Ich hatte nur gelesen, das die eine das Spiel selbst und die Andere DLSS5 berechnet hat. Wie stark die Karten ausgelastet waren oder ob es andere technische Gründe als die reine Rechenlast hatte, das es getrennt ausgeführt wird...dazu hab ich nicht lesen können.

Ist im Grunde auch nur interessant um sich ein besseres Bild machen zu können. Im Endeffekt ist die Technik interessant, aber so masiv überragend finde ich es jetzt auch nicht. Zocke aktuell gerade Indiana Jones auf 4K Ultra mit FSR4.1 und FG bei ca. 150FPS...es gibt auch Spiele, bei denen sehen die Gesichter und Beleuchtung jetzt schon recht gut aus. Wenn Bethesda sowas braucht um seine Starfieldkatastrophe zu fixen...meinetwegen, aber ist auch Studios die ohne KI-Filter sehr gute Ergebnisse liefern.
 
Northstar2710 schrieb:
Du kannst das aber auch anders sehen. Jedes Spiel welches Dlss5 integriert hat kann das Ergebnis so zeigen wie es der künstler gewollt hat.
Zum jetzigen Zeitpunkt ist es allerdings nicht so und das zeigt sich ja auch bei der stärker werdenden Kritik aus der Spielebranche und davon Art-Designern und Co.

Auch wenn manche Spieler hier denken, dass "Fotorealismus" und ein hoher "realistischer" Detailreichtum das Ziel wäre, so ist dieser es in der Regel für viele Künstler nicht, weil damit teilweise etwas sehr Wichtiges verloren geht beim Transport. Wenn DLSS 5 aktuell mit einem Prompt arbeitet, ein gewisses Art-Design vorschreibt, dann ist das nicht gut.

Spiele als Kunstwerke leben von ihrem Art-Design und der kann "fotorealistisch" sein, er kann auch "hyperdetailiert" sein. Nur muss er es nicht. Schau dir mal Spiele wie Kena: Bridge of Spirits an und wie gut diese Spiele auch aussehen. Und das wäre ein Spiel, dass durch bessere Beleuchtung als auch bei Texturen und Co gewinnen kann, was aber am Ende unendlich stark an Atmosphäre einbüßen würde, wenn man hier plötzlich generalisiert "Fotorealismus" anlegen würde.

Es gibt Sachen da zeigt DLSS 5, welche Vorteile es bringen kann, weil plötzlich Strukturen in Kleider noch feiner sein können, sogar mit "Ebenen".
 
  • Gefällt mir
Reaktionen: Apocalypse
RotkohlRitter schrieb:
Aber ich bleibe dabei, Nvidia hat es komplett verbockt, wie man DLSS 5 präsentiert hat. Man hat sich viel zu sehr auf die Gesichter fokussiert und man hätte eigentlich erkennen müssen, dass diese eben genau nach „AI-Slop“ aussehen, auch wenn das vielleicht nicht die Intention dahinter war.
War es optimal? Sicherlich nicht. Ich fand z.B. die Beleuchtung, gerade auch (war glaube ich für das nächste Witcher?) in der Waldszene, bedeutend "atemberaubender" als die Gesichter (dass das möglich ist und auch in diesem Umfang, ist ja bereits bekannt und war eher eine Frage der Zeit, bis es den Weg in Spiele findet).

Nichtsdestoweniger finde ich die Menge und Intensität der Kritik als vollkommen ungerechtfertigt. Wir haben einen Preview auf eine neue Technologie gesehen, die dann auch erst mal ihre Wege in Spiele und weitere Patches finden wird. Welches Spiel sieht denn im Alpha- und Beta-Trailer genauso aus wie in der v1.0?

Hinzu kommt noch, dass einige Szenen durchaus schon sehr gut aussahen. Gerade bei AI ist es häufig so, dass die Qualität am Ende sehr stark an der Datenmenge und dem Nutzerfeedback liegt. Dass wir hier mindestens Monate im Voraus und ohne Hunderte von Games und Nutzerfeedback sehr passable Szenen gesehen haben, ist speziell für AI ein vielversprechendes Zeichen...

...und egal ob Pro oder Contra: Für die tatsächliche Bewertung sollte man bis zum Release bzw. bis zu konkreten Tests in Spielen warten.

Saryus schrieb:
dass die künstlerische Freiheit nicht beschränkt wird, wenn jedes Spiel stärker belichtet und fotorealistischer gemacht wird
Kein Entwickler wird gezwungen, es in ein Spiel einzubauen.

Unabhängig davon wurde im Q&A und im NVIDIA Dev Forum auch schon kommuniziert, was Jensen hier teilweise im Interview angeschnitten hat:
  • Konkrete Effektstärke wird konfigurierbar sein
  • Generell Effekte / stilistische Ausrichtung wird konfigurierbar sein
  • Mittelfristig ist ein Training/Optimierung auf das eigene Spiel geplant (was eventuell sogar gänzlich neue Stile, etwa Comic-Style, einschließen soll)
Auch hier gilt letztendlich aber: abwarten, was dann wie tatsächlich wann kommt.

Termy schrieb:
Marketing-Gewäsch, um die Wogen zu glätten, mehr ist das nicht.
Sehe ich gänzlich anders, siehe oben. Die Technologie ist vielversprechend und das Ganze in Echtzeit realisieren zu können, ist technisch ein Meilenstein. Kein Entwickler wird gezwungen, es zu verwenden, und selbst wenn das so wäre, zwingt dich ja keiner, DLSS in einem Spiel anzuschalten. Die tatsächliche Qualität in Games kann man dann beurteilen, wenn es konkrete Tests gibt. Dieser technische Preview sieht aber gut aus und wenn alle versprochenen Features kommen (siehe ein Absatz weiter oben), dann wird das – entsprechende Verwendung der Entwickler vorausgesetzt – sehr viel Potential haben.

Sebbi schrieb:
Aber ja, das ganze als nun den absolut neusten heißen **** anzupreisen obwohl das ganze kaum Mehrwert bietet als Bumpmapping und im Gegenteil sogar teilweise Dinge verfälscht, wie man in den Videos dazu sieht.
Da würde ich @Turrican101 beipflichten: Miesepeter gab es bei vielen neuen Technologien, inklusive Bumpmapping. Eigentlich alles, was irgendwie bessere Grafik verspricht bei zeitgleich handhabbarem Rechenaufwand...also im Prinzip jede Technologie, die nicht gleich physikalisch korrekt eine ganze Welt realistisch simuliert.

DevPandi schrieb:
Neben den absoluten Nonsens-Beiträgen gab es sowohl hier im Forum als auch allgemein sehr viele Beiträge, die DLSS 5 an sich begrüßen, jedoch bei dem gezeigten Material sehr wohl kritisch waren und es hat sich nun in der Woche herausgestellt, dass diese kritischen Beiträge zum Teil sehr wohlbegründet sind, wie sich nun auch in dieser Reaktion von Nvidia gezeigt hat.
Es gab auf jeden Fall sowohl in puncto Artikulation als auch Inhalt ordentliche Beiträge, ja. "Sehr viele" ist jetzt subjektiv; ich hätte subjektiv gesagt, dass die "AI Hater" deutlich in der Mehrzahl waren - mit Beiträgen von eher fraglicher Substanz.

Grundlegend würde ich aber auch sagen, dass selbst die konstruktive Kritik bei näherer Betrachtung einige Mängel aufweist. Es ist ein technologischer Preview und daher unter Berücksichtigung der überschaubaren Menge an Kooperationspartnern/Games (=geringer Datenmenge) bisher sowie dem pre-release Status (=kein Nutzerfeedback) eigentlich eher sehr erstaunlich, wie gut die Technologie bereits funktioniert.
 
Zuletzt bearbeitet:
Ich hätte ganz gern mal DLSS 5 in ETS2 gesehen, muss ein Gamechanger sein, zumindest optisch. In allen Racern dürfte es optische Boosts geben. Oder NoMansSky, das wird ein Fest! Ich mag DLSS5, dabei habe ich nicht einmal eine Nvidia im Rechner. Hat AMD etwas Vergleichbares?
 
LikeHike schrieb:
Das habe ich verstanden. Nur weil das zugrundeliegende Modell gleich bleibt, heißt es nicht das keine Variabilität möglich ist.
Ja, natürlich. Jeder der schon mal mit Parametern bei Filtern rumgespielt hat wird das auch bestätigen. Da kommen teilweise extrem unterschiedliche Ergebnisse raus, je nach Parameter die man dem Filter übergibt.

Aber das Modell bleibt gleich, man hat auch keinen Zugriff auf den prompt, man kann also auch nicht von Insta-Modells auf Comic Art zum Beispiel ganz bewusst umschalten, etc

Es bleibt (fürs erste) ein yassify-Filter in Form eines img2img GenAi Bildergenerators. Und so richtig viel kann man da nicht einstellen, die Parameter sind doch sehr begrenzt in diesem Fall. Aber das muss ja nicht so bleiben, auch wenn mehr aktuell nicht geplant ist, die haben wohl genug damit zu tun das jetzt auf einer 5090 zum laufen zu bringen bis Herbst. Die Performance in den Griff zu bekommen ist sicher alles andere als Trivial.
Ergänzung ()

Mircosfot schrieb:
Ich hätte ganz gern mal DLSS 5 in ETS2 gesehen, muss ein Gamechanger sein, zumindest optisch. In allen Racern dürfte es optische Boosts geben. Oder NoMansSky, das wird ein Fest! Ich mag DLSS5, dabei habe ich nicht einmal eine Nvidia im Rechner. Hat AMD etwas Vergleichbares?
Racer oder ETS2? Oh ja, bitte gerne! MSFS2024 auch bitte gerne!
No Man's Sky? Da bin ich mir nicht so sicher ob das Modell jetzt mit dem Art Style klar kommen wird ... neugierig wäre ich schon… aber es wird wahrscheinlich fürchterlich.


Ob AMD etwas vergleichbares hat wird sich noch zeigen, die neuen Konsolen sollen auf jeden Fall Neural Rendering unterstützen, aber wahrscheinlich nicht als reiner Bildgenerator sondern tiefer in den Engines integriert. Wird auf jeden Fall interessant was da noch alles kommt.
 
Ich verstehe trotzdem den Sinn hinter DLSS5 nicht. Ab welchen Punkt, greift DLSS5? Beim Entwickler oder erst beim Kunden an PC/Konsole? Wenn es beim Kunden erst "arbeitet", bekommt dieser, eine einmalige Darstellung des bearbeiteten Bildes vorgesetzt.
 
Nach dem das Thema aufgekommen ist und wir die letzte Diskussion zum Thema hatten, kam mir direkt der Gedanke, Jensen ist vielleicht ein kluger Entwickler und Techniker, das Marketing Blabla (inklusive seines - im Jugendslang gesagt - cringe wirkenden Humors) sollte er allerdings wirklich mal besser anderen Leuten überlassen.
 
rentex schrieb:
Ich verstehe trotzdem den Sinn hinter DLSS5 nicht. Ab welchen Punkt, greift DLSS5? Beim Entwickler oder erst beim Kunden an PC/Konsole? Wenn es beim Kunden erst "arbeitet", bekommt dieser, eine einmalige Darstellung des bearbeiteten Bildes vorgesetzt.
Zur runtime, nachdem der Frame fertig ist, wird der als Basis genommen um ein neues Bild auf Basis dieses Frames zu erstellen das halt "hübscher" ist. Wieviel "hübscher" kann der Entwickler der AI mitgeben, aber arbeiten tut das Modell eben direkt erst beim Spielen.

Wird natürlich auch vom Entwickler getestet werden, ob eh alles anständig aussieht. Aber DLSS 5 arbeitet hier eben zur Laufzeit und in Echtzeit.
 
  • Gefällt mir
Reaktionen: rentex
stefan92x schrieb:
Genau das hätte Nvidia halt zeigen müssen, damit es die aktuelle Diskussion nicht gibt. So sahen unterschiedliche Spiele mit DLSS5 ähnlicher zueinander aus und haben einen Teil ihres "Charakters" verloren.
Sehe ich anders. Wer mir ernsthaft erzählen will dass sich die Charaktere aus Hogwarts Legacy und Resident Evil auf einmal ähnlich sehen, sollte zum Optiker.
 
Man darf hier wahrscheinlich nicht mehr in klassischen Upscaling-Kategorien denken. Bei genauerer Betrachtung setzt NVIDIA mit DLSS 5 wohl auf Implicit Inverse Rendering (IIR) als Basis für ein massives "Feature-Upscaling".
Der eigentliche Clou ist nicht die Auflösung, sondern die Transformation des gesamten Render-Pfads: Das Modell nutzt einen z.B. "billigen" Raster-Input (wie SW-Lumen) nur noch als Datensatz, um daraus eine vollständige PT-Optik zu rekonstruieren. Selbst in einem lo-Res 1080p-Signal stecken statistische Informationen, etwa in den Speculars, die dem Modell als 'Guidance Signals' dienen, um die physikalische Wahrheit der Szene stochastisch neu zu synthetisieren.
Wenn man dieses multidimensionale "Hyper"-Scaling zu Ende denkt, wird der herkömmliche DLSS-SR-Upscaling Part fast schon nebensächlich. Die KI skaliert nicht mehr nur Pixel, sondern hebt das gesamte grafische Setting auf ein Niveau, das nativ ein Vielfaches an Rechenleistung kosten würde. Dass die Hardware-Last im Alpha-Stadium trotzdem noch astronomisch ist (5090 "SLI"), unterstreicht nur den massiven mathematischen Aufwand dieser inversen Rekonstruktion gegenüber der simplen Approximation durch die Engine. Wir sehen hier den Übergang von der bloßen, limitierten Vereinfachung hin zu einer statistisch berechneten, physikalischen Konvergenz.

Beispiel: Nvidia DiffusionRenderer
1774351990815.png



Hier ein interessanter Beitrag zum Thema
 

Anhänge

  • 1774351976059.png
    1774351976059.png
    1,4 MB · Aufrufe: 2
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ParrotHH
Apocalypse schrieb:
Aber das Modell bleibt gleich, man hat auch keinen Zugriff auf den prompt, man kann also auch nicht von Insta-Modells auf Comic Art zum Beispiel ganz bewusst umschalten, etc
Warum nicht? Ich meine klar, DLSS5 bietet die Funktion aktuell nicht, aber genau solche Eingaben sind im Hintergrund sehr wohl möglich. Das ist ja das geniale daran.
 
Zurück
Oben