News Was macht DLSS 5?: Nvidias Antwort in einem Satz ist „die KI weiß, was sie tut“

ich würde eher hoffen, dass diese technik alte spiele wie Stonekeep, Kings oder space quest oder wegen mir auch doom, indy 4 oder andere titel der 90er aufpolieren würde. DANN wäre ich beeindruckt.
 
  • Gefällt mir
Reaktionen: Gnarfoz
Ein Detail aus der FAQ Nvidia, dass kaum (keine?) Beachtung gefunden hat, aber IMHO alles sagt:

Does DLSS 5 replace graphical features like Path Tracing?


No. Path tracing provides lighting accuracy (i.e. lighting, shadows, and reflections in the proper location) whereas DLSS 5 delivers lighting photorealism (i.e. as if you had a larger ray budget and higher quality materials). These technologies go hand in hand.
Anders gesagt:
Das ist immer noch die 1:1 identische Revolution, die uns mit der RTX 2000 Serie verkauft wurde.
DLSS5 ist keine "Magie", sondern immer noch was DLSS seit der RTX 2000 Serie ist:
Ein AI-gestützer Hack als Übergangslösung weil heutige Hardware noch nicht in der Lage ist entsprechenden Photorealismus nativ zu berrechnen; DLSS simuliert mehr Leistung als tatsächlich vorhanden ist.

That's it. Nur mit den Gesichern hat sich Nvidia so gar keinen Gefallen getan. Sollen halt einfach die Finger davon lassen (was wie es scheint problemlos möglich ist gewissen Elemente von DLSS5 einfach auszunehmen). Die Environment ist sicherlich auch nicht perfekt, zeigt aber wahnsinniges Potential.

PS: Und schon klar, wieso Nvidia das nicht genau so kommuniziet :evillol:
 
  • Gefällt mir
Reaktionen: Haggis
Nihil Baxxter schrieb:
Habe ich. M.E. wird hier nichts final beurteilt, sondern das, was aktuell sichtbar ist. Genauso wie vor 120 Jahren das hier:
beurteilt wurde
und nicht:
Das sich jede neue Technik aber erst entwickeln muss ist auch klar oder?
Das ist genau das was ich als Conclusio geschrieben hatte.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
DarkInterceptor schrieb:
ich würde eher hoffen, dass diese technik alte spiele wie Stonekeep, Kings oder space quest oder wegen mir auch doom, indy 4 oder andere titel der 90er aufpolieren würde. DANN wäre ich beeindruckt.
Viel Glück mit Lara Croft…
 
Matthias80 schrieb:
wie geil! wo sind die lauten die es nicht sehen wollten? Ich sag ja Abgerechnet wird zum Schluss!

Der Grund ist ganz einfach: ich habe gemerkt, dass mir die Diskussion hier zum Thema schnell zu dumm, zu toxisch, zu zeitintensiv und zu wenig nutzbringend wurde.

Zum aktuellen Artikel fällt mir spontan folgendes ein.

Was der Mob offenbar nur akzeptieren würde, wäre ein Algorithmus, der der KI zwingend vorher mitteilt:
- viereckiger Stab #1, Länge X, Pos im Raum X, Y, Z, Material Buchenholz
- viereckiger Stab #2, Länge X, Pos im Raum X, Y, Z, Material Buchenholz
- viereckiger Stab #3, Länge X, Pos im Raum X, Y, Z, Material Buchenholz
- viereckiger Stab #4, Länge X, Pos im Raum X, Y, Z, Material unbehandeltes Buchenholz
- viereckige Platte, Lange X, Breite Y, Höhe Z, Pos im Raum X, Y, Z, Material Buchenholz

Daraus muss sie dann ihre Schlussfolgerungen ziehen.

Und nun kommt aber die scheiß KI daher, der man nur das fertige Bild vor die Füße werfen muss, die schaut kurz drauf, und bam erkennt: Tisch mit vier Beinen!

Das genau ist ja die große Stärke von KI, dass sie ohne großen Rechenaufwand hervorragend Muster erkennen und daraus ziemlich gut Schlüsse ziehen kann. Und aus der Ecke kommt dann m. E. auch die Aussage "für die KI ist das mehr als genug", denn inkl. der Bewegungsvektoren stimmt das wahrscheinlich einfach!

Zum Grace-Bild: es gibt ja deren zwei auf der Nvidia-Seite, bei denen man per Slider den vorher-/nachher-Vergleich machen kann. Alle stürzen sich nun aber nur auf ein einziges, nämlich dieses. Und da ist es nicht so einfach, wie manche es gerne hätten. Denn wenn man den Slider hin und herbewegt, sieht man, dass im Gegensatz zu praktisch allen anderen Bildern hier nicht der exakt identische Zeitpunkt mit den exakt identischen Objekten und Personen verglichen wird. Grace hält den Arm weiter oben, und hat auch ihr Gesicht angehoben und leicht gedreht. Und das erzeugt dann zusammen mit der Beleuchtung im Vergleich den Effekt, ohne dass man hier sicher sagen, ob die Geometrie wirklich verändert wurde.

Schaut man sich hingegen dieses Bild an, wird klar, dass sie nicht verändert wird.

Ich bin einfach nur immer noch irritiert, wie man mit viel Aufwand Einzelbild für Einzelbild durchforstet, um Bestätigung für das pauschale Vorurteil zu finden: "Alles Neue ist scheiße". Mit dem Ansatz ist es halt ein trauriges Leben, da will ich Dich dann auch nicht weiter dabei stören. Ich schaue mir neue Technologien lieber erst mal unter dem Aspekt an, was die in Zukunft für Vorteile bieten können, und welche Probleme sie lösen. Ich sehe hier eben immer noch einiges und freue mich drauf.

Mal abgesehen davon, dass mir die Ergebnisse von DLSS5 auch subjektiv bereits gut gefallen.

Könnte jetzt noch viel über das ganze Geheule über "aber die künstlerische Intention" schreiben, aber das wurde ja bereits von anderen auch schon gemacht. Welche soll das ganz allgemein sein bei einem Spiel, das je nach Einstellungen komplett unterschiedlich aussieht, und im Speziellen bei einem Gesicht, bei dem ein realer Mensch Vorbild gestanden hat? Das ist einfach komplett grotesk, ganz abgesehen davon, dass ich das für ein infantiles Kunstverständnis halte.
 
Zuletzt bearbeitet:
"...na dann lauf ich jetzt wohl zur Autowaschanlage".

Aber KI wird rasant besser, wir müssen nur lernen wofür wir sie einsetzen und wofür nicht.
 
edenjung schrieb:
Das ist die Hand von 22 die auf der von Memphis Depay (10) liegt. Aber bei den restlichen Beispiel hast du absolut recht.
Ok, gehen wir davon aus, dass es die Hand von der 22 ist. Wenn man sich dann anschaut wo die 22 steht und wo seine Hand ist, müsste er einen extrem langen Arm haben.
Selbst so gesehen ist es wieder eine AI Halluzination und widerlegt Lederjackes Aussage, dass die strukturellen Daten nicht verändert würden.
 
DerAnnoSiedler schrieb:
Ein AI-gestützer Hack als Übergangslösung weil heutige Hardware noch nicht in der Lage ist entsprechenden Photorealismus nativ zu berrechnen; DLSS simuliert mehr Leistung als tatsächlich vorhanden ist.

That's it.

Nein, so einfach ist es eben nicht.

Für ein wenig mehr Photorealismus muss die Rechenkapazität um ein Vielfaches steigen. Und das wird so nicht passieren, weil Moores Law nicht mehr stimmt. Man hat jahrzehntelang die Strukturen auf Halbleitern immer weiter relevant verkleinert, mittlerweile ist man aber teils im Bereich weniger Atomlagen, da geht dann einfach nicht mehr.

Dann hat man die FinFETs um 90° gedreht, baut also die wirklich dünnen Strukturelemente nicht mehr nach oben, sondern zur Seite. Und jetzt fängt man an, Strukturen nach oben hin zu stapeln. Damit kann man noch eine Weile gewisse Fortschritte erzielen, aber nicht in dem Umfang und dem Schritttempo wie die Jahrzehnte zuvor.

Daher sind AI-gestützte Verfahren gekommen, um zu bleiben, einfach weil sie viel effizienter sind.
 
arncht schrieb:
Die Zukunft der Computergrafik entwickelt sich nicht in die Richtung, immer mehr Transistoren und immer präzisere physikalische Modelle einzusetzen, um die Realität exakt zu berechnen, sondern vielmehr dahin, einer lernenden Maschine ausreichend strukturierte Informationen bereitzustellen, damit sie die fehlenden Details selbst rekonstruieren kann. Extrem ressourcenintensive Verfahren wie Raytracing werden dabei zunehmend in den Hintergrund treten und eher als „Leitsignal“ dienen, während die KI die visuelle Ausgestaltung übernimmt. Gleiches gilt für Texturen und Geometrie: Gigabyte-große Assets und Millionen von Polygonen sind nicht mehr zwingend erforderlich, wenn ein Modell aus einer niedrig aufgelösten, semantisch beschriebenen Szene ein visuell überzeugendes Bild generieren kann. Die klassische Rendering-Pipeline wandelt sich somit schrittweise in einen datengetriebenen, neuronalen Rekonstruktionsprozess, in dem die GPU nicht mehr primär zeichnet, sondern schlussfolgert — und das verändert nicht nur die Anforderungen an die Rechenleistung, sondern auch grundlegend die gesamte Logik der Content-Erstellung.
Ziel sollte es sein die einzelnen Algorithmen per neuronalen Netzen zu implementieren und nicht das komplette Bild in einem Schritt per genAI zu rekonstruieren.

Nvidia und AMD forschen hierfür beide an Neural Shaders. DLSS5 hat damit jedoch überhaupt nichts gemeinsam.
 
  • Gefällt mir
Reaktionen: aldaric
Brrr schrieb:
Interessant dass du das so siehst. Ich fand gerade die Umgebungen richtig schlecht. Total andere Beleuchtung und Atmosphäre als im Original.

Das ist wirklich ein interessantes Thema. Im ersten Eindruck fand ich die Umgebungsbeleuchtung besser - weil realistischer. Aber das gilt natürlich nur, wenn man überhaupt eine möglichst realistische Darstellung haben will - und die Handlung auf der Erde stattfindet.
Wenn meine Handlung auf einem fremden Planeten oder in einer Fantasy-Welt spielt, nützt es überhaupt nichts, wenn das Bild so verändert wird, dass es stärker nach z.B. Tageslicht auf der Erde aussieht.

Naja, sollte die Technik so bleiben, wird wohl auch die Kritik daran nicht abreißen.

Viele Grüße
 
  • Gefällt mir
Reaktionen: Brrr
@minalion
Nein, das ist kein Filter.
DLSS 5 ist deterministisch, ein Filter dagegen nicht.

Bei einem Filter weicht das Ergebnis bei jedem Bild etwas ab.
Bei DLSS 5 bleibt es über alle Frames gleich.
 
Klingt auf einmal eher wie ein "gewöhnliches" DiT Netz a la SeedVR2, nur mit evtl. einem bis zwei Refiner-Gängen dazwischen (Stable Diffusion Sprech, if you know, you know). :daumen:
 
calippo schrieb:
Der Grenznutzen durch bessere Grafik ist seit längerem schon fast Null. Bevor wir komplett in Fotorealismus übergehen, müssen zunächst alle anderen Spielelemente ebenfalls auf dieses Niveau kommen.
Ich finde auch an vielen anderen Stellen KI viel interessanter.

Z.B. bei Dialogen oder der Story den Charakteren.
Wie geil wäre es mit den Charakteren richtig reden zu können oder die Story auf Basis von Entscheidungen ganz unterschiedlich verlaufen zu lassen.
 
ParrotHH schrieb:
Und nun kommt aber die scheiß KI daher, der man nur das fertige Bild vor die Füße werfen muss, die schaut kurz drauf, und bam erkennt: Tisch mit vier Beinen!
Warst du nicht der, der steif und fest behauptet hat, das kommt mitten aus dem Renderprozess?

Und nein, bam, die KI erkennt nix, siehe die Frisur in dem hier besprochenen Video.
ParrotHH schrieb:
Das genau ist ja die große Stärke von KI, dass sie ohne großen Rechenaufwand hervorragend Muster erkennen und daraus ziemlich gut Schlüsse ziehen kann
Der war so niedrig, dass man nur 2 3000€+ teure Grafikkarten zum demonstrieren brauchte.
ParrotHH schrieb:
um Bestätigung für das pauschale Vorurteil zu finden: "Alles Neue ist scheiße"
Hat niemand gesagt. AI Slop ist scheiße ist von Anfang an der Tenor gewesen.
 
  • Gefällt mir
Reaktionen: Flutefox
ParrotHH schrieb:
Könnte jetzt noch viel über das ganze Geheule über "aber die künstlerische Intention" schreiben, aber das wurde ja bereits von anderen auch schon gemacht. Welche soll das ganz allgemein sein bei einem Spiel, das je nach Einstellungen komplett unterschiedlich aussieht, und im Speziellen bei einem Gesicht, bei dem ein realer Mensch Vorbild gestanden hat?
Die Intention, dass die Protagonistin zur Beerdigung ihrer Mutter gelaufen ist und ungeschminkt war.
 
  • Gefällt mir
Reaktionen: BOBderBAGGER
Alphanerd schrieb:
Die Intention, dass die Protagonistin zur Beerdigung ihrer Mutter gelaufen ist

Ähem, nein!

Die Protagonistin geht in Auftrag ihres Vorgesetzen nach der normalen Arbeitszeit zu einem Tatort, an dem vor Jahren ihre Mutter ums Leben gekommen ist...

Alphanerd schrieb:
und ungeschminkt war.

Ungeschminkte Gesichter haben einen leichten Glanz und zeigen Schatten.
Geschminkte Haut ist eher matt und macht die Haut auch über Falten eher gleichtönig...
 
ParrotHH schrieb:
Ah so war es. Danke für die Korrektur.

Also passt deiner mmn das AI slop Bild besser zu der Zerrissenheit der Protagonistin?

Besser als das, was der Art director sich gedacht hat?
Alphanerd schrieb:
Warst du nicht der, der steif und fest behauptet hat, das kommt mitten aus dem Renderprozess?
 
Zurück
Oben