News AI-Slop-Kritik an DLSS 5: Jensen Huang: „Spieler liegen mit ihrer Kritik völlig falsch“

ampre schrieb:
Das Problem ist das das nicht nur 1 Pixel falsch raus kommt sondern das da größere Flächen dann anderster dargestellt werden.
Eben nicht.

Gerade bei Bewegtbild kann man mit extrem niedriger Präzision arbeiten und Rundungsfehler kommen quasi nicht zur Geltung weil unsere Augen das schlicht nicht sehen. Ich kann dir drei Bilder via AI rendern mit der gleichen Seed und einem Heuristischen Sampler in FP32/16/8 und du wirst NULL Unterschied bemerken weil wir hier von Fehlern im Pixelbereich reden die nicht mehr wahrnehmbar sind. Teils sinds nichtmal "Fehler" sondern schlicht minimal andere Details, drei Barthaare mehr von 5000.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter
Simon#G schrieb:
Das ist einfach nur der Versuch Gamer davon zu überzeugen, dass sie teure KI-Hardware brauchen.
Tschuldigung das ich verbessert habe.

Aber wenn die Demovideos 2!! 5090er benötigen glaubt doch niemand das das dann, wenn DLSS5 releast wird, vernünftig in durchaus etablierter höherer Auflösung unterhalb besagter RTX 5090 gut laufen wird.

Mal sehen wie es wird, es sieht besonders in Starfield doch wirklich gut aus. Nach über 20 Jahren Nvidia aus den oberen Regalen mit ein/zwei Ausnahmen werd ich mir aber deshalb keine Graka in der Preisregion einer 5080/5090 holen, da ist meine Schmerzgrenze dann doch überschritten, hab noch genügend andere Hobbys, denn mehr ist Gaming ja auch nicht.
 
catch 22 schrieb:
ja aber... hatten hier nicht einige gesagt, dass das was Nvidia da gezeigt hat, das sei, was die Macher der Spieler als Intention hatten... wie kann das sein... da ist doch bestimmt nur der Hate der da aus den Entwicklern spricht...
scnr
Darauf wollte ich hinaus: „But it was the developers’ and artists intent", ja genau...
Jeder Entwickler oder Artist hätte absolut nicht sein OK gegeben, besonders wenn CAPCOM berechtigterweise sagt, dass sie Angst haben, mit GenAI in Verbindung gebracht zu werden. Das lief alles über die Suits ab, die Entwickler und Künstler wurden einfach im Dunkeln gelassen.

Habe den letzten Absatz auch extra fett markiert, weil einige hier zu glauben scheinen, die Verunstaltung wollten die Entwickler und Künstler so, was hiermit einfach widerlegt wäre.
 
ThirdLife schrieb:
Eben nicht.

Gerade bei Bewegtbild kann man mit extrem niedriger Präzision arbeiten und Rundungsfehler kommen quasi nicht zur Geltung weil unsere Augen das schlicht nicht sehen. Ich kann dir drei Bilder via AI rendern mit der gleichen Seed und einem Heuristischen Sampler in FP32/16/8 und du wirst NULL Unterschied bemerken weil wir hier von Fehlern im Pixelbereich reden die nicht mehr wahrnehmbar sind.
Du hast aber nicht immer den gleiche Seed, mal ist dein Blickwinkel anders, mal das licht. Hinzu kommt das Timing und Auslastung.
 
An sich finde ich die Tech spannend. Mal sehen was daraus wird. Die Modder-Szene wird es sicher freuen.

Im Grunde wird man mal nüchtern in ein paar Monaten drauf schauen müssen. Aktuell ist die Diskussion ja vollkommen übertrieben aufgeladen.

Aber klar sollte sein, dass es immer einen harten Kern geben wird, der die neue Tech, auch nach x Verbesserungen, aus Prinzip doof finden wird (Stichwort: Nativ über alles!). Wenn dieser Kern, wie ich erwarte, lautstark aber letztlich sehr klein ausfallen wird, dann wird man in 5 Jahren nicht mehr darüber sprechen.

Ich persönlich finde die Änderungen durchaus vielversprechend und großteils auch ansprechend. Also gerne her damit, macht bestimmt Spaß damit zu experimentieren.

Solange es optional ist, verstehe ich die Hysterie schon gar nicht. Aber mir ist auch klar, dass das sicherlich der Weg ist, den die Spiele in Zukunft gehen werden und dann ist die Optionalität fraglich.

Es beschweren sich gerade auch viele Devs. Bin mir aber nicht sicher, ob sie die technischen Möglichkeiten per se doof finden oder nicht eher um ihren Job fürchten. Das könnte ich verstehen, verhindern wird es das aber sicherlich nicht.
 
  • Gefällt mir
Reaktionen: MariaDocks
nipponpasi schrieb:
So können sie die 5090 gleich im Paar anbieten. 😮‍💨

Aber die Technik an sich find ich schon spannend.
Die 6070 soll ja so schnell sein, wie 2x 5090, habe ich gehört .. hat jemand erzählt, das ist dann bestimmt auch richtig.
 
  • Gefällt mir
Reaktionen: Pisaro
ampre schrieb:
Du hast aber nicht immer den gleiche Seed, mal ist dein Blickwinkel anders, mal das licht. Hinzu kommt das Timing und Auslastung.
Jetzt rätst du dir einfach nur noch random irgendwas zusammen. :daumen:

Ich denke wir führen die Unterhaltung besser erst wenn du dich mal tatsächlich mit Stable Diffusion und Co auseinandergesetzt hast und die Basics begreifst. Und dann müsste nVidia noch genauer erläutern wie sie ihre Neural Shader umsetzen bevor man überhaupt irgendeinen Rückschluss ziehen kann.
 
KuroSamurai117 schrieb:
Folgevideo von DF
ich hab jetzt nicht so recht die Zeit und Muße mir ein Video mit mehr als 50 Minuten von DF anzuschauen... gibt es da auch ein TL : DR dazu (das mehr als ein Rückruder-Wettbewerb ist)?
 
  • Gefällt mir
Reaktionen: Alphanerd
Matthias80 schrieb:
Dir ist schon klar, das knapp 30% einfach dafür sind. die ganzen anderen nicht. vorsichtiger sind. ja nur knapp 13% gleich dagegen. aber eben nicht so wie du schreibst 86% dafür.
Unterstelle mir nichts, wo schreibe ich was von 86% dafuer?

30% sind dagegen, und das ist eine Minderheit!
 
ampre schrieb:
Du hast aber nicht immer den gleiche Seed, mal ist dein Blickwinkel anders, mal das licht. Hinzu kommt das Timing und Auslastung.
Das hat alles nichts mit dem Seed zu tun. Der kann immer derselbe sein. Du kannst einen kompletten AI-Film mit ein und demselben Seed erstellen.
 
  • Gefällt mir
Reaktionen: ThirdLife
Flutefox schrieb:
Keine Ahnung woher du weißt, dass das bei quasi allen Gamern der Fall ist, aber ich verwende keinen TAA Slop, egal in welcher Form, sei es AMD FSR oder Nvidia DLSS. Ich halte diese Techniken zwar für technisch interessant, aber den falschen Ansatz.
Diese Aussage finde ich auch geil...der Thread ist langsam besser als eine seichte Scary Movie Komödie, obwohl sie auch ihre Höhepunkte hatte.

Für mich klingt das so wie das hier:
Ich verwende keinen Regenschirm, auch wenn es Draußen regnet, ich finde das ist der falsche Ansatz, da es auch Schutzblechdächer gibt. Das wäre richtig.

DLSS usw. helfen uns, den Gamern. Es nicht zu nutzen, Geruckel in kauf zu nehmen und was sonst noch, ist für mich echt unbegreiflich.1
 
DevPandi schrieb:
Ich kann an der Stelle nur sagen, dass alle Charakteräre, die ich aktuell mit DLSS 5 gesehen habe, in eine bestimmte Richtung gehen und in der Form zwar an "Details" gewinnen, gleichzeitig allerdings auch "beliebig" werden,
Das gilt für die plumpen "Raster" Charaktere doch auch. Die sind i.d.R. auch beliebig.
DevPandi schrieb:
weil sie dem "allgemeinen" Schönheitsideal weitgehend entsprechend.
Das hat aber mit DLSS5 nichts zu tun. DLSS5 erfindet ja keinen Charakter, also Proportionen usw. sondern verfeinert das ihm gestellte Bild. Sieht man bei Grace doch ganz gut. Es ist der selbe Charakter, nur mit Augenringen, feineren Haaren, Details auf den Lippen, Grübchen etc. Aber das Schönheitsideal dahinter kommt nicht von DLSS5 sondern von dem Studio dass den Charakter gewählt und dargestellt hat.

Ich kann ja im Grundsatz verstehen, dass man befürchtet zukünftig nur noch Spiele Einheitsbrei zu sehen bekommt, dass keine eigenen Flair mehr hat. Dass einem zu realistische Grafik nicht gefällt. Aber DLSS5 jetzt den schuh anzuziehen, es würde i-welche Schönheitsidealen folgen, nö das musst du allen Studios und der Gesellschaft in die Schuhe schieben. Hust Tomb Raider, Horizon, Witcher, Manga, etc.
 
catch 22 schrieb:
ich hab jetzt nicht so recht die Zeit und Muße mir ein Video mit mehr als 50 Minuten von DF anzuschauen... gibt es da auch ein TL : DR dazu (das mehr als ein Rückruder-Wettbewerb ist)?
Zumindest stellt man am Anfang klar dass diese Tech-Demos von den Studios abgesegnet worden sind. Nicht Nvidia da einfach mal Games selber verändert.
Wie stark die Anpassungen dann in finalen Produkten aussehen muss man noch abwarten. Bzw wie das Fine-Tuning dann wird.
 
ThirdLife schrieb:
Jetzt rätst du dir einfach nur noch random irgendwas zusammen. :daumen:

Ich denke wir führen die Unterhaltung besser erst wenn du dich mal tatsächlich mit Stable Diffusion und Co auseinandergesetzt hast und die Basics begreifst. Und dann müsste nVidia noch genauer erläutern wie sie ihre Neural Shader umsetzen bevor man überhaupt irgendeinen Rückschluss ziehen kann.
Du reimst dir etwas zusammen. Jemand der glaubt das bei KI und gleichem Seed am Ende das gleiche Herauskommt hat Neuronale Netze im Grund nicht verstanden.
 
1776 schrieb:
das kommt raus wenn DU nur die 13% als dagegen zählst. die anderen beiden Balken sind aber keineswegs so wie du es darstellst auch einfach wie die 30% dafür. Richtig wäre wenn wir schwarz / weiß zählen wollen. 30% dafür. 70% skeptisch.
 
  • Gefällt mir
Reaktionen: daknoll und Andre83hro
mibbio schrieb:
Nur ist der Raum, in der die Szene im Spiel stattfindet halt keine Umgebung mit optimaler Studiobeleuchtung.

... sondern eine Straße am Abend mit diversen Straßenlaternen, beleuchteten Schaufenstern und spiegelnden Glasscheiben parkender Autos...
 
ich will es mir erstmal ansehen, und ich gehe davon aus das die erste Version nur Semi toll wird, war bei dlss selbst auch so, aber man muss ja auch mal weiter denken was da noch kommt.
 
KuroSamurai117 schrieb:
Zumindest stellt man am Anfang klar dass diese Tech-Demos von den Studios abgesegnet worden sind. Nicht Nvidia da einfach mal Games selber verändert.
das passt irgendwie nicht, wenn die Information aus dem Beitrag von @NovumVeritas korrekt ist, die ich als glaubwürdiger halte, da es ein direktes Interview mit einem der Entwickler war.
Ich würde mal vermuten, dass Nvidia gefragt hat, ob sie Material von denen für eine Präsentation nutzen dürften, ohne spezifisch darauf einzugehen, was genau geplant ist und vor allem, ohne den Entwicklern vorzulegen, wie die Präsentation dann aussehen wird
 
  • Gefällt mir
Reaktionen: mibbio
ampre schrieb:
Wie es funktioniert wissen weder du noch ich und wie es im Detail funktioniert weiß auch nicht Nvidia das große Problem vom KI und Neuronalen Netzen. Je nach Rundung und welches Bit bei welcher Berechnung zu erst ankommt kann das Ergebnis Variieren.

Wieder kompletter Unsinn. Lass es bitte sein. BITTE! :freak:
 
Die Tech-Demo von RE: Requiem von CAPCOM wurde von ganz oben abgesegnet, die Entwickler und Künstler wurden dazu nicht befragt, es wurde eigenmächtig entschieden und CAPCOM hat nVidia die Freigabe gegeben, es mit DLSS 5 zu nutzen.
 
  • Gefällt mir
Reaktionen: KuroSamurai117
Zurück
Oben