News AI-Slop-Kritik an DLSS 5: Jensen Huang: „Spieler liegen mit ihrer Kritik völlig falsch“

Indem Entwicklern detaillierte Steuerungsmöglichkeiten wie Intensität und Farbkorrektur zur Verfügung gestellt werden. Künstler können damit Mischung (Blending), Kontrast, Sättigung und Gamma anpassen und festlegen, wo und wie Verbesserungen angewendet werden, um die einzigartige Ästhetik des Spiels zu erhalten.

Darauf haben viele Entwickler gewiss auch Lust, das unoptimierte DLSS5 nachzuregulieren, weil es der Gaming-Industrie ja so toll geht (daher auch die vielen Entlassungen selbst von Studiomitarbeitern aktuell immer noch erfolgreicher Titel) und das weder Zeit noch Geld kostet, das für jede Spielszenen nach DLSS5 Implementierung nach zu regulieren.

Das klang im MLID Interview mit einem Entwickler eher weniger danach. Erst etwas zu designen/entwickeln, dann kommt DLSS5 zwecks KI-generierter Effektverstärkung dazu und dann wird das ganze wieder herunter geregelt, dass es nicht zu sehr nach KI aussieht, mutet dann doch wenig effizient an (nicht weil es DLSS5-spezifisch ist, sondern weil der Ablauf einfach keinen Sinn macht und evt. wird schmuddelige/unoptimierte Entwicklung von Spielen dann (noch) mehr belohnt, wenn danach zwecks Anpassung DLSS5/KI darüber läuft.

So wie es aussieht wird nVidia damit zuerst aufschlagen, aber ich sehe schon, dass AMD da auch bald (per RDNA5) nachziehen dürfte (als Teil von Project Amethyst) und die Entwicklung dürfte (auch wegen nVidias Marktmacht und mangelnder kartellrechtlicher Regulierung) nicht mehr zurück zu drehen sein (die können so ziemlich alles machen, was sie wollen, zumal Huang auch ganz dick mit Trump & Co. ist).

Solange DLSS5(/FSR5/XeSS4?) einem in Spielen nicht aufgedrückt bzw. vorausgesetzt wird und diese KI-Grafikbearbeitungszusatzeffekte deaktivierbar bleiben, finde ich das alles nicht bedenklich und vielleicht wird es dann doch weniger schlimm zugehen als von einigen hier befürchtet, auch wenn ich die Bedenken habe, dass Spiele dadurch noch weniger, also schlampiger, und generischer mit KI-Einheitsbreigrafik in Zukunft umgesetzt werden könnten, aber dagegen kann man sich ja wehren bzw. mit der eigenen Geldbörse wählen.

Ich sehe das ähnlich wie Daniel Owen, dass das Marketing bei nVidia hier versagt hat (auch wenn Huang in der Rolle des angeblichen Besserwissers natürlich umdeutet, um den Schaden der durchwachsenen DLSS5 Ankündigung zu begrenzen) diese ganze KI-Filter/Mod-Technik als Teil von DLSS unter zu bringen:

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adnigcx und edenjung
Der Kunde hat, aus Sicht eines Verläufers manchmal leider, immer recht...denn es ist sein Geld.

Bisher überzeugt es mich nur in Starfield, weil die Charaktere vorher einfach schlecht ausgesehen haben. :D
Und das sage ich als jemand, der Starfield bisher 100 Stunden gespiel hat und die meisten davon gerne.

LikeHike schrieb:
Allein die von NVidia zur Verfügung gestellten Videos zeigen doch, dass sehr wohl der grafische Stil des Spiels getroffen wird. Oder möchte mir jemand ernsthaft erklären das die Dame aus RE Ähnlichkeiten zu den Charakteren aus Hogwarts Legacy oder Starfield hat?

Nö. Hat sie nicht.

Allerdings hat sie mit DLSS5 auch nur noch ansatzweise Ähnlichkeit zu ihrer Darstellung mit DLSS4. ;)
Sie sieht aus wie eine Zwillingsschwester mit Lippen OP.
 
  • Gefällt mir
Reaktionen: JarlBallin und edenjung
Kadett_Pirx schrieb:
die noch dazu u.a. gesamtkünstlerisch meist viel besser, als aktuelle Titel sind, Herr 4080 Besitzer
tatsächlich spiele ich hauptsächlich ältere Spiele ;-)
(bis teils richtig alte.. (MadTV, Civ1, Caesar3, Railroadtycoon,... - jedes Jahr auf der Liste)

die 4080 hab ich für meine Vr-Brillen (90-120Hz bei 2 Screens gleichzeitig stellt andere Anforderungen als 4k60)
und für Videoschnitt/Bildbearbeitung

aber auch: ich reg mich ja nicht auf, das Nvidia alles falsch machen würde ;-) (falls du mir scheinheiligkeit vorwerfen willst, weil du mich "Herr 4080 Besitzer" nennst)
 
  • Gefällt mir
Reaktionen: Kadett_Pirx und Krik
Man merkt wie die hohen Hardwarepreise durchschlagen, gepaart mit dem (gefühlten) Fortschritts-Stillstand der aktuellen Hardware Generation... wirkt fast so, als ob viele Angst davor haben, sich in den nächsten 2 Jahren nun doch etwas neues kaufen zu wollen bzw. Angst davor haben etwas verpassen zu können.

Ob bewusst oder unbewusst...
Anders kann ich mir diese massiven Beißreflexe hier nicht erklären.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter und WinstonSmith101
Simonte schrieb:
Ich Frage mich ob DLSS 5 dann überhaupt vergleichbar ist, wenn jedes Frame bei jedem Spieler ja eigentlich "einzigartig" generiert wurde.
Ki ist halt immernoch nur Stochastik..

Wie kommst du darauf?
Warum sollte das Ergebnis bei jedem anders aussehen?

Sieht DLSS bei jedem anders aus?

Ich hab wirklich das Gefühl Jensen hat recht.
Ständig ziehen Leute über Dinge her, die sie offensichtlich nicht verstehen.



Scirca schrieb:
Auch wenn ich die Kritiker verstehen kann, das Beispiel Video wird der Idealzustand sein. Laut deren Infos brauchten sie dafür 2x 5090 einmal für das normale Spiel und einmal für dieses Ki Rendering darüber. Vermutlich wenn das der finale Build kommt wird das deutlich weniger was die GPUs damit leisten können. Also eher kleiner Korrekturen oder man wieder nur 30 FPS.

Absolut faszinierend… Du hast mitbekommen, dass Nvidia für die Demo 2 GPUs genutzt hat, du hast aber nicht mitbekommen, dass Nvidia im gleichen Atemzug sagt, dass es nur ein Entwickler Build ist und im Herbst natürlich auf Single GPU laufen wird.

Diese selektive Wahrnehmung der Leute ist wirklich verrückt. Man sieht das ständig. Die Leute greifen die kleinsten Informationsschnipsel auf für die man sich eigentlich ziemlich gut und genau informieren muss um überhaupt darauf zu stoßen und dann schafft man es trotz dieses Scharfsinns daraus eine negative Meinung zu bilden nicht, die Texte vollständig zu lesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ErbarmeHesse, Lazzarus und Kraeuterbutter
Kraeuterbutter schrieb:
weil 2 (mächtige) Grafikkarten wird im Gamingbereich wohl niemand heute mehr im Computer haben..
SLI IS BACK!!!

Was ist besser für Nvidia, als eine 5090 an einen PCMR zu verkaufen? Zwei 5090 an einen PCMR zu verkaufen! :)

HerrRossi schrieb:
Eine sehr wichtige Info fehlt noch: wird es auch auf älteren RTX Karten laufen?
Da Nvidia damit seine aktuellen und zukünftigen Highend-Karten verkaufen möchte, sicher nicht - selbst wenn sie es könnten.

Edit: Oder ältere Karten benötigen ein passendes Geforce Now AI Abo für XYZ € im Monat.

Kraeuterbutter schrieb:
Leute: ihr braucht keine 3080, 4080, 5090, ...
Falsches Forum :D
 
  • Gefällt mir
Reaktionen: JarlBallin
LikeHike schrieb:
Das was hier in den letzten Tagen geschrieben wurde hat an vielen Stellen nichts mit einer sachlichen Kritik zu tun sondern ist einfach eine blinde Abneigung gegen NVidia oder KI oder beidem zusammen. Hass ist sicherlich ein deutlich zu starkes Wort,
also verbittest du dir nicht sachliche Kritik und reagierst entsprechend auf jene nicht sachliche Kritik mit noch mehr nicht sachlicher Kritik...
make my day
 
  • Gefällt mir
Reaktionen: LTCMike und edenjung
Jetzt wissen wir erst Recht, dass die Sorgen berechtigt sind! So funktioniert meine Art zu denken, besonders wenn so eine Lederjacke anfängt sein Produkt zu verteidigen.

Ich habe gelernt: Understatement und Schnauze halten sind king. Der Rest ist oft Luft.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
Kraeuterbutter schrieb:
yeah...
das hört man seit 30 Jahren...
und doch: wird gejammert dass Grafikkarten so teuer wären.:

Leute: ihr braucht keine 3080, 4080, 5090, ...
es gibt 10.000sende Spiele die auch auf dem integrierten Grafikchip eures Notebooks laufen..
Du lebst mal in einer Bubble. Nur 5,5% aller Steam-Nutzer im Februar nutzen eine 3080, 4080, 5080, 4090, 5090.
 
Duggan schrieb:
Die KI sitzt mitten im Renderpfad, nicht als Instagram-Filter obendrauf, und macht genau das, was wir seit Jahren fordern: mehr Details, bessere Beleuchtung, konsistentere Optik. Wenn ein Spiel damit scheiße aussieht, ist das ein Dev-Problem und nicht Nvidias Schuld.
Ähhhhh okay.
Wie oft hast du schon versucht mit KI Bildgeneratoren ein Bild zu erstellen oder abzuändern genau so wie du dir das vorstellst?
Ich hab nach mehreren Stunden aufgegeben weil KI halt einfach macht was es will und nicht so wie ich will...

All diese wundervollen Bilder die man online sieht auf civit.ai oder so sehen super aus. Sind aber nicht exakt das was sich der Künstler vorher so ausgedacht hat.

Klar kann man jetzt sagen "skill issue".. Bin definitiv nicht der größte Held was das angeht. Aber ich bezweifle das AI JETZT bereits so weit ist exakt diese Resultate zu bringen die man sich so wünscht.
 
  • Gefällt mir
Reaktionen: JarlBallin, Krik und Chismon
man könnte ja auch einfach mal die Füße still halten und abwarten, anstatt sich über ein noch nicht erschienenes Feature aufzuregen... aber nee, lieber wieder meckern meckern meckern.

Und wenn es Euch nicht gefällt... wechselt doch zu AMD oder Intel? Dieses ewige Gejaule bei jeder News... ist das ätzend.

Der Typ ist schon lange im Business... der weiß schon was er macht.

vorallem, es wird sich über RE9 aufgeregt... zufällig der erste Part im Video, nach 16 Sekunden... wurde denn das ganze Video angesehen oder direkt geschlossen und ein Posting verfasst? kommt mir fast so vor.
Denn alles andere in dem Video sieht doch mega krass aus... also wer da meint die Grafik wird schlechter, sollte eventuell zu Pixelart / Retro Games wechseln.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter und 1776
R4nd0 schrieb:
Woher kommt plötzlich der glänzende Fett Film in ihrem Gesicht?
Hat laut Huang aufjedenfall nichts mit der Technologie zu tun sondern weil die Entwickler des Spiels das so wollen /s

Ganz ehrlich, was soll er sonst sagen, soll er sagen dass die Leute recht mit der Kritik haben?

Ach, was willste da noch dazu schreiben. Die ganze Technologie ist ja aus der technischen Sicht schon sehr interessant dass sowas mittlerweile möglich ist aber sie wird halt dann, vorallem von den großen Studios, nur genutzt um noch weniger Zeit und Geld in die Entwicklung und Optimierung eines Spiels zu stecken weil den Rest macht halt dann einfach DLSS 5. So wie es jetzt schon mit DLSS und MFG ist.

Ich persönlich finds scheisse und durch kein Argument der Welt werde ich meine Meinung dazu ändern.
 
  • Gefällt mir
Reaktionen: adnigcx, JarlBallin und Innocience
Zum Thema generell, kurz reflektiert:


AMD denkt ja auch längst an Neural Rendering. Es wird manchem aufgefallen sein, dass die traditionelle Methode (mehr Transistoren für alle!) ihre Limits erreicht. So ähnlich wie bei mancher Regierung, die seit Jahrzehnten bloß die Bestände verwaltet. Und das nicht nur am PC, wo mittlerweile selbst die kleinsten Grafikkarten näherungsweise Strom verbrutzeln wie ne GTX 1080 aus 2016. Und wo eine 9060XT erst nach einem halben Jahrzehnt so langsam einer 3070 wirklich Beine macht.

Auch bei den Konsolen sah die Reaktion auf die PS5 Pro neulich gemischt aus. Und die Basisvariante hat selbst nach einem halben Jahrzehnt plus noch keinen Preiscut gesehen. Diminishing returns -- war da nicht was? Alternativ können wir endlich natürlich alle die großartigen Indies statt Resident Evil: Raytracing spielen. Wer Fotorealismus will, kann schließlich auch spazieren gehen. ;)



DJMadMax schrieb:
Wie kann es denn sein, dass ein 20 Jahre altes Oblivion mit Mods teils besser aussieht, als heutige Triple A-Titel - und sogar besser läuft?


Beim Thema Oblivion frage ich mich eher:

Wie kann es sein, dass ein kostengünstiges, verbuggtes, beschissen performendes, UE5-gemoddetes Outsourcing-Oblivion wieder zum Bestseller wird? Und das im gleichen Jahr, das ein Kingdom Come Deliverance 2 hervorbrachte?


Der Markt kriegt doch, was er will! :D
 
  • Gefällt mir
Reaktionen: JarlBallin, Kraeuterbutter und DJMadMax
Okay lieber Jensen Huang!
Die 4090 war die erste und letzte Grafikkarte, die ich mir von euch gekauft habe! 👋🏻
Und das hier ist lediglich nur ein Grund, der das Fass einfach nur noch zum Überlaufen bringt! Angesichts der ganzen bisherigen Patzer, allen voran des 12VHPWR/12V-2x6, ist Nvidia für mich kein gamerfreundliches Unternehmen mehr und das möchte ich unter keinen Umständen mehr bei dieser Entwicklung unterstützen.
Kann es kaum erwarten wieder zu AMD zurückzukehren (wenn sie denn endlich wieder vernünftige High End GPUs herstellen würden 😭🙏🏻)
Ganz ehrlich Leute?
Ich arbeite daran das Hobby rund um PC & Hardware einfach nur noch zu vergessen und mich auf einen völlig neuen Kurs im Leben auszurichten!
Das ganze macht doch überhaupt keinen Spaß mehr! Nicht nur wegen den Preisen, sondern, wegen der Entwicklung in die komplett falsche Richtung bezüglich KI und diesem DRECK von Cloud Gaming!
Schön und gut, wenn es gut funktioniert aber dann bitte koexistent neben PCs und nicht damit Komplett- oder Selbstabu-PCs aussterben!!!🤮
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
Wenn die Kritik falsch ist, sollten die vielleicht bessere Beispiel und Bilder liefern.
Das was geliefert und gezeigt wurde, entspricht ja eher einem Beauty-Update.
 
  • Gefällt mir
Reaktionen: JarlBallin und Alphanerd
Wollen wir doch erst die älteren Versprechen des NVIDIA CEO beleuchten !
Wo ist zb die Umsetzung von :

Simultaneous Multi Projection und beschreibt das Rendering einer Szene aus unterschiedlichen Blickrichtungen, um den Anforderungen eines Multi-Monitor-Systems gerecht zu werden.

 
  • Gefällt mir
Reaktionen: Serandi.87
McKofFly schrieb:
und wie immer, wer es nicht nutzen will, nutzt es halt nicht?!
Wie immer? So wie bei DLSS das man mittlerweile nutzen muss, und je nach Spiel sogar mit ner 5080, damit es mindestens mit 60FPS läuft wenn man nicht alles auf niedrig stellen will?

Und MFG? Wird auch nur ne Frage der Zeit sein bis man das nutzen muss wenn man mindestens 60FPS mit ner 1500-2000€ Grafikkarte erreichen möchte.

Wird bei DLSS 5 dann nicht anders sein dass man es nutzen muss wenn man nicht will dass die Charaktere wie Polygonfiguren aus Tomb Raider 1 Zeiten oder Schaufensterpuppen aussehen sollen weil sich die Entwickler keine Mühe mehr geben bzw. der Publisher keine Zeit und Geld verschwenden will damit ordentliche Charaktermodelle erstellt werden und das Zeug an die Software auslagern.

jauns91 schrieb:
Tomb Raider 1 - Die Brüste von Lara Croft sind hier nur ein großes Dreieck
Sie sind 3D daher eher Pyramiden :D
 
  • Gefällt mir
Reaktionen: adnigcx, JarlBallin, Serandi.87 und eine weitere Person
Trinoo schrieb:
man könnte ja auch einfach mal die Füße still halten und abwarten, anstatt sich über ein noch nicht erschienenes Feature aufzuregen... aber nee, lieber wieder meckern meckern meckern.
Warum zeigt nVidia denn jetzt die Ergebnisse ihres unfertigen Produktes?
Es wäre doch gut, wenn sie das negative Feedback ernst nehmen und die Optik weiter verbessern.
 
Zurück
Oben