News AI-Slop-Kritik an DLSS 5: Jensen Huang: „Spieler liegen mit ihrer Kritik völlig falsch“

JonaK schrieb:
Wer nicht anerkennen kann, dass das Ergebnis gut bis beeindruckend ist, ist mMn. stark gebiased. Ich bin auch kein Fan von AI-Slop und dem ganzen Hype. Ich würde mir nur wünschen, dass die Sorgen und die Kritik etwas differenzierter ausfallen. Die Angst ist doch, dass Entwickelnde sich erneut weniger Mühe geben um schneller Entwickeln zu können. Dass die Qualität leidet.
Wenn du das Ergebnis außerhalb von einem Videospiel und ohne die Vorkenntnisse des Spiels vorher betrachtest, dann sind die Ergebnisse gut.
Es geht aber um visuelle Integrität und diese ist bei den Beispielen nicht gegeben.
Weder ist das Face-Tracking davor ausreichend für AI-Enhancement, noch passen die verbesserten Versionen zu den Spielen.
Es reicht halt nicht realistischere Gesichter rein zu machen, weil dann alles realistischer werden muss.

Videospiele werden halt nicht in Einzelassets erlebt sondern in Art-Style und Spielerlebnis umgewandelt und genau hier trifft AI-Slop oft den Punkt.
AI Slop bedient sich allen stereotypen der Welt, treibt sie auf die Spitze und übertreibt bis hin zum künstlichen Skurilitäten.
Es wirkt einfach schlechter als vorher obwohl das Ergebnis augenscheinlich besser ist.

Man kann es in etwa so vergleichen, du hast für Kund*Innen einen Art-Style entwickelt mit deinem Team und plötzlich kommst du und du hast genau für ein Asset was richtig geiles gemacht, nur, das Asset passt halt nicht mehr zum Rest.
Was denkst du was passiert?
Du wirst gelobt für den Aufwand aber wenn du nicht gerade der Creative Director bist, dann wird ganz schnell gesagt "ja nett, behalt das mal in der Schublade" und es wird nie jemand sehen.

Weil visuelle Konsistenz wichtiger ist als perfektion.
Und dahin betrachtet kann man das Ergebnis schlecht bewerten auch wenn die Grafik besser wird.
 
  • Gefällt mir
Reaktionen: JarlBallin, LTCMike, Beschi und eine weitere Person
Huang hat Recht: Er sagt die Spieler liegen falsch, wenn sie den Vorwurf bringen, die künstlerische Intention zu ändern. Nach Huang hat Capcom die Demo so freigegeben und damit das ok gegeben, dass die künstlerische Vision dem entspricht oder???
 
  • Gefällt mir
Reaktionen: 1776
ThePlayer schrieb:
Und wie ist es wenn ich heute Spiele und speichere und am nächsten Tag das Spiel starte. Und die KI etwas anders Halluziniert sieht dann wieder alles etwas anders aus?
Die Frage stellst du unter einem Artikel in dem erklärt wird dass genau sowas nicht passieren wird…
 
  • Gefällt mir
Reaktionen: ParrotHH
BloodGod schrieb:
Und dann kommt der Blindtest von CB für DLSS 5 und gewinnt
Da kann man ja nicht mehr von Blindtest reden, wenn das Eine völlig anders aussieht. Da muss dann jeder ehrlich für sich entscheiden was er nun besser findet oder ob er gar keine nvidia GPU hat, die DLSS 5 unterstützt.
 
Taxxor schrieb:
Die Frage stellst du unter einem Artikel in dem erklärt wird dass genau sowas nicht passieren wird…
Das gilt es erst mal zu beweisen. DLSS hat immer noch Probleme mit der Darstellung. Ja nicht mehr so schlimm wie in Version 1-3 aber immer noch. Wieso sollte es hier anders sein?
 
  • Gefällt mir
Reaktionen: JarlBallin
ParrotHH schrieb:
Und nun kommt da etwas wirklich Neues und Bahnbrechendes für genau diese Zielgruppe, für das Nvidia ganz offensichtlich ein gerüttelt Maß an Ressourcen investiert hat (die es NICHT für deutlich lukrativere Rechenzentrum-Produkte genutzt hat), und dann ist es auch wieder scheiße.

Ich halte Nvidia für eine Arschloch-Company, ich bin WIRKLICH kein Fanboy. Aber ich muss eben auch anerkennen, dass sie trotz allem wieder eine echte Innovation für die Spielebranche auf den Weg bringen.
Es klingt halt schon nach Fanboy, wenn man nur anhand eines Trailers solche Features "bahnbrechend" findet und überteuerte GPUs mit proprietärer Software-Unterstützung als "Investition" im Sinne der Kunden deklariert. Und was ist an der Technik innovativ? Bildfilter mit der gleichen Wirkung gibt es seit Jahren und hier wird offensichtlich nur eine in den Rechenzentren operierende Bild-Generierung auf lokale Anwendungen heruntergebrochen. Der Consumer-Bereich bekommt halt etwas vom KI-Kuchen ab.
 
  • Gefällt mir
Reaktionen: JarlBallin, Innocience, LTCMike und 5 andere
Karl S. schrieb:
Nach Huang hat Capcom die Demo so freigegeben und damit das ok gegeben, dass die künstlerische Vision dem entspricht oder???
Ich kann dir garantieren dass die Entscheidung niemand mit kreativer Verantwortung getroffen hat.
 
  • Gefällt mir
Reaktionen: JarlBallin, LTCMike, Alphanerd und 2 andere
cypeak schrieb:
so ähnlich war das beim auftauchen von dlss-upscaling damals ja auch...."das nutzt man um ein game in spielbare fps zu bringen"
Das war ein Mythos. Keine Ahnung, wer ihn in die Welt gesetzt hatte. Aber DLSS war NIE primär dazu da, schwächere Hardware auf "spielbare" fps zu pimpen. Das hatten Nvidia selbst nicht so kommuniziert. Sondern als ein MUST HAVE, um etwa Echtzeit-Raytracing zu ermöglichen. Wers so lesen will: Sie hatten in aller Öffentlichkeit zugegeben, dass ihre Hardware nicht gut genug ist. Sieht man auch nicht allzu oft. ;)

 
Zuletzt bearbeitet:
Gehen wir mal andersrum an die Sache ran:

Starfield ist Native-Slop. Da wirkt Neural Rendering wahre Wunder und ermöglicht es vielleicht sogar schon in einem Jahr, dass dieses Spiel zusammen mit einer Sammlung aus 3000 Mods endlich tolerierbar, spielbar und ansehnlich wird.


Ganz generell haben die gezeigten DLSS5 Szenen durchaus noch diesen 0815 KI-Bildgenerator Stil - noch. Die Technik steht am Anfang und wird dann im Feldeinsatz reifen, so wie alles andere da draußen bisher auch. Dann wird es sich verfeinern und verbessern und in ein paar Jahren wirds zum differenziert konfigurierbaren Gold-Standard und die breite oder nüchterne Masse will nichts anderes mehr.

An alle, die gerade die "Neural Rendering verfälscht die Absicht der Künstler" Keule schwingen: Installiert bloß nie irgendwelche Mods für eure Games, ReShade etc. ist auch tabu, es darf für euch nur ausschließlich Vanilla geben. Alles andere verfälscht nämlich die Absicht der Künstler. Bitte mal den Anbetungsort eurer Wahl im Dorf lassen.
 
  • Gefällt mir
Reaktionen: Lazzarus, Haggis und ThirdLife
ThePlayer schrieb:
DLSS hat immer noch Probleme mit der Darstellung. Ja nicht mehr so schlimm wie in Version 1-3 aber immer noch. Wieso sollte es hier anders sein?
Probleme mit der Darstellung ist nicht gleich halluzinieren
 
@ThePlayer
Gäbe es keine Probleme wäre es ja perfekt und man könnte die Arbeit daran einstellen...?
Klar gibt es noch immer Probleme aber die sind im Vergleich zu nativ/TAA deutlich geringer ausgeprägt.
 
Boimler schrieb:
Natürlich ist Neural Rendering ein tiefer Eingriff in künstlerische Freiheit. Das kann man nur abstreiten, wenn man ausschließlich wirtschaftliche Interessen an dem Thema hat.

So eine Behauptung wie Deine kann man nur aufstellen, wenn man gar nicht weiß ,was man nicht weiß, und dazu auch noch alle Handreichungen dazu ausschlägt. Sogar im Artikel, zu dem Du diesen Kommentar schreibst, wird erklärt, dass genau das nicht der Fall sein wird, und zwar aufgrund des technischen Konzepts:

"Eine Kombination aus „handcrafted rendering“ mit Generative AI soll sicherstellen, dass die Grafik nach festen Vorgaben des Spiels bzw. Publishers erzeugt wird, während reine Gen-AI-Grafiken nur schwer zu kontrollieren sind."
 
  • Gefällt mir
Reaktionen: N00bn00b, LikeHike und 1776
Ist doch einfach nur ne Option die man ein-, oder ausschalten kann, richtig? Da kann ich die Aufregung auch nicht wirklich verstehen.

Viele Spiele haben Bloom, Tiefenunschärfe, Bewegunsunschärfe, Lens-Flares, etc. die allesamt entweder gemocht, oder gehasst sind und die deswegen i.d.R. in den Optionen an und abgewählt werden können, bzw. bei manchen kann auch die Stärke des Effektes reguliert werden.

Wo ist das hier jetzt irgendwie anders? Es ist halt auch nur etwas, dass du im Grafikmenü ein oder ausschalten kannst, je nachdem obs dir gefällt oder nicht.

Toll wäre sowas eig. auch für Modder, wenn sich die vom Hersteller gewählten Settings überschreiben lassen und man allen möglichen Spielen einen komplett anderen Look verpassen kann. Ich hätte schon Bock damit herumzuspielen.
 
  • Gefällt mir
Reaktionen: N00bn00b und MariaDocks
ParrotHH schrieb:
der Weg, einfach nur immer mehr Rasterleistung pro Generation zur Verfügung zu stellen, führt auf gleich mehreren Ebenen in eine Sackgasse.
Spätestens, wenn wir 8K-Monitore befeuern wollen, ist es vorbei. ;)
ThePlayer schrieb:
Aber jetzt nimmt man wieder eine Abkürzung ähnlich dem Rastertricks.
Ich würde das an der Stelle weniger als "Abkürzung" sehen - es kommt halt nun darauf an, wie DLSS 5 im speziellen und Neural-Rendering im ganzen am Ende begriffen wird.

Es gibt viele Bereiche, in denen man sich mit Texturen und Co sehr schwer tut und es sehr viel Rechenleistung mit der Zeit kosten würde, die wir nicht haben. Genauso gibt es andere Aspekte, die unglaublich schwer sind, "natürlich" dargestellt zu werden oder mit sehr hohem Aufwand verbunden sind.

Gerade hier könnte Neural-Rendering wirklich helfen und auch Fortschritt bringen. Und das ist auch das, was in den Demos durchaus zu erkennen ist, dass man Kleidungen mit Struktur versehen kann, Haut und Co kann in der Lichtbrechung einfacher beachtet werden.

Es gibt hier schon viele Möglichkeiten, die kommen können. Das aktuelle Problem ist halt, dass die Spiele jetzt sehr ähnlich erst mal aussehen und es aktuell zu "Smooth" ist. Nur, es ist jetzt erst mal eine Preview. Man abwarten was da nun kommt und wie sich das alles verändert und anpasst.
 
  • Gefällt mir
Reaktionen: ThirdLife, Andre83hro und ThePlayer
DoedelFIX schrieb:
Geile Sache. +1 Nvidia

AMD steckt leider noch immer fest, einen ordentlichen Windows Treiber zu programmieren. Aber naja, AMD setzt ja auf Linux und die meisten AMD Jünger / Pilger folgen schon den Weg.

Schön zu beobachten das AMD Besitzer nur bashen können. Ob gegen Nvidia oder gegen Windows.
Kompletter Schwachsinn.
Und immer schön Öl nachfüllen nicht vergessen.
 
  • Gefällt mir
Reaktionen: JarlBallin, Return2Burn, Alphanerd und 2 andere
zeedy schrieb:
Was hat das Thema denn mit der Geldbörse zu tun? :lol:
Weil wenn niemand nvidia kauft und DLSS5 nutzt, es von selbst stirbt.
Noch nie vom freien Markt gehoert?

zeedy schrieb:
Wo bleiben die Beleidigungen von denen du geredet hast?
Habe ich gemeldet und wurden entfernt. Kannst Du im Aquarium finden.
 
Nvidia hat sich verändert. Früher hat man die Lösungen verkauft um Games in hoher Qualität auf dem heimischen PC zocken zu können.

Bei Raytracing konnte man noch argumentieren, dass es realistischer und phyikalisch korrekter ist als klassisches Rasterizing.
Upscaling löst das Problem, dass hohe Auflösungen wie 4K enorme Grafikleistung erfordern.
Generierte Frames lösen das Problem, dass hohe Refreshraten enorme Grafikleistung erfordern.

Aber welches Problem löst Neural Rendering doch gleich? Keines. Neural Redering ist die Lösung für ein ausgedachtes Problem. Niemand hat danach gefragt. Das ist einfach nur der Versuch Gamer davon zu überzeugen, dass sie KI-Hardware brauchen. Nvidia hat das nötig, denn KI ist alles was die dort derzeit noch machen.
 
  • Gefällt mir
Reaktionen: JarlBallin, BeowulfAgate, Innocience und 5 andere
slogen schrieb:
PC Hardware macht einfach schon länger keinen Bock mehr. Ich denke das ich nicht der einzige bin der das fühlt.
warum? weil sie gefühlt immer länger hält?

heute kann man z.b. mit einer 3080 noch wirklich sehr viel Spaß haben..
die Karte ist bald 6 Jahre alt!

ne GTX970 schlägt heute noch in vielen Bereichen aktuelle iGPUs..
und die wurde vor 12 Jahren vorgestellt

also in meiner mal mehr mal weniger stark ausgeprägten Gaming-"Karriere" (35 Jahre)
hatte ich glaub ich nie eine Zeit wo ich nen 3 Jahre alten Rechner hatte und kein bisschen die Notwendigkeit oder Wunsch verspüre aufrüsten zu müssen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lazzarus und 1776
ParrotHH schrieb:
Das ist übrigens dann wirklich Mount Stupid: die ganze Zeit lesen wir Kritik, dass die Spiele-Community, durch die Nvidia überhaupt erst möglich wurde, nun von der Firma undankbar links liegen gelassen wird. Und nun kommt da etwas wirklich Neues und Bahnbrechendes für genau diese Zielgruppe, für das Nvidia ganz offensichtlich ein gerüttelt Maß an Ressourcen investiert hat (die es NICHT für deutlich lukrativere Rechenzentrum-Produkte genutzt hat), und dann ist es auch wieder scheiße.
Ich sehe das etwas differenzierter: In der jetzigen Präsentation wurden 2x0590 benutzt, eine Ausschließlich für DLSS. Wir können also davon ausgehen, dass das Ganze recht ressourcenhungrig sein wird. Ich behaupte sogar mal, dass das gezeigte sich mit 2x5090 auch ohne KI in der Qualität in Echtzeit rendern lässt.

Wo ist also genau der Mehrwert? Ich denke man darf nicht vergessen, dass NVIDIA nicht nur Hardware herstellt, sondern auch GeForce Now betreibt (Mit ihrer Hardware natürlich). Nvidia verdient also im Grunde doppelt, wenn sie einfach die Kosten FürComputerspieler an die Spieler auslagern und nicht an die Gamestudios. Nichts anderes ist Raytracing oder DLSS 5. Es spart Geld bei den Studios, da sich diese in der Theorie Arbeit sparen können (zumindest perspektivisch wenn es nichts anderes mehr gibt) und verlagert die Kosten eben zur Hardware. Und wenn NVIDIA dann auch noch der Retter in der Not ist, nach dem Motto: Schau mal, du müsstest jetzt mehrere Tausend Euro in ne GPU investieren um das volle Erlebnis zu bekommen, oder du gibst uns monatlich einfach dein Geld.

Keine blöde Positionierung, auch wenn ich sie nicht gut finde.
 
  • Gefällt mir
Reaktionen: Return2Burn, BeowulfAgate, LTCMike und 2 andere
Boimler schrieb:
Es klingt halt schon nach Fanboy, wenn man nur anhand eines Trailers solche Features "bahnbrechend" findet und überteuerte GPUs mit proprietärer Software-Unterstützung als "Investition" im Sinne der Kunden deklariert.

Es gibt ja nicht nur Trailer.
Das konnte von Redakteuren ja live auf der GDC gespielt werden, siehe das DF-Video.

Boimler schrieb:
Und was ist an der Technik innovativ? Bildfilter mit der gleichen Wirkung gibt es seit Jahren und hier wird offensichtlich nur eine in den Rechenzentren operierende Bild-Generierung auf lokale Anwendungen heruntergebrochen. Der Consumer-Bereich bekommt halt etwas vom KI-Kuchen ab.

Es ist kein "Filter", sondern Bestandteil der Render-Pipeline!

Es ist wirklich nicht so, dass ich da auch nur im Ansatz Experte wäre, aber ich weiß wenigstens, was ich nicht weiß! Einige Foristen haben hier im Forum gute und erhellende Beiträge zur Technik geschrieben. Wenn man die liest, ist vor allem eines "offensichtlich": Du und viele andere hier wissen gar nicht, was sie nicht wissen, schreiben aber trotzdem munter drüber. Der Hinweis mit "in den Rechenzentren operierende Bild-Generierung" gibt in Deinem Falle beredt Auskunft darüber!

Ich würde mir wünschen, man macht sich erst mal grundsätzlich über die aktuellen (und auch in Zukunft nicht ausflösbaren) Limitierungen heutiger Verfahren kundig, ebenso über das Verfahren, das Nvidia hier vorgestellt hat, und dann schreibt man was dazu.
 
  • Gefällt mir
Reaktionen: LikeHike und ThirdLife
Zurück
Oben