News AI-Slop-Kritik an DLSS 5: Jensen Huang: „Spieler liegen mit ihrer Kritik völlig falsch“

Ich kenn das Spiel überhaupt nicht, allein vom Vergleich der Gesichter im Video:
Bei der Frau find ich es sieht mit dlss auf jeden fall besser aus als vorher.
Der typ sah vorher schon ok aus, nach dlss ist es mir eigentlich schon ne spur zu realistisch. aber auf jeden fall auch nicht schlecht.

Ingesamt ziemlich interessant wenn das auch wirklich was wird.
Bessere Gesichter, Haare etc von Chars finde ich auf jeden fall viel spannender als so sachen wie Raytracing, HDR, etc

Kann man das frei nach belieben dann an und ausschalten? Wenn ja was versteh ich nicht so ganz was es daran zu kritisieren gibt.
 
  • Gefällt mir
Reaktionen: rauwman und Sherman789
Glub schrieb:
Kann man das frei nach belieben dann an und ausschalten? Wenn ja was versteh ich nicht so ganz was es daran zu kritisieren gibt.
Die Angst wird sein, ähnlich wie bei RT auch, dass dann der Entwicklungszweig vernachlässigt wird für die die es nicht aktivieren wollen.

Gibts in RT/PT Spielen ja auch schon teilweise, da sieht die Raster Beleuchtung schlechter aus als sie heute eigentlich aussehen könnte, einfach weil nicht mehr so viel Arbeit reingesteckt wird und sich mehr auf den RT/PT Pfad konzentriert wird.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
Keuleman schrieb:
Ich pack das hier noch mal rein... ist es Kunst? Ist es AI Slop? Mag jeder selber drüber befinden.
Für mich ist es Kunst. Die visuellen Elemente sind natürlich klar erkennbar AI generated, bei der Musik kann ich's nicht raus hören, inwiefern da der KI- Einsatz ging, aber das Zusammenspiel, die "Inszenierung" wirkt bewusst und erzählt eine kleine Geschichte. Man "spürt" das dahinter menschliche Gedanken stecken.
 
  • Gefällt mir
Reaktionen: bickid
Alle liegen Falsch! Frauen sehen "wirklch so aus" ... in 3, 2, 1... :evillol:
Aquarium in 3, 2, 1... :evillol:

Dabei macht sich doch noch selber darüber Lustig.

1773937747463.png


Die leute können es ja einschalten, wegem den "Realismus"....:evillol: es ist halt etwas für die Busenmod Community. Hört auf zu haten. Niemand wird gezwungen es einzuschalten. Aber natrülich liege jeder der es nicht einschaltetn laut CEO falsch!

Davor macht er sich selber als CEO aber noch selber darüber Lustig. und jetzt rudert er zurück... Ja nicht jeder ladetet sich direkt Busenmods für seine lieblingspiele runter. ;):evillol: Und wen man dahin auch noch scherze macht und beispielcharakter praksch alles unter "messer" legt. Dann passiert sowas halt . ;)


Habt ihr vermutlich alle schon geshen. Aber wundershcönes Vdeo von Nexxus ... man habe ich gelacht... :daumen:
Noch lutiger finde ich ja, das auch hier im Forum die Busenmodcommunty sehr ählich wie der CEO argumentieren. Aberist ja auch kein Wunder. Für diessen Herren legen sich ja die echten armen Damen ja auch unters Messer. :daumen:
1773938355690.png

"You wrong" "Frauen sehen (in meiner Fantasy) wirklich so aus"..... :evillol: :king: Ist ja gut. Wer es geil Findet soll es anmachen. Es wird halt auch kolerteralschäden haben. Einfach weil man nem Generischen Tool dasüberlässt. Vermutlich ist der Filter so wie von 5 Jahren bald wieder gone. Da hta auchjeder nen Fischkopf gezaubert.
 
Zuletzt bearbeitet:
Mimir schrieb:
Verbreite hier keine Falschinformationen. Dein Neural Face Bild entspricht NICHT DLSS 5.
Was es ist steht in Bild. Und jetzt kommen wir von Neural Face zu:
"We call it neural rendering. The fusion of 3D Graphics and artifical intelligence"
- Jen Hsun Huang

Wenn die beiden Technologien nichts miteinander zu tun haben, warum erzeugen sie dann vergleichbare Ergebnisse? Meiner Einordnung nach haben sie das Modell einfach nur erweitert und auf die ganze Szene angewendet.
 
Zuletzt bearbeitet:
Snapuman schrieb:
Ich hab doch explizit zwei (von vielen) Beispielen aufgezählt, wo das Publikum "Trivialität" bzw. offen zur Schau gestellten Dilettantismus zur Kunst erklärt... bzw. diese feiert oder viel Geld dafür zahlt.
was genau willst Du damit sagen? Weil es andere Bereiche gibt, wo was falsch läuft, sollten wir da anknüpfen? Sozusagen Race to the bottom?

das ist eben teilweise sogar ganz gewollt "random"
und ist damit kein Random.
Es sind eben bei weitem keine Einzelfälle!
Ich glaube die Grauzone insb. in kommerziellen Produkten ist sehr hoch. Was Du ja auch mit "Übergänge" vermutlich selber meinst.
Weshalb ich den Begriff "Kunst" sowieso selten verwende.
Es gibt einfach keine klare Definition oder objektive (Qualitäts-)Kriterien dessen, was Kunst ist oder zu sein hat.
Da sind wir ja einer Meinung. Aber es ist auch nicht so, dass dieser Begriff willkürlich für alles benutzt werden sollte, oder?
Es gibt halt Leute, die schon sehr anerkannt als Künstler sind. Denen würde ich die Entscheidung zuordnen. Mir selber isses aber sogar eher wurscht.
Wer sich selber als Künstler bezeichnet, aber von vielen eben NICHT anerkannt wird... der isses aus meiner Sicht dann mit hoher Wahrscheinlichkeit eher nicht.

Und nochmal - es geht nicht darum, welchen Pinsel jemand verwendet. Es geht darum ob jemand durch die Verwendung eines Pinsels automatisch zum Künstler wird!
Btw. ich verteidige hier diesen Begriff nicht unbedingt. Ich seh das selbst in vielen Punkten sehr kritisch!
Ich möchte nur darauf hinweisen, dass es nicht so einfach ist, wie es sich in dieser Debatte gerade insbesondere eben "KI"-kritische Menschen gerne machen, zwischen Kunst und nicht Kunst scheinbar objektiv zu differenzieren.
Bin ich bei Dir. Mir ist der Begriff Kunst sogar wurscht 😇

Mir ist aber wichtig, darüber informiert zu sein, wie Content grob entstanden ist. Das ist eh in vielen Wirtschaftsbereichen ein Unding, dass so wenig darüber informiert wird (werden muss!), wie Produkte gebaut werden. Vom Umgang mit Mitarbeitern über Umgang mit Zulieferern bis hin zu Gesundheitsbelangen. Hersteller wollen gern verbergen, wie sie etwas machen, weil sie annehmen, dass bei Kenntnis von Herstellungsdetails so mancher nicht mehr kaufen würde. Zurecht.

Um am Ende zurückzukommen zu DLSS5 ist neben der Information über die Herstellung oft auch die Wahl zwischen verschiedenen Produktausprägungen für uns Konsumenten etwas, was schon nett wäre. Also wählen können DLSS5 zu deaktivieren. Wobei ich davon ausgehe, dass hier in einem halben Jahr die Performance die die meisten gar nicht ausreicht. Aber who knows. Schauen wir mal.
 
20260319-103646-Hamstermann251091-id6951834.jpg
 
  • Gefällt mir
Reaktionen: emerald, argonfox, Sherman789 und eine weitere Person
ghecko schrieb:
Wenn die beiden Technologien nichts miteinander zu tun haben, warum erzeugen sie dann vergleichbare Ergebnisse? Meiner Einordnung nach haben sie das Modell einfach nur erweitert und auf die ganze Szene angewendet.

Seh ich komplett anders. Das was letztes Jahr unter Neural Faces vorgestellt wurde, wurde damals ebenfalls kritisiert und dann von Nvidia nicht mehr erneut erwähnt. Vermutlich haben sie das Feature als solches verworfen bzw. in deutlich verbesserter Version als Teil von DLSS 5 integriert.

Der Punkt worum es mir aber eigentlich geht ist, dass das Ergebnis KOMPLETT anders ist.

Neural Faces sah letztes Jahr wie ein Weichzeichner Instagram Filter aus. Die Kritik war ja auch zu 100% berechtigt, da das weder technisch noch ästehtisch eine Verbesserung war.

DLSS 5 aber ist das komplette Gegenteil davon. Statt eines weichzeichner Effekts gibt es mit DLSS5 massiv mehr Textur und Materialdetails und eine vielfach feinere und Detailliertere Beleuchtung. Das ist halt einfach überhaupt nicht vergleichbar. Das wäre ja fast so als würde man einen Weichzeichner mit einem Scharfzeichner vergleichen wollen. DLSS 5 erzielt mMn. halt den komplett gegenteiligen Effekt den Neural Faces letztes Jahr erzeugt hat. Daher meine Kritik an dem gezeigten Bild. Das hat einfach gar nichts mit DLSS 5 zu tun.


Diskutiert gerne über DLSS 5 und dessen ästhetik weiter. Aber bei DLSS 5 dann fälschlicherweise so ein altes Bild von Neural Faces in den Ring zu werfen und zu sagen, dass dieses Neural Rendering einfach scheiße aussieht ist halt einfach nur billiges Framing gestützt auf gezielter falschinformation.

Das wäre in etwa so als würde man bei einer DLSS4.5 Diskussion ein DLSS 1 Bild posten und dann sagen "also dieses AI upscaler zeug ist kompletter Müll".
 
  • Gefällt mir
Reaktionen: PARALAX
hatte mich noch nicht geäußert weil drüben zu viel aufzuräumen war. aber einiges tritt hieraus hervor:

1) dass diese Technik isoliert betrachtet in real time wirklich so funktioniert ist erstmal beeindruckend und hat durchaus andwendungen in film und Spiel sofern gewünscht.

2) was damit angestellt werden wird und ob es den spielern zugute kommt UND der qualität der spiele bleibt abzuwarten. möglicherweise provoziert das weitere abkürzungen in der entwicklung und wird zur selbst erfüllenden Prophezeiung wie die anderen nvida features. (soll heißen wenn man sich auf eine lösung einschießt sieht dann der default natürlich immer schlechter aus, nicht weil die tech überlegen ist sondern weil der entwicklungspfad in aufwand und optimierung dem klassischen weg gar keine bedeutung mehr zumisst und der weg so zugeschnitten wird dass es mit z.b. DLSS oder RT besser aussieht).

3) die meisten großen spiele kranken aktuell eher am gameplay und kostenoptimierten geldmechaniken als an zu schlechter grafik. das ist natürlich relativ aber ich sehe das so. für mich wars 2015 schon hübsch genug und lief auf einem hundertstel der rechenleistung.

4) jenaden sagt dass die künsterische intention erhalten werden soll. das kann man erstmal so hinnehmen und abwarten wie das endergebis so aussieht, aber ob die studios dies auch wollen in ihrem hang zu billig billig schnell schnell bei allem ist noch nicht ausgemacht. nicht dass es dann heißt die generierung sieht gut genug aus und wir machen einfach nichts dran (siehe 2)).

5) sollten jetzt wirklich reiehenweise mods für alte spiele rauskommen bzw die großen studios dieses tool einsetzen um die entwicklung massiv zu beschleunigen sollte sich das positiv auf den kaufpreis auswirken und nicht dafür genutzt werden um die marge zu vergrößern sonst nimmt diese oben genante gute absicht keiner ernst.

Fazit: die kritik daran ist erstmal hinzunehmen und das tool ist jetzt da. soll heißen man kann es für coole dinge verwenden (detail denoising in videos und prototyping für die materialauswahl einer figur fallen mir da ein weil man so shcnell was sieht und dann optimieren kann) aber auch die probleme der spieleindustrie beschleunigen. zur wahrheit gehört aber auch dass selbst wenn die grafik jetzt einen riesen sprung hinlegt und die glitches hier teil der entwicklung sind (frühes stadium) wird ein spiel mit schlechtem gameplay, story oder einem furchtbaren monetarisierungsmodell trotzdem nicht gekauft. die philosophie war künsterische intention ist und tut und wie schützenswert sie ist sehe ich eher darin begründet wie man der wertschöpfung einen geldwert bemisst.

soll heißen wenn ich weiß dass solche tools existieren und jetzt ein 5 mann team mit paar millionen das tun können was 200 leute mit 250 mio euro machen mussten dann erwarte ich auch so dafür zu bezahlen wie es ein kleines indie studio nunmal tut. die müssen keine 80€ verlangen und millionen einheiten verkaufen nur um gleichzuziehen :D die industrie hat jetzt die chance zu zeigen " wir geben uns mühe dass es nach was aussieht und abseits der grafik die spiele wieder spielenswerter werden eben mit der "freizeit" die wir auf ressourchenseite jetzt haben" und eben nicht "ja wir können jetzt 70% beim grafik department sparen, wir heben die preise dennoch an und nehmen jetzt 100€ für das ding auch wenn die entwicklungskosten abgestürzt sind.

der umgang mit generierten bildern und fehlendem urheberrecht dieser führt zu einer automatischen preislichen abwertung des endprodukts und was nutzer bereit sind dafür zu bezahlen. das dürfen die entwickler und anwender solcher tools niemals unterschätzen.

das ist wie hier im schönen erzgebirge die Handgeschnitzte mehrstöckige weihnachtspyramide die in 10. generation von der gleichen familie mit unendlicher liebe zum detail handgebaut wird in hunderten, gar tausenden, stunden. da stehen dann 1000-2500€ evtl mehr dran. und doch kann man ein vergleichbares modell massengefertigt aus einheitsteilen für 70€ kaufen. oft aus fernost, detailärmer, aber im wesen vergleichbar.

oder stellt euch die wertschätzung eines handgeschriebenen kaligraphischen werkes vor verglichen mit einem massengedruckten buch oder der tageszeitung. das kostet preislich auch ganz anders und damit verbunden auch die wertschätzung zum macher.

und diese wertschöpfung der macher darf die spieleindustrie nicht verlieren sonnst heißt es am ende "billig produziert --> billiger preis sonnst kein deal!"
 
  • Gefällt mir
Reaktionen: Araska, Bccc1, Nihil Baxxter und 2 andere
Booth schrieb:
was genau willst Du damit sagen? Weil es andere Bereiche gibt, wo was falsch läuft, sollten wir da anknüpfen? Sozusagen Race to the bottom?
Hä? Du hast dich doch mit
Nur weil jemand SELBER sagt, etwas sei Kunst, ist es das nicht. Es kommt auf die Akzeptanz in der jeweiligen Gruppierung an.
auf 2 (natürlich bewusst extreme) Beispiele bezogen, wo die Gruppe es akzeptiert / "zur validen Kunst" macht - und nicht ein Künstler nur behauptet Kunst zu machen.
-> Welche ich wiederum auf Alphanerds Beispiel mit den Affen und Shakespeare bezog,
-> um den Punkt zu machen, dass Kunst noch nie zwangsläufig etwas mit Talent zu tun hatte

Booth schrieb:
und ist damit kein Random.
wenn etwas "bewusst ganz random" ist, ist es "somit kein random"? hä?
Abgesehen davon ja, ist es sowieso schwierig "random" in dem Kontext zu definieren, wenn man es sehr genau nimmt.

So schwer und komplex wie es technisch ist, einen wirklichen / nicht deterministischen Zufallsgenerator zu bauen
So schwer ist es letztlich auch bei 'nem Menschen oder selbst auf Affen der wahllos auf Tasten drückt zu bestimmen, ob das was passiert / heraus kommt jetzt wirklich "random" ist, oder doch einem mathematischen Muster wie Rhythmus oder Harmonie oder etwas anderem wie einem Gefühl folgt.

-> Beide sind ja trotzdem zwangsläufig als fühlende Wesen immer von ihren Gefühlen und dem Moment sowohl ihrer Innenwelt als auch dem Außen geleitet,
finden vielleicht spontan einen Rhythmus in dem sie sich wohl fühlen, oder eine andere Resonanz die sich aus dem Moment / dem ganzen Kontext ergibt.

Booth schrieb:
Aber es ist auch nicht so, dass dieser Begriff willkürlich für alles benutzt werden sollte, oder?
Absolut.
Aber genauso sollte man ihn eben auch nicht pauschal und NUR wegen des gewählten Tools selbst verweigern. (Was hier aber einige genau so machen)

Booth schrieb:
Es gibt halt Leute, die schon sehr anerkannt als Künstler sind. Denen würde ich die Entscheidung zuordnen. Mir selber isses aber sogar eher wurscht.
Wer sich selber als Künstler bezeichnet, aber von vielen eben NICHT anerkannt wird... der isses aus meiner Sicht dann mit hoher Wahrscheinlichkeit eher nicht.
Naja, man kann es halt pauschal und allgemeingültig eben nicht sagen.
Wer von vielen NICHT anerkannt wird, aber von einigen schon ist eben für viele kein Künstler, für einige aber schon. Beide Gruppen haben recht!
Es gibt diesbezüglich einfach keine absolute Wahrheit.

Booth schrieb:
Und nochmal - es geht nicht darum, welchen Pinsel jemand verwendet. Es geht darum ob jemand durch die Verwendung eines Pinsels automatisch zum Künstler wird!
Letztlich können genau das doch immer nur die anderen entscheiden/definieren.

Ich meine, grad beim visuellen ist es derzeit halt noch so, dass fast jeder es in den meisten Fällen noch mehr oder weniger gut erkennt.
Das wird über früher oder später (und ich befürchte eher früher als später) aber vorbei sein, das sollte denke ich jedem klar sein.

Die großen Aufreger sind doch aber derzeit genau wegen dieses erkennbaren Aspektes, vor allem das macht es doch zum verspotteten "Slop". Die Leute regen sich in erste Linie doch nicht auf, weil es gut aussieht, sondern weil es nicht gut aussieht. Nicht echt aussieht. Künstlich ausieht. Falsch aussieht. Scheisse aussieht. Und u.A. daraus folgt dann auch eine grundlegende und generelle Ablehnung gegen diese Technologie.

Wenn es aber nicht mehr erkennbar ist, wenn es perfekt und geil aussieht, DANN wird es interessant! Was machen wir dann?
Im Audio Bereich haben wir den Punkt schon fast erreicht. Da schafft es generative "KI" mittlerweile teilweise bereits, das selbst Profis im Blindtest nicht mehr wirklich zwischen "real"/Menschengemacht und "100% KI generiert" unterscheiden können.

Ich denke es wird zwangsläufig darauf hinauslaufen, dass wir uns einfach irgendwie den Umständen anpassen müssen.
Dass wir als Menschen unsere heutige Definition von "Kunst" verändern/erweitern/anpassen müssen.
Also so wie es eigentlich schon immer war.
Veränderung tut fast immer irgendwo weh.

Booth schrieb:
Mir ist aber wichtig, darüber informiert zu sein, wie Content grob entstanden ist. Das ist eh in vielen Wirtschaftsbereichen ein Unding, dass so wenig darüber informiert wird (werden muss!), wie Produkte gebaut werden. Vom Umgang mit Mitarbeitern über Umgang mit Zulieferern bis hin zu Gesundheitsbelangen. Hersteller wollen gern verbergen, wie sie etwas machen, weil sie annehmen, dass bei Kenntnis von Herstellungsdetails so mancher nicht mehr kaufen würde. Zurecht.
Bin absolut bei dir. Transparenz ist ein hohes und schützenswertes Gut und kommt so oft viel zu kurz.

Booth schrieb:
Um am Ende zurückzukommen zu DLSS5 ist neben der Information über die Herstellung oft auch die Wahl zwischen verschiedenen Produktausprägungen für uns Konsumenten etwas, was schon nett wäre. Also wählen können DLSS5 zu deaktivieren.
Klar, solange es technisch noch möglich ist.
Booth schrieb:
Wobei ich davon ausgehe, dass hier in einem halben Jahr die Performance die die meisten gar nicht ausreicht. Aber who knows. Schauen wir mal.
Das ist halt auf lange Sicht denke ich genau der Knackpunkt.
Wenn Grafik in Zukunft weiterhin besser/realistischer werden soll, dann führt (stand heutigen Wissens) eben kein Weg an dieser Technologie vorbei.
Sie ist also - stand jetzt, bis wir was besseres erfinden/entdecken - technologisch erstmal alternativlos, weil der bisherige Weg zur Leistungssteigerung langsam die physikalische machbare Grenze erreicht hat.
 
layercake87 schrieb:
Jackpot für Nvidia wäre es ja, mal in die Glaskugel geschaut, dass Games dann künftig nur noch auf eigenen Servern rauskommen und du ein Abo abschließen kannst zum spielen. Dann ist dein Endgerät mehr oder minder egal.

Das könnte am Ende, bei dem was dieser ganze AI Kram wieder einspielen muss durchaus eine mögliche Variante sein, leider.

Sobald das passiert, bin ich entgültig raus und ich denke, damit bin ich nicht allein. Grundsätzlich stehe ich der KI-Hardware & Technik recht offen gegenüber. Man darf nicht vergessen, das es ohne DLSS kein Echtzeit-Upscaling gäbe und die ist mittlerweile mit Version 4.5 schon derart überzeugend, das man in der Praxis kaum noch Unterschiede zwischen nativen 4K und 720p (Ultra Performance Modus) erkennen kann. Und das wiederum kommt Besitzern älterer Hardware zugute, weil die dadurch eingesparte Leistung die heutigen Grafikkarten viel länger nutzbar macht, als es vor 25 Jahren noch der Fall war.

Allerdings möchte ich Spiele stets auf eigener Hardware ausführen und von keiner Cloud abhängig sein, schon allein um nicht vom Internet abhängig sein zu müssen, wenn man den PC mal mitnimmt. Und erst Recht werde ich zum Spielen kein zusätzliches Abo buchen. Das habe ich schon bei den Konsolen nicht anders gehandhabt. Und wenn man doch mal online spielen möchte, lobe ich mir Steam, wo das ganze bisher kostenfrei bleibt.

Aber um nochmal zurück auf das eigentliche Thema zu kommen: Das eigentliche Problem ist doch, das sich nun Viele mit DLSS 5 überrumpelt fühlen und gleich wieder Sturm gegen den "KI-Look" laufen, ohne das fertige Ergebnis im Herbst abzuwarten. DLSS 5 wirkt sich ja nicht nur auf Gesichter und Aussehen der Charaktere, sondern auf die gesamte Beleuchtung der Szene aus. Ich bin mir ziemlich sicher, das da noch einiges optimiert wird, sowohl bei der Intensivität, als auch bei der Differenzierung zwischen menschlichen Charakteren und der restlichen Spielwelt. Und was die Leistungsanforderungen betrifft, bin ich recht zuversichtlich, das ich dank der fortschrittlichen Upscaling-Technik mit reduzierter Auflösung auch bei DLSS 5 mit meiner RTX 5080 noch einige Jahre hinkomme. :)

Ich nutze übrigens kein Instagram. Von daher geht dieses ganze Gerede über solche Filter an mir völlig vorbei. Für mich zählt lediglich das Ergebnis und das das jeweilige Spiel dadurch nichts an Atmosphäre einbüßt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snapuman
Wird Pathtracing dann eigentlich doch nicht die Zukunft der Spielegrafik sein, wenn Beleuchtung demnächst durch KI gereriert wird? Oder läuft das dann on top und die Hardware muss PT und NR stemmen?

Edit: wird im Video unter mir beantwortet. So wie auch einige weitere Fragen...
 
Zuletzt bearbeitet:

Diese Firma ist soooooo dreist, unfassbar. Einfach miesester AI Slop Filter und das verkaufen die als Feature. Wahnsinn.
 
  • Gefällt mir
Reaktionen: Alphanerd, Nihil Baxxter, Brrr und eine weitere Person
Snapuman schrieb:
Das ist halt auf lange Sicht denke ich genau der Knackpunkt.
Wenn Grafik in Zukunft weiterhin besser/realistischer werden soll, dann führt (stand heutigen Wissens) eben kein Weg an dieser Technologie vorbei.
Sie ist also - stand jetzt, bis wir was besseres erfinden/entdecken - technologisch erstmal alternativlos, weil der bisherige Weg zur Leistungssteigerung langsam die physikalische machbare Grenze erreicht hat.
Ein fertig gerendertes Bild, inklusive G-Buffer und Motion Vector Daten (angeblich soll DLSS5 den G-Buffer abrufen, obwohls nicht im Press Release steht), in einen KI Bildgenerator zu donnern, um diverse Effekte hinzuzufügen, halte ich für alles andere als den Weg vorwärts.

Das ganze führt wie erwartet zu den Problemen die wir hier sehen; ich lasse mal hier die ganze "Yessify" Filter Optik außen vor, aber man sieht eindeutig die Artefakte die durch diesen Screenspace basierten Ansatz entstehen, insbesondere die Lichter und Reflektionen, die sich die KI hinzudiktiert. DLSS5 hat keine Informationen über Lichtquellen in der Szene und versucht dies rein aus dem gerenderten Bild zu interpretieren. Daher auch zB der starke Unterschied bei der Assassins Creed Szene, wo es plötzlich taghell wurde, was in der gewählten Szene keinen Sinn ergibt.

Der bessere Ansatz ist hier Neural Shading, woran nicht nur Nvidia, sondern auch AMD schon seit geraumer Zeit arbeiten. Die Idee ist es, normale Rendering Algorithmen jeweils durch ein winziges neuronales Netzwerk zu ersetzen. Hierbei wird nicht das komplette Bild durch ein großes Modell gerendert, sondern gezielt einzelne Funktionen.

Hier mal als Beispiel hat Nvidia Path Tracing Global Illumination per Neural Shader implementiert: https://developer.nvidia.com/blog/n...on-with-one-tiny-neural-network-in-real-time/

Die HL2 RTX Demo hatte zB auch einen Neural Skin Shader implementiert gehabt.
 
  • Gefällt mir
Reaktionen: Bccc1, Brrr und Snapuman

Also ist es wohl wirklich so, dass DLSS5 nicht viel mehr macht als den 2D Frame durch ein AI Modell zu jagen. Enttäuschend!

Edit: Sehe grad @Snakeeater hat zwei Posts weiter oben dasselbe Video gepostet.

Edit2: @TheInvisible Bin auf deine Reaktion gespannt.

Edit3: Die Fragen die Daniel Owen stellt, hätte ich von der Fachpresse erwartet, DF, aber auch Computerbase.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Heavynator, Kaufmannsladen, Alphanerd und eine weitere Person
@Heavynator ich bezog mich da auf "neural processing/shading/rendering/x" bzw alles was auf ML basiert ganz generell im allgemeinen und nicht das gezeigte DLSS 5 hier im speziellen.

DLSS 5 halte ich nur für einen kleinen (logischen) Schritt von vielen noch folgenden. Ob und wie er am Ende taugt lässt sich, wie du geschrieben hast, jetzt eh noch nicht wirklich beurteilen.
 
Zurück
Oben