DevPandi schrieb:
Gerade beim Thema Fotorealismus würde ich persönlich weniger davon ausgehen, dass es da einen großen Anteil an Spielern gibt, die das wirklich wollen oder fordern.
Ich denke Spiele wollen in der Regel Immersion, und die besteht aus vielen Faktoren, und das Visualisierung ist ein zentraler Teil. Ich bin bei Dir, das maximale Fotorealismus nicht unbedingt maximaler Immersion bedeutet. Und gerade bei Personen sind eigentlich alle Spiele noch weit von Fotorealismus entfernt. Bei Landschaften und Gebäudestrukturen mag es anders sein. Und nicht alles was subjektiv gut aussieht ist automatisch physikalisch richtig, das sehe ich immer wieder beim Thema Global Illumination.
Wenn ich die Techniktests bei CB und anderen anschaue, werden Spieler aber zumindest in Richtung "maximaler" grafischer Qualität konditioniert, und den Kommentaren nach zu urteilen legen viele auch Wert darauf ein Spiel in "Ultra" spielen zu können. Wobei man ja bei vielen Spielen spätestens ab "medium" genau hinschauen muss.
Auf jeden Fall geht der Trend zu höheren Auflösungen und gleichzeitig hohen FPS, bei der letzen Umfrage war ich als "FullHD" Spieler Teil einer kleinen Minderheit hier.
Und man kann es nun mal drehen und wenden wie man will, es bedeutet einfach das mehr Pixel/Sekunde am Ausgang der Rendering Pipeline entstehen müssen.
Mit klassischen nativen Rendering kommt man dann an Grenzen, die anscheinend hardwareseitig nicht mehr wirtschaftlich sinnvoll auszuweiten sind (selbst oder gerade mit den aktuellensten Nodes nicht).
Ich verstehe leider viel weniger von dem Thema als Du, aber mir erscheint es trotzdem logischer mit generativen Methoden früher in der Pipeline anzugreifen, anstatt wie heute, das fertige Pixelbild räumlich und zeitlich (Frame Generation) hochzurechnen.
Um auf die Bedürfnisse der Spieler zurückzukommen:
Was glaube viele Spieler stört, sind jegliche Effekte die die Immersion stören, dazu gehört natürlich neben Rucklern und klassischen Renderfehlern auch Artefakte, seih es Kantenflimmern, sichtbares Aufpoppen von Objekten wegen schlechter LOD Steuerung, oder eben Artefakte von Techniken wie FSR oder DLSS.
Und vielleicht in Zukunft "AI Slop look".
Jeder ist da natürlich anders empfindlich, mich stören gelegentliche Ruckler recht wenig, aber ich mag z.B. nicht wenn die Landschaft in volumetrischen Nebel verschwindet.
Letztendlich ist Echtzeit 3D Rendering in Computerspielen auch mit der heute sehr leistungsfähigen Hardware und allen ausgefuchsten Algorithmen immer ein Kompromiss mit mehr oder weniger vielen Tricks und Abkürzungen.
"Neural Rendering" ist dann einfach eine neues Werkzeug in der umfassenden Trickkiste der Spiele Engines, dessen Einsatz Erfahrung und Umsicht erfordern wird, wie bei allen anderen Methoden auch.
Enigma schrieb:
Das ist kein Post-Processing filter, wie manche vermutet haben. In dem Moment wo ein Objekt (hier z.B. ein Spieler-Model) geladen wird, rutscht die AI drüber und optimiert das Spieler-Modell auf Geometrie und Textur-Ebene nach den Vorgaben des Entwicklers.
So wie Du es beschreibst ergibt es keinen Sinn, denn wenn man Geometrie und Textur "optimieren" wollte, könnte man das billiger und einfacher auf beim Build erledigen und die optimierten Geometrien und Texturen einfach ausliefern.
Ich interpretiere die Aussagen im Artikel eher so, dass man eben nur eine grobe Grundgeometrie noch klassisch rendert und dann die KI Texturen dieses anreichert. Die klassischen Pixel Shader werden durch "Neural Shader" ergänzt/ersetzt die dann z.B. Haut und detaillierte Gesichtszüge wie Unterhautgewebe per Diffusion Modell errechnen. So wie z.B. heute schon Vegetation mit prozeduralen Shadern erzeugt wird (anstatt jeden Grasshalm einzeln als Polygon abzubilden).
Um auf das viel diskutierte Resident Evil Beispiel in dem Video zurückzukommen:
Letztendlich sind beide Varianten (mit und ohne DLSS5) nur eine Annäherung an ein fotorealistisches Bild.
Der Variante ohne KI fehlt es an Detail, die DLSS5 Variante "erfindet" Details. Meines Erachtens ist DLSS5 realistischer aber hat eben auch noch den typischen KI "Vibe". Das dieses Bild zu wenig Ähnlichkeit mit der ursprünglich als Modell dienenden Schauspielerin zu tun hat, ist logisch: Die Information die im ursprünglichen Rendering verlorgengegangen ist, kann die KI nicht wieder herstellen, das war sicher auch nicht das Ziel der Übung.