No_Toxic_Gamer schrieb:
Dazu kommt, der Entwickler KANN es anpassen, schlechte Entwickler/Publisher sparen sich dann die Arbeit und lassen die KI alles machen ohne eigene Anpassungen und dann kommt sowas wie bei der Tech Preview bei raus.
Aber was ist denn die bessere oder zumindest gleichwertige Alternative?
Ob Entwickler schlecht/faul oder gut/fleißig sind hat mit der Verfügbarkeit von DLSS5 ja erstmal nichts zu tun. Wenn ich vor der Wahl stehe flache, emotionslose "Puppengesichter" wie in Starfield zu nehmen, oder die deutlich Detailierteren mittels zugeschaltetem DLSS5, nehme ich liebend gern die deutlich besseren "
KI-Slop"-Gesichter.
DJMadMax schrieb:
Nochmal: wir haben selbst jetzt, mehrere Jahre nach Einführung der ersten DLSS / FSR-Instanzen immer noch nicht viele der seit Anfang an bestehenden Probleme wie z.B. Flickering / Anisotropic Filtering gelöst, von den Problemen bei zugeschalteter Framegeneration ganz zu schweigen.
Das stimmt, DLSS ist in der aktuellen Variante auch nicht komplett fehlerfrei. Dennoch lässt sich mittlerweile sagen, dass DLSS Quality im Gesamteindruck Native mit klassischen Kantenglättungsverfahren überholt hat.
Ich sehe es eher positiv, dass man aktiv Weiterentwicklungen, die einen hohen optischen Mehrwert bringen
können priorisiert, statt sich auf die Perfektion und das ausbügeln kleinerer Bugs zu versteifen.
Minimales Ghosting fällt mir im laufenden Spiel kaum auf, wenn ich nicht aktiv nach Fehlern suche. Deutlich bessere Gesichter, Texturen, Schatten & Beleuchtung hingegen vermutlich schon.
Scirca schrieb:
Laut deren Infos brauchten sie dafür 2x 5090 einmal für das normale Spiel und einmal für dieses Ki Rendering darüber. Vermutlich wenn das der finale Build kommt wird das deutlich weniger was die GPUs damit leisten können. Also eher kleiner Korrekturen oder man wieder nur 30 FPS.
Ich habe eigentlich nirgendwo gelesen, dass sie wirklich 2 x 5090 "
brauchen." Es gab ausschließlich die Info, dass zwei Karten für die Demos
genutzt wurden. Konkrete Infos zur Auslastung der beiden Karten gab es ja meines Wissens nach keine.
Nvidia sitzt direkt an der Quelle und muss bei der Auswahl der Hardware, welche sie für ihre Demos verwenden sicherlich nicht sparen. Es wäre also durchaus denkbar, dass das Ganze schon heute auch auf deutlich schwächer Hardware gut läuft, Nvidia die beiden 5090er Karten aber einfach zur Erstellung der Demos genutzt hat, weil man eben das derzeit maximal mögliche an Grafik + Performance zeigen wollte.
DJMadMax schrieb:
Wenn das die Lösung für alle Weltprobleme ist, wieso ist das dann standardmäßig nicht so eingestellt?
Vermutlich weil theoretisch die Möglichkeit bestünde, dass alte Spiele mit neuen DLSS-Versionen Probleme machen könnten. Einfaches Szenario:
Eine Person kauft ein Spiel, Nvidia bringt eine neue DLSS Version heraus welche die im Spiel implementierte und vom Entwickler überprüfte Version überschreibt. Die neue DLSS Version hat einen Bug der das Spiel unspielbar macht. Der Käufer schreibt eine schlechte Bewertung zum Spiel und refundet es.
-> Der Entwickler ärgert sich und Nvidia könnte potentiell verklagt werden.
Hat der Spieler selbst den Schalter auf "Latest" umgelegt, ist er selbst Schuld wenn es nicht läuft.