ElliotAlderson schrieb:
Ich hätte dazu auch gerne eine Erläuterung, weil die Erklärung von
@Rickmer schlüssig klingt und mit irgendwas muss das Model ja trainiert werden. Womit also?
Nicht mit Bilddaten aller Szenen aller Spiele. Das macht keinen Sinn.
Wie ich schon sagte, werden sie sicher gezielt auf bestimmte Problemstellen hin trainiert, wo es eben auch Sinn macht, weil der Basis-Algorithmus (also das Zusammenrechnen der gejitterten Einzelbilder) scheitern muss, weil ihm Informationen fehlen. Also z.B. die Behandlung von Okklusion – durchaus an realen Beispielen natürlich.
Oder wie in dem von ihm zitierten Ausschnitt beschrieben, wie z.B. eine konkrete Engine bestimmte Szenen behandelt, also wie daraus Motion-Vektoren berechnet werden und was das für das Bild bedeutet.
Es wird aber auf jeden Fall generisch trainiert und nicht konkret für das Spiel, für das DLSS zum Einsatz kommen soll.
Das würde ja andernfalls sonst bedeuten, dass man immer erst eine "Ground Truth" für jedes einzelne Spiel, für das DLSS rauskommt, "erlernen" müsste. Und dass das nicht der Fall ist, sollte inzwischen klar sein.
Genau an dem Punkt – der Behandlung von Okklusion, Partikeleffekten und anderen Problempunkten von temporalem Upscaling mit Jittering – unterscheiden sich ja TAA, FSR und DSSL. Genau da setzt die AI an.
Die Behauptung, dass alles auf eine "Ground Truth" hin erlernt wird, impliziert auch, dass der Algorithmus Details hinzuerfindet – so wie es eben eine AI macht, wenn man sie beauftragt, ein Bild zu rendern.
Das wird hier auf den DLSS- und FSR-Algorithmus projiziert, das ist aber m.E. grundsätzlich falsch. Bei DLSS werden nicht ständig durch eine AI Bilder generiert, wie manche offensichtlich vermuten. Deswegen ist auch der Trainingsprozess in keiner Weise mit dem zu vergleichen, wie LLMs und AI-Bildgeneratoren arbeiten.
Dieses Beharren auf einer Ground Truth ärgert mich so sehr, weil sie ein Narrativ befeuert, das so einfach nicht stimmt. AI Upscaling = Erfundene Details. NEIN. Die Details sind eben NICHT erfunden.