Ohne die Erschaffung von Neuem, ist Rekonstruktion mit unvollständigen Informationen über das Original nicht möglich. Das gilt in der realen Welt genauso, wie in der digitalen. DLSS rekonstruiert Bilddetails, wo Informationen fehlen. Ergo: DLSS erschafft Details, die vorher noch nicht da waren (aber sein sollten).Boimler schrieb:Da ist nichts unscharf... "Erfinden" bedeutet wortwörtlich, etwas zu schaffen, was vorher noch nicht da war. An so einem Prozess beteiligen sich weder DLSS noch FSR. Das Bild, was angezeigt wird, ist eine Kombination aus Bildinformationen, die vorher schon da waren. Sowas ähnliches gibt's in der Bildbearbeitung schon seit Jahrzehnten, nennt sich "Stacking" und funktioniert komplett ohne KI. Man bekommt ein detaillierteres Bild durch die Addition von Einzelbildern. KI hebt das nur auf das nächste Level, indem nicht mit dem Bild selbst, sondern den Informationen, die zur Erstellung des Bildes führen, gearbeitet wird.
Wenn DLSS nur Engine Metadaten bräuchte, wäre der Deep Learning Teil überflüssig. Nvidia nutzt den Begriff "Rekonstruktion" sicher nicht zufällig.
Stacking rekonstruiert nicht, sondern addiert. Du kannst noch so viele Fotos stacken, wenn überlagernd in allen Fotos spezifische Details fehlen, fehlen die auch im Resultat.