Irgendwann ist es auch Haarspalterei.Bregor schrieb:Man kann sich nun streiten ob das als "Erfinden" von Inhalten gilt oder als "es sind alle notwendigen Daten da und dies ist das korrekte Ergebnis"
Natürlich muss der Algorithmus an den Stellen Daten einfügen, wenn er keine hat. Das ist eben ganz besonders bei Stellen der Fall, die vorher verdeckt oder außerhalb des Sichtfelds waren.
Aber selbst da ist der Algo ja nicht völlig ahnungslos; er hat das aktuell gerenderte Bild von den Stellen, aber eben nicht in der nötigen Auflösung.
Er muss also aus der niedrigen Auflösung und den umgebenden Bilddaten versuchen, die Details zu restaurieren.
Ja, das ist ein höchst komplexer Vorgang. Und meinetwegen kann man sagen, dass an diesen Stellen auch einige Pixel "generiert" werden. Deswegen stabilisiert sich das Bild ja auch nach einigen Bruchteilen von Sekunden – weil die "generierten" Pixel durch echte ersetzt werden können.
Nur wenn manche schreiben, dass DLSS eine generative KI sei, also dass das gesamte Bild aus der KI stammt, dann kann ich eben nur mit dem Kopf schütteln. Genau DAS ist es eben nicht.
Genauso wie das Märchen, dass DLSS Details erfinden würde. Das mag in Bewegung in klar umrissenen Bereichen der Fall sein, aber diese Details sieht man kaum, weil sie viel zu kurzzeitig sichtbar sind. Die Details, auf die sich das Auge konzentriert, Texturen, Bäume, Vegetation usw. sind eben echte Details, keine erfundenen oder generierten.
Und dieses Märchen möchte ich eben bekämpfen. Weil es sich so hartnäckig hält.