adfsrg schrieb:
Doch, genau so funktioniert die KI.
Wenn man es genau nimmt ist es das Gegenteil von Supersampling. Bei Supersampling wird das Bild in einer höheren Auflösung berechnet und dann runterskaliert. Bei DLSS wird das Bild in einer niedrigeren Auflösung berechnet und die KI rät dann, wie das Bild aussehen würde, wenn es mit einer höheren Auflösung berechnet worden wäre. Wenn man sich Standbilder ansieht, dann macht sie das recht gut. Problematisch wird es, wenn man sich statt Screenshots das echte Spiel ansieht. Dann sieht man die Fehler. Die übrigens bei DLAA auch auftreten. Vergleich doch mal bei nem älteren Spiel echtes Supersampling mit DLAA. Den Unterschied sieht man deutlich und Supersampling ist klar überlegen.
Nein, deine Beschreibung ist völlig falsch.
DLSS macht genauso wie TAA ein temporales Supersampling. Es findet genauso wie bei klassischem Supersampling (SSAA) eine mehrfachabtastung der gesamten Szene statt. Nur werden die zusätzlichen Samples nicht erst über die Engine berechnet, sondern aus vorherigen Frames gewonnen, was natürlich deutlich günstiger ist, aber auch natürlich sehr viel fehleranfälliger, weshalb TAA gerne zu unschärfe und ghosting neigt.
DLSS ist dann vereinfacht ausgedrückt nur ein Machine Learning Algorithmus, der diese Daten besser verarbeiten kann und somit mehr brauchbare Informationen aus alten Bildern verwerten kann, als bisherige Algorithmen wie TAA. Mehr Bildinformation bedeutet natürlich auch mehr Bilddetails und schärfe. Also genau das was bei einem Bild fehlt, welches ursprünglich in niedrigerer Auflösung berechnet wurde.
Das was du meinst ist generative KI. Diese generiert und "haluziniert" sich selbstständig neue Details herbei. Und ja, natürlich gibt es Upscaler, die aus einzebildern (wo keine temporalen informationen verfügbar sind) Details dazu generieren und so ein KI gestütztes Upscaling machen können. Aber DLSS ist KEINE generative KI!
Alle Details die DLSS nutzt sind Details die rechnerisch bereits von der GPU in vorherigen Frames gerendert wurden. Sie werden für den neuen Frame nur neu verwertet und interpretiert. Da steckt der ganze zauber drin.
Generative KI würde für DLSS nicht funktionieren. Das wär aktuell VIEL zu rechenaufwändig und speicherlastig.
Außerdem würde man niemals mit der Nativen Auflösung mithalten können, weil die Details die sich eine generative KI ausdenken würde ja selten mit dem original in höherer Auflösung decken würden.
Einfachstes Beispiel wäre Text. Wenn du Text in der reduzierten Renderauflösung vor dem Upscaling nicht mehr lesen könntest, könnte keine generative KI der welt diesen Text beim Upscaling lesbar machen. Sie könnte "irgend" nen text generieren, damit es eben nach text aussieht, aber eben nicht den richtigen. DLSS hingegen könnte den Text lesbar machen, wenn über die temporale mehrfachabtastung genügend Bildinformationen zusammenkommen. Wenn du die Kamera im Spiel z.B. still hältst, dann wird von der Engine virtuell trotzdem die Kamera bei jedem frame minimal bewegt (jitter) damit DLSS für jeden Frame den es verarbeitet eine minimal andere perspektive auf die Szene hat. Dadurch entsteht die mehrfachabtastung und der Detailgewinn. 4 leicht versetzte Bilder sind rechnerisch gleichwertig wie ein Bild das in vierfacher Auflösung berechnet wurde. Prinzip verstanden?
rZx schrieb:
DLAA sieht besser aus.
DLSS sieht man schon deutlich.
Bei DLSS3 ja. Bei DLSS4... nicht mehr wirklich.