@gartenriese Wurde doch schon zig mal erklärt. Dadurch dass die Kamera in jedem Frame minimal versetzt wird (jitter) bekommst du mit jedem Frame neue Bildiformationen, so dass du bereits nach 4 Frames genug Informationen hättest, um das Spiel in 4 facher Auflösung zu rendern.
Wenn du z.B. eine dünne Stromleitung im 720p Bild nur verpixelt und unvollständig abgebildet siehst, dann wird sich über mehrere Frames hinweg durch den jitter und die immer leicht andere perspektive der Teil der Stromleitung den du siehst bzw. nicht siehst in jedem Frame etwas verändern. Im 720p Frame würde die Stromleitung dann auch flimmern wenn du dich bewegst, weil sie so dünn ist, dass immer nur ein paar Pixel der Stromleitung es tatsächlich ins fertige Bild schaffen.
Wenn du dann aber mehrere Frames kombinierst, wo jeweils ein teil der Leitung zu sehen war, dann können diese Informationen kombiniert werden, bis aus den pixeligen teilstücken irgendwann eine klare durchgehende Linie wird.
Wenn also Information in einem Frame fehlt, wird sie durch den Jitter in den vorherigen Frames irgendwo zu finden sein. Je feiner der Jitter der Kamera und je mehr frames, desto feiner wird auch die Szene abgetastet und desto höher kann man (in der theorie) die Auflösung am ende pushen.
Also das Grundprinzip ist nun wirklich keine Raketenwissenschaft und seit Jahrzehnten bekannt und häufig teil einer Signalverarbeitung. Hab letztens sogar ein Video auf YouTube gesehen wo dieses prinzip der Mehrfachabtastung genutzt wird, um die Ausbreitung von Licht im Raum auf Video aufzunehmen. Die Kamera kann zwar nur einen Pixel aufnehmen, aber auch da nutzt man die Mehrfachabtastung der Szene, um daraus ein vollständiges Bild zu rekonstruieren.
Man schießt einen Laser Impuls einfach millionen fach ab.
Nach jedem Abschuss macht man immer zur exakt gleichen zeit eine Aufnahme, jedoch in der räumlichen Position immer leicht versetzt (quasi unser jitter). So bekommt man mit einer Kamera die nur einen Pixel aufnehmen kann trotzdem ein vollständiges Bild. Hat das Bild also z.B. eine 720p Auflösung, braucht man nur 1280x720 mal die Position leicht ändern, den Laser pulse ebenfalls so oft abschießen und jeweils ein Pixel zur gleichen Zeit aufnehmen und die Aufnahmen zusammensetzen. Schon hat man ein vollständiges Bild. Will man den nächsten Frame aufnehmen justiert man nur den Aufnahmezeitpunkt nachdem der Laser abgeschossen wurde und tastet wieder 1280x720 mal die Position ab, um das zweite Bild zusammenzusetzen.
Hier das Video
Hat zwar überhaupt nichts mit DLSS zu tun, führt das Prinzip der temporalen akkumulation aber ins absolute extrem. Ich kann das Video daher trotzdem sehr empfehlen, um das Prinzip zu verstehen.
Der Relevante Teil beginnt bei 13:10. Ich empfehle trotzdem das ganze Video.
Theoretisch könnte man also bei DLSS sogar mit 1 Pixel Pro Frame arbeiten, wenn das Spiel mit Millionen von Frames pro Sekunde laufen würde. Die Frage ist also nur, wie viele Pixel man in einer bestimmten Zeit abtasten kann. Wenig Auflösung und mehr Frames oder mehr Auflösung und weniger Frames. Ist zumindest tehoretisch völlig egal, es zählt nur, vie viele Megapixel Pro Sekunde man abtastet. In der Praxis erreicht man natürlich niemals so hohe Frameraten in einem Spiel, erstens weil die CPU meistens schon bei wenigen hundert Frames/s limitiert und weil eine GPU überhaupt nicht darauf ausgelegt ist nur einen Pixel zu berechnen. Die Rechenleistung der Grafikkarte würde also kaum ausgenutzt werden. Das funktioniert in der Praxis also nicht.
Soll ja auch nur ein Extrembeispiel sein, wie man selbst aus einem Pixel beliebig hochauflösende Bilder rekonstruieren könnte, was ja nach ansicht mancher hier "nicht möglich" sein soll.
Wenn du z.B. eine dünne Stromleitung im 720p Bild nur verpixelt und unvollständig abgebildet siehst, dann wird sich über mehrere Frames hinweg durch den jitter und die immer leicht andere perspektive der Teil der Stromleitung den du siehst bzw. nicht siehst in jedem Frame etwas verändern. Im 720p Frame würde die Stromleitung dann auch flimmern wenn du dich bewegst, weil sie so dünn ist, dass immer nur ein paar Pixel der Stromleitung es tatsächlich ins fertige Bild schaffen.
Wenn du dann aber mehrere Frames kombinierst, wo jeweils ein teil der Leitung zu sehen war, dann können diese Informationen kombiniert werden, bis aus den pixeligen teilstücken irgendwann eine klare durchgehende Linie wird.
Wenn also Information in einem Frame fehlt, wird sie durch den Jitter in den vorherigen Frames irgendwo zu finden sein. Je feiner der Jitter der Kamera und je mehr frames, desto feiner wird auch die Szene abgetastet und desto höher kann man (in der theorie) die Auflösung am ende pushen.
Also das Grundprinzip ist nun wirklich keine Raketenwissenschaft und seit Jahrzehnten bekannt und häufig teil einer Signalverarbeitung. Hab letztens sogar ein Video auf YouTube gesehen wo dieses prinzip der Mehrfachabtastung genutzt wird, um die Ausbreitung von Licht im Raum auf Video aufzunehmen. Die Kamera kann zwar nur einen Pixel aufnehmen, aber auch da nutzt man die Mehrfachabtastung der Szene, um daraus ein vollständiges Bild zu rekonstruieren.
Man schießt einen Laser Impuls einfach millionen fach ab.
Nach jedem Abschuss macht man immer zur exakt gleichen zeit eine Aufnahme, jedoch in der räumlichen Position immer leicht versetzt (quasi unser jitter). So bekommt man mit einer Kamera die nur einen Pixel aufnehmen kann trotzdem ein vollständiges Bild. Hat das Bild also z.B. eine 720p Auflösung, braucht man nur 1280x720 mal die Position leicht ändern, den Laser pulse ebenfalls so oft abschießen und jeweils ein Pixel zur gleichen Zeit aufnehmen und die Aufnahmen zusammensetzen. Schon hat man ein vollständiges Bild. Will man den nächsten Frame aufnehmen justiert man nur den Aufnahmezeitpunkt nachdem der Laser abgeschossen wurde und tastet wieder 1280x720 mal die Position ab, um das zweite Bild zusammenzusetzen.
Hier das Video
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Hat zwar überhaupt nichts mit DLSS zu tun, führt das Prinzip der temporalen akkumulation aber ins absolute extrem. Ich kann das Video daher trotzdem sehr empfehlen, um das Prinzip zu verstehen.
Der Relevante Teil beginnt bei 13:10. Ich empfehle trotzdem das ganze Video.
Theoretisch könnte man also bei DLSS sogar mit 1 Pixel Pro Frame arbeiten, wenn das Spiel mit Millionen von Frames pro Sekunde laufen würde. Die Frage ist also nur, wie viele Pixel man in einer bestimmten Zeit abtasten kann. Wenig Auflösung und mehr Frames oder mehr Auflösung und weniger Frames. Ist zumindest tehoretisch völlig egal, es zählt nur, vie viele Megapixel Pro Sekunde man abtastet. In der Praxis erreicht man natürlich niemals so hohe Frameraten in einem Spiel, erstens weil die CPU meistens schon bei wenigen hundert Frames/s limitiert und weil eine GPU überhaupt nicht darauf ausgelegt ist nur einen Pixel zu berechnen. Die Rechenleistung der Grafikkarte würde also kaum ausgenutzt werden. Das funktioniert in der Praxis also nicht.
Soll ja auch nur ein Extrembeispiel sein, wie man selbst aus einem Pixel beliebig hochauflösende Bilder rekonstruieren könnte, was ja nach ansicht mancher hier "nicht möglich" sein soll.
Zuletzt bearbeitet: