Doch. Wenn du meinst, es wären nicht ganze Bilder, dann sag konkret welche Pixel nicht durch KI generiert wurden. Am besten erklärst du noch, wie du dir vorstellst, dass nur Teile des Bildes per KI generiert wurden, dann kann man dir vielleicht erklären, wo genau du falsch liegst.Taxxor schrieb:nicht "ganze Bilder per KI"
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA
Grestorn schrieb:Es wird in einer niedrigen Auflösung gerendert, aber immer wieder und mit Kamera-Jitter. Wodurch die fehlenden Details restauriert werden.
Das Jittern und die Menge der Renderings restaurieren die Details. Nicht eine AI.
Und das ist wohl nicht ganz korrekt. Die "AI" in Form des Trainierten Neuronalen Netzes (Ein Transformer Model welches auf der Karte ausgeführt läuft mit hilfe der Tensor Cores) wertet scheinbar diese gefundenen jitter Pixel aus und berechnet daraus ein Bild welches dem der gewünschten Auflösung am nächsten kommt.
- Registriert
- Mai 2011
- Beiträge
- 22.796
Es wurden überhaupt keine Teile per KI generiert, das ist der Punkt.adfsrg schrieb:Am besten erklärst du noch, wie du dir vorstellst, dass nur Teile des Bildes per KI generiert wurden, dann kann man dir vielleicht erklären, wo genau du falsch liegst.
Alle Teile des Bildes bestehen aus Informationen die von der Spielengine selbst kommen, das Bild ist genau so "generiert" wie ein TAA Bild auch, denn TAA(U) macht im Grundprinzip nichts anderes als DLSS, nur halt deutlich ineffizienter, weshalb es mehr Daten benötigt und daher nicht in niedrigerer Auflösung arbeiten kann ohne dass die Qualität drastisch abfällt.
TheInvisible
Commander
- Registriert
- Jan. 2022
- Beiträge
- 2.207
Würde viel zu viel Compute und Speicher benötigen. Man braucht aber auch keine 100% weil Nativ schon nicht perfekt istadfsrg schrieb:Noch nicht mal. Wäre das Ergebnis korrekt, dann würde der Output zu 100% mit der Ground Truth übereinstimmen.
Passiv ist halt sehr unguter Ausdruck, natürlich läuft aktiv lokal ein KI Modell, dieses wurde aber am Nvidia Cluster trainiert. Das Ausführen geht aber zig mal schneller als das trainieren. Im Prinzip werden da Mio 16k Bilder auf ein paar MB Zahlen zusammengeschrumpft das lokal ausgeführt wird, sonst wäre die DLSS-DLL mehrere TB großTaxxor schrieb:Seit DLSS 2.0 ist der Ansatz passiv und es wird nicht mehr auf spezielle Spiele trainiert
Gib dir bei ihm nicht so viel Mühe. Ich glaube der trollt einfach nur ziemlich schlecht um mich zu provozieren.Bregor schrieb:Und das ist wohl nicht ganz korrekt.
Ergänzung ()
Oh, Fakt ist aber, dass ALLE Teile des Bildes generiert werden. Richtig berechnet wird nur der Input für die ModelsTaxxor schrieb:Es wurden überhaupt keine Teile per KI generiert, das ist der Punkt.
Ich finde es spannend, wie ihr diese Aussage immer wieder macht, ohne jede technische Grundlage.Bregor schrieb:Und das ist wohl nicht ganz korrekt. Die "AI" in Form des Trainierten Neuronalen Netzes (Ein Transformer Model welches auf der Karte ausgeführt läuft mit hilfe der Tensor Cores) wertet scheinbar diese gefundenen jitter Pixel aus und berechnet daraus ein Bild welches dem der gewünschten Auflösung am nächsten kommt.
Dass es einfach gar nicht realistisch ist, dass eine solche AI-Leistung, die ganze Bilder in dieser Geschwindigkeit generiert, auf heutiger Hardware geben kann... was soll's. Ignorieren wir das einfach mal.
Ach, was solls. Glaubt doch, was ihr wollt.
Ergänzung ()
Generiert vom DLSS Algo. Aber nicht von einer KI.adfsrg schrieb:Oh, Fakt ist aber, dass ALLE Teile des Bildes generiert werden. Richtig berechnet wird nur der Input für die Models
Selbstverständlich braucht man das nicht, aber korrekt bedeutet nun mal, dass es zu 100% stimmt. Alles andere ist nicht wirklich korrekt, auch wenn das Ergebnis durchaus nutzbar ist.TheInvisible schrieb:Man braucht aber auch keine 100% weil Nativ schon nicht perfekt ist
- Registriert
- Mai 2011
- Beiträge
- 22.796
Das exakt gleiche gilt, oh Wunder, auch für TAA.adfsrg schrieb:Oh, Fakt ist aber, dass ALLE Teile des Bildes generiert werden. Richtig berechnet wird nur der Input für die Models
Mit diesem schönen Wort kann man halt alles passend machen, absolut alles was du auf dem Monitor siehst, wurde von irgendwas "generiert"
TheInvisible
Commander
- Registriert
- Jan. 2022
- Beiträge
- 2.207
Ist es aber, wie sonst könnte man wie zb hier von 76p auf 4k upscalen? So viel Jitter gibt es gar nicht bzw ist viel zu grob das da so viele Details nur allein dadurch rekonstruiert werden können: https://www.pcgameshardware.de/Deep...-Extremtest-38-x-22-Pixel-Skalierung-1504006/Grestorn schrieb:Dass es einfach gar nicht realistisch ist, dass eine solche AI-Leistung, die ganze Bilder in dieser Geschwindigkeit generiert, auf heutiger Hardware geben kann... was soll's. Ignorieren wir das einfach mal.
Nein, bei TAA wird das komplette Bild zuerst gerendert und dann per TAA gefiltert. Da wird nichts generiert, da ist noch nicht mal KI im Spiel.Taxxor schrieb:Das exakt gleiche gilt, oh Wunder, auch für TAA.
Grestorn schrieb:Ich finde es spannend, wie ihr diese Aussage immer wieder macht, ohne jede technische Grundlage.
Dass es einfach gar nicht realistisch ist, dass eine solche AI-Leistung, die ganze Bilder in dieser Geschwindigkeit generiert, auf heutiger Hardware geben kann... was soll's. Ignorieren wir das einfach mal.
Ach, was solls. Glaubt doch, was ihr wollt.
Ergänzung ()
Generiert vom DLSS Algo. Aber nicht von einer KI.
Ich weis halt nicht wie oft man es erwähnen oder erklären muss. Das was als KI bezeichnet wird ist das Transformer Model was auf der Karte mit Hilfe der Tensor Cores ausgeführt wird. Genaus wie diverse LLMs auf GPU laufen können und diese Cores nutzen.
Das das am Ende irgendwelche Matrix Multiplikationen und Umformungen und Mathematik sind, ändert da ja nix dran das man das heutzutage klassisch als "AI" bezeichnet.
Bei einem stehenden Bild kannst Du jede beliebige Detailauflösung erzeugen, wenn Du nur genügend Frames jitterst.TheInvisible schrieb:Ist es aber, wie sonst könnte man wie zb hier von 76p auf 4k upscalen? So viel Jitter gibt es gar nicht bzw ist viel zu grob das da so viele Details nur allein dadurch rekonstruiert werden können: https://www.pcgameshardware.de/Deep...-Extremtest-38-x-22-Pixel-Skalierung-1504006/
64 optimal gejitterte Frames sind absolut äquivalent zu einem 64 (8x8) Supersampling-Bild – wenn das Bild statisch ist.
Wie ich schon x-fach schrieb, ist die Bewegung das Problem, und da setzen der Algo und meinetwegen auch das neuronale Netz an.
- Registriert
- Mai 2011
- Beiträge
- 22.796
TAA ist kein Filter, TAA arbeitet ebenso mit temporaler Komponente beim Rendern wie DLSS, daher kommt ja auch das Ghosting und die oft verschwommen Optik, weil nicht genug Daten zur Verfügung stehen um das Bild ordentlich zu erzeugen.adfsrg schrieb:Nein, bei TAA wird das komplette Bild zuerst gerendert und dann per TAA gefiltert. Da wird nichts generiert, da ist noch nicht mal KI im Spiel.
Das einzige AA Verfahren was komplett nach dem Rendern passiert (Post processing) ist FXAA.
Zuletzt bearbeitet:
Holzfällerhemd
Lt. Commander
- Registriert
- Mai 2018
- Beiträge
- 1.108
Ich habe vor kurzem den Selbsttest in Arc Raiders gemacht, da ich von ner RTX3090 auf eine RX9070XT umgestiegen bin und ich muss sagen, dass mir in dem Spiel FSR deutlich besser gefällt.
Es ist ein fundamentaler Unterschied, ob man nun per AI Bilder generiert – so wie es Stable Diffusion et al. machen – oder ob man mit massiv-paralleler Berechnung von Matrizen (Vektorfeldern) arbeitet.Bregor schrieb:Das das am Ende irgendwelche Matrix Multiplikationen und Umformungen und Mathematik sind, ändert da ja nix dran das man das heutzutage klassisch als "AI" bezeichnet.
Das Wort AI wird im Marketing inflationär genutzt. Das bedeutet noch lange nicht, dass alles so super intelligent ist – es verkauft sich nur besser.
In welcher Form bei DLSS 4(.5) "Transformer" eingesetzt wird und wie es sich tatsächlich von CNN unterscheidet, weiß keiner so genau - außerhalb von NVidia.
Aber eines ist sicher: Es werden sicher keine ganzen Bilder per "Transformer" generiert, so wie man das von anderen Bildgeneratoren kennt.
Das glaubt ihr nur, aber es macht einfach keinen Sinn. So wie ein Transformer-Modell Bilder erzeugt, wäre das vieeeeeel zu ineffizient, um es in Echtzeit nutzen zu können.
TheInvisible
Commander
- Registriert
- Jan. 2022
- Beiträge
- 2.207
Ist kein stehendes Bild, sieh dir doch bitte auch den Artikel entsprechend an.Grestorn schrieb:Bei einem stehenden Bild kannst Du jede beliebige Detailauflösung erzeugen, wenn Du nur genügend Frames jitterst.
64 optimal gejitterte Frames sind absolut äquivalent zu einem 64 (8x8) Supersampling-Bild – wenn das Bild statisch ist.
Wie ich schon x-fach schrieb, ist die Bewegung das Problem, und da setzen der Algo und meinetwegen auch das neuronale Netz an.
Diese Diskussion wird langsam mühsam und hat eh keinen Sinn wenn du keine andere Meinung akzeptieren willst und immer auf irgendwelche Wortfetzen herumreitest...
tomsen78
Lt. Commander
- Registriert
- Juli 2006
- Beiträge
- 1.629
Kleiner Verbesserungsvorschlag oder Idee, falls es einen nächsten Blind-Test geben wird:
Man hätte einen Test mit 3x demselben Upscaler verwenden können, um zu sehen, wie viel Personen erkennen: "ich sehe keinen Unterschied" (was ja dann der Fall wäre). Als so eine Art "Kontroll-Frage".
Man hätte einen Test mit 3x demselben Upscaler verwenden können, um zu sehen, wie viel Personen erkennen: "ich sehe keinen Unterschied" (was ja dann der Fall wäre). Als so eine Art "Kontroll-Frage".
Ähnliche Themen
- Antworten
- 740
- Aufrufe
- 40.529
- Antworten
- 487
- Aufrufe
- 48.691
- Antworten
- 251
- Aufrufe
- 26.644
- Antworten
- 295
- Aufrufe
- 55.582
- Antworten
- 283
- Aufrufe
- 89.609