Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

ReactivateMe347 schrieb:
Upscaling greift auf mehrere frames zurück, aber nativ geht doch auf die originalen 3d-Modelle zurück, was viel mehr Information ist, als ein paar vorherige Frames?!
Es gibt kein natives Nativ mehr, auch da ist TAA aktiv was gleich funktioniert. bei reinem Nativ würde dir bei heutigem Content die Augen rausflimmern
 
  • Gefällt mir
Reaktionen: Fika, ElliotAlderson, Grestorn und eine weitere Person
adfsrg schrieb:
Bei DLSS SR hast du ja weniger Pixel berechnet, als ausgegeben werden, also kann es so nicht funktionieren.
Du hast mehr berechnet. Du vergisst die vorhergehenden Frames und das Jittering.

Wie ich im anderen Thread schon mal schrieb, angenommen, das Bild ist statisch, dann hat man nach 16 gejittert gerenderten Bildern dieselbe Auflösung wie bei 16x (4x4) Supersampling.

Und wenn man Upscalen muss, z.B. von 67% (DLSS Q) dann braucht man eben 24 Bilder dafür. Aber das Ergebnis ist das gleiche.

(Ja, das Bild im Spiel ist nicht statisch. Aber irgendwo muss ja die AI auch noch was machen, nicht wahr?! Genau da unterscheiden sich dann TAA und DLSS/FSR).
 
Grestorn schrieb:
Ja, das Bild im Spiel ist nicht statisch. Aber irgendwo muss ja die AI auch noch was machen, nicht wahr?! Genau da unterscheiden sich dann TAA und DLSS/FSR
Sieht man auch gut daran, dass TAA bei einem komplett statischen Bild auch relativ scharf aussehen kann, das ganze bei der kleinsten Bewegung aber dann komplett zusammenfällt.
 
  • Gefällt mir
Reaktionen: Fika, ElliotAlderson und Grestorn
TheInvisible schrieb:
Klar kommen die auch aus dem Modell oder glaubst du die beschäftigen umsonst einen Cluster rund um die Uhr um Bildchen zu trainieren? DLSS4.5 benötigt 5x mehr Computer als DLSS4, das wird hauptsächlich mitigiert durch das neue Datenformat fp8 und daher sacken RTX20/30 auch mehr ab als die neuen Karten.
Laut dir müsste dann ja alles überall immer gleich schnell laufen und gleich viel Performance kosten...
Was hat denn das eine mit dem anderen zu tun?

Was auf dem Cluster passiert, hat doch null damit zu tun, was auf Deiner Karte passiert.

Und dass der Algo, der am Ende auf Deiner Karte läuft, mehr Performance braucht, als CNN, erlaubt doch überhaupt keine Aussage darüber, wie DLSS intern funktioniert. Nur eben, dass 4.5, aka "Transformer" mehr Ressourcen braucht.

Dass die Bilder per Transformer Modell erzeugt werden, kann man daraus nicht ableiten. Und weiterhin macht es überhaupt keinen Sinn zu glauben, die Bilder würden von einer KI vollumfänglich und komplett generiert.

Mal was anderes gefragt: FSR3 ist doch nach allgemeinem Verständnis ganz OHNE AI ausgekommen. Richtig? Wie meinst Du denn, haben die trotzdem so gute Ergebnisse hinbekommen?
 
blackiwid schrieb:
Unter Linux nicht

Linux ist kein Mainstream und "immer" gilt dann nicht. Genauso wenig, wenn du der Neffe von Lisa Su bist.

Hatte eine 9070 XT Hellhound und Red Devil hier, die kamen um 640 und 680 rum. Habe mich dann für eine Inno3D für 779 entschieden und das war es mir wert. Keine Ahnung wie du auf 200 kommst. Man darf natürlich auch nicht die billigsten Customs der 9070 XT nehmen, es sei denn, man steht auf Spulengeräusche. Aber selbst die guten o.g. hatten mir zuviel (die Lüfter waren dafür ein Traum, das ist oft das Manko bei Nvidia).
 
LucLeto schrieb:
Sehr gut! Sehe ich genau so.

Aber eine Frage zu dem Pokal. Was für ein Port im Sockel ist der ganz rechts?
ich glaub da hat die KI zuerst das gehäuse gezeichnet und dann beim 4 Port festgestellt, dass nimma genug Platz ist und ihn deshalb bissal gestaucht..
;-)
 
  • Gefällt mir
Reaktionen: LucLeto
Grestorn schrieb:
Mal was anderes gefragt: FSR3 ist doch nach allgemeinem Verständnis ganz OHNE AI ausgekommen. Richtig? Wie meinst Du denn, haben die trotzdem so gute Ergebnisse hinbekommen?
Fsr3 war nicht gut sondern dlss hoffnungslos unterlegen, warum ist AMD sonst den AI weg gegangen und hat extra Hardware dafür eingebaut und ein Modell trainiert? Sei doch wenigstens ein wenig realistisch...
 
  • Gefällt mir
Reaktionen: mikiiway
Taxxor schrieb:
Doch weil du dadurch dass du die Informationen aus sehr viele Frames in niedriger Auflösung verwendest und das ganze jitterst, mehr Informationsdichte hast als in dem nativen 4K Bild.
Nein. Die Pixel, die berechnet werden, kannst du nicht 1:1 den dargestellten Pixeln zuordnen. Dass es spatial nicht geht, ist wohl offensichtlich, da die Auflösung ja geringer ist. Temporal geht es auch nicht.

Das sind halt alles nur Inputs für die KI, die daraus das Bild generiert. DLSS arbeitet ganz anders als TAA.
Ergänzung ()

Taxxor schrieb:
TAA nutzt ebenso die Informationen aus den vergangenen Frames, jedoch muss es auf deutlich weniger Frames zurückgreifen weil das Modell nicht so performant ist
TAA arbeitet ohne KI, da gibts kein Modell.
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
MalWiederIch schrieb:
... was sind dann die anderen? :stacheln:
Das ist die Frage, auch bzgl. derjenigen die da (wie meine Wenigkeit) gar nicht erst mitgemacht haben (aber vermutlich ähnlich abgestimmt hätten) aufgrund geringer Relevanz, anderen Schwerpunkten in Videospielen/beim Grafikkartenkauf als Upscaling oder anderen Gründen ;).
 
adfsrg schrieb:
TAA arbeitet ohne KI, da gibts kein Modell.
Nenn es eben Algorithmus.
FSR 2 und 3 arbeiten auch ohne KI, da gibts trotzdem einen Algorithmus der die Inputs bekommt die auch FSR 4 bekommt.

TAAU, welches ja im Prinzip auch nichts weiter als TAA mit niedrigerer Renderauflösung ist, und dessen Nachfolger TSR ebenso.

Das was dort grundlegend passiert ist für alle dieser Techniken gleich.
 
  • Gefällt mir
Reaktionen: usmave, Grestorn, ElliotAlderson und eine weitere Person
adfsrg schrieb:
Nein. Die Pixel, die berechnet werden, kannst du nicht 1:1 den dargestellten Pixeln zuordnen. Dass es spatial nicht geht, ist wohl offensichtlich, da die Auflösung ja geringer ist. Temporal geht es auch nicht.
Kannste doch bei recht vielen Effekten mit TAA auch nicht. Da gibts genug die intern Subnative sind und dann über mehrere Frames akkumuliert werden.
 
  • Gefällt mir
Reaktionen: Grestorn
pabu.roar schrieb:
Man darf natürlich auch nicht die billigsten Customs der 9070 XT nehmen, es sei denn, man steht auf Spulengeräusche. Aber selbst die guten o.g. hatten mir zuviel (die Lüfter waren dafür ein Traum, das ist oft das Manko bei Nvidia).
Ich hab erst letztens gesehen das auch Nvidias deutliches Spulenfiepen haben, deine anekdotische Evidence von 2 Karten ist da Wertlos. Und da du nicht zum gleichen Zeitpunkt gekauft hast und oder die aller-billigste Nvidia machst bei Nvidia genau das was du mir bei AMD vor wirfst, Spulenfiepen hängt von vielen Faktoren ab, wie gut isoliert dein Gehäuse wo steht es aufm Schreibtisch unterm Tisch, manche Leute sind empfindlicher manche nicht, spätestens älter hörst die hohen Frequenzen eh nimmer und ich hab auch immer Kopfhörer beim Spielen auf da ich auch gern mal Fester auf mach und der Ton pro Euro einfach besser ist...

Es ist halt schon witzig das du die aller-billigste Nvidia Custom genommen hast aber meinst ich dürfe das nicht machen.

Man sieht es ja schon das es selten irgendwie zu ner Einstellung von Modellen kommt sprich Modelle mit starkem Fiepen werden verkauft und dann nicht zurück geschickt... also anscheinend können sehr viele Menschen sehr gut damit leben. Da die meisten ja nur vielleicht 1h am Tag spielen und sie im Desktop beim Browsen eher weniger piepsen und man vielleicht auch sonst nen anderen PC hat wie ich und viele andere Faktoren die ich nannte ist es schon strange das du das nennst.

Besonders witzig das du mein Linux Argument als Nische abtust und sowas das 99% der Nutzer am Arsch vorbei geht plötzlich als Kaufentscheidend einstufst (nur bei AMD nicht bei Nvidia).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro
12nebur27 schrieb:
Kannste doch bei recht vielen Effekten mit TAA auch nicht.
Dann ergibt schon das keinen Sinn:
1. Bild -> Pixel schwarz
2. Bild -> Pixel blau
3. Bild -> Pixel schwarz
4. Bild -> Pixel schwarz
5. Bild -> Pixel schwarz
6. Bild -> Pixel blau
 
Wird Zeit für ne Forenki als Faktenchecker, wobei dann hier vermutlich jeder Thread auf Seite 3 abstirbt 😅
macht mal frisches 🍿
 
  • Gefällt mir
Reaktionen: Andre83hro
@adfsrg verstehe nicht was du meinst. TAA ist deutlich komplexer als einfach nur den durchschnittlichen Pixel auszurechenen. Es geht darum mit so vielen extra Infos die du bekommen kannst den am wahrscheinlichsten richtig aussehenden Pixel auszugeben.
 
  • Gefällt mir
Reaktionen: Grestorn
adfsrg schrieb:
Nein. Die Pixel, die berechnet werden, kannst du nicht 1:1 den dargestellten Pixeln zuordnen. Dass es spatial nicht geht, ist wohl offensichtlich, da die Auflösung ja geringer ist. Temporal geht es auch nicht.
Genau das ist der Part, den die KI bei DLSS und Co. übernimmt: Nach Auswertung der Bewegungsvektoren, Tiefeninformationen etc. entscheidet das KI Modell, welche Daten aus den vorherigen Bildern an welcher Stelle im aktuellen Bild verrechnet werden kann.
Dazu werden wahrscheinlich noch verdeckte Bereiche interpoliert, die gerade bei den klassischen temporalen Upscalern ein Problem darstellen.

Das grundsätzliche Prinzip der temporalen Verrechnung ist genau das gleiche wie bei allen KI-losen Verfahren wie FSR 2+3, TAAU, TSR etc.

Es wird kein Bild per KI "generiert", sondern aufgrund der von der KI ausgewählten, verwertbaren Pixelinformationen temporal verrechnet.
 
  • Gefällt mir
Reaktionen: usmave, ElliotAlderson und Grestorn
TheInvisible schrieb:
Fsr3 war nicht gut sondern dlss hoffnungslos unterlegen, warum ist AMD sonst den AI weg gegangen und hat extra Hardware dafür eingebaut und ein Modell trainiert? Sei doch wenigstens ein wenig realistisch...
Hoffnungslos… naja, es war unterlegen, speziell bei den Artefakten durch sich bewegende Elemente. Bewegte Elemente. Kommt dir das bekannt vor? Habe ich das vielleicht schon ein paar Mal erwähnt im Zusammenhang, wofür die "AI" in DLSS vermutlich hauptsächlich verwendet wird?

Und damit hast Du auch den Grund, warum man den FSR-3-Algorithmus so erweitert hat, dass er sehr effizient mit Int8 läuft – und damit auch Technologien zurückgreifen kann, die man auch aus dem AI-Bereich kennt. Und das Ganze deswegen einfach mal AI genannt. Cooles Marketing. NVidia hat's vorgemacht.

Der Begriff "AI" ist ja – und das solltet ihr wissen – nicht 100% scharf definiert. Was schon alles als AI bezeichnet wurde...

Nochmal: Ich bezweifle nicht, dass AI-like-Technologien auch auf den Karten laufen. Ganz sicher sogar. Das, was auf den Tensor-Kernen läuft, ist sicher eine Art AI im Kleinen.

IM KLEINEN

So etwas kann nicht mal eben 100 Bilder pro Sekunde erzeugen, auf eine Art, wie das voll ausgewachsene Transformer-AIs, die man im Netz nutzen kann, schon nicht hinbekommen. Auch wenn ich eine Transformer AI im Netz ein Bild nur SKALIEREN lasse, warte ich viele SEKUNDEN auf das Resultat.

SEKUNDEN. Im Netz. Und das soll auf einer 2060 in 100-facher Geschwindigkeit laufen? Get real.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usmave
Taxxor schrieb:
Ganz simples Beispiel(und bewusst nicht im Detail beschrieben, bevor jemand Spitzfindig werden will):
DLSS schaut sich in einem Bild wo in der Ferne eine dünne Stromleitung vor einem blauen Himmel verläuft, einen Pixel über 6 verschiedene Bilder an:

1. Bild -> Pixel schwarz
2. Bild -> Pixel blau
3. Bild -> Pixel schwarz
4. Bild -> Pixel schwarz
5. Bild -> Pixel schwarz
6. Bild -> Pixel blau

Der Algorithmus nutzt diese Daten um dir im finalen Bild statt einer flickernden Linie eine durchgehend schwarze Linie zu zeigen, da aus den Daten der vorherigen Frames, er umliegenden Pixel aus dem aktuellen sowie den vorherigen Frames und der Motion Vectoren (+ dem Jittering) ersichtlich ist, dass nicht blau sondern schwarz an dieser Stelle sein muss.

Dieser schwarze Pixel ist aber keine neue Information, die es vorher nicht gab. Ganz im Gegenteil, er stammt aus einem Haufen alter Informationen aus denen einfach die blauen Pixel verworfen wurden
Es werden Details rekonstruiert auf Basis von Neuronalen Netzen und Matrizenmultiplikationen in Tensorcores. Das ist 100% AI und genauso AI wie Stable Diffusion. Ob es am Ende ein hochkomplexer Algorithmus ist, welcher mit den NN arbeitet oder die Inference anders abläuft, bleibt NVidias geheimnis, aber es ist Fakt, durch die Rekonstruktion auf Basis von Temporalen Informationen mehr Details generiert, anders als jeder deterministische Algorithmus im Ansatz hinbekommt.
 
  • Gefällt mir
Reaktionen: Iscaran und adfsrg
Grestorn schrieb:
Nochmal: Ich bezweifle nicht, dass AI-like-Technologien auch auf den Karten laufen. Ganz sicher sogar. Das, was auf den Tensor-Kernen läuft, ist sicher eine Art AI im Kleinen.

IM KLEINEN
Im Kleinen, Im Großen. Du hast doch erzählt das ist KEINE AI. Natürlich wird jeder Anwendungsfall anders umgesetzt. Es ist ein AI unterstützter Realtime Algorithmus. Aber im Kern ist es nix anderes als ein fettes lahmes LLM, nur kleiner.
 
  • Gefällt mir
Reaktionen: Brrr, Iscaran und Bregor
Zurück
Oben