Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

Kuestennebel79 schrieb:
Es handelt sich um künstliche neuronale Netze, welche auch bei generativer AI bspw. ChatGPT zum Einsatz kommen. Bei DLSS werden die besten Pixel für das Upsampling Bild vorhergesagt und bei ChatGPT Text Silben.
Übrigens, mit DLSS 4 kam sogar das Transformer Modell als Architektur Konzept für das Neuronale Netz zum Einsatz, welches für ChatGPT von OpenAI entwickelt wurde.
Korrekt.
Schlimm, dass man das sogar hier erklären muss. Das sollte längst Allgemeinbildung sein.
 
  • Gefällt mir
Reaktionen: Snapuman und Kuestennebel79
adfsrg schrieb:
Bisher zeigst du davon nicht viel.
Naja. Im Beleidigen bist Du jedenfalls ein Ass!

adfsrg schrieb:
Was sollen "temporal gerenderten Daten" sein? lol
Ernsthaft? Muss ich jetzt zum 1001. mal erklären, wie gejittertes temporales Rendering funktioniert?
 
Dass FSR im Blindtest nun doch so viel schlechter abschneidet als an der letzten, viel kritisierten Umfrage?
Wie überraschend :rolleyes:
Fujiyama schrieb:
Ich sehe fast kein unterschied
Würde ich natürlich an deiner Stelle auch behaupten - die Umfrage ist jedoch eindeutig.
Fujiyama schrieb:
Wenn man spielt und in Bewegung ist fällt es nicht auf
Wunschdenken - der Blindtest würde genau gleich ausfallen - was wir jedenfalls wissen ist, dass viel mehr Leute für FSR stimmen, wenn es kein Blindtest ist :stacheln:
Return2Burn schrieb:
🍿 Ihr wollt exakt die gleiche Diskussion nochmal? Gern, exaxt die gleiche Diskussion nochmal🤣
Dieses mal wenigstens mit vernünftigen Antworten - da Blindtest :)
 
Zuletzt bearbeitet:
Kuestennebel79 schrieb:
Da ist viel Meinung, aber wenig Ahnung, Sorry.

Es handelt sich um künstliche neuronale Netze, welche auch bei generativer AI bspw. ChatGPT zum Einsatz kommen. Bei DLSS werden die besten Pixel für das Upsampling Bild vorhergesagt und bei ChatGPT Text Silben.
Übrigens, mit DLSS 4 kam sogar das Transformer Modell als Architektur Konzept für das Neuronale Netz zum Einsatz, welches für ChatGPT von OpenAI entwickelt wurde.
Nein nein, nein und nochmal nein.

Wenn Du so etwas behauptest, dann hast Du sicher eine Quelle dafür.

Und außerdem muss ich mich echt wundern, dass ihr im Ernst glaubt, DLSS und FSR wären eine solche Wundertechnik, die in der Lage wäre, in dieser Geschwindigkeit Bilder zu generieren.
 
Für mich spielt der Unterschied von FSR4 zu DLSS4/5 keine Rolle. Schön, dass DLSS4.5 besser aussieht, aber sehen tue ich das auch nur im direkten Vergleich.
Und Danke für diesen tollen Test.
 
Hmm, bei Arc Raiders und Anno empfand ich auf meinem 42 Zoll nativ besser und bei CP 2077 konnte ich keinen Unterschied sehen. Bei den anderen empfand ich DLSS 4.5 als am Besten.
 
Erstaunlich, wie viele da "keinen Unterschied erkennen" konnten und ja, auch für mich war es nicht relevant (ich habe mir die Teilnahme gespart).

Wenn man nach Unterschieden suchen muss und nein, sich Videos anschauen ist i.d.R. nicht das gleiche wie Spiele aktiv spielen (am liebsten auf 2 PCs nebeneinander, damit man sich dann über das GPU-Upscaling selbst beweihräuchern kann, denn das Spielgeschehen ist im Vergleich zur Grafik ja Nebensache, oder etwa nicht?).

Trotzdem schön, dass ein Teil der CB Community hier die ausgesuchten Testszenenvideos vergleichen konnte, um einen Gewinner zu küren.
 
  • Gefällt mir
Reaktionen: Brrr und joel
blackiwid schrieb:
Das steht noch nicht fest
Geh bitte, wie lange will man den Hype noch aufrecht halten das FSR4 für RDNA3 und älter kommt, das hätte doch schon mit Redstone "SICHER" kommen müssen, es gab aber nicht mal einen Mucks von AMD dazu. FSR4 int8 ist doch schon lange fertig, da müsste AMD nur auf den Release Button drücken und nicht auf irgendwas warten.
 
Grestorn schrieb:
Naja. Im Beleidigen bist Du jedenfalls ein Ass!
Den Teil mit der Kobra versteh ich nicht, oder meintest du die Interjektion "Na ja"?
Ich verbitte es mir, dass du mir unterstellst, ich würde dich beleidigen. Das ist offensichtlich nicht der Fall.


Grestorn schrieb:
Nicht alles, was neuronale Netze nutzt, ist ein Bildgenerator wie Stable Diffusion & Co. Aber genau diese Assoziation hat doch ein @adfsrg im Kopf.
Fakt ist: SD nutzt Transformer, genauso wie DLSS SR.
Ergänzung ()

Grestorn schrieb:
Ernsthaft? Muss ich jetzt zum 1001. mal erklären, wie gejittertes temporales Rendering funktioniert?
Nein, das ist wohl jedem bekannt. Deine Formulierung war aber "temporal gerenderten Daten" und das ist zumindest sehr ungünstig formuliert.
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
DaHell63 schrieb:
Es ist doch so. dass nur 24% nativ am besten finden....76% finden das upscalling Bild besser, oder sehen beim upscalling keinen Unterschied zu nativ. Dazu der enorme Performancevorteil durch FSR/DLSS
Das ist für mich nicht nur ein dicker, sondern ein Sieg der nativ beerdigt.

Du scheinst nicht zu verstehen, was die 24% in diesem Kontext bedeuten. Fast ein Viertel der Teilnehmer findet Nativ besser als FSR/DLSS Quality, obwohl selbst der Performance Mode qualitativ besser ist als Nativ. Die Sache hätte viel eindeutiger ausfallen müssen, mit höchstens nur wenigen % Ausrutscher für Nativ..
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
Grestorn schrieb:
Und außerdem muss ich mich echt wundern, dass ihr im Ernst glaubt, DLSS und FSR wären eine solche Wundertechnik, die in der Lage wäre, in dieser Geschwindigkeit Bilder zu generieren.
Aber genau das tun sie. Beschreib doch mal, wie du dir das vorstellst, vielleicht können wir dir dann deinen Denkfehler aufzeigen und du verstehst das Ganze besser.
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
Chismon schrieb:
Erstaunlich, wie viele da "keinen Unterschied erkennen" konnten
Gerade einmal etwas über 10% - wie „viele“ :p
IMG_5932.jpeg

Wenn die kleinste Anzahl „viele“ sind - was sind dann die anderen? :stacheln:
 
  • Gefällt mir
Reaktionen: Snapuman
TheInvisible schrieb:
u. FSR4 int8 ist doch schon lange fertig
Das was geleakt wurde waren unvollständige Daten, die man dann kompiliert hat zu einer DLL. Die geleakten Daten waren bestenfalls irgendwas in der Entwicklung befindliches Alpha, Beta etc. aber sicherlich noch nichts Finales. Niemand außer AMD weiß ob sie die Entwicklung vorgesetzt haben intern bis zu einem finalen Status. Würde auch keinen Sinn machen wenn sie das Projekt abgeschlossen hätten und dafür Ressourcen aufwenden wenn sie nicht planen oder geplant haben es zu veröffentlichen.
 
  • Gefällt mir
Reaktionen: Return2Burn
TheInvisible schrieb:
doch schon mit Redstone "SICHER" kommen müssen
Erstens ist es egal, wenn du jetzt vor der Kaufwahl im Laden stehst hast RDN4 nicht 3 oder 2 und AMD hat es nie versprochen, auch hat AMD nie was zu Redstone gesagt, was sie aber getan haben war das sie den Namen sehr gehyped haben und daher war nicht nur wegen FSR4 sondern auch weil es sonst ziemliche Luftnummer war im Vergleich zum Hype enttäuschend.

Nichts desto Trotz ist auch DLSS 4.5 enttäuschend imho, und wer soll gesagt haben das es mit Redstone sicher kommt, sicher nicht AMD.

Die Frage ist was für verbessertes Upscaling dann Valve redet, wenn es nicht FSR4 ist... ein FSR3.5? Oder irgend ein Zaubertool sowas wie PSSR was soll das sonst sein? Hast du darauf ne Antwort oder kündigt Valve nur etwas an und dann kommt gar nichts? Kann mich nicht dran erinnert das Valve Features wo angekündigt hat und dann kam gar nichts am Ende, außer vielleicht Half Life 3 aber mit nem Datum angekündigt hat man das glaub auch nie.
 
  • Gefällt mir
Reaktionen: Andre83hro
adfsrg schrieb:
Fakt ist: SD nutzt Transformer, genauso wie DLSS SR.
Ergänzung ()
Modell 4.x nutzt etwas, was man Transformer genannt hat. Was das genau im Detail bedeutet, wissen nur die Nvidia-Entwickler. Dass das nicht 1:1 so funktioniert wie in anderen AI-Bildgeneratoren und -Modellen, sollte eigentlich offensichtlich sein. Für was genau das neuronale Netz und meinetwegen auch das Transformer-Modell letztlich bei DLSS zuständig sind, weiß keiner außerhalb von NVidia. Jedenfalls würde ich sehr viel darauf wetten, dass hier keine AI-Bilder generiert werden. Denn nochmal: Eine kleine 2060 soll mal eben zig Frames pro Sekunde mit einem AI-Transformer-Modell generieren? Ernsthaft? Glaubt ihr das wirklich?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
  • Gefällt mir
Reaktionen: Andre83hro
adfsrg schrieb:
Was sollen "temporal gerenderten Daten" sein? lol
Nicht böse gemeint, aber sowohl Google als auch ChatGPT kann dir das anstandslos beantworten. lol.
 
Grestorn schrieb:
Modell 4.x nutzt etwas, was man Transformer genannt hat. Was das genau im Detail bedeutet, wissen nur die Nvidia-Entwickler. Dass das nicht 1:1 so funktioniert wie in anderen AI-Modellen, sollte eigentlich offensichtlich sein. Für was genau das neuronale Netz und meinetwegen auch das Transformer-Modell letztlich bei DLSS zuständig ist, weiß keiner. Jedenfalls würde ich sehr viel darauf wetten, dass hier keine AI-Bilder generiert werden. Denn nochmal: Eine kleine 2060 soll mal eben zig Frames pro Sekunde mit einem AI-Transformer-Modell generieren? Ernsthaft? Glaubt ihr das wirklich?
warum nicht? Computing inference ist "günstig" die Chips exakt dafür designed. Das bedeutet ja nicht, dass der Treiber keine Daten zwischenspeichert oder zusätzlich Optimierungen anwendet.
 
  • Gefällt mir
Reaktionen: Andre83hro
Lakinator schrieb:
Andererseits bin ich auch immer noch sehr gewöhnt an das gute alte FXAA. Ich mags halt wenns scharf, nicht verschwommen und keine Ghosting Effekte oder sonstiges hat.
FXAA und scharf? FXAA hat auch immer zu Unschärfe geführt und ich habe es gehasst.

aLanaMiau schrieb:
MSAA funktioniert doch schon seit bestimmt 10 Jahren nicht mehr?
Warum sollte es nicht mehr funktionieren? Es wird halt fast nicht mehr genutzt. Counter-Strike 2 als aktuelles Spiel hat zum Beispiel noch MSAA zur Auswahl. In Half-Life Alyx ist es sogar erzwungen (VR Game):
https://www.reddit.com/r/FuckTAA/co..._half_life_alyx_it_uses_4x_msaa_no_ray/?tl=de
Was man für ein schönes, klares Bild mit MSAA bekommt 😍
 
  • Gefällt mir
Reaktionen: Brrr und Bccc1
Zurück
Oben