Hinten im Bild wird es noch viel schlimmer, die Bäume hinten und der Felsen fehlen teilweise komplett und sind nur noch Matsch. Selbst der Säule die nur ein Stück weiter hinten steht fehlen schon Details. Sieht dann irgendwie aus als wenn man nicht auf UHD spielt, sondern als wenn einfach Native FHD läuft.DaHell63 schrieb:Fehlender Schatten...fehlende Haare...allgemein matschiger...deine Meinung hat nicht mit subjektiv zu tun
FSR ist auch hier ganz klar letzter
[IMG]https://www.computerbase.de/forum/attachments/screenshot-418-png.1701729/[/IMG]
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich
- Registriert
- Aug. 2018
- Beiträge
- 3.067
HyperBeast_GER schrieb:Laut unabhängigen Tests passt das Bild, dann nutze ich die Zeit und Performance und genieße die Spiele anstatt das Haar in der Suppe zu suchen.
Welche Zeit? Der Vergleich dauert keine 5 Minuten. Und im Zweifel hast du das wesentlich bessere Bild als wenn du irgendjemandem blind glaubst. Zumal jeder jeden "Bildfehler" und jedes Artefakt anders wahrnimmt und manche eher von Aliasing, manche von Flimmern, Ghosting oder was weiß ich gestört werden.
Ich fand z.B. DLSS2 damals, als es in CP2077 gegen FSR2 angetreten ist, optisch weniger gut, weil mich das bei DLSS2 deutlich stärkere Ghosting mehr genervt hat als das unruhigere Bild bei FSR2.
Kann das alles nicht so ganz verstehen. Bei CP2077 z.B. sieht FSR4 auch auf Quality in 1440p noch einfach mies aus. Man werfe mal den internen Benchmark an und achte auf die Palmen am Ende, die Blätter sehen in FSR4 Quality aus als wäre gar kein AA in irgendeiner Form aktiviert, Aliasing des Todes. Wenn ich blind auf Performance stellen würde wüsste ich gar nicht, dass NativeAA als einziges ein brauchbares Bild liefert.
Deshalb finde ich Pauschalurteile auch so unpassend. Wenn ich hier in den Artikeln lese, dass Upscaling heutzutage angeblich ein "perfektes Bild" bieten soll, denke ich an die Palmen in CP2077.
Dass nativ keine Alternative ist liegt halt auch an TAA... dadurch ist man leider gezwungen auf Upscaling zu setzen, weil TAA so mies ist.
Insgesamt nutze ich wenn möglich FSR4 NativeAA und sonst am liebsten Downsampling. Das ist meiner Meinung nach in den meisten Spielen immer noch die beste Lösung, zumindest wenn es um die Bildqualität geht. Upscaling ist in manchen Spielen OK, aber oft eben auch nicht. Wie gesagt, pauschale Antworten gibts nicht und man sollte die paar Minuten investieren um auszuprobieren was einem persönlich am besten gefällt.
gartenriese schrieb:Was ist denn der Unterschied zwischen "Ground Truth" und den hochauflösenden Bildern? Für mich ist beides das gleiche.
Ja, aber eben die sind nicht die Basis. Darauf will ich ja hinaus. Es gibt keine hochauflösenden Bilder, gegen die trainiert wird. Das braucht man auch nicht, um die Details zu rekonstruieren. Dass die wieder sichtbar werden, liegt nicht am Training, sondern am Temporalen Jittering.
- Registriert
- Mai 2011
- Beiträge
- 22.764
Nicht hochauflösende Bilder, hochauflösende Daten, und die hat DLSS aus der Summe der Niedrig aufgelösten vorherigen Bildergartenriese schrieb:Was ist denn der Unterschied zwischen "Ground Truth" und den hochauflösenden Bildern? Für mich ist beides das gleiche.
gartenriese
Lt. Commander Pro
- Registriert
- Feb. 2011
- Beiträge
- 1.640
Ich weiß was Jittering ist und woher die Daten für DLSS kommen. Vielleicht haben wir aneinander vorbei geredet.Taxxor schrieb:Kannst du gerne nicht glauben, ist aber trotzdem so.
Wie @Grestorn schon angemerkt hat, informiere dich mal darüber, was "Jittering" ist, dann komsmt du vielleicht drauf.
~50 1080p Bilder enthalten eben mehr Bildinformationen als ein einziges 4K Bild, und diese ~50 1080p Bilder sind das, womit DLSS intern arbeitet um ein 4K Bild auszuspucken.
Extraportion25
Cadet 4th Year
- Registriert
- Aug. 2025
- Beiträge
- 77
Was da für "Meinungen" sind. Lol
4k Dlss sieht auf 42" besser aus als nativ auf 4k auf 27", und das sogar recht deutlich. Dazu deutlich ruigheres Bild, mehr Frames und spührbar smooter + Energieersparnis inkl Weniger Last und Wärme auf der GPU wenn man die FPS Capt ( in meinem Falle 142 von 144). Und dafür, das nativ selbst auf 27" dagegen matschig und flach wirkt, sind gerade die Details welche die KI ausarbeiten kann der hammer.
Auch beim Direktvergleich (C4 42" und C5 42" SidebySide) kann native schlicht weg mit Abstand einpacken. "."
Wenn ich da so manche Kommentare lese wie das die Upscaler KI irgendwelche Sachen dazu erfindet..., da kann ich nur mein Beileid ausdrücken.
4k Dlss sieht auf 42" besser aus als nativ auf 4k auf 27", und das sogar recht deutlich. Dazu deutlich ruigheres Bild, mehr Frames und spührbar smooter + Energieersparnis inkl Weniger Last und Wärme auf der GPU wenn man die FPS Capt ( in meinem Falle 142 von 144). Und dafür, das nativ selbst auf 27" dagegen matschig und flach wirkt, sind gerade die Details welche die KI ausarbeiten kann der hammer.
Auch beim Direktvergleich (C4 42" und C5 42" SidebySide) kann native schlicht weg mit Abstand einpacken. "."
Wenn ich da so manche Kommentare lese wie das die Upscaler KI irgendwelche Sachen dazu erfindet..., da kann ich nur mein Beileid ausdrücken.
gartenriese schrieb:Naja, irgendein Algorithmus wird auf den Tensorkernen schon laufen. Vielleicht ist das jetzt auch Wortklauberei :-P
Bei einem statischen, stehenden Bild kannst Du mit dem temporalen Prinzip und dem Jittering auch ganz ohne AI ein perfektes Bild mit allen Details rekonstruieren. Im Prinzip ein undendlich hoch "Supersampletes" Bild, da jedes weitere gejitterte Frame weitere feinste Details hinzufügen kann.
Das ist nicht das Problem - so lange das Bild statisch ist.
Und genau DA ist das Problem für DLSS. Nicht bei den Details, sondern bei der Bewegung.
gartenriese
Lt. Commander Pro
- Registriert
- Feb. 2011
- Beiträge
- 1.640
Vielleicht verwechseln wir gerade das, was vorher auf den Nvidia-Servern passiert mit dem, was dann im Spiel passiert? Die Details im Spiel selbst werden natürlich nicht durch diese hochauflösenden Bilder generiert. Aber das Netzwerk ansich wird mit diesen trainiert. Bevor DLSS ausgeliefert wird.Grestorn schrieb:Ja, aber eben die sind nicht die Basis. Darauf will ich ja hinaus. Es gibt keine hochauflösenden Bilder, gegen die trainiert wird. Das braucht man auch nicht, um die Details zu rekonstruieren. Dass die wieder sichtbar werden, liegt nicht am Training, sondern am Temporalen Jittering.
- Registriert
- Mai 2011
- Beiträge
- 22.764
Das beißt sich dann auf jeden Fall mit deiner vorherigen Aussage, dass die Details nicht vom Spiel kommen und deshalb "erfunden" sindgartenriese schrieb:Ich weiß was Jittering ist und woher die Daten für DLSS kommen. Vielleicht haben wir aneinander vorbei geredet.
gartenriese
Lt. Commander Pro
- Registriert
- Feb. 2011
- Beiträge
- 1.640
Siehe oben, wir reden hier von verschiedenen Sachen, einerseits das Training von DLSS und andererseits der Einsatz von DLSS.Taxxor schrieb:Nicht hochauflösende Bilder, hochauflösende Daten, und die hat DLSS aus der Summe der Niedrig aufgelösten vorherigen Bilder
- Registriert
- Mai 2011
- Beiträge
- 22.764
So wie es bei Nvidia steht, wurde diese "Ground Truth" auch nur zum Abgleich genutzt um zu bewerten, wie gut der Algo gearbeitet hat(würde mit einem nativem 4K Bild logischerweise nicht funktionieren).gartenriese schrieb:Aber das Netzwerk ansich wird mit diesen trainiert. Bevor DLSS ausgeliefert wird.
In dem Schaubild was hier gepostet wurde sieht man auch keine verknüpfung von dieser Ground Truth zurück zum neuronalen Netzwerk.
Er scheint also nicht Bestandteil des Trainings selbst zu sein.
Nein. Ich verwechsle das nicht.gartenriese schrieb:Vielleicht verwechseln wir gerade das, was vorher auf den Nvidia-Servern passiert mit dem, was dann im Spiel passiert? Die Details im Spiel selbst werden natürlich nicht durch diese hochauflösenden Bilder generiert. Aber das Netzwerk ansich wird mit diesen trainiert. Bevor DLSS ausgeliefert wird.
Auch wenn Du das Training auf Servern machst, muss am Ende das neuronale Netz lokal bereitstehen. Deswegen sind gute LLMs und Bildgeneratoren ja auch so groß und brauchen lokal so viel Speicher.
gartenriese
Lt. Commander Pro
- Registriert
- Feb. 2011
- Beiträge
- 1.640
Ja, ich habe das Wort "erfunden" anders verstanden und verwendet wie ihr es wohl gemeint hattet.Taxxor schrieb:Das beißt sich dann auf jeden Fall mit deiner vorherigen Aussage, dass die Details nicht vom Spiel kommen und deshalb "erfunden" sind
Ergänzung ()
Während dem Zocken verwenden wir doch nicht das originale GB-große Modell.Grestorn schrieb:Nein. Ich verwechsle das nicht.
Auch wenn Du das Training auf Servern machst, muss am Ende das neuronale Netz lokal bereitstehen. Deswegen sind gute LLMs und Bildgeneratoren ja auch so groß und brauchen lokal so viel Speicher.
Ergänzung ()
Ja genau. Schau nochmal auf mein Beispiel mit dem Navi, ich hatte "erfunden" anders verwendet als ihr.Grestorn schrieb:Ja, aber eben mit vielen vielen minimal versetzt gerenderten Bildern. Dadurch, dass sie minimal versetzt gerendert wurden (um weniger als ein Pixel) kommen die beim Rasterizing normal verloren gegangenen Details wieder zum Vorschein und der Algorithmus kann sie berücksichtigen.
Das ist die ganze Kunst.
Erfunden wird da nichts.
Wenn das neuronale Netz tatsächlich Details erfinden müsste, also echt Bilddaten selbst aufgrund der Trainingsdaten erstellen sollte, dann müsste es auch lokal laufen. Wie soll es sonst funktionieren?gartenriese schrieb:Während dem Zocken verwenden wir doch nicht das originale GB-große Modell.
Ich denke, Du hast das Grundprinzip eines neuronalen Netzes nicht verstanden. Wenn Du ChatGPT verwendest, sprichst Du mit einer riesigen Online-Version.
Du kannst auch lokale LLMs und Bildgeneratoren auf Deinem PC installieren, wenn Du gute Hardware hast. Aber dann musst Du auch richtige Daten (eben das neuronale Netz) runterladen und viel Speicher und Rechenleistung haben. Und die Leistungsfähigkeit bleibt massiv hinter den Online-Versionen zurück.
DLSS funktioniert aber eben ganz anders. Mit einem eher kleinen Netz, das sehr viel gezielter auf bestimmte Problemfelder trainiert worden ist, und deswegen auch klein bleibt und auch auf einer RTX 2060 noch gut funktioniert.
Moritz Velten
Commander
- Registriert
- März 2020
- Beiträge
- 2.950
SuperHeinz schrieb:Ich denke mal viele der Skeptiker fassen die neuen Techniken nicht an, weil sie sich erst einmal einarbeiten müssten.
Das denke ich auch.
rei nach dem Motto: Was der Bauer nicht kennt, das isst er nicht.
- Registriert
- Mai 2020
- Beiträge
- 936
Da wird wohl nicht so häufig unter "Quality" gegangen (ist zumindest bei mir so), weil das meistens schon reicht, um spielbare Frameraten zu erzielen (im Gegensatz zu 4K). Aber wenn ich bedenke, dass bei WQHD auf Quality trotzdem schon "nur" mit 960p gerendert wird, während es bei 4K auf Performance eben immer noch 1080p sind, dann vermute ich mal, dass WQHD Q trotz geringerem Skalierungsfaktor nicht besser aussieht, als 4K P.Pro_Bro schrieb:Wie sieht es denn aber bei den meisten Computerbase Lesern in der Praxis, die mit WQHD unterwegs sind, aus?
4K DLSS Performance Mode sieht besser als als 1440p DLAA.
Der entscheidende Aspekt ist die Zielauflösung. Die bestimmt eben, wie fein Details maximal aufgelöst werden können. Und das ist bei 1440p natürlich im Gegensatz zu 4K stark limitiert.
Der entscheidende Aspekt ist die Zielauflösung. Die bestimmt eben, wie fein Details maximal aufgelöst werden können. Und das ist bei 1440p natürlich im Gegensatz zu 4K stark limitiert.
Zuletzt bearbeitet:
Also mal abgesehen davon das FSR und DLSS sich an sich nicht viel geben ist DLSS nunmal wegen KI an feste upscaling-Verhältnisse gebunden. FSR ist das nicht. Das ist sehr viel nutzerfreundlicher wenn sich das an die persönlichen Vorstellungen und Spielvorgaben anpassen kann. Im Prinzip geht man 90% des Weges und zum "veredeln" (Kantenglättung, etc) kommt noch eeeetwas upscaling obendrauf. Das ist einfach weicher und schicker. DLSS mag technisch besser sein, FSR lässt sich aber besser anpassen. Ich muß gestehen nach einem Umstieg von Radeon auf Geforce hat mich das ein wenig entsetzt. Ja, ich weiß, man kann auch auf einer Geforce FSR laufen lassen. Das fühlt sich aber grundsätzlich fasch an, wofür dann die ganzen tollen Ai scaler? Es ist nicht alles Gold was glänzt.
Vielen Dank Wolfgang für den ausführlichen Vergleich!Wolfgang schrieb:Einige Spieler schwören nach wie vor auf „natives“ Rendern für die beste Bildqualität und fassen die aktuellen Upsampler von Nvidia und AMD nicht an. Doch meistens sieht es mit modernem Upscaling heutzutage besser aus, teilweise schon im Performance-Preset: DLSS 4.5 und FSR AI Performance mit „nativ“ im Bildqualitätsvergleich.
Zum Test: DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich
Deinen Kommentar am Schluss kann ich ohne Änderungen komplett so unterschreiben, das gleiche gilt auch bei mir seit dem Wechsel auf UHD.
Ähnliche Themen
- Antworten
- 521
- Aufrufe
- 29.963