Test DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

No_Toxic_Gamer schrieb:
Ich finde deine ständige schnell persönlich werden Kommentare hier im Forum unerträglich, da hast du recht!
Kann es sein, dass du @Taxxor mit jemandem verwechselst?

Gerade Taxxor versucht hier oft genug, die Emotionen rauszunehmen und allein die Fakten sachlich und anschaulich darzulegen.
 
  • Gefällt mir
Reaktionen: Iconoclast, usmave, Quidproquo77 und 2 andere
@BloodGod: ich hatte 1998 bereits 1400fps in 1920x1080p oder waren es 1024x768 weißt nicht mehr... die polygone waren natürlich wesentlich geringer als heute, hz !=fps. die texturen waren auf MB VRAM scharf😂
 
@lWllMl Was hast Du von den 1400 fps wenn der Monitor damals sicher nicht mehr als 60 Hz anzeigen konnte?

Du hast damit nur Bruchstücke von einer Unzahl von Bildern mit Tearing dazwischen. Die Latenz wird dadurch tatsächlich nicht besser. Der Monitor bestimmt die maximale Zahl der Bilder, die man anzeigen kann. Mehr als die Hz Zahl geht physisch nicht.

VSync auszuschalten führt NICHT dazu, dass mehr Bilder angezeigt werden!
 
welche config, welche game engine ist relativ, ich hab ne vielzahl shader optimiert... das muster setzt sich quasi überall durch ... unterirdische rasterleistung ! alles nur noch mit fake aufgehübscht, damit die games einigermaßen homogen aussehen, 80% der games sehen ja gut aus keine frage, aber diese kleine fünkchen 4k detailheitgeilheit fehlt halt gerade die grafikkracher kann man so nicht maximal geil geniessen und ist das das ziel ... hätte gedacht die 5070ti kann mich länger unterhalten, jetzt ist 1 jahr rum und ich brauche ne schnellere karte, es wird zeit das nvidia endlich rubin auf den markt wirft !
Ergänzung ()

@Grestorn: max speed & latenz & es zeigt dir wie geil die gpu 3d kann...
 
Sebaz360 schrieb:
Haben die Leute die FSR Upscaling AI ausgewählt haben was an den Augen?

Da sieht doch total unscharf aus?
Für mich sehen beide DLSS überschärft & deshalb unnatürlich aus (z.B. Haare, Boden, Bäume, usw.).
FSR4 könnte gern noch ein bisschen heller sein, aber das wird an der Szene (minimal anderes Wetter) liegen.
Ansonsten wäre das mein Favorit, wenn ich eine RX 9070 XT hätte. ☺️👍

P.S.
Für mich sind in letzter Zeit kaum noch interessante Spiele dabei.
Freue mich allerdings auf das dritte große DLC von The Witcher 3. 🤩
 
Ich hab aus Spaß an der Freude einen alten Full HD Monitor herausgekramt und damit DLSS 4.5 Performance Model M auf der 5080 genutzt und selbst das Bild war imho deutlich überzeugender als die Native Auflösung mit TAA. Wir sind in einem Bereich gekommen, wo das schon fast wie Zauberei wirkt. Irre.
paganini schrieb:
Naja es gibt halt einige die müssen AMD um jeden Preis verteidigen.
Immer noch deutlich besser als auf Youtube, dort fordert man schon regelmäßig "das Headquarter niederzubrennen". Aber der8auer weiß natürlich wie er sein Publikum mit Unsinn richtig anheizt. Unter einer "Lüge" kann man es da nicht mehr machen, das ist die Baseline. Hier wird das Thema dagegen neutral aufgearbeitet und auch erwähnt, dass AMD solche Programme nutzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
Habe vor kurzen eine 9070XT gekauft und habe hier bei den Videovergleichen auch meist DLSS ausgewählt.

Aber in Mafia hat mir FSR am besten gefallen, nicht weil es perfekt scharf in der hintersten Ecke war, sondern der Weg hat nicht geflimmert wie bei DLSS.
 
  • Gefällt mir
Reaktionen: Grestorn
BloodGod schrieb:
Gibt es denn eine Möglichkeit im Spiel zu überprüfen ob man gerade auf 4.0 oder auf 4.5 ist?
Ja mit dem Nvidia Performance Overlay ist das möglich. Alt + Z zum konfigurieren und Alt + R dann zum Anzeigen. Du musst auf benutzerdefiniert gehen und dann Überschreiben des SR Modell als Option auswählen dann wird es jedesmal angezeigt wenn du Alt + R drückst.
 
Das erste Spiel sichtbar für DLSS 4.5 oder 4. Beim Rest sehe ich keinen nennenswerten Unterschied. Das ist wohl eher nach GPU und "Glaube" als nach Qualität abgestimmt worden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dittsche und OpenSystemFan
denn alle drei Technologien liefern vor allem im Quality-Modus eigentlich durchweg eine bessere Bildqualität als die native Auflösung

Es kann einfach nicht sein, was nicht sein darf 😂

Die ganzen Schreihälse hier immer, die mit Fake-Frames und dem sonstigen Gejammer...
Nativ ist doch der heilige Gral.... 😂
 
  • Gefällt mir
Reaktionen: nutrix
Sebaz360 schrieb:
Da sieht doch total unscharf aus?
DLSS 4 sieht dagegen schon besser aus, und 4.5 toppt dies nochmal um längen
Die Frage kann ich zurückgeben. Wo außer Spiel 1 soll das "total unscharf" sein? Um Längen getoppt.. is klar.

Oblivion Remastered: Da sieht das Mauerwerk mit FSR viel natürlicher aus. Bei DLSS viel zu hell und die Konturen sind schlechter. Aber auch das sind absolute Nuancen.
CB biased voting halt. Hat einen ähnlichen Stellenwert wie damals der Photo-Vergleich wo Motorola gewonnen hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480
Looniversity schrieb:
Dann könnte man feststellen, ob eventuelle Qualitätseinbußen den Leistungsgewinn aus persönlicher Sicht rechtfertigen
Es ist schneller UND sieht besser aus. Test nicht gelesen? 🙄
 
Sebaz360 schrieb:
Haben die Leute die FSR Upscaling AI ausgewählt haben was an den Augen?
Es ist schon faszinierend zu beobachten, wie sich die kollektive Wahrnehmung in der Tech Blase gerade verbiegt. Und das an allen Fronten. Nvidia wird offen zum Feind erklärt, auch im letzten Clickbait-Video von der8auer. Werfen wir doch mal einen nüchternen Blick auf die Realität, bevor der "AMD Underdog Bonus" noch die letzten Fakten frisst:

Objektiv betrachtet gewinnt DLSS 4 die meisten Vergleiche nach wie vor souverän. Besonders bei niedrigen Skalierungsfaktoren zieht Nvidia AMD ab. Ja, wir können über die gelegentlich schwächelnde Occlusion der Spielfigur reden oder darüber, dass DLSS bei Wasserdarstellungen mal einen schlechten Tag hat, geschenkt. Aber bei der Gesamtbildstabilität und den Details? Da liefert DLSS 4 mehr Ruhe im Bild, auch wenn hier da mal etwas flimmert. Ein Blick zurück in die Einzeltests bestätigt das immer wieder: FSR 4 parkt irgendwo zwischen DLSS 3 und 4 (zugegeben, näher an der 4 als früher), während DLSS 4.5 vorerst in einer eigenen Liga spielt. Das Szenario erinnert frappierend an das alte Duell DLSS 3 vs. FSR 3.
Sebaz360 schrieb:
Da sieht doch total unscharf aus?
FSR4 ist weniger detailreich und unschärfer, aber im Q Modus in 4K siehst du das sehr schwer, da kann man schon vergleichbar in den Mund nehmen, da auch Vorteile in Teilaspekten dabei sind. In QHD auf der 9060XT ist das ohne Direktvergleich deutlich sichtbar.
Das Abstimmungsergebnis ist natürlich unsinnig, die Reihenfolge FSR4<DLSS4<DLSS4.5 ist klar gesetzt, selbst dann wenn man pro AMD argumentiert, FSR4 ist maximal in Einzelfällen als gleichwertig zu sehen, das Modell welches verwendet wird ist immer noch das gleiche Modell seit Release und hat sich nicht verändert.
DonDonat schrieb:
Dass FSR hier in den Umfragen vor DLSS4 liegt überrascht mich doch etwas.
Diese Betrachtung musst du zwangsweise eingehen, weil ansonsten Nvidia wieder "weit" in Führung liegt.
Nutzer versuchen halt den Widerspruch zwischen technischer Überlegenheit und persönlicher Kaufentscheidung oder Markenidentität aufzulösen.
So eine Art technologische Rebellion, ein Votum gegen Preispolitik, das geschlossene Ökosystem aber kein fairer Vergleich zwischen den Upscalern, da auch im Fleßtext mehr auf die Vorteile zwischen 4.5 und 4.0 eingegangen wurde. Die Community sieht mittlerweile FSR4 vor DLSS4, das ist nichts besonderes, da viele auch FSR3 schon vor DLSS3 sahen, bzw. gleichwertig.
NguyenV3 schrieb:
Wer FSR vorne sieht, sieht es auch vor DLSS4.5. Folglich ist DLSS4 in dieser Umfrage immer ein Verlierer.
Da wird einfach angeklickt ohne das Bildmaterial ordentlich zu sichten, war in der Stecker-Umfrage in wesentlich niedrigerer Ausprägung das gleiche. Es geht um Stimmungen und nicht um Fakten und für die Stimmung reicht es, wenn AMD mit FSR4 nicht mehr den Pixelsalat liefert wie mit FSR3. Deshalb kann man sich die ständigen Umfragen auch einfach sparen, etwas verwertbares kommt da eh nicht bei heraus.
TriceO schrieb:
Das wirklich Verrückte an 4.5 ist, was das selbst aus mieser Auflösung noch rauszaubern kann. Spiele in 360p oÄ sehen mit DLSS 4.5 schon fast gut aus.
Wenn man die Auflösungsskalierung im Spiel zusätzlich anmacht ist es schon wild.
Nicht dass das Bild gut ist, aber es ist definitiv spielbar und vergleichbar mit einer 720p Nativ Auflösung, obwohl nur 240p. Ich glaube in Zukunft wird man vom Input her noch wesentlich weiter runtergehen und die Modelle wohl auf eine geringere Bit Breite quanisieren.

Würde mal spekulieren, dass man DLSS5 mit FP4 und Microscaling sehen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tr8or, Mantasia und Loopman
@Wolfgang: Mich würde interessieren, wie die Zahlen hinter dieser Annahme aussehen: "..da die meisten ComputerBase-Leser über eine Grafikkarte des Typs GeForce RTX 2000 oder neuer oder Radeon RX 9000 verfügen". RTX 2000 oder neuer wird (Annahme meinerseits) schon ziemlich viele Leute hier abdecken, letzteres (RX9000) trotz der guten Leistung von RDNA4 wahrscheinlich nicht so viel. Denn so billig sind die 9700XT nicht, daß man sich mal eben so eine davon kauft und zB eine 7900, die noch gut läuft rausschmeißt. Gerade bei den Radeons würde ich mich wundern, wenn hier nicht eine starke Minderheit eine RDNA 3 oder 2 Karte hat. Aber, annehmen kann ich viel; was zeigen denn Eure (CBs) Zahlen darüber?
Hintergrund der Frage: gibt's noch einen (kleineren) Vergleich der Upscalers, die auf RDNA3 und RDNA2 GPUs laufen, also speziell für diese GPUs?
 
Merasch schrieb:
Dlss 4.5 Was feiert ihr erklärt es bitte. Die 2000/3000 haben extreme Probleme seit dem Update, 4000er nicht mal 10% mehr leistung aber knapp 1gig vram mehr belegt. Die 5000er haben genau das selbe vram mehr belastet aber leistung 5% ist nichts. Dlss soll systheme mit kleiner Auflösung verbessern und nicht 4k highend systheme. Da krieg ich Schmerzen wer nutz dlss bei 4k Auflösung mit einer 5000er ??? Man kann auch sinnlos Strom verbrauchen ohne mehr Wert. Wieviele leben beim game die fps fest ? Dann ist dlss auch fürn arsch. Es ist genau das selbe wie 60 fps / 120fps man sieht angeblich mehr mit 120fps als mit 60fps ! Bullshit

Ich muss ja dann ein absoluter supermensch sein, wenn ich falls möglich lieber mit 200 FPS als mit 100 FPS spiele und den Unterschied deutlich sehe, vor allem bei der Unschärfe die in Bewegung deutlich geringer wird, wenn die FPS steigen. 60 vs 120 FPS sind dagegen ja ein Unterschied wie tag und nacht.

WOW! wenn du den Unterschied nicht siehst.


Deine 1 GB mehr VRAM sind aber auch unsinn. Ich glaube du übertreibst ein "bisschen".
Das sind die offiziellen Daten von nvidia.
1769192176207.png


Hier siehst du, dass es selbst in 4K auf ner 40/50 series GPU nur ca 165 MB mehr sind.
Auf RTX20/30 aufgrund der FP16 übersetzung dann 319 MB, wobei viele wohl eher in 1440p spielen, da sind es dann auch nur 139 MB, also nicht die Welt.
Übrigens wäre dein argument dass die 5000er die gleiche VRAM Mehrbelastung haben ebenfalls widerlegt...

Wie gesagt, der VRAM Verbrauch ist nur auf RTX20 und RTX30 Karten höher, weil diese FP8 nicht ausführen können und die FP16 übersetzung nutzen müssen. Trotzdem bleibt der VRAM Verbrauch weiterhin recht niedrig.

Wie du also auf 1 GB kommst kannst du mir aber gerne verraten. Zumindest in meinen tests konnte ich die Messungen von Nvidia auch bestätigen.

Und Strom verbrauch? Du kannst mit den neuen Presets auch ne niedrigere Auflösung fahren. Also z.B. DLSS Performance mode statt DLSS Quality mode. Sieht dann mit dem neuen Preset besser aus als zuvor und du sparst strom.

Praktisch ist es ein effizienzgewinn, auch wenn das neue Model fordernder ist. Wie du diesen Effizienzgewinn nutzt bleibt doch dir überlassen.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Auf 100 Prozent sieht man klar dass fsr in den ersten zwei Spielen unscharf ist. Die anderen hab ich mir nicht mehr angeschaut. So ungefähr 20 Prozent der Leute in der Abstimmung brauchen mal eine neue Brille oder die haben ideologische Gründe fsr zu wählen. Schade, dass xlss 2 nicht im Vergleich dabei ist. Man hätte die Vergleiche zunächst ohne Beschriftung machen sollen damit die Leute blind wählen.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und xexex
5hred schrieb:
Auf reddit gibts viele Meinungen, dass 4.5 oftmals zu sehr "nachschärft", Spiele wirken einfach zu knackig scharf, was laut den Leuten übertrieben scheint.

Eigentlich ist es eher so dass die vorherigen Versionen zu unscharf waren, weswegen die Spiele selbst noch nachträglich nachschärfen.

Jetzt wo DLSS 4.5 aber von sich aus schon eine gute Schärfe hat, wird es mit der zusätzlichen Schärfung der Spiele zu viel.

Es ist also jetzt mehr ein Problem der Spiele als von DLSS, denn die Lösung sollte langfristig sein, dass die Spiele nicht mehr zusätzlich nachschärfen bzw. nur wenn eben DLSS nicht aktiv ist.

Bei manchen Spielen kann man die Schärfe manuell rausnehmen bei anderen nicht, aber auch da wo man es kann sollte es ähnlich wie Reflex automatisch bei FG aktiviert wird, dann einfach automatisch rausgenommen werden wenn DLSS 4.5 oder höher aktiv ist
Ergänzung ()

Grestorn schrieb:
@lWllMl Was hast Du von den 1400 fps wenn der Monitor damals sicher nicht mehr als 60 Hz anzeigen konnte?

Du hast damit nur Bruchstücke von einer Unzahl von Bildern mit Tearing dazwischen. Die Latenz wird dadurch tatsächlich nicht besser. Der Monitor bestimmt die maximale Zahl der Bilder, die man anzeigen kann. Mehr als die Hz Zahl geht physisch nicht.

VSync auszuschalten führt NICHT dazu, dass mehr Bilder angezeigt werden!
Vor VRR hatte man dadurch den Vorteil dass man geringere latenzen hatte, weil man zum Zeitpunkt der 16,66ms Refreshes eher ein aktuelleres Bild bekommen hat als wenn man nur 60FPS dazu hat.
Da die FPS ja nicht immer genau 16,66ms benötigen sondern mal mehr und mal weniger, war die Chance hoch, dass man über 2 Refreshes das gleiche Bild bekommen hat.
Wenn man nun z.B. 120FPS hat, bekommt man auf jeden Fall alle 16,66ms ein anderes Bild angezeigt und je höher die FPS sind, desto aktueller ist es innerhalb der 16,66ms
 
Zuletzt bearbeitet:
Finde den Player mit dem Vergleich super! Grade auf einem Ultrawide Monitor hat man da auch gut Platz, etwas rein zu zoomen und trotzdem alle 3 Videos gut nebeneinander zu bekommen. Gerade das reinzoomen ist bei Haaren etc. praktisch. Auch sieht man viele Unterschiede erst in Bewegung, finde das daher viel besser als einfache Screenshots.

DLSS 4.5 ist schon der klare Gewinner. Finde es aber erstaunlich, wie gut FSR 4 ist und ankommt. Ich persönlich fand DLSS 4.5 eigentlich immer am besten, aber FSR 4 meistens insgesamt leicht besser als DLSS 4. Sehen wohl viele so, laut den Abstimmungen.

Ein FSR 4.5 wäre aber nicht verkehrt :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480 und Grestorn
Taxxor schrieb:
Vor VRR hatte man dadurch den Vorteil dass man geringere latenzen hatte, weil man zum Zeitpunkt der 16,66ms Refreshes eher ein aktuelleres Bild bekommen hat als wenn man nur 60FPS dazu hat.
Je nachdem, wo der virtuelle "Elektronenstrahl" bei der Bildübertragung gerade "steht", wenn das Bild umgeschaltet wird, hat man mehr oder weniger eines Bruchstücks eines Bildes vorher gesehen.

Da das Bild von oben nach unten aufgebaut wird und deswegen UNTEN immer das "aktuellere" Bild steht, hat man so den Effekt, dass das Bild am unteren Rand irgendwie immer "vorauszueilen" scheint, besonders gut sichtbar, wenn man die Maus schnell rechts/links bewegt.

Und wenn man ein Vielfaches der Wiederholrate des Monitors als Framerate hat, dann hat man buchstäblich ein "schiefes" Bild, bei dem der obere Teil immer etwas hinterhereilen zu scheint.
 
FSRs größte Schwäche ist also die Schärfe, aber ist es nun ein FSR Problem oder die Implementierung?

Ich habe diese Unschärfe ebenso bemerkt, während Thw Outer Words 1. Einfach die schärfe Regler hochgedreht und sieh einer an, das Bild ist knack scharf, keine Artefakte, kein Ghosting, kein Flimmern, Wasser perfekt dargestellt.

Das FSR schärfe Problem lässt sich einfach beheben, umso verwunderlicher erscheint es mir, wie man sich hier daran abarbeitet während Ghosting, Artefakte, Flimmern bei DLSS 4/4.5 deutlich gravierende Probleme darstellen, aber kleingeredet werden.
 
  • Gefällt mir
Reaktionen: WommU, lmfaktor und CountSero
Zurück
Oben