Test Ratchet & Clank: Rift Apart im Test: Benchmarks mit AMD und Raytracing mit neuen Treibern

incurable schrieb:
đŸ€Ș Jaja, erst auf dicke Hose machen, dann kleinlaut die Quelle nachliefern. đŸ€Ș👍
Aber jetzt ist sie da und untermauert MrHeisenbergs Punkt. Und das hier stellt offensichtlich alles dar, was du noch beizutragen hast. Spricht fĂŒr sich selbst.
 
  • GefĂ€llt mir
Reaktionen: MoinWoll und MrHeisenberg
aLanaMiau schrieb:
hm... der Benchmark ist irgendwie an der RealitÀt vorbei... auf einer 4090 lÀuft das Spiel mit allen Settings auf ultra/max mit durchgehend 240 fps in wqhd - das lÀsst sich hier nicht ansatzweise erahnen.

Und warum nochmal mit dem kaputten direct Storage getestet wurde versteh ich auch nicht.
Joa die 4090 kommt nicht vor, und FG zÀhlt ja in der CB-Logik nicht, weil es AMD nicht kann.

Es stellt sich halt die Frage, ist das Game denn auf einer teureren Nvidia 4080/4090 mit FG und ohne/mit DLSS-QualitÀt oder mit DLAA und evtl noch etwas nachschÀrfen jetzt besser spielbar, als auf einer stromschluckenden nicht ganz von Feature-Set vergleichbaren AMD-Radeon? Obwohl es dieselbe Generation ist "wohlgemerkt"

Ich finde diese Strategie was CB fÀhrt, nicht gut.
Man könnte doch FG und DLSS3 + RT bzw DLAA und die FPS doch immer mit testen dabei aber erwÀhnen
wie es um die Frametimes steht und dies auch darlegen. FG kann sich mal absolut gut anfĂŒhlen manchmal aber auch nicht. DLAA kann auch einfach mit anderen Techniken von AMD verglichen werden.

Aber einfach Modelle oder Features wegzulassen, nur weil die 4090 meistens außer Konkurrenz ist oder die AMD-Karten einfach von den Features etwas hinterher hĂ€ngen, zeugt nicht gerade von QualitĂ€t-Journalismus. Sry.
 
incurable schrieb:
Native Auflösung + Matschfilter. Wie gesagt, völlig ĂŒberraschend.

BG3.png


Besser?

NatĂŒrlich alles bis auf DLSS Quality ohne Upscaling.

Weiß nicht, was das jetzt bringen soll. Ist zwar ohne TAA logischerweise schĂ€rfer, dafĂŒr nochmal deutlich pixeliger und weniger detailliert.


Das zeigt doch nur umso deutlicher, dass DLSS trotz weniger pixeln in einer völlig anderen Liga spielt.



Hier das ganze Bild nochmal per nearest neighbour auf Faktor 2x skaliert, fĂŒr alle, die ranzoomen wollen, ohne dass der Browser das Bild unscharf macht.
BG3_2x.jpg


In Bewegung ist der Unterschied ĂŒbrigens nochmal deutlich grĂ¶ĂŸer.
TAA und besonders DLSS/DLAA liefern ein sehr stabiles Bild nahezu ohne Aliasing und ohne Flimmern.

Mit SMAA oder ganze ohne AA flimmert das hingegen wie verrĂŒckt. Das lĂ€sst sich auf den Bildern nichtmal erahnen. Das ist ĂŒberhaupt nicht nutzbar.


EDIT:
Hier mal als Video.
Ich vergesse immer, wie praktisch das neue Snipping Tool von Windows 11 ist.

Im 3 Sekunden Wechsel nativ ohne AA, Nativ mit TAA, DLSS Quality:



Am besten rechtsklick aufs Video und in neuem Tab öffnen, um es in OriginalgrĂ¶ĂŸe zu sehen.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: NMA, ComputerJunge, MoinWoll und 5 andere
AwesomSTUFF schrieb:
Oh Mann, die 3080 kackt ja ganz schön ab mit RT^^
Brauch ich also gar nicht mit zu liebÀugeln auf 3440x1440.
Mit optimiertem RT, was fĂŒr die 3080 im Test explizit empfohlen wird und DLSS Quality sollte das locker mit ĂŒber 60 FPS laufen.
 
  • GefĂ€llt mir
Reaktionen: AwesomSTUFF und Czk666
Ich finde dass der Bildvergleich mit Control nicht unbedingt fĂŒr DLSS spricht.

Zwei Punkte:
  • Das Spielinterne TAA ist unfassbar schlecht und extrem unscharf.
  • Das DLSS ist eine sehr frĂŒher Version von DLSS2, ich glaube anfangs wurde sogar noch 1.9 genutzt.

Das DLSS ist also völlig veraltet. Ich finde zwar, dass es auch in dem Spiel meist besser als nativ aussieht, aber am Screenshot von MrHeisenberg sieht man, dass vieles von diesem "besser" durch einen Scharfzeichner entstanden ist.

Unterm strich wĂŒrde ich sagen dass DLSS in Control rein technisch ohne den Scharfzeichner auf dem selben Niveau, wie das besonders schlechte TAA liegt. Ist natĂŒrlich ein erfolg, weil DLSS mit weniger pixeln auskommt,
als Benchmark fĂŒr die BildqualitĂ€t, die DLSS heutzutage liefert, taugt das aber beim besten Willen nicht.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: NMA und incurable
incurable schrieb:
Ich verstehe nicht, warum man beim Testen der Strahlenverfolgung auf Beschiss-"4K" mit Unterabtastung setzt.

Die Einbußen in der Bildrate kann man genauso mit echtem 4K oder mit der echten Berechnungsauflösung ohne zusĂ€tzliche Variable Unterabtastung ermitteln und darstellen.
Devs und Presse haben endlich verstanden das natives 4K Verschwendung von Leistung ist und daher wird halt nur noch 4K mit upscaler gebencht. Außerhalb dieser community gibt es eh keinen der Hardware fĂŒr natives 4K hat...

Statt den Leuten einzureden das 4k der heilige Gral ist, hĂ€tte man besser schon viel frĂŒher mit upscalinv angefangen.
 
  • GefĂ€llt mir
Reaktionen: Pro_Bro und MrHeisenberg
@Mimir sÀmtliche unabhÀngige Tests kommen zu dem Ergebnis, dass DLSS idR. besser aussieht als nativ, also was willst du noch? Du glaubst doch eh niemandem. Weder mir, noch den Redakteuren von PCGH oder CB.
Dir wurden hier mehrere Belege dafĂŒr geliefert und von dir kommt kein einziger Gegenbeweis. Du lieferst absolut nichts haltbares.
Von dir kommt nichts als "Ne, dass seh ich anders...". Das kannst du sehen wie du willst, aber Fakten stehen fĂŒr mich ĂŒber Meinungen und die widersprechen dir nunmal.
 
  • GefĂ€llt mir
Reaktionen: Pro_Bro, StylishChiller und suPPenmaNN
MrHeisenberg schrieb:
@Mimir sÀmtliche unabhÀngige Tests kommen zu dem Ergebnis, dass DLSS idR. besser aussieht als nativ, also was willst du noch? Du glaubst doch eh niemandem. Weder mir, noch den Redakteuren von PCGH oder CB.
Dir wurden hier mehrere Belege dafĂŒr geliefert und von dir kommt kein einziger Gegenbeweis. Du lieferst absolut nichts haltbares.
Von dir kommt nichts als "Ne, dass seh ich anders...". Das kannst du sehen wie du willst, aber Fakten stehen fĂŒr mich ĂŒber Meinungen und die widersprechen dir nunmal.

Lies mal meine BeitrÀge. Ich versuche hier genauso klar zu machen, warum DLSS ne tolle Sache ist und warum es besser als Nativ aussehen kann. Siehe meinen Bildvergleich.
Hier wurde ja wieder mal behauptet, dass das ĂŒberhaupt gar nicht möglich sei.

Sorry wenn ich deinen beitrag torpediere, obwohl wir auf der gleichen "seite" stehen, aber so viel ObjektivitĂ€t muss sein. Ich muss eben ehrlich sagen, dass ich Control da als eher schlechtes Beispiel sehe. Da extrem frĂŒhe Implementierung von DLSS2 und nochdazu schlechtes TAA. Das Spiel bietet weder mit DLSS noch mit TAA besonders gute BildqualitĂ€t.
 
  • GefĂ€llt mir
Reaktionen: SweetOhm, NMA, MoinWoll und eine weitere Person
Mimir schrieb:
Das DLSS ist also völlig veraltet. Ich finde zwar, dass es auch in dem Spiel meist besser als nativ aussieht, aber am Screenshot von MrHeisenberg sieht man, dass vieles von diesem "besser" durch einen Scharfzeichner entstanden ist.
Jetzt mal Hand auf‘s Herz: Ist das nicht egal, dass hier ein altes DLSS werkelt gegen ein schlechtes TAA, wenn das Endergebnis stimmt, und dabei, wie du selber sagst, ein besseres Endergebnis als nativ entsteht? Besser als nativ ohne TAA ist wegen dem integrierten AA sowieso, ein solches Bild hĂ€tte ganz andere Probleme. Und andere bildbasierte AA Techniken können letztendlich auch nur weichzeichnen und spĂ€ter nachschĂ€rfen. Und bei 4K ist Super- oder Multisampling dann doch etwas zuviel des Guten. Und schlussendlich wird auch gutes TAA keine Preise in Sachen BildschĂ€rfe gewinnen.
 
  • GefĂ€llt mir
Reaktionen: StylishChiller
Mimir schrieb:
Sorry wenn ich deinen beitrag torpediere, obwohl wir auf der gleichen "seite" stehen, aber so viel ObjektivitĂ€t muss sein. Ich muss eben ehrlich sagen, dass ich Control da als eher schlechtes Beispiel sehe. Da extrem frĂŒhe Implementierung von DLSS2 und nochdazu schlechtes TAA. Das Spiel bietet weder mit DLSS noch mit TAA besonders gute BildqualitĂ€t.
Schon gut, war auch nicht so bös gemeint, aber der Test von HWLuxx ist in nativem 4K, also ohne TAA und dort ist selbst die frĂŒhe Version von DLSS2 schon besser.
 
Unter welchem Stein muss man leben um DLSS als Matsch zu bezeichnen? Alleine die massiven Stromeinsparungen sind schon die bessere(!) BildqualitÀt wert.

Und nur der Umwelt zuliebe sollte CB da schon mehr Verantwortung zeigen und endlich mal AufklĂ€rung leisten, scheinen ja noch immer viele nicht zu verstehen. (Gleiches gilt fĂŒr FG.)
 
  • GefĂ€llt mir
Reaktionen: MrHeisenberg
Das ist jetzt der wievielte "Ratchet & Clank: Rift Apart" Technik-Test?
 
aLanaMiau schrieb:
Unter welchem Stein muss man leben um DLSS als Matsch zu bezeichnen? Alleine die massiven Stromeinsparungen sind schon die bessere(!) BildqualitÀt wert.
)
So einfach ist die Sache nicht da Nvidia mit DLSS auch krÀftig nachschÀrft.
Auch ist es derzeit nur in 4K besser, darunter nimmt die BildqualitÀt vor allem in Bewegung stark ab.

Wer zB. Mit einer 3060 in Full HD mehr fps bei besserer BildqualitÀt haben möchte wird von DLSS schwer enttÀuscht sein.

Auch wird nicht „massiv“ Energie gespart, dafĂŒr lĂ€sst du am besten den PC aus.
Mittlere Systeme belasten bei mehr fps auch die CPU stÀrker und der Effekt ist dort kaum der Rede Wert.
 
  • GefĂ€llt mir
Reaktionen: gecan
Da mein Beitrag gelöscht wurde.

Hier ist auch zu sehen dass die PC Version egal ob mit nvme oder SATA SSD nicht an die schnellen Wechsel der ps5 rankommen.

Das nimmt so bischen den flow im Spiel finde ich.
 
GrundgĂŒtiger schrieb:
So einfach ist die Sache nicht da Nvidia mit DLSS auch krÀftig nachschÀrft.
Auch ist es derzeit nur in 4K besser, darunter nimmt die BildqualitÀt vor allem in Bewegung stark ab.

Mein Beitrag hier: https://www.computerbase.de/forum/t...cing-mit-neuen-treibern.2155934/post-28496366

Ist in 1080p entstanden. Aber technisch gesehen ist das egal. Ob ich mir einen 300x300 Bildausschnitt in 1080p oder in 4K ansehe macht keinen Unterschied fĂŒr die Detailbetrachtung.

Es ist nur so, dass 4K eine sehr hohe Pixeldichte auf den meisten Displays hat und in dem Szenario selbst traditionelle Upscaling Verfahren noch gut aussehen, weil die DetailfĂŒlle auch mit weniger Pixeln noch ziemlich hoch ist und man bei der Pixeldichte die es in 4K meistens gibt eh schon an diminishing returns stĂ¶ĂŸt.

Zudem nutzt Nvidia seit DLSS3 einen neuen Scharfzeichner, der sehr viel dezenter ist, wie du an meinen Bildern sehen kannst. Es ist kaum zu erkennen, dass Scharfgezeichnet wird.

Kaum zu vergleichen mit dem alten Scharfzeichner, der deutliche Ringing Artefakte erzeugt. Den haben aber zum GlĂŒck auch nicht viele Entwickler genutzt und der lĂ€sst sich auch mittlerweile durch Austausch der .dll Datei im Spieleordner deaktivieren. Mit allen DLL Dateien ab Version 2.5.1 ist der alte Scharfzeichner wirkungslos.

Keine Ahnung, was Nvidia da geritten hat. Sah furchtbar aus und ca. ein halbes Jahr lang haben sich auch viele User beschwert. Mit Erfolg.



Czk666 schrieb:
Hier ist auch zu sehen dass die PC Version egal ob mit nvme oder SATA SSD nicht an die schnellen Wechsel der ps5 rankommen.

Das nimmt so bischen den flow im Spiel finde ich.

Ich stimme dir zu, dass das was man da sieht sehr störend ist.
Das hat aber nichts mit den SSDs zu tun.
Schau doch mal auf die Framerate, die 3060ti bricht hier komplett zusammen. Die 8GB VRAM sind einfach hinten und vorne nicht ausreichend. Schon gar nicht mit RT, das hat man mittlerweile in genĂŒgend Tests gesehen.

Auf einem Rechner mit ausreichend VRAM sieht man dann auch, dass die NVME SSD nahezu gleich auf mit der PS5 ist und die SATA SSD deutlich zurĂŒckfĂ€llt. Da gibts dann auch keine FramerateneinbrĂŒche.

Digital Foundry hat da auch vergleiche gemacht.

Ist natĂŒrlich lĂ€cherlich, dass eine 3060ti oder auch 3070 das nicht besser hinbekommen, aber das ist nunmal die Situation.

Nichtsdestotrotz muss Direct Storage auch auf Karten mit genĂŒgend VRAM nochmal nachlegen. Man ist hier zwar in der gesamten Benchmarksequenz nur knapp hinter der PS5, so dass es nur im direkten Vergleich ĂŒberhaupt sichtbar ist. Trotzdem stellt sich die Frage, warum ein Rechner mit der 3-fachen dekomprimierungsleistung im Direct Storage Benchmark und der doppelten SSD speed einer PS5 keinen Vorsprung erreichen kann.
Irgendwo hakt es da noch.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: MoinWoll und GrundgĂŒtiger
Hatte in Baldur's Gate 3 gestern von DLSS Quality auf nativ umgeschalten und war recht entsetzt.
Natives 4K ist das vergangene Jahr richtig schlecht gealtert.

Nativ mĂŒsst ihr von mir aus nicht mehr testen. Die ganzen AAs waren doch meist eh fĂŒr die Tonne.

@incurable Reine Neugier. Was willst du denn mit nativem 4k ohne AA anfangen? Kannst du da mal ein Spiel verlinken, dass mit den Einstellungen gut aussah?
 
MrHeisenberg schrieb:
Schau dir Mechwarrior in WQHD an:
https://www.pcgameshardware.de/Nvid...r-5-DLSS-Test-Control-DLSS-Test-1346257/2/#a2
DLSS hebt Details hervor, die in nativ fehlen.
Zitat: Im folgenden Bild offenbart DLSS seine Neigung zu scharfen Bildern, viele Objekte werden "knackiger" dargestellt als bei nativer Darstellung. Dabei gehen jedoch auch Informationen verloren - die Umgebungsverschattung wird mit DLSS deutlich dezenter aufgetragen, was der Szene etwas PlastizitĂ€t nimmt. Störender als das ist, dass alle DLSS-Modi infolge der Scharfzeichnung ein Flimmern der Specular-OberflĂ€chen begĂŒnstigen.

DLSS was ich selbst sehr oft aktiviere ist teils ein Segen fĂŒr uns Gamer.
Nur ist es per se nicht ĂŒberall besser.

Immerhin haben wir dank Upscaling ja auch Remnant 2 :).
 
incurable schrieb:
Wenn es darum geht, die Leistungsverluste durch verschiedene Strahlenverfolgungstechnologien herauszuarbeiten ist es nicht hilfreich gleichzeitig auch noch (grund-)verschiedene Bildhochrechner zu aktivieren.

FĂŒr eine rein akademische Betrachtung mag es die richtige Herangehensweise sein, alles mit dem selben AntiAliasing verfahren zu testen, also z.B. alles mit TAA von 1080p bis 4K.

Allerdings ist Raytracing in höheren Auflösungen im Vergleich zu reinem Rasterizing ĂŒberproportional teurer.
Der Leistungverlust durch RT ist also in 4K prozentual gesehen meist deutlich grĂ¶ĂŸer, als in 1080p oder 1440p.

Deswegen wurde DLSS ja von Nvidia auch entwickelt. Es war damals essenziell, um RT ĂŒberhaupt in Echtzeit in gĂ€ngigen Auflösung lauffĂ€hig zu bekommen.

FĂŒr gute Performance ist es weiterhin notwendig.
Unter dieser PrÀmisse ist es sinnvoll ab 4K mit Upscaling zu testen, da man sonst auch argumentieren könnte: "Nativ spielt das in 4K doch eh keiner, wir haben doch DLSS".
Die Frage ist eben, wie viel Wert fĂŒr den Spieler eine Leistungsmessung in einem Szenario wie nativ 4K hat, das er sowieso nicht nutzen wird.
 
  • GefĂ€llt mir
Reaktionen: Pro_Bro und Ghostfacekalle
ZurĂŒck
Oben