Test Ratchet & Clank: Rift Apart im Test: Benchmarks mit AMD und Raytracing mit neuen Treibern

Zum ewigen Thema Nativ, TAA, DLSS &co.

Von den Anhängern der Vergleich mit einem "nativen" Bild wird oft gerne Verschwiegen, dass moderne Titel, die auf stochastische Rendereffekte setzen, TAA zwingend voraussetzen. Und zweitens, dass das vermeintlich "native" Bild nicht nativ ist.

Es ergibt dort überhaupt keinen Sinn, es dann deaktivieren zu wollen oder gegen andere Antialias- Verfahren zu stellen.

So sieht das aus, wenn man es bei modernen Titeln deaktiviert:


Die vermeintliche "schärfe" wird durch allerlei Quantisierungsartefakte generiert.
Ich wüsste nicht, wer so spielen wollen würde...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: al007, Taxxor, Grimba und 3 andere
@.Sentinel. sehe ich das richtig, dass TAA, DLSS und co. die übrigen Artefakte der RT-Denoiser entfernt?
Oder agieren sie hier quasi als denoising und es gibt gar keinen Denoise-Filter?

.Sentinel. schrieb:
So sieht das aus, wenn man es bei modernen Titeln deaktiviert:
Weiß gar nicht, was du hast. Das sieht viel besser aus als dieses matschige & verwaschene DLSS. :D
@incurable hat mich überzeugt. Nativ ist das einzig wahre!
/ironie off
 
  • Gefällt mir
Reaktionen: MoinWoll
@.Sentinel.

Dann schau mal hier: https://www.reddit.com/r/FuckTAA/
:lol:

Es gibt wohl tatsächlich Leute, die sich den Pixelbrei antun wollen.
Der Subreddit ist Frustration in Reinform.

Ich verstehs halt nicht. Wem die Qualität mit TAA oder DLSS nicht ausreicht, der soll sich halt nen Monitor in höherer Auflösung kaufen oder Downsampling nutzen.

Mehr Samples = mehr Bildqualität. War schon immer so. Nichts hindert einen daran, den samplecount und die Bildschärfe weiter hoch zu treiben.
 
  • Gefällt mir
Reaktionen: .Sentinel. und MoinWoll
MrHeisenberg schrieb:
@.Sentinel. sehe ich das richtig, dass TAA, DLSS und co. die übrigen Artefakte der RT-Denoiser entfernt?
Oder agieren sie hier quasi als denoising und es gibt gar keinen Denoise-Filter?
Beides kombiniert ist im Augenblick der Königsweg. Das TAA wischt im Normalfall nochmal Ameisen aus dem Bild, die der Denoiser nicht gepackt hat.
 
  • Gefällt mir
Reaktionen: AwesomSTUFF, MoinWoll und MrHeisenberg
incurable schrieb:
Wenn es darum geht, die Leistungsverluste durch verschiedene Strahlenverfolgungstechnologien herauszuarbeiten ist es nicht hilfreich gleichzeitig auch noch (grund-)verschiedene Bildhochrechner zu aktivieren.
Aber für die Praxis wie das dann bei mir rennt, dafür ist es dann irgendwie schon hilfreich, also ob ich das jetzt ehr auf einer Nvidai oder AMD Karte rennen lassen möchte. Falls das Game halt wichtig für meine Upgrade Entscheidung ist.
 
Ich habe mal etwas aufgeräumt. Schade für den Kontext und die Diskussion, aber das lief hier dann doch etwas neben der Spur.
 
  • Gefällt mir
Reaktionen: Grimba, MrHeisenberg und Apocalypse
Pleasedontkill schrieb:
mance der NV Treiber ist besser als die von AMD??

Hast du versucht Adrenalin auf deine NV Karte zu installieren? Da hast du definitiv Probleme und die Performance ist auch mieser.
hä was laberst du da? Also wenn du das so interpretierst, brauch ich gar nicht darauf einzugehen^^
 
Schon geil wie so oft über die fehlende 4090 gejammert wird. Ich vermute mal sie liegt deutlich über der 4080 welch Überraschung. Bei dem Nachtest ging es eher um die Performancenetwicklung und ob der Direct Storage Bug vollständig weg ist. Und wie man sieht ist er nicht. Somit hat der Test doch eigentlich alles vermittelt. Zwigt nebenbei noch den Absturz der 3080 mit RT in Auflösungen über FullHD (hätte ich so nicht erwartet) und FG wird vermutlich deshlab nicht so krampfhaft getestet weil es zwar die FPS steigert aber die Karten der 40er Serie welche getestet wurden auch so genug FPS hatten. Außerdem stand schon im Einführungsartikel das sich mehr FPS durch FG nicht zwangsweise "runder" beim Spielen anfühlen ( wegen der höheren Latenz) wenn es hier einigen nur um Lange Balken geht niedrige Settings und 720p da habt ihr sicher frames ohne Ende.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anon-525334 und Enyo79
Grundgütiger schrieb:
Auch wird nicht „massiv“ Energie gespart
Doch, wird es.
140w Unterschied beim Verbrauch von CPU UND GPU bei nativ vs DLSS/FSR, und das sogar noch bei gelockten GPU clocks.

(230w vs 370w - das System benötigt also ~62% mehr Energie um ein schlechteres Bild zu erzeugen. Für akzeptables AA würden nativ nochmal 15-25w dazu kommen, und DLSS je nach preset wäre sogar nochmal 5-15w besser als FSR. Fehlt also nicht mehr viel für die magischen 2x mehr Leistungsaufnahme.)

Grundgütiger schrieb:
Mittlere Systeme belasten bei mehr fps auch die CPU stärker und der Effekt ist dort kaum der Rede Wert.
Übrigens: Bei einem FPS cap, welches in den meisten Fällen deutlich flüssiger wirkt als sinnlos max-fps rausquetschen (besonders bei mid-range Systemen), gibt es keinen Mehrverbrauch der CPU durch höhere Bildraten, weil es keine höheren Bildraten gibt.

Grundgütiger schrieb:
dafür lässt du am besten den PC aus
???
Puh, was soll dieses shitposten?
 
...auch mit dem neuen Treiber wird das Ergebniss für NV komplett verfälscht, leider habt ihr den Rebench zu früh gemacht CB.
Link :
https://www.computerbase.de/2023-08...irectstorage-in-ratchet-und-clank-rift-apart/
https://www.computerbase.de/forum/t...ing-richtig-gas.2154064/page-21#post-28497796

Intel-ARC ist im übrigen auch betroffen.
So sieht es ohne diese dateien aus, einfach löschen bis das problem behoben wird.:schluck:




Screenshot 2023-08-15 at 17-57-52 Test - Ratchet & Clank Rift Apart Das Duo macht auch unter L...png

Screenshot 2023-08-15 at 17-56-58 Test - Ratchet & Clank Rift Apart Das Duo macht auch unter L...png
 
Wolfgang schrieb:
Die Ergebnisse einer RTX 4090 bringen in dem Artikel absolut keinen Mehrwert.

Dieser Erklärungsversuch ist absolut hanebüchen. Dann lasst auch das Topmodell 7900XTX von AMD weg. Entweder ihr testet mit dem Topmodell jedes Herstellers oder nicht.

Sollte AMD mal die schnellste GPU liefern, nehme ich an, die wird dann auch aussen vor gelassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnWickzer
@aLanaMiau, es gibt mehr als nur eine 4090.
schreib doch bitte das nächste mal deine Konfiguration dazu, sowie das es sich nur um dich handelt.

Alles unter 3060Ti packt die 60fps in diesem Spiel mit etwas RT bei WQHD nicht, ergo muss die CPU weniger arbeiten verrichten. Mit DLSS steigen die fps und die CPU hat mehr Arbeit.
 
Mimir schrieb:
Komplett falsch. Du beweist mit deinen Formulierungen, dass du zwar weißt, wie koventionelle Upscaler funktionieren, zugleich aber auch, dass die Funktionsweise von DLSS, FSR2 und co komplett an die vorbei gegangen sein muss. Das was du schreibst ist schlichtweg nicht zutreffend, währe jedoch bei konventionellen Upscalern korrekt…

GUI Elemente werden bei DLSS und co. stets in nativer Auflösung berechnet, weil DLSS diese nicht hochskaliern kann. Denn DLSS ist zur Generierung von Bildinformation auf eine Mehrfachabtastung der 3D Szene über mehrere Frames hinweg angewiesen, was in unbewegten Szenen sogar durch einen Jitter der Kamera erreicht wird.
Von einem 2D GUI Element sind hingegen keine weiteren Bildinformationen zu holen, weswegen es sinnfrei wäre sie zu skalieren. Würde nur Unschärfe erzeugen.

Informiere dich bitte mal, wie moderne Verfahren funktioniern. Alleine die Aussage, dass man einen Glatten (also ganzzahligen) skalierungsfaktor braucht zeigt deutlich, dass dir KOMPLETT das Wissen dazu fehlt. Auch hier wieder: Das wäre für traditionelles Upscaling richtig, bei der Funktionsweise von DLSS und FSR, welche ein Bild völlig neu generieren anstatt es nur zu skalieren ist das aber völlig irrelevant.

Bitte informiere dich, bevor du eine Diskussion auf in diesem Kontext offensichtlich völlig falschen und veralteten Ansichten beginnst.


Hier kannst dich mal selbst überzeugen.
Das hier ist von links nach rechts TAA in nativer Auflösung, DLSS Quality mit 66% Auflösung pro Achse und zuletzt DLAA native Auflösung mit DLSS Algorithmus für reines AntiAliasing.

Anhang anzeigen 1386422
Der Bart sieht aus wie aufgemalt, erinnert mich an meine Kindheit. An Kerb und Karneval haben wir uns Bärte ins Gesicht gemalt und Cowboy gespielt 😂😂 Mist, so alt bin ich schon 🤪😁
 
domian schrieb:
Dieser Erklärungsversuch ist absolut hanebüchen. Dann lasst auch das Topmodell 7900XTX von AMD weg. Entweder ihr testet mit dem Topmodell jedes Herstellers oder nicht.

Sollte AMD mal die schnellste GPU liefern, nehme ich an, die wird dann auch aussen vor gelassen.
Du hast es leider nicht verstanden. Oder nicht richtig gelesen
 
Zum Thema upscaled vs nativ bzw downsampling
auf 1080p 24zoll und eine pixelabstand von 0,28mm Muss man schon arg gute Augen haben um alasing wahrzunehmen.
Das Kann man sehen das bestreite ich nicht aber das ist schon arg kleinlich.
Die meisten spiele nutzen allerdings kein 1-1 Ratio bei der Auflösung sondern rendern das Bild in kleiner und geben es als nativ aus. darum spreche ich den games eine native Auflösung zu.

Die meisten spiele rendern in 720p das Bild geben das als 1080p und mehr aus dementsprechend gibt es alasing wenn der pixel 0,45mm ist.

Da hilft kein msaa und kein dlaa den das problem ist das design des Spiels eher ist es so das mit aa man das verschlimmert durch Textur flimmern.
Der Grund warum man aa verwendet ist um die Darstellung der texture zu vergrößern um damit die eckigen kante zu verschleiern das erzeugt zwangsweise ein flimmern.

Das lässt sch lösen indem man das Bild im design des spiels auf 1080p vergrößert dann aber limitieren die rop einer gpu und die Konsolen geben vor was designt wird.
Die ps4 pro hat 48rop die ps5 ebenfalls 48 rop
48 rop mal gpu clock was bei der Konsole etwa 2,3ghz sind ergeben etwa 110gigapixel das Durch native 1080p design etwa 55fps sofern die alu das auch schaffen

Es macht im übrige nix die Bildschirmauflösung zu reduzieren, die last kommt vom shading der Effekte zusammen nicht durch die Auflösung an sich.
Daher macht dlss fsr auch nur dann sinn wenn dxr genutzt wird. Bei allem anderen wird man nur wenig perf dazugewinnen maximal etwa 20% sofern die rop die Auflösung auch schafft.
Das ist aber stark vom Spiel zu spiel unterschiedlich grob kann man sagen das man bei 1080p min 48rop braucht und bei 1440p etwa 64rop falls die spiel dies als native Auflösung rendert.

Dlss oder besser eine bessere supersampling dll kann bis zu 75% mehr fps bereitstellen das fußt aber auf einen algo der die Texturen klein rechnet (Die Qualität ändert sich nicht) und diese dann größer auszugeben.
Darum gewinnt man perf dazu das Ergebnis ist ein besseres Bild als interpoliert mit bessere Perf.
Fsr arbeitet anders und nimmt schlicht taa und reduziert die Auflösung der Texturen damit weniger pixel berechnet werden müssen und gibt diese als größeres Bild aus. perf gewinn durch Reduzierung der pixel mittels Reduzierung der Texturauflösung.
Allerdings ist nvidia algo besser.
Das betrifft aber nur Qualität Modus in perf und balanced Modus geben die sich nix

Mit dxr macht das viel aus aber alles andere kann man darauf verzichten
Das native Bild eines spiels abhängig vom design ist hier entscheidend wenn ein spiel in 720p designt wurde kann man noch so viel aa dazufügen es wird nie ohne ecken sein in der schräge.

Die meisten werden 0,28mm kaum beim 24 zoll display eindeutig alaising erkennen und wenn ein spiel darauf designt ist eher pixelig auszusehen stört msaa extrem da es Unschärfe erzeugt.
Es gibt nur sehr wenige Spiele die auf 1440p oder 2160p designt sind und die die es sind sind eher demos
Das meiste hat 360P bis 1080p absolutes maximum
Den mehr schaffen die Konsolen nicht

Mit nanite Ue5 wird später alles auf die native Auflösung des monitors angepasst somit limitieren bei gpu immer die rop der gpu anhand der pixel des monitors

Im übrigen die tmu einer gpu berechnen die polygone die mit den pixel von den rop gefüllt werden.
Und genau diese erzeugen die Auflösung die rop füllt da nur aus.
Die shader berechnen lediglich die Effekte Reflexionen Spiegelungen Beleuchtung und schatten und genau das zieht die meiste perf.
Das reine raster ist stur gpu Takt und tmu Anzahl sowie rop Anzahl abhängig.
Was man selber einstellt als Ausgabe interessiert nicht da das Bild immer nativ aus der engine kommt egal ob 1080p eingestellt ist oder 2160p das design ist vom Spiel auf eine Auflösung hin designt.
Die Leistungsunterschiede bei den Anforderungen bestimmt die shader Leistung der Effekte und der Anzahl der rop.
Die bandbreite kommt oben drauf sofern die Auflösung der Texturen über 1024bit gehen

Darum machen dlaa msaa taa und co kein Sinn mehr
dlss fsr allerdings schon wenn die Leistung der alu zu schwach ist bei dxr

Früher also vor den lcd nutzte man msaa auch nur deswegen da man damit effektiv die Texturen größer berechnete und die kanten damit zu verschwimmen zu lasen das hatte den Effekt das aa immer Unschärfe erzeugt aber bei crt viel das kaum auf.

AA= anti Alaising
 
LGTT1 schrieb:

Der NV-Treiber ist Schrott! Und das wird er auch immer bleiben, außer man kauft sich bei AMD/Intel ein. Sollte eigentlich jeden aufgefallen sein, dass bis 1440p eine 4080 in nicht-NV Titeln nicht/kaum schneller performed als ne 6950 oder ne GRE!
 
Zuletzt bearbeitet von einem Moderator:
gedi schrieb:
Sollte eigentlich jeden aufgefallen sein, dass bis 1440p eine 4080 in nicht-NV Titeln nicht/kaum schneller performed als ne 6950 oder ne GRE!
Was sind das denn für „nicht-NV Titel“ und bezeichnest du als nicht/kaum?
Sie ist in 1440p in so gut wie allen Spielen im Ranking 30-40% stärker als ne GRE, die einzigen Ausnahmen sind F1 22 mit 23%(47% mit RT) und CoD mit 10%.

CoD ist dabei nicht nur kein NV Titel sondern explizit ein AMD Titel.

Und zu anderen „nicht-NV Titeln“:
Callisto Protocol ist doch ein großer AMD Sponsored Titel oder nicht? Hier ist die 4080 40% schneller als die GRE(23% mit RT, beginnendes CPU Limit) .
Forspoken, ebenfalls AMD Titel: 52% vor der GRE(61% mit RT).

Und Ratchet&Clank hier kann man wohl auch als AMD Titel beschreiben, hier ist die 4080 ~30% schneller als die GRE, wenn man die DS Files weglässt, >60% mit „optimierten“ RT und ~100% mit maximiertem RT.

Also in „neutralen“ Titeln sind es ~30-35%, in NV Titeln sind es 35-50% und in AMD Titeln sind es 10-60%^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable und Mimir
Was sich hier in den letzten Kommentaren alles zusammenkonstruiert wird hab ich so auch noch nicht gesehen. Wow. :jumpin:
 
  • Gefällt mir
Reaktionen: incurable, rumpeLson und Czk666
Zu viele Partikel oder besser Einschusslöcher mit der "schrotflinte" lassen bei meiner RTX3060TI selbst auf Low die Frames auf 40 droppen. Neuester Hotfix drauf und DS Files umbenannt und verschoben. Es ist so traurig
 
Pleasedontkill schrieb:
Raytracing ist hier der Zusatz und Raster die Basis.
Ist wie, "die Blätter sind viel besser, der Stamm wird aussterben".
Noch ist RT der Zusatz, der Weg geht aber eben dahin, dass das Rastern irgendwann komplett wegfällt.
Die RT Entwicklung ist auch nur deshalb gerade so „langsam“, weil man die Karten weiter zusätzlich mit massig Hardware fürs Rastern vollstopfen muss
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben