Test Cyberpunk 2077: Phantom Liberty im Test: GPU-Benchmarks mit und ohne Raytracing

Habe mir mal die Mühe gemacht und einige .ini Einträge erstellt und verändert.
(.ini Einträge erstellen geht relativ einfach, eine Liste was man verändern kann gibt es z.B. hier:
https://github.com/WolvenKit/BraindanceProtocol/blob/main/dumps/settings.ini )

Alles bezogen auf die Leistung und die Optik mit PT enabled (mit und ohne FG und mit und ohne DLSS / XeSS)

Hier die Ergebnisse in Bildern

2 Rays / 2 Bounces = Stock Wert!

Settings jeweils maxed out in 2160p mit XeSS oder DLSS auf "Auto" (ohne FG aber mit Ray Reconstruction).
Geändert wurden dann sowohl die Menge an Rays als auch die Menge an Bounces.

1 Ray 1 Bounce
1695833987948.png


2 Rays 2 Bounces
1695834002579.png

4 Rays 4 Bounces
1695834014370.png

Die Daten sind mit DLSS fast gleich, es sieht aufgrund der AI Unterstützung nur besser aus (klarer)

1 Ray 1 Bounce
1695834026872.png


2 Rays 2 Bounces
1695834036883.png


4 Rays 4 Bounces
1695834046917.png

Das tolle ist, man kann es asynchron ändern, also z.B. 4 Strahlen mit nur einem Abpraller, dann sieht das ganze so aus:

4 Rays 1 Bounce
1695834057038.png

4 Rays 1 Bounce
1695834067005.png

Man kann, wenn man eine schwächere Karte als die 4090 oder eine Radeon Karte nutzt, damit also vermutlich auch gut etwas an Performance herausholen, wenn man nur 1 Abpraller mit nur einem Strahl einstellt (mangels Radeon kann ich es nicht selbst testen).

Unter dem Strich bleibt für mich, dass selbst mit nur einem Abpraller und einem Strahl der optische Mehrwert von Pathtracing gegeben ist, die Leistung aber um knapp 30 FPS zunimmt (mit einer 4090).

Die Menge an Rays und Bounces habe ich bis 20/20 getestet (mit FG + DLSS Ultra Performance und in 720p hatte ich dann noch 60FPS inkls Texturmatsch ) also übertreibt es nicht ;)

Am besten gefällt mir optisch tatsächlich 4 Rays + 1 Bounce, und auch die Leistung ist im Vergleich zum voreingestellten 2/2 gleich.

Ich stelle hier dann mal die Zip Datei (Anleitung für den Pfad zum entpacken ist mit drin) mit rein, damit könnt ihr, wenn ihr wollt, selbst ein wenig testen (siehe Anhang).

Editiert werden muss dazu die RayTracing Bounces.ini
1695835718849.png
 

Anhänge

  • RayTracing Bounces for Pathtracing.zip
    1,2 KB · Aufrufe: 68
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Poati, GERmaximus, xXBobbyXx und 6 andere
cypeak schrieb:
die frage ist allerdings warum. den unterm strich mögen radeons nicht die geballte rt power nvidias haben, aber die hardware gäbe durchaus respektable leistung her.
Das kann ich sogar nach eingehender Analyse sehr genau beantworten.
NVIDIAs Pipelines und Gewerke sind dediziert und concurrent, während AMD einen integrierten Ansatz mit Kontextwechsel nutzt.

Das funktioniert bis zu einem gewissen Grad an Last relativ Nachteilsfrei. Bei höherer Belastung mit RTRT Berechnungen verstopfen die Einheiten der Radeons, die dort quasi unified ausgeführt sind und reissen damit zeitgleich das Rasterabteil in den Keller.

NVIDIA kann hier theoretisch alle Einheiten bis an die Grenze ohne Flaschenhälse auslasten.
Zudem wird nun das Denoising, welches mit eines der größten Budgets beim Rendern einnimmt nun komplett über die Tensor- Cores abgewickelt-> Durch die brachiale Rechenleistung dieser Einheiten steigert man dadurch die Qualität und entlastet die Shader.

Zudem hat NVIDIA gerade die Workloads für RTRT auf Hardwareseite abseits der RT Einheiten weiter optimiert und beschleunigt und die schwache Kohärenz von Pathtracingberechnungen, die die Caches schreddern deutlich erhöht (SER alias Shader Execution Reordering).
Durch OMM/DMM, also opacity micromaps, displaced micro- mesh, spart man sich weiteren Strahlenbeschuss bzw Rays und hat eine erhebliche Einsparung von Rechenbudget bei Erstellung und Unterhalt der Beschleunigungsstrukturen.

In Summe sind NVIDIAs Karten einfach für genau diese Workloads in Hardware und Software optimiert und weiterentwickelt worden.
In Summe ergibt das dann einfach die X- Fache Leistung in erheblich Raytracing- lastigen Szenarien.

Somit könnte CDPR in Sachen Pathtracing optimieren wie sie wollen, die Radeons haben die Rechenkraft und die Spezialeinheiten dafür nicht in Hardware gebacken.
30% wären an Optimierung vielleicht noch drin für AMD. Das wäre dann bei einer 7900XTX statt 10FPS dann 13FPS mit FSR2 auf WQHD.
Somit ein sinnloses Unterfangen. AMD hat seine Stärken einfach im Rastern.
Bei RTRT sind sie weit weit weg vom NVIDIA Entwicklungsstand, was ich im Übrigen sehr schade finde, da es die Akzeptanz und Entwicklung der Technik bremst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus, Slayn, Paddii und 11 andere
Wolfgang schrieb:
Tun wir doch nicht. Oder redest du gerade gar nicht vom Artikel? Dort gibt es doch eine Menge RT-Benchmarks.
Sorry, da habe ich mich vielleicht unklar ausgedrückt. Ich meinte warum überhaupt noch deziert unterschieden wird, das wirkt mittlerweile etwas anachronistisch.

Das man nicht umbedingt auf alles Maximum geht, wenn nur eine Graka überhaupt 30 FPS schafft sehe ich ja noch ein. Aber 0 RT bei Cyberpunk wirkt irgendwie unpassend. Da wäre ein "humane RT settings" vergleich sinnvoller meiner Meinung nach. Gerade bei CP ist das Argument "RT Leistung steht nicht im Verhältnis zur Optik" obsolet, die globale Beleuchtung sollte jeder nutzen der eine halbwegs moderne Grafikkarte hat. Auf einer 4070 z.B. ist der Unterschied no RT zu max RT nur 10FPS.
 
supermanlovers schrieb:
Das ist mir soweit auch bekannt. Gibt ja auch die Beschreibung so her. Aber was sorgt für die besseren Ergebnisse. Es ist mir etwas zu aufwendig alle möglichen Kombinationen durchzuprobieren und Benchmarks bzw. Screenshots zu vergleichen.

Momentan habe ich einfach alles auf Ultra, RT auf Hoch, DLSS Qualität, DLSS Frame Generation und DLAA auf aus. Läuft soweit in 3840 x 1600 mit 13900k u. 4090 ganz okay.
Tja. Ich versuche, bzw habe es mir teilweise schon abgewöhnt zu versuchen das Maximum an Grafikqualität aus Spielen herauszuholen. Es nervt drei Stunden rumzuprobieren, was denn nun an welcher Stelle und überhaupt irgendwie besser aussehen mag 🤔🥴. Fällt im Spiel meist eh nicht großartig auf. RT ist mMn (immer noch) überbewertet. Wenn ich sehe was ohne RT möglich ist (mit ein wenig mehr gutem Willen) seitens der Programmierung. Da kann bzw könnte man sich RT und das ewige rumprobieren und benchen eigentlich sparen = mehr Zeit zum daddeln 😃👍🏻😉
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slayn
  • Gefällt mir
Reaktionen: wickedgonewild
DagdaMor schrieb:
RT ist mMn (immer noch) überbewertet. Wenn ich sehe was ohne RT möglich ist
Ich finde den optischen Unterschied zwischen RT off und hoch/ultra schon erheblich. Eher bei DLSS bin ich noch skeptisch.
 
danyundsahne schrieb:
Tja, aber FG gibt es in wie vielen Spielen? Vielleicht in 1% aller Games?

danyundsahne schrieb:
Wart mal ab wenn AMD FMF im Treiber integriert bringt und es plötzlich für alle Spiele FG bei AMD gibt.
Was machen dann die NVidianer dann, wenn ihre teuren GPUs plötzlich in JEDEM Games versägt werden? (es sei denn, AMD schafft es auch so umzusetzen, wie es bisher gezeigt wurde, das ist mir bewusst)


AMD hat ja schon selbst angekündigt, dass die Implementierung über den Treiber qualitativ deutlich schlechter ist und auch mehr FPS als minimum braucht.

Aber ja, wenn das wirklich gut sein sollte, dann wäre es ein Killerfeature. Nachdem aber AMD selbst die Erwartungen schon dämpft wird das wohl nicht passieren. Ist natürlich schade.


Aber was die Spiele angeht. 1% aller Spielereleases mag vielleicht hinkommen. Ist vermutlich sogar noch optimistisch geschätzt, aber es kommt doch drauf an, welche Spiele man betrachtet.
Betrachtet man alle technisch anspruchsvollen bzw. hardwarefordernden Spiele, dann sieht der Support ganz gut aus.

Hier mal ALLE Triple-A Spiele oder mindestens grafisch anspruchsvolle Spiele, die ich mir seit Release von Frame Generation (etwas mehr als 1 Jahr) gekauft habe.

  • Cyberpunk 2077 Phantom Liberty (FG unterstützt)
  • Starfield (FG per Mod möglich)
  • Baldurs Gate 3 (FG per Mod möglich)
  • Ratchet and Clank (FG unterstützt)
  • Remnant 2 (FG unterstützt)
  • Jedi Survivor (FG erst kürzlich nachgeleifert, vorher per Mod möglich)
  • The Last of Us Part 1 (FG per Mod möglich)
  • Returnal (FG unterstützt)
  • Resident Evil 4
  • Hogwarts Legacy (FG unterstützt)
  • Dead Space
  • Atomic Heart (FG unterstützt)
  • Spider-Man Miles Morales (FG unterstützt)
  • Uncharted 4
  • A Plague Tale Requiem (FG untersützt)
  • Spider-Man (FG untersützt)


Von 16 Spielen unterstützen 10 offiziell Frame Generation. Bei 3 gibts Mods für FG.
Bleiben nur 3 Spiele bei denen kein FG möglich ist.

Zudem hab ich noch:
  • Dying Light 2 (FG per Patch nachgeliefert)
  • Forza Horizon 5 (FG per Patch nachgeliefert)
  • Witcher 3 (FG per Patch nachgeliefert - next-gen Update)

Hab die jetzt bewusst aus dem Vergleich rausgelassen, weil die Spiele schon deutlich älter sind, aber erst im laufe des letzten Jahres FG Support erhalten haben. Ging mir ja um das Verhältnis der Triple-A Releases mit und ohne FG support.

Für folgende Spiele, die ich besitze, kann ich auch Frame Generation per Mod nutzen:
  • Skyrim
  • Fallout 4
  • Red Dead Redemption 2
  • Elden Ring



Also wenn du mich fragst ist die Quote schon verdammt gut. Aber das ist nur meine Quote. Kann bei anderen natürlich auch etwas schlechter aussehen, keine Frage.
Und nein, ich priorisiere solche Spiele nicht. Das waren einfach die Triple-A Spiele, die mich interessiert haben. Und da ist der Support halt einfach gut gewesen.
 
  • Gefällt mir
Reaktionen: ben12345, danyundsahne und Pro_Bro
Verangry schrieb:
Habe mir mal die Mühe gemacht und einige .ini Einträge erstellt und verändert.
(.ini Einträge erstellen geht relativ einfach, eine Liste was man verändern kann gibt es z.B. hier:
https://github.com/WolvenKit/BraindanceProtocol/blob/main/dumps/settings.ini )

...

Man kann, wenn man eine schwächere Karte als die 4090 oder eine Radeon Karte nutzt, damit also vermutlich auch gut etwas an Performance herausholen, wenn man nur 1 Abpraller mit nur einem Strahl einstellt (mangels Radeon kann ich es nicht selbst testen).
...

Wieso muss ich da gleich an Hairworks denken? ;-)
 
tayna21 schrieb:
Ich kann das Fazit in Bezug auf Radeons + RT nicht wirklich nachvollziehen.
Warum? Mit einer 7900XT nicht einmal 60 FPS, die 1% FPS sogar fast auf 40 runter. Da passt das Fazit dann definitiv.
 
  • Gefällt mir
Reaktionen: ben12345
Mal von Benchmarks etc. abgesehen, fühlt es sich für mich auf der 3090 mit den selben settings wie zuvor bei 1.63, genau so an. Auch gestern in Dogtown fühlte es sich genau so an. Kann die "gestiegenen" Anforderungen hier in keinster Weise nachvollziehen. Selbiges sagten auch 2 Kollegen, die mitunter sogar nur auf ner 2080 spielen.

Es ist ja einer dieser nVidia Vorzeigetitel, ich hab schwer das Gefühl man macht diese PR mit Absicht.
 
  • Gefällt mir
Reaktionen: Slayn
Hab bisher nur ne Stunde gespielt und finde es richtig richtig gut. Grafisch auf nem OLED absolut atemberaubend. Teils sind Szenen fotorealistisch. Gameplay macht Spaß, die Verbesserungen sind gigantisch. Skill Tree besser, Polizei besser, Kämpfe besser, Balancing scheint mir überarbeitet. Wow.
 
  • Gefällt mir
Reaktionen: danyundsahne und daknoll
graysson schrieb:
Wieso muss ich da gleich an Hairworks denken? ;-)

Versteh ich auch nicht. Warum musst du denn an Hairworks denken?

Nur zur Erklärung.
Eine höhere Anzahl an Rays erhöht die Bildqualität und Präzision.
Mehr bounces Steigern den Realismus der Beleuchtung bzw. Ausleuchtung der Szene. Damit wird auch indirekte Beleuchtung möglich.

1 Bounce finde ich ehrlich gesagt deutlich zu wenig. Da fehlt an vielen Stellen dann die indirekte beleuchtung und die schattierten Bereiche sind dadurch viel zu dunkel.
Dabei soll Pathtracing genau das verbessern, weil genau das die größte Schwäche von Rastergrafik ist.

Genau an der Stelle zu sparen finde ich falsch.

Ich denke die 2 Rays / 2 Bounces sind ganz gut gewählt, wenngleich natürlich eine gewisse Skalierbarkeit wünschenswert wäre. Aber ehrlich gesagt erscheint mir eine Performanceskalierung via DLSS da deutlich sinnvoller und mit weniger deutlichem Qualitätsverlust verbunden, als die Skalierung über die Paramterwerte, Wenn das trotzdem nicht reicht ist es imho dann auch sinnvoller, PT einfach zu deaktivieren und den deutlich schnelleren normalen RT Modus zu nutzen, der ja auch schon viele optische Vorteile bringt, nur im verhältnis zu PT sehr gut performt.

Bei 2 Rays und 2 Bounces gibts halt rein zahlenmäßig wenig optimierungspotential.
 
Zuletzt bearbeitet:
Mimir schrieb:
Aber ja, wenn das wirklich gut sein sollte, dann wäre es ein Killerfeature. Nachdem aber AMD selbst die Erwartungen schon dämpft wird das wohl nicht passieren. Ist natürlich schade.
Was mir im Augenblick am meisten Kopfzerbrechen bereitet ist, dass AMDs Technik ab einem gewissen Schwellwert der Winkelgeschwindigkeit bzw. bei weitem Drift der Motion- Vectors bei Bewegung "aussetzt". Also letztendlich genau da, wo die Glättung bzw. Interpolation am wichtigsten wäre.
 
  • Gefällt mir
Reaktionen: Mimir
Ok, freue mich auf wqhd und geschmeidigen 75fps mit tollen raytracing effekten.
ray reconstruction ist ein muss btw. bringt nochmal einiges mehr an details.

gleich mal die maschine anschmeissen
 
RTX 3060: Bitter :/
 
@Mimir

Du hast natürlich recht, dennoch bietet der Regeintrag eine Möglichkeit die Qualität der Beleuchtung noch mal zu verbessern.

Beispiel:
4090 wird genutzt aber es ist nur ein 1080p Monitor vorhanden, damit kann man dann die Grafikpracht durch PT nochmal erhöhen.

Genauso ist es aber möglich, bei schwächeren Karten (4080 und abwärts) PT weiterhin an zu behalten (die Beleuchtung ist dennoch besser als mit dem "normalen RT") aber kann mit einem Strahl und einem Abpraller weniger noch etwas Leistung herausholen. ;)

Dies ist ingame leider nicht möglich, zeigt aber das da noch viel viel mehr GPU Power in Zukunft gebraucht wird, wenn sowas wie Strahlen und Abraller erhöht werden.
 
Zuletzt bearbeitet:
Ich hab am Sonntag etwas die 2.0 gespielt, die Technik ist dann ja erstmal die gleiche. Es sieht irgendwie schon noch wie Cyberpunk2077 aus, aber es spielt sich definitiv anders, flüssiger. Gefühlt setzt dass bei der Performance an. CP2077 2.0 holt gefühlt (nicht getestet) mehr aus der Hardware und die FPS sind stabiler. Es wirkt alles mehr aus einem Guss.
 
supermanlovers schrieb:
Kommt nochmal eine Erklärung oder Benchmark was die diversen DLSS Einstellungen bewirken? Einige kann man nicht gleichzeitig nutzen. Was für bessere Resultate sorgt ist mir nicht klar.

DLSS Frame Generation
DLSS Ray Reconstruction
Nvidia DLAA
DLSS wird (daher das SS für Super Sampling) als Kantenglättung verkauft. Dabei ist das ein Upscaling
DLAA ist dasselbe "Upscaling" allerdings nicht mit einer geringeren, sondern mit der nativen Auflösung.
Also entweder DLSS oder DLAA
Frame Generation und Ray Reconstruction hat nichts mit dem Upsampling zu tun und wird auch völlig falsch mit DLSS im Namen beworben.
Frame Generation ist eine Zwischenbildberechnung, ähnlich wie man es vom Fernseher kennt, bei dem zwischen zwei Frames ein weiteres eingerechnet wird. Das bringt auf dem Papier mehr FPS, aber die Latenz hängt halt hinterher, weil das keine echten Bilder sind, bei denen ein neuer Input mit einberechnet wird.
Ray Reconstruction geht nur mit aktiviertem Raytracing und ist ein alternativer Denoiser, also das was man ursprünglich mal mit DLSS machen wollte, bevor daraus ein Upsampler wurde.
Hat mit dem jetzigen DLSS Upscaling gar nichts zu tun.
 
  • Gefällt mir
Reaktionen: Slayn, iron_monkey und supermanlovers
Zurück
Oben