• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dying Light: The Beast mit RT im Test: (Teils) hübsches Raytracing im GPU-Benchmark

@Wolfgang in den Tabellen steht für XeSS Quality und XeSS Ultra Quality beide Male 59%
 
  • Gefällt mir
Reaktionen: Wolfgang
Wow
Dlss Performance für 116fps und 3440x1440p mit einer 5090.
da haben wir doch optimalen Nährboden für:
Raytracing ist noch technisch nichts

Na im sale für 20-25€ gucke ich es mir an.
 
  • Gefällt mir
Reaktionen: Norebo
Heftiger Einbruch in 4K mit einer RX 9070 XT. Wenn denn, würde ich es nur ohne Raytracing spielen. Wird daher in einigen Jahren mal im Sale gekauft.
 
Wieder ein Beispiel dafür dass RT auch im Jahre 2025 nicht im Mainstream angekommen ist, und das auch nicht im Jahre 2026 wird.
Es braucht einfach zu teure GPUs, damit man es genießen kann. Bei AMD ab der 9070, bei NV ab einer 4070. Mindestens. AMD braucht eigentlich noch stärkere HW und bei NV gibts diese zwar, sind aber sackteuer.

Das ist halt weit weg für die allermeisten Gamer. Hin und wieder schön anzusehen, aber dann unspielbar. Sehr oft auch mal schlecht umgesetzt oder erst gar nicht in neue AAA Titel integriert.

So dauert das meiner Meinung nach immer noch mindestens 2-4 Jahre bis wir mal in den Bereich kommen, wo a) die Gamer einigermaßen mit (bezahlbarer RT HW ausgestattet sind; also im brauchbare RT HW in den Mid Range Bereich rutscht),
b) die next Gen Konsolen dann endlich deutlich mehr RT Power haben und
c) die Entwickler dann auch schlussendlich flächendeckend(er) RT in die Games einbauen können.

Aber ansonsten, Danke CB für den Test.
Trotzdem immer wieder schön zu lesen was neue HW kann (und was nicht). ;)
 
  • Gefällt mir
Reaktionen: n0sk437, Jagdwurst, Ghostfacekalle und 4 andere
Calpi schrieb:
Schön das ich den Titel noch nicht angefasst habe. Wobei die 7800xt ja ungefähr der 6800xt entspricht mal sehen was da mit rt überhaupt geht in wqhd.
Ja auch high müsste es klappen sieht sicher kaum schlechter aus👍🏻
 
Habe das Spiel auch ohne RT genossen.
Ich finde sogar in den Vergleichsbildern den Kontrast ohne RT besser.
 
  • Gefällt mir
Reaktionen: muvmend, Paddinski, Mills97 und 4 andere
Taxxor schrieb:
@Wolfgang in den Tabellen steht für XeSS Quality und XeSS Ultra Quality beide Male 59%
Man ist bei CB grundsätzlich der Meinung, keine Tests mehr ohne Upscaler zu fahren. Da es kein FSR4 für RDNA3 gibt, wird ersatzweise XeSS genommen, und dann mit Strafaufschlag, also lässt man die RDNA3 Karten immer mehr ackern als den Rest. Ich schaue mir deshalb die Benchmark-Ergebnisse nicht mehr bei CB an (andere Beitrage natürlich schon), da man damit Äpfel mit Birnen vergleicht.

P.S.: Das steht übrigens bei PCGH zum Thema XeSS:
Falls Sie sich wundern, dass wir Arc-Grafikkarten mit FSR anstelle von XeSS testen, dies hat einen einfachen Grund: Dying Light: The Beast bietet bis heute ausgerechnet keinen "Ultra Quality"-Modus für XeSS an. Dieser ist jedoch notwendig, um eine interne Pixelmenge von 67 Prozent, äquivalent zu FSR Quality und DLSS Quality, zu erhalten.
 
  • Gefällt mir
Reaktionen: Gullveig, MiroPoch, ErnstHaft99 und eine weitere Person
Teilweise sieht es so aus, als könnte man auch einfach den Gamma Wert anheben. Heller. Da alle RT Bilder hauptsächlich (bis auf kleine Details hier und dort) heller sind.

Also anstatt "RT ON", lieber Helligkeit(oder Gamma) hoch und schon hat man ein ähnliches Ergebnis, aber wesentlich Ressourcenschonender. :D
 
  • Gefällt mir
Reaktionen: Paddinski und Wallwatcher
Die Skalierung mit +36% auf der 5090 ist ziemlich gut. Hat Nvidia es geschafft Blackwell mal richtig auszulasten?

Die 5080 dürfte auch knapp 20% vor der 4080 sein. Die 9070XT ist mit max RT etwas abgeschlagen aber hält sich noch.
 
  • Gefällt mir
Reaktionen: Snapuman
„Höchste Qualität“ ist dessen Bezeichnung, was zugleich Upsampling vom Quality- in den Performance-Modus schaltet und (Multi) Frame Generation maximiert."


das kannste Dir nich ausdenken...dann ist es definitiv nicht höchste Qualität
 
  • Gefällt mir
Reaktionen: EntelodonX, incurable, Beschi und eine weitere Person
Ist mir immer wieder ein Rätsel, wie manche einen Mehrwert bei RT sehen. Ich bevorzuge meistens die Bilder mit RT off.
 
  • Gefällt mir
Reaktionen: muvmend, Corpus Delicti, Paddinski und 5 andere
Die kühne Behauptung im Artikel, das RT besser als nicht RT aussieht, ist eigentlich eine Geschmacksfrage und schon anhand der Screenshots seh ich teils Bilder, die ohne RT besser aussehn, als mit.

Und was Upscaling angeht:
1080p schlicht unerhört dazu gezwungen zu werden, schlecht optimiert, oder falsches Hardwaretarget
1440p im Einzelfall entschuldbar
4k gut und nützlich, weil die Quellauflösung genug Bildinfo fürs Upscaling enthält und ein zu 99% gleichwertiges Bild für viel weniger Aufwand darstellt

Bislang sind RT und auch gewisse Game Engines nur Hindernisse für ein gutes Spielerlebnis und abseits der totalen Gaming-Luxusklasse kein Gewinn und dann wundern sich die Firmen über mäßige Verkäufe...
 
  • Gefällt mir
Reaktionen: Corpus Delicti, HolySkillet, Beschi und 3 andere
danyundsahne schrieb:
Wieder ein Beispiel dafür dass RT auch im Jahre 2025 nicht im Mainstream angekommen ist, und das auch nicht im Jahre 2026 wird.
Es braucht einfach zu teure GPUs, damit man es genießen kann.
Nicht nur zu teuer, auch zu heiß und viel zu stromhungrig. Und so wie es seit Jahren schon aussieht, wird das auch so bleiben.
Karten mit mehr als (maximal!) 280-300W Verbrauch sind in Zeiten hoher Strompreise und Netzgebühren ein "No-Go".
 
  • Gefällt mir
Reaktionen: MiroPoch, ErnstHaft99 und ChrisMK72
NoNameNoHonor schrieb:
Da es kein FSR4 für RDNA3 gibt, wird ersatzweise XeSS genommen, und dann mit Strafaufschlag, also lässt man die RDNA3 Karten immer mehr ackern als den Rest.
Einen Strafaufschlag stellt DLSS4/FSR4 dar. Die Kosten mehr Performance als FSR3/XeSS und sehen aber deutlich besser aus.

Irgendwie muss man Bildqualität adressieren. Die Render-Auflösung ist dafür schon seit Jahren nicht mehr das alleinige Kriterium.
NoNameNoHonor schrieb:
Dieser ist jedoch notwendig, um eine interne Pixelmenge von 67 Prozent, äquivalent zu FSR Quality und DLSS Quality, zu erhalten.
Warum sollte die interne Pixelmenge zwischen unterschiedlichen KI-Upsamplern/Supersamplern auch gleich sein? Hier wird Performance genutzt, also 50%. Quality/Balanced ist bei der Bildqualität eh Verschwendung, da Performance schon besser als Nativ mit TAA aussieht.

Ich nutze nur noch Performance.
 
  • Gefällt mir
Reaktionen: Taxxor
daknoll schrieb:
Nicht nur zu teuer, auch zu heiß und viel zu stromhungrig. Und so wie es seit Jahren schon aussieht, wird das auch so bleiben.
Karten mit mehr als (maximal!) 280-300W Verbrauch sind in Zeiten hoher Strompreise und Netzgebühren ein "No-Go".
Mh, die Stromkosten sehe ich erstmal nicht als Grund, dass sich RT HW nicht schneller verbreitet.
Das sind versteckte Kosten, die erstmal nicht ganz so dramatisch sind.
Wenn du eine GPU hast die 50W mehr braucht als eine andere, dann sind das im Jahr vll. 50€ mehr (nur mal fiktiv). Das geht in deiner Jahresstromrechnung unter, weil das auch nicht aufgeschlüsselt wird.

Aber ob diese +50W GPU jetzt beim Kauf 250€ mehr kostet, ist ja der eigentliche Grund, warum du die vll nicht kaufst.
Also man schaut eher auf die Anschaffungskosten will ich damit sagen.

Aber ja, Kosten, Verbrauch und Hitzeentwicklung sind alles Faktoren die den Kauf beeinflussen. Nur anders gewichtet wie ich meine.
 
RX 9070 XT sieht gar nicht so schlecht aus.👍

Freut mich! 😁
Ergänzung ()

Flunkiii schrieb:
… Ich finde ohne RT da besser.
Das ist nicht nur bei diesem Game so, immer noch sieht das Bild bei vielen Spielen ohne RT besser aus. Auch auf einer RTX 5090

Hier müssen wir noch 3-4 Jahre warten.

P.S. Innenräume sehen mit RT besser aus, Außengebiete dagegen sehen ohne RT besser aus.

Sogar im Inneren sieht RT immer noch nicht ganzheitlich aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: muvmend, BacShea, MiroPoch und 2 andere
Quidproquo77 schrieb:
Die Skalierung mit +36% auf der 5090 ist ziemlich gut. Hat Nvidia es geschafft Blackwell mal richtig auszulasten?

Die 5080 dürfte auch knapp 20% vor der 4080 sein. Die 9070XT ist mit max RT etwas abgeschlagen aber hält sich noch.
Jap ist mir auch aufgefallen. Wobei das ja nur immer mit UE5 der Fall ist, dort werden Geforces generell immer sehr schlecht ausgelastet, sieht man auch an der Leistungsaufnahme immer
 
Norebo schrieb:
Bislang sind RT und auch gewisse Game Engines nur Hindernisse für ein gutes Spielerlebnis
hust*UE5*hust;)

Edit:

daknoll schrieb:
Karten mit mehr als (maximal!) 280-300W Verbrauch sind in Zeiten hoher Strompreise und Netzgebühren ein "No-Go".


Watt begrenzt auf max. 299 für den Normalfall.png

Hab meine Karte tatsächlich auf max. 299 Watt eingebremst, was für WQHD ein guter Wert ist, um leicht auf meine Ziel Singleplayer-FPS von 75 (gekappt) zu kommen. :) Spart Strom und schont die Hardware (Temps).

Falls es irgendwann mal absolut notwendig sein sollte in einem Titel, könnte ich im Notfall aufbohren auf 374 Watt für meine max. 340 Watt OC Karte. :D

( Acer Predator BiFrost RX 9070 XT OC für 589,00 € geschossen :) )
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snapuman und Norebo
danyundsahne schrieb:
Es braucht einfach zu teure GPUs, damit man es genießen kann.
500-600EUR GPUs sind zu teuer? Und komm jetzt nicht das man in dieser Preisklasse unbedingt in 4k mit >100fps spielen will. Dann kann man es gleich sein lassen und zur Konsole gehen. Schuld ist auch AMD die jetzt mit RDNA4 endlich mal akzeptable RT performance haben und das auch von Konsolen abfärbt.
 
  • Gefällt mir
Reaktionen: Czk666, ElliotAlderson und Quidproquo77
Zurück
Oben