• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dying Light: The Beast mit RT im Test: (Teils) hübsches Raytracing im GPU-Benchmark

ev4x schrieb:
Bin grade Spider Man Remastered am zocken das packt bei der 5090 in 4K mit vollen Raytracing und DLAA also Nativ 4k 140 bis 180 FPS mit Drops zu 100 da frag ich mich echt was die hier optimiert haben mit DLSS Performance (1080p) und 85/76 FPS . Da läuft ja Cyberpunk mit Pathtracing schneller.
So kann man das nicht vergleichen!
Ein Vergleich würde nur Sinn ergeben, wenn es die jeweils gleiche Engine ist.
Jede Engine ist sehr unterschiedliche performant, somit nicht vergleichbar!
 
  • Gefällt mir
Reaktionen: Quidproquo77
OpenSystemFan schrieb:
Crysis und Farcry waren aber auch wirklich große Sprünge in Sachen Grafik.

Wenn man von Klötzchengrafik kommt, ist alles ein Upgrade -- und das mit vergleichsweise niedrigem Aufwand. Will sagen: Das Niveau war noch niedriger. Ist selbst Crytek schon ein paar Jahre später aufgefallen : https://www.gamestar.de/artikel/cry...zu-beeindrucken,3078991,kommentar1980811.html Da Crytek die reine Technik schon immer eine gigantische Rolle spielte, passts auch ins Bild, dass sie es tatsächlich immer schwerer hatten.

Ein Teil der Branchenkrise ist sicherlich: Früher konnte sie sich darauf verlassen, dass reine Technikupgrades schon von alleine ein paar mehr Spiele verkaufen. Motto: "Police Academy, äh Ass Creed 17? Ja, wir wissen, das ist nicht originell. Aber jetzt siehts noch geiler aus! KAUFEN!" Das ist vorbei. Und fesch aussehende Games gibts generell so oft wie CGI-Gewitter im Blockbuster-Kino. Gewöhnung ist das Ende jeden Wow-Faktors.

Kein Wunder, dass RockStar für GTA6 den Aufwand noch mal drastisch erhöht. Auch deren letzte genuin neue, frische IP: L.A. Noire. Lang ists her...
 
  • Gefällt mir
Reaktionen: OpenSystemFan und ElliotAlderson
Mimir schrieb:
Ich frage mich immer noch mit welcher Alientechnologie Crytek damals Crysis realisiert hat. Heutuztage würden Entwickler auf der Hardware von damals nichtmal mehr Tetris zum laufen bekommen. Wo sind wir falsch abgebogen???
Mit Glück war es zweistellig. Die 1% Perzentil fps kann man sich wohl denken. Alternativ auch bei PCGH vorbei schauen.

Die "Alientechnologie" von damals:
Quelle: CB
Screen Shot 2025-12-08 at 09.53.41.744 PM.png
 
  • Gefällt mir
Reaktionen: Quidproquo77, ElliotAlderson und Taxxor
Mimir schrieb:
Seh ich genauso. Ich finde RT eigentlich gut. In DL2, Cyberpunk und vielen anderen war Raytraced GI, Schatten und Reflexionen bei moderatem Performanceimpact nutzbar und es war eine deutliche Aufwertung.
Hm also ich glaube da täuscht etwas die Erinnerung. RT hat die FPS auf einer 3080 mehr als halbiert, bzw. auf der Radeon geviertelt.
Mimir schrieb:
Jetzt kommt ein DL The Beast, schafft mit ach und Krach eine ähnliche Aufwertung im Vergleich zu Rastergrafik, aber die Kosten für RT haben sich nochmal drastisch erhöht.
Das geht sicher noch besser, aber viel mehr Leistung rauszuholen kann ich mir nicht vorstellen, schließlich wird ja das volle Featureset aufgefahren. Allerdings sind die großen Reflexionen weiter SSR. Also bisschen was sollte gehen.
LETNI77 schrieb:
Ich muss nicht das Neueste spielen.
Selbst 5,5 Jahre alte Games haben ja DLSS4 per Treiber/Swapper.
LETNI77 schrieb:
Ich warte bis die Grafikkarten soweit sind, die jetzigen aktuellen Games downzusampeln.
4K DLSS Quality ist meinem Eindruck nach mit DSR x2.0 TAA vergleichbar.
Ergänzung ()

EntelodonX schrieb:
Das von Befürwortern von Upsampling die Nachteile ignoriert werden, erstaunt mich immer wieder
Welche Nachteile?
EntelodonX schrieb:
Was TAA angeht: Selbst auf dem Thumbnail deines Videos erkennt man, dass es dem Bild die Schärfe nimmt
Schärfe ist nicht alles und die Schärfe gewinnst du durch die Leistungseinsparungen und das Nutzen einer höheren Auflösung locker wieder dazu, anstatt 40% Leistung oder mehr für MSAA rauszublasen und das Bild trotzdem nicht beruhigen zu können.

Man muss halt das Video schon ganz ansehen, das Fazit ist ziemlich klar.
 
Zuletzt bearbeitet:
EntelodonX schrieb:
Das von Befürwortern von Upsampling die Nachteile ignoriert werden, erstaunt mich immer wieder (gibt es auch zuhauf im Netz...). Überholt wurde da nichts...
Da wird nichts ignoriert, nur ist die Alternative einfach nicht besser:
  • MSAA -> kostet massiv Performance, flimmert trotzdem...
  • Downsampling -> kostet extrem viel Performance
  • FXAA -> ist die schlechteste Variante von allen, denn sie macht einfach nur das Bild unscharf
  • Gar kein AA -> Flimmern aus der Hölle
Abgesehen davon funktionieren all diese Dinge nicht mit RT, weil TAA/DLSS/FSR als zusätzlicher Denoiserpath nutzen, um die restlichen RT-Artefakte rauszufiltern. MSAA machts das bspw. nicht.

Taxxor schrieb:
Jetzt können sie es dank Upscaling sogar und dann ist’s wieder nicht richtig^^
Die User hier haben den Anspruch 4K RT nativ max Details auf einer 3060 spielen zu können und das ist so fernab jeglicher Realität und war in der gesamten Geschichte des PC Gamings so auch noch nie möglich. Ich frage mich, woher diese weltfremde Vorstellung kommt, bzw. wie man etwas rechtfertigt, was noch nie so war?
 
Zuletzt bearbeitet:
Und TAA --> Ermöglicht keine bessere Leistung, sorgt aber oft für eine Unschärfe, die mit DLSS/FSR/XESS in der Regel nicht so deutlich ausfällt.
 
Quidproquo77 schrieb:
4K DLSS Quality ist meinem Eindruck nach mit DSR x2.0 TAA vergleichbar.
Das ist ja das Problem.
 
Svennc schrieb:
Wenn man von Klötzchengrafik kommt, ist alles ein Upgrade -- und das mit vergleichsweise niedrigem Aufwand. Will sagen: Das Niveau war noch niedriger. Ist selbst Crytek schon ein paar Jahre später aufgefallen :
Ich verstehe deinen Punkt, geht halt nur etwas an meinem vorbei. Ich meinte, Crysis und Farcry haben die Hardware gefordert und einen Invest verlangt, der ordentlich war, aber halt auch geliefert. RT/PT fordert, liefert aber nur wenig. Dein Punkt mag ein Grund dafür sein.
 
  • Gefällt mir
Reaktionen: metoer und EntelodonX
ElliotAlderson schrieb:
MSAA machts das bspw. nicht.
MSAA ist quasi inkompatibel zu deferred rendering, da die Beleuchtung an anderer Stelle als die Geometrieberechnung geschieht und keine Informationen mehr vorliegen damit MSAA überhaupt arbeiten kann und weiß wo ne Kante zu glätten ist.

Dann kommen transparente Objekte wie Glas oder feinste Haarsträhnen, Texturen, Shader Effekte, Postprocessing Features, SSR Ränder, SSAO und dann natürlich der ganze Noise (Lumen,) bzw. der durch Hardware RT mit dazu.

MSAA ist ein Krampf und eine Sackgasse für halbwegs moderne Grafik. Die Rendering Pipeline hat sich großen Veränderungen unterziehen müssen und die Kompromisse, die man mit TAA teilweise hat eingehen müssen haben sich mit KI Upscaling auch nahezu in Luft aufgelöst.

So gesehen ist DLSS4/FSR4 das neue MSAA. Genauso scharfe Kantenglättung, günstiger und auf fast alle Effekte anwendbar.
LETNI77 schrieb:
Das ist ja das Problem.
Wieso ist das ein Problem? 3-fache fps Raten für "lau". Ich find das wie Weihnachten, Ostern und den Geburtstag zusammen.
OpenSystemFan schrieb:
RT/PT fordert, liefert aber nur wenig. Dein Punkt mag ein Grund dafür sein.
Würde ein Entwickler aktuelle GPUs mal so richtig fordern. Sprich 20 FPS in 4K mit Pathtracing und DLSS Balanced auf einer 5090 in Ultra, würde doch kein Auge trocken bleiben, so ist es meist eben nur richtig gut, wenn Nvidia Support bietet.
 
Zuletzt bearbeitet:
BloodGod schrieb:
Diesmal gefällt mir der pcgh Test besser, da dort wenigstens DLSS Q verwendet wird
Und alle anderen Karten die nur XeSS oder FSR3 können auch mit FSR3 Quality womit die Bildqualität komplett auseinander geht und die Performance nicht vergleichbar ist.

Wenn man mit FSR3 Quality testet dann geht um optisch vergleichbar zu bleiben nicht mehr als FSR4/DLSS4 Performance
BloodGod schrieb:
insbesondere bei einer 4K Auflösung bleibt ja kaum was übrig…
Speziell bei 4K startest du bereits mit so einer hohen Auflösung, dass der Unterschied zwischen Performance und Quality optisch am geringsten ist und gleichzeitig am meisten FPS bringt.
Hätte ich nen 4K Monitor würde ich nur Performance nutzen.

In 1440p sieht man den Unterschied schon deutlicher und ob man auf 720 oder 960 runter geht ändert an der Performance auch weniger als wenn man von 4K auf 1440p oder 1080p geht.
 
Zuletzt bearbeitet:
Echt schwierig, mal finde ich mit RT besser, dann mal wieder ohne, ich weiß auch nicht ey!
 
Quidproquo77 schrieb:
Wieso ist das ein Problem? 3-fache fps Raten für "lau". Ich find das wie Weihnachten, Ostern und den Geburtstag

Weil das nicht gut aussieht.
Und ist nicht für „lau“.

Die Ästhetik und die Gesamtheit der Grafik geht flöten.

Formen wirken fremd in dem Raum, Milchglseffekte, Blur, „falsche“ Farben, Ghosting, usw.
Die Liste ist lang.

Da kann ich gerne auf 3fach FPS verzichten. 😁
Das Bild macht mich nicht so euphorisch.

Die Technik ist noch nicht ausgereift, evtl. hilft jetzt die KI nach, wo die Entwickler versagen.
 
Mir gefällt's ohne RT irgendwie besser...
 
danyundsahne schrieb:
Aber die Annahme dass sicher jeder durchschnittsdeutsche RT HW leisten kann ist auch gewagt. Ich kenne einige die nur eine magere 3060 haben...das ist auch in meinen augen keine RT HW :D

In meinem privaten Umfeld liegt die Leistung der meisten Grafikkarten deutlich unter einer 3060. :D
Wir sprechen da z. B. von 980 Ti oder Vega 64.

EntelodonX schrieb:
Was TAA angeht: Selbst auf dem Thumbnail deines Videos erkennt man, dass es dem Bild die Schärfe nimmt und schon deshalb nichts taugt, da braucht es keine Quelle dafür, sondern Augen...

...die sind aber nicht alle gleich (gut). ;)

Ich kenne viele, die bemerken es nicht einmal, wenn die Auflösung falsch eingestellt ist.
Das einzige was ihnen auffällt, ist das die Symbole auf dem Desktop eine andere Größe haben oder die Texte in den Spielen. :freaky:

NguyenV3 schrieb:
Mit Glück war es zweistellig. Die 1% Perzentil fps kann man sich wohl denken. Alternativ auch bei PCGH vorbei schauen.

Kaum vorstellbar, das ich aus einer Zeit stamme, in der auch schnelle Spiele mit 15 fps gespielt wurden. :o
In gewisser Weise sind wir da schon verwöhnt. Oder wir waren damals leidenfähiger.

Ich bin allerdings auch der Meinung, das die Performance mancher Titel einfach nicht passt im Vergleich zu anderen.
DL TB oder Oblivion Remastered etwa.

Taxxor schrieb:
Speziell bei 4K startest du bereits mit so einer hohen Auflösung, dass der Unterschied zwischen Performance und Quality optisch am geringsten ist und gleichzeitig am meisten FPS bringt.
Hätte ich nen 4K Monitor würde ich nur Performance nutzen.

Noch geht es mit Quality, aber der Tag wird kommen wo es auch bei mir Perfromace sein muss.

Der Unterschied ist je nach Spiel doch merklich sichtbar, in DL TB sieht der Boden besonders in Entfernung schlechter aus, außerdem erhöht sich das Flimmern von Kanten/Objekten.

Trotzdem kann ich sagen, daß ich das Ergebnis immer wieder beeindruckend finde wenn man bedenkt, was letztlich dafür intern an Auflösung rumkommt.
Und es sieht bei weitem besser aus, als wenn man die Auflösung des Monitors/TVs reduziert, obowohl meiner schon eine gute Interpolation besitzt.
 
  • Gefällt mir
Reaktionen: danyundsahne
LETNI77 schrieb:
Formen wirken fremd in dem Raum, Milchglseffekte, Blur, „falsche“ Farben, Ghosting, usw.
Die Liste ist lang.
Bitte was? :D
Milchglaseffekt und Blur sind ein und das selbe und falsche Farben gibt es nicht durch DLSS. Formen werden auch nicht "verfremdet", was auch immer das sein soll. Das liegt vielleicht an anderen Substanzen, aber nicht am Upscaler ;)

Die Liste ist auch nicht lang. DLSS und co. haben nur ein Problem: Ghosting bzw. Artefakte. Das wars.
Wenn dich das alles so stört, dann spiel halt mit TAA oder fummel solange rum, bis es ganz ohne geht und du den flimmernden Pixelbrei "genießen" kannst. Ich verzichte.
 
  • Gefällt mir
Reaktionen: Flunkiii
daknoll schrieb:
Karten mit mehr als (maximal!) 280-300W Verbrauch sind in Zeiten hoher Strompreise und Netzgebühren ein "No-Go".
Es gibt ganze Konsolen mit einem Powertarget von maximal 250 W und der Hersteller Sony fordert Entwickler auf den "Low Power Mode" mit 80-90 W besser zu unterstützen. 75 W zieht eine PS4 Slim standardmäßig.
Ergänzung ()

danyundsahne schrieb:
Wieder ein Beispiel dafür dass RT auch im Jahre 2025 nicht im Mainstream angekommen ist, und das auch nicht im Jahre 2026 wird.
Es braucht einfach zu teure GPUs, damit man es genießen kann. Bei AMD ab der 9070, bei NV ab einer 4070. Mindestens. AMD braucht eigentlich noch stärkere HW und bei NV gibts diese zwar, sind aber sackteuer.
Wenn zum Release-Termin zocken möchte, kauft man eine PS5 und seinen Wunschtitel dazu. Der läuft dann genau so, wie die Entwickler da vorgesehen haben. (Fun Fact: AAAA-Slop wird nicht für den PC entwickelt.)

Der "Best of AAAA-Slop" kommt dann erst einige Jahre nach Release auf den PC, in der Regel nach einer Aufrüstung, mit heftigem Rabatt. Die meisten heftig beworbenen AAAA-Releases sind dann längst vergessen, erst recht die längst abgeschalteten gefloppten Live-Service-Games. Aber das was noch übrig ist, läuft dann mit allen Reglern auf Anschlag im V-Sync.

ElliotAlderson schrieb:
Der durchschnittliche Deutsche kann sich RT HW leisten, also wieso sollte es dann nicht auch in Spielen berücksichtigt werden, gerade wenn sie im Westen entwickelt werden?
Der Durchschnittsbürger stellt sich kein Drei-Kammer-Aquarium hin, auch wenn er sich das leisten könnte.
 
Zuletzt bearbeitet:
LETNI77 schrieb:
Ich warte bis die Grafikkarten soweit sind, die jetzigen aktuellen Games downzusampeln.
Hast du schon mal Baldurs Gate 3 auf 4k mit DLSS Quality gesehen? Ich finde das Bild sieht perfekt aus und ich kann keine Artefakte oder Unschärfe erkennen.
 
  • Gefällt mir
Reaktionen: LETNI77
ElliotAlderson schrieb:
Die 9070 XT gibts schon ab 600€ und das ist für den Durchschnittsbürger finanzierbar.
Der Durchschnittsbürger hat aber kein Drei-Kammer-Aquarium, wo ein 30 cm großer Drei-Slot-Trümmer reinpasst, sondern ein Notebook.

Wer der 650-700 € fürs Zocken übrig hat, dann wird es eine PS5 (Pro). Und da läuft der AAAA-Slop zum Release-Datum einwandfrei drauf.
 
Zurück
Oben