• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dying Light: The Beast mit RT im Test: (Teils) hübsches Raytracing im GPU-Benchmark

danyundsahne schrieb:
Das vergessen halt hier in der CB Bubble schnell viele.
Nein, das sollte uns gar nicht interessieren. Technische Fortschritte werden nicht an armen bzw. 3 Welt Ländern gemessen, sondern an dem, was möglich ist und das sollte auch dein bzw. unser Anspruch sein.
Der durchschnittliche Deutsche kann sich RT HW leisten, also wieso sollte es dann nicht auch in Spielen berücksichtigt werden, gerade wenn sie im Westen entwickelt werden?
 
incurable schrieb:
Rote Farbpigmente in Wandanstrichen sind nicht dauerhaft stabil, rot gestrichene Flächen verlieren mit jeder Stunde Sonneneinstrahlung an Intensität, wenn sie nicht regelmäßig nachgestrichen werden.

Ich sagte ja, über den allgemeinen Zustand der Welt, ob der so richtig ist, kann man streiten.

Aber die Designer haben diese Welt und diese rote Wand nunmal so erschaffen, also ist das Ergebnis mit RT
alles andere als überraschend und zumindest richtiger als ohne.

Es gibt ja auch nicht nur rote Farbe auf Wänden, sondern auch rotes Gestein.
 
ElliotAlderson schrieb:
Nein, das sollte uns gar nicht interessieren. Technische Fortschritte werden nicht an armen bzw. 3 Welt Ländern gemessen, sondern an dem, was möglich ist und das sollte auch dein bzw. unser Anspruch sein.
Der durchschnittliche Deutsche kann sich RT HW leisten, also wieso sollte es dann nicht auch in Spielen berücksichtigt werden, gerade wenn sie im Westen entwickelt werden?
Weil die Games, auch wenn sie im Westen entwickelt werden (und das sollte eigentlich egal sein), genauso in allen anderen 3 Himmelsrichtungen gespielt werden. Da gibt es auch keine extra entwickelte Low End Variante dafür, oder?
Das Game hat auf der ganzen Welt die gleichen Anforderungen.

Aber die Annahme dass sicher jeder durchschnittsdeutsche RT HW leisten kann ist auch gewagt. Ich kenne einige die nur eine magere 3060 haben...das ist auch in meinen augen keine RT HW :D
 
  • Gefällt mir
Reaktionen: Beschi und GrooderWanderer
MiroPoch schrieb:
Wie soll man dein geschriebenes ernst nehmen, wenn du Upsampling nicht von DLAA oder FSR 4: Nativ unterscheiden kannst?
Das kann man schon unterscheiden, aber der Unterschied ist ausgehend von einem 4K Monitor ziemlich geringfügig. Es fällt mir schwer den Unterschied zwischen DLAA und DLSS Performance zu sehen, vor allem auch weil höhere FPS gleichzeitig die Bewegtbildschärfe erhöhen, deswegen sind für mich DLAA und DLSS Q von der Gesamtqualität identisch. Seit DLSS4 ist DLSS Performance etwa auf DLSS3 Quality Niveau und der Unterschied zwischen DLSS3 Quality und DLAA3 war damals schon sehr gering.

Ab einen gewissen Punkt lohnt es sich einfach nicht noch mehr Leistung in höhere Auflösung zu stecken.
Und der Punkt ist für mich spätestens seit DLSS4 erreicht, ich habe keinen Bedarf mehr.

Hängt sicher auch von den DPI des Monitors ab. Ich hab 32 Zoll UHD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Norebo
danyundsahne schrieb:
Weil die Games, auch wenn sie im Westen entwickelt werden (und das sollte eigentlich egal sein), genauso in allen anderen 3 Himmelsrichtungen gespielt werden. Da gibt es auch keine extra entwickelte Low End Variante dafür, oder?
Das Game hat auf der ganzen Welt die gleichen Anforderungen.
Richtig, aber PC Spiele gibt es ja nicht erst seit gestern und es war schon immer so, dass HW schneller wurde und neue Spiele diese auch genutzt haben. Vor noch gar nicht all zu langer Zeit konntest du jedes bzw. jedes 2 Jahr upgraden, wenn du die neusten Titel spielen wolltest. Damals hat man sich auch nicht mit Händen und Füßen dagegen gewehrt.
 
ElliotAlderson schrieb:
Nein, nicht wirklich bzw. nicht generell, wenn wir über die Grafik reden. Spiele verzichten häufig aus Realismus (in Grafik), weil es technisch nicht möglich ist.
Es gibt einige Gegenbeispiele, die wohl auf die meisten Games zutreffen:
  • Dauerhaft sichtbare God Rays, obwohl das nur unter bestimmten Wetterbedingungen sichtbar wäre
  • Knalliges oder stilisiertes Color Grading während die Realität oft eher unspektakulär blass ist
  • Wetter, Tageszeit und Beleuchtung wird nicht zufällig oder nach Realismus, sondern eher für das Gameplay und die Ästhetik gewählt
  • Die Nacht ist fast nie wirklich dunkel
  • Chromatische Abberration wird benutzt, weil es cool aussieht und nicht weil Menschen so sehen
Oder anders ausgedrückt: Realismus wenden wir an, solange es uns dient / es uns gefällt.
 
  • Gefällt mir
Reaktionen: Beschi, Schmarall und Norebo
ElliotAlderson schrieb:
Richtig, aber PC Spiele gibt es ja nicht erst seit gestern und es war schon immer so, dass HW schneller wurde und neue Spiele diese auch genutzt haben. Vor noch gar nicht all zu langer Zeit konntest du jedes bzw. jedes 2 Jahr upgraden, wenn du die neusten Titel spielen wolltest. Damals hat man sich auch nicht mit Händen und Füßen dagegen gewehrt.
Natürlich gab es das schon immer.
Jetzt gibt es 3 Möglichkeiten...entweder es bleibt wie es ist und man kann nur alle Games genießen wenn man grob 1000€ und mehr für eine GPU hinlegt.
Oder man lässt es und stellt alle Details (vorallem RT) runter bzw. die HW entwickelt sich schneller schneller als es die Grafikfortschritte tun. ;)

Ich behaupte ja nur, dass die allermeisten NICHT in den Genuss von RT kommen. Weils eben nur auf High End HW läuft ;)
 
ElliotAlderson schrieb:
Der durchschnittliche Deutsche kann sich RT HW leisten
Ich glaube kaum, daß Du den/die durchschnittliche/n Deutsche/n und was diese/r sich leisten kann/mag beurteilen kannst ... sorry, aber Du in Deinem Gaming-Hardware Ultraenthusiasten-Elfenbeinturm gewiss nicht und die CB Bubble ist alles andere als für Deutschland oder gar den Rest der Welt repräsentativ, was Hardwareaustattungen, -vorlieben und -anforderungen angeht ;).

Ich glaube Daniel Owen hat das vor kurzem ganz gut auf einen Nenner heruntergebrochen anhand der (z.T. fragwürdigen aber im Vergleich zu anderen Mitteln/Methoden evt. doch größeren Aussagekraft der) Steam Hardware Umfrage und ja, die überwiegende Mehrzahl aller dort verzeichneten Gamer haben 8GB Grafikkarten (iGPs/iGPUs außen vorgelassen).

Er hat damit übrigens auch den Bogen zu nVidia gespannt (weswegen diese noch 8GB Karten für den Mainstream auflegen, zumal viele nicht mit maximalen Einstellungen und Feature-Sperenzchen wie RT in maximaler Ausführung spielen bzw. den überproportionalen Aufpreis für solche Grafikkarten nicht zahlen müssen/wollen), was Deiner These massiv widerspricht.

Klar, bei PCGH wird auch nichts mehr wirklich unter 12 GB Grafikkarten zum Kauf empfohlen, es sei denn man hat ein klammes Budget oder gibt sich mit z.T. hohen bis mittleren Einstellungen und mitunter ohne RT RT aber dafür benötigtem Upscaling in anspruchsvollen/teilweise mies optimierten (AAA) Spieltiteln (die man evt. kaum/wenig spielt, weswegen teurere Grafikkarten sich für diese Leute auch nicht lohnen) zufrieden.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ChrisMK72
ElliotAlderson schrieb:
Der wird dann aber auch aktuelle Rastergames nicht spielen können.
Natürlich. Auf Full HD in mittel bis hoch. Auf 24" macht das auch Spaß. Braucht man nicht mal DLSS für, um flüssige FPS zu erreichen.

Und worum geht's?

Hauptsache Fun!

Ich bin da so dazwischen ... Nicht mehr Full HD, aber noch nicht 4k. Also 1440p/WQHD.
Is 'n guter Mittelweg, wie ich finde. :)
 
  • Gefällt mir
Reaktionen: Knobi Wahn und Norebo
danyundsahne schrieb:
Oder man lässt es und stellt alle Details (vorallem RT) runter bzw. die HW entwickelt sich schneller schneller als es die Grafikfortschritte tun. ;)
Oder man lässt es und stellt alle Details (vorallem RT) runter bzw. die HW entwickelt sich schneller als es die Grafikanforderungen tun. ;)

Ich hab das mal korrigiert, um der Tatsache zu entsprechen, dass sich die Anforderungen entwickeln und die Grafik nur so lala.
 
  • Gefällt mir
Reaktionen: danyundsahne und Norebo
ElliotAlderson schrieb:
Das "Nativ", von dem du und viele andere schwärmen, gibt es schlicht und ergreifend nicht mehr. Nativ ist fast immer TAA, wenn RT im Spiel ist.
Ja, leider.

Aber ich habe noch genug älteres Zeug zum spielen, wo kein RT vorhanden ist.
Ergänzung ()

Quidproquo77 schrieb:
DLDSR schon, aber das klassische Downsampling wurde längst bei einem Bruchteil der Leistungskosten optisch überholt.
Ich muss nicht das Neueste spielen.

Ich warte bis die Grafikkarten soweit sind, die jetzigen aktuellen Games downzusampeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beschi und EntelodonX
Quidproquo77 schrieb:
DLDSR schon, aber das klassische Downsampling wurde längst bei einem Bruchteil der Leistungskosten optisch überholt. Dazu gibt es auch jede Menge Vergleiche im Netz. Selbst DLSS Performance gewinnt in QHD gegen Native locker.

Keine Ahnung woher du zu wissen glaubst, dass TAA bescheiden aussieht. Führt man den Vergleich sauber, ist das nicht strittig. Zumindest kenne ich keine ernstzunehmende Quelle die etwas anderes sagt.
Das von Befürwortern von Upsampling die Nachteile ignoriert werden, erstaunt mich immer wieder (gibt es auch zuhauf im Netz...). Überholt wurde da nichts...

Was TAA angeht: Selbst auf dem Thumbnail deines Videos erkennt man, dass es dem Bild die Schärfe nimmt und schon deshalb nichts taugt, da braucht es keine Quelle dafür, sondern Augen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beschi
danyundsahne schrieb:
Jetzt gibt es 3 Möglichkeiten...entweder es bleibt wie es ist und man kann nur alle Games genießen wenn man grob 1000€ und mehr für eine GPU hinlegt.
Ich verstehe immer noch nicht wo der Unterschied zu früher ist, da waren die FPS mit max Settings sehr häufig niedriger und die Aufrüstzyklen wesentlich kürzer. Welche Beleuchtungs-Technik eingesetzt wird, ob das HW RT, Lumen, Pathtracing, SVOGI usw ist. Man wird am Ende so viel Eye Candy zuschalten, damit die Performance bzw. High End GPUs in 4K das noch flüssig darstellen können. Kommen keine neuen Karten und sind die Steigerungen gering, wird's Software richten müssen.
danyundsahne schrieb:
Ich behaupte ja nur, dass die allermeisten NICHT in den Genuss von RT kommen. Weils eben nur auf High End HW läuft ;)
Wäre man halt bei 1080p Monitoren geblieben, kommt ja keiner in den Genuss von 4K...^^
Erst Recht nicht mit KI Upscaling, alles ganz schlimm geworden.
ChrisMK72 schrieb:
Natürlich. Auf Full HD in mittel bis hoch.
Mittelmäßig. Entweder High End 4K Ultra Superduper oder Full HD Mittel Raster. Haha^^ Die "differenzierte" Sicht.

Ihr solltet Vorträge darüber halten, dass man heutzutage mit RT nur so wenig FPS hat und früher alles besser war.^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
danyundsahne schrieb:
Aber die Annahme dass sicher jeder durchschnittsdeutsche RT HW leisten kann ist auch gewagt. Ich kenne einige die nur eine magere 3060 haben...das ist auch in meinen augen keine RT HW :D

Hier, ich.


Aber ich finde im Mittel Indie-Gaming eh geiler heute -- was auf Steam mittlerweile die Hälfte aller Umsätze ausmacht, btw. Weil es absolut krass geworden ist, wie wenig Risiko Games noch gehen, wenn die Budgets mal höher sind als zwo Maak fuffzisch. Selbst Hollywood hat da mehr zu bieten. AAAA-Gaming ist eine nie enden wollende Serie aus (Marvel-)Endloschleifen, Remakes, Remastern, Remurksen und prozedural generierten Starfields. Und Abweichler, die nicht reinpassen, werden passend gemacht (Ausnahmen bestätigen die Regel). :D https://www.pcgamer.com/games/arkan...-make-and-thats-how-it-ended-up-with-redfall/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Siebenschläfer und Quidproquo77
JahJah192 schrieb:
Ich raff die Optimierung in der heutigen Zeit nicht

Wir haben seit 2019 richtig starke RayTracing Titel. Ein Metro Exodus sieht auch heute noch unglaublich gut aus und war mit RayTracing schon in 4k mit 40 bzw 60 fps spielbar, nativ bzw DLSS. Mit einer 2080ti.
Ein Cyberpunk in 2020 hat Beleuchtung, Schatten und Reflexionen. 4k 60 waren auch mit DLSS auf einer 3090 möglich. Vor dem Pathtracing Update.

The Beast sieht jetzt auch nicht groß anders als das alte Dying Light 2 aus, ist technisch sogar anspruchsloser weil die Vertikalität rausfällt.

Dann kriegen wir vor 2 jahren schon die geniale 4090 die fast eine Verdopplung zur 3090 ist und trotzdem Eiern die Spiele, bei wenig technischer Verbesserung auf den Stand 2019 rum. 4k 60 wird nur mit Upscalern erkauft.

Wo geht die enorme Leistungssteigerung von heutigen top GPUs im Vergleich zur 2080ti hin. Spiele sehen nicht viel besser aus. Wenn ich Metro Exodus anschmeiße sieht das auch 2025 unglaublich gut aus auf einem 4k OLED, läuft 4x so gut wie aktuelle RT Titel.
Hab das Gefühl seit Frame Gen will wirklich niemand mehr vernünftig optimieren.


Seh ich genauso. Ich finde RT eigentlich gut. In DL2, Cyberpunk und vielen anderen war Raytraced GI, Schatten und Reflexionen bei moderatem Performanceimpact nutzbar und es war eine deutliche Aufwertung.

Jetzt kommt ein DL The Beast, schafft mit ach und Krach eine ähnliche Aufwertung im Vergleich zu Rastergrafik, aber die Kosten für RT haben sich nochmal drastisch erhöht.

Tatsächlich läuft The Beast ähnlich schnell/langsam, wie ein Cyberpunk mit Pathtracing. Also nicht Cyberpunk mit RTGI, RT Schatten und RT Reflexionen, nein. Cyberpunk mit vollem Pathtracing.

Pathtracing war in Cyberpunk doppelt so teuer, wie normales RT. Das RT in DL2 war auch in etwa auf dem performanceniveau eines Cyberpunk mit RT effekten.

Jetzt haben wir ein DL2.5 mit den gleichen RT effekten, aber es kostet plötzlich so viel wie Pathtracing.
Und dabei sieht es noch nichtmal wirklich gut aus, und bewegt sich eben wieder auf dem Niveau eines typischen Rasterized Games mit etwas RT Effekten on Top.


Ich finde das wirklich komplett bekloppt. Wie können andere Spiele Pathtracing darstellen und das hier schafft bei gleicher Performance nur die Standard RT effekte.

Was zum Teufel muss man machen, um so dermaßen viel Frametime zu verbraten? Nochdazu wo es die Entwickler in DL2 schonmal besser gemacht haben. Was muss man rauchen, um bei beim Engine Profiling zu dem Schluss zu kommen "jop, passt, so kann das raus". Ich krieg das nicht in meinen Kopf... Das Game läuft minimum um Faktor 2 zu langsam, alleine wenn man die letzten 4-5 Jahre als Maßstab nimmt.

Wenn man sich hingegen ansieht, was PC Ports mit Max Details in der PS4 Ära auf den PC Bildschirm gezaubert haben, dann wäre aber wohl selbst die Rasterized Variante von DL The beast schon um Faktor 2-4 zu langsam. Aber lassen wir das einfach mal unter den Tisch fallen... ist ja nur so ein Gefühl und schwer mit Fakten belegbar. Aber beim RT und PT haben wir halt jetzt mal wieder den Direktvergleich und mir kann keiner Erzählen, dass sich da irgend jemand Gedanken über die performance gemacht hat.

Ich frage mich immer noch mit welcher Alientechnologie Crytek damals Crysis realisiert hat. Heutuztage würden Entwickler auf der Hardware von damals nichtmal mehr Tetris zum laufen bekommen. Wo sind wir falsch abgebogen???


Angesichts dessen hab ich auch schon lange keine Lust mehr, High End Hardware zu kaufen. Ja, ich hab ne 4080. Ist nicht ganz high End, aber war damals für mich die einzig vernünftige Option. Aber ne 4090 oder 5090 kaufen, nur damit sie zwei Spiele später komplett wertlos ist und wieder mit den gleichen Frameraten herumdümpelt wie mit der alten GPU, einfach weil die Entwickler auf jede Art von Optimierung Pfeifen und die Grafik dann auch noch schlechter ist, als in 5 jahre alten Spielen. Das kanns echt nicht sein. Da wirkt selbst die teuerste Hardware wie billger und völlig überfordertes Altmetall. Egal ob du 1000 oder 2000€ für die GPU ausgibst, die performance wird WEIT unter dem liegen, was du erwartest. Die Frage ist dann nur, ob du für ein mieses Spielerlebnis mehr oder weniger geld loswerden willst. What a time to be alive.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JahJah192 und Flunkiii
Mimir schrieb:
Ich frage mich immer noch mit welcher Alientechnologie Crytek damals Crysis realisiert hat.
Mit gar keiner, daher lief es auch im höchsten Setting auf der schnellsten verfügbaren GPU in 1680x1050 mit 20-30FPS.

Wenn man sich analog dazu die Performance hier in 4K mit DLSS Perfomance anschaut, liegt da schon ne 4070.

Damals hatten die Leute aber auch schlicht nicht den Anspruch alles auf max drehen zu wollen.

Jetzt können sie es dank Upscaling sogar und dann ist’s wieder nicht richtig^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson und Quidproquo77
Bin grade Spider Man Remastered am zocken das packt bei der 5090 in 4K mit vollen Raytracing und DLAA also Nativ 4k 140 bis 180 FPS mit Drops zu 100 da frag ich mich echt was die hier optimiert haben mit DLSS Performance (1080p) und 85/76 FPS . Da läuft ja Cyberpunk mit Pathtracing schneller.
 
Taxxor schrieb:
Mit gar keiner, daher lief es auch im höchsten Setting auf der schnellsten verfügbaren GPU in 1680x1050 mit 20-30FPS.

Wenn man sich analog dazu die Performance hier in 4K mit DLSS Perfomance anschaut, liegt da schon ne 4070.

Damals hatten die Leute aber auch schlicht nicht den Anspruch alles auf max drehen zu wollen.

Jetzt können sie es dank Upscaling sogar und dann ist’s wieder nicht richtig^^
Crysis und Farcry waren aber auch wirklich große Sprünge in Sachen Grafik. Hier liefert der ganze Aufwand eine Grafik, die vielleicht korrekter berechnet, aber halt nicht objektiv wirklich schöner ist. Auch hier wieder versteht doch keiner die Unterschiede bei den Vergleichsbildern und ist daher enttäuscht, was man für einen Invest fahren muss. Damals hast du viel Kohle auf den Tisch gelegt und hast einen nicht bestreitbaren Mehrwert bekommen. Ich halte RT/PT aktuell auch für wenig zielführend, da wirklich mit Rechenleistung um sich geschmissen wird, ohne wirklich zu überzeugen.
 
  • Gefällt mir
Reaktionen: metoer
Zurück
Oben