• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Silent Hill f im Test: Richtig gruselig auch dank der Unreal Engine 5

Booth schrieb:
Ich pladiere dafür in den Diagrammen reinzuschreiben, welche Optimierungsmethode bei den FPS Werten verwendet wurde. Ansonsten ist die Legende aus meiner Sicht schlicht unvollständig. Klar... kann man im Text nachlesen. Das ändert nix daran, dass dies in eine vollständige Legende einer Grafik reingehört.
Da schließe ich mich an. Ich bin schon kein Freund davon, dass Nativ und Upscaling im gleichen Diagramm ist. Aber wenn, dann schreibt doch bitte hinter jeder Karte die Upscaling Version mit Stufe oder Nativ mit hin. So muss man erst überlegen, ab welcher Karte gibts denn jetzt FSR 4 zum Beispiel.
 
  • Gefällt mir
Reaktionen: slow_snail, Hatch, Strikerking und eine weitere Person
Gullveig schrieb:
Dazu noch, dass die Cryengine mit 40 fps butterweich lief, die UE5 aber mit 40fps quasi unspielbar ist.
Da spielt dir glaube ich aber die Erinnerung einen Streich. Früher war man mit 30-40 FPS einfach grundsätzlich schon zufrieden, das hat wenig mit der Cryengine zu tun. Heute hat man noch Reflex/Antilag2 + FG, also wesentlich flüssiger, direkter. Eigentlich Luxuszustände.
kachiri schrieb:
Ach ja... Schon wieder ein Spiel wo 12 GB in WQHD nicht mehr reichen - nicht. Es reichen sogar 8 GB! :D
Die Panikmache wegen den 12GB, die ja schon vor 3 Jahren bei der 4070 Ti gestartet wurde, verschiebt sich glaube ich weitere 1-2 Jahre. Und man sieht auch hier wieder. Auch mit 8GB lässt sich heute noch relativ problemlos zocken. Einen wirklichen Engpass wird es erst mit den neuen Konsolen geben.
Casillas schrieb:
Ja kann man jetzt diskutieren. Ich sehe die 9070XT auch noch bis UWQHD gut aufgestellt. VS 5090 von +49% in WQHD auf 62% auf UWQHD sehe ich gerade in Relation zum Preis als völlig in Ordnung an.
Bei den Radeons geht es sehr häufig immer um den Preis, bei den X3D CPUs aber quasi nie. Komisch, obwohl die Produkte doch von der gleichen Firma kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GOOFY71
Eine farbliche Markierung der unterschiedlichen Einstellungen würde ich auch gut finden.

TAA native - Blaue Balken
FSR4/DLSS4 - Gelbe Balken

Mal als Beispiel.
 
  • Gefällt mir
Reaktionen: kachiri
Casillas schrieb:
dass ich die 9070XT nicht schon oberhalb von WQHD am abfallen sehe, wie von @kachiri argumentiert.
Na ja... Der Abstand zwischen 9070 XT und den NV-Karten wächst halt auch schon in UWQHD. Wenn auch noch nicht so deutlich.
Interessant wären für mich bei den Spieletests halt auch die dazugehörigen Leistungsaufnahmen. Denn die bringen aus meiner Sicht auch immer eine gewisse Erkenntnis.
Hier würde es mich nicht wundern, wenn die 9070 XT auf Anschlag oder nah am eigenen Power Target läuft und eine 5070 Ti, 5080 und eine 5090 sowieso nur einen Teil davon.

Eine deutlichere Kennzeichnung in den Balkendiagrammen würde ich auch befürworten. Ja, es steht im Fließtext. Aber im Diagramm wäre es dann auf einen Blick zu erfassen.
 
  • Gefällt mir
Reaktionen: H6-Mobs und Quidproquo77
CastorTransport schrieb:
In Singleplayer-Spielen kann wohl keine Engine der UE5 das Wasser reichen.
Außer natürlich man möchte flüssige Bildraten. Für mich ist das Gestotter der Immersionskiller Nr. 1 und damit gerade für Singleplayer eher ungeeignet. Übergänge von Cutscenes und Gameplay stottern bei UE ja besonders gerne.

jiggi89 schrieb:
Warum wird denn nicht mit optimierten Grafikeinstellungen auch getestet?
Frage ich mich auch immer wieder, da ja auch Upscaling genutzt wird. Jetzt haben wir hier eine Mischung aus alltagstäglichen Auflösungen, die wahrscheinlich die meisten so verwenden, und dazu Grafikeinstellungen auf 11, obwohl sie den Performanceverlust oft nicht wert sind.

Würde mich freuen, wenn zumindest anhand einer Karte die Presets verglichen werden würden und man vielleicht auch schaut, ob es nicht manchmal sinnvoller wäre, in hohen Settings zu testen. Was Benchmarking macht, ist eine andere Hausnummer. Sowas erwarte ich hier nicht. Aber ich würde schon gerne abschätzen können, wie ein Spiel zum Beispiel auf Hoch läuft, auch wenn es nur eine grobe Einordnung ohne akribischen Test-Parkour wäre.
 
  • Gefällt mir
Reaktionen: HageBen und jiggi89
ZeroCoolRiddler schrieb:
Eine farbliche Markierung der unterschiedlichen Einstellungen würde ich auch gut finden.

TAA native - Blaue Balken
FSR4/DLSS4 - Gelbe Balken

Mal als Beispiel.
Eine farbliche Einordnung je nach Upsampling (also nicht je nach Grafikkarten-Hersteller) ist natürlich denkbar.
Das würde halt deutlich von dem abweichen was wir für gewöhnlich machen und man könnte eben nicht mehr sofort AMD/Nvidia/Intel-Grafikkarten erkennen, wäre aber schnell umsetzbar. Was haltet ihr denn davon?
 
  • Gefällt mir
Reaktionen: Quidproquo77, ZeroCoolRiddler und Maxysch
HAse_ONE schrieb:
Da schließe ich mich an. Ich bin schon kein Freund davon, dass Nativ und Upscaling im gleichen Diagramm ist.
Finde ich auch.
mMn, sollte man egal welches Upsampling(DLSS,FSR4/3.1oder XESS) genutzt wird bei allen den Quality Modus nehmen, schliesslich geht es bei einem Benchmark um die FPS und nicht um die Bildqualität. Die Bildqualität kann dann jeder selber anpassen.
 
Zuletzt bearbeitet:
Im Falle von Silent Hill f bedeutet dies: DLSS 4 sowie FSR 4 laufen auf entsprechenden Grafikkarten im Quality-Modus (Skalierungsfaktor 1.5×), während ältere Radeons mit TAA Native laufen (Skalierungsfaktor 1.0×). Da das Spiel XeSS nicht unterstützt, wird auch bei den Arc-GPUs auf TAA Native gesetzt.

ach Leute echt jetzt? bencht doch einfach alles native und schreibt weiter oben welches upscaling es gibt und fertig. dann kann jeder später selber upscaling dazuschalten, wie er kann und will. so sind die ergebnisse wirklich was für die Tonne.

was wenn fsr4 für rdna3 kommt oder xess nachgepatcht wird?
 
  • Gefällt mir
Reaktionen: Chismon, fairlight und Strikerking
Sieht wirklich top aus, aber nicht so wirklich mein Genre. Ich denke ich schaue mir dazu mal ein Lets Play an, aber das war es auch schon.

Was aber toll ist bei solchen Tests: Jetzt wo FSR4 mir der 7900XTX geht, liest man sowas hier viel lieber 😁 denn ansonsten musste ich immer die Benchmarks mit Vorsicht genießen, da FSR3 in meinen Augen unspielbar ist.
 
Guitarluke schrieb:
Echt cool zu lesen, dass die Performance deutlich besser ist als bei MGS.


MGS stammt von der gleichen Outsourcing-Bude, die auch schon Oblivion "remastered" hat. Davor die Spacer's Choice Edition von The Outer Worlds verhauen. Und davordavor den PC-Port von Horizon Zero Dawn...

Immerhin hat MGS technisch tatsächlich mal ein Novum gebracht. Auf Low--Settings ist es das erste Stealth-Spiel ohne Schatten. Opa Garrett wäre stolz... :D
 
wo ist FG ?? wird FG nicht unterstützt ? ich zock lieber mit FG on und 100+fps als mit FG off und 60 seitdem ich mir nen neuen high refresh rate tft gekauft hab (60fps sind darauf unaushaltbar ruckelig, erst ab 80/90fps siehts halbwegs gut aus und erst ab 100 vollständig genießbar
 
Wolfgang schrieb:
AMD/Nvidia/Intel-Grafikkarten erkennen, wäre aber schnell umsetzbar. Was haltet ihr denn davon?
Finde gut, weil die Modelle und Hersteller kennt man ja und erkennt auch bei dem Namen. :daumen:
Ergänzung ()

InsideInfinity schrieb:
wo ist FG ?? wird FG nicht unterstützt ?
Wenn deine Karte 60FPS schafft dann kannst du es ruhig nutzen von daher die Frage: was soll das bringen? Die FG Balken sind leider täuschung und eher für optisches Flüssigbild wichtig, aber nicht jeder mag den Inputlag dabei und das ist schlecht in balken zu vermitteln.
 
Da hat jemand nicht über das Intro hinaus gespielt. Digital Foundry hat gezeigt, dass das Spiel mal wieder nicht ausreichend Shader vorab kompiliert und dann später unter eben jenen shader comp stutters leidet...

Konami+NeoBards haben wohl alles richtig gemacht als sie sich gedacht haben, dass Tester eh nicht viel weiter spielen... Das schon schwach von CB
 
kachiri schrieb:
Ach ja... Schon wieder ein Spiel wo 12 GB in WQHD nicht mehr reichen - nicht. Es reichen sogar 8 GB! :D

so siehts aus. ich erinnere mich wie ich vor 2 jahren als ich meine 4070er kaufte hier beleidigt und angefahren wurde von all den intelligenzbolzen die meinten 12gb wären unnutzbar, viel zu wenig und absolut nicht zukunftssicher. ich frage mich wo diese trottel jetzt alle sind, haben sich wohl unter ihre brücken verkrochen :D:D:D

12gb vram haben bisher nur 2 mal probleme gemacht. 1. diablo 4, da es komplett bugged war. nen jahr nach d4 release wars gefixed und 12gb vram haben nicht nur ausgereicht sondern waren butterweich. 2. indiana jones da das game extrem vram zieht. das liegt an der id tech engine und das ist auch das einzige game bei dem die 12gb vram nicht ausgereicht haben und auch immernoch nicht ausreichen (mit maximierten texturen und path tracing. ohne path-tracing und texturen eine stufe niedrigen lief es auch butterweich.. zumal es visuell keine sichtbaren unterschiede gab zwischen maximierten texturen und eine stufe drunter. nur das path-tracing hätt ich gern gehabt aber seis drum, so konnte ich indiana jones zumindest maxed out ohne PT mit durchschnittlich 160fps zocken das ist nice gewesen :D fast ni unter 140fps gedroppt (dlss quality, FG on ofc).
 
CastorTransport schrieb:
In Singleplayer-Spielen kann wohl keine Engine der UE5 das Wasser reichen.
Inwiefern? Oder woran machst du das fest?

Anhand der Optik dieses Spiels ja hoffentlich nicht. Klar sieht gut aus, aber wie schon im Test steht, ist es jetzt auch kein Kracher. Und es gibt genug UE5 Spiele die absolut 0815 bis hin zu schlecht aussehen.

Und ich finde zum Beispiel die Cryengine kann auch sehr gut aussehen. KCD2 ist für mich eins der schönsten Spiele. Charaktermodelle könnten bisschen schöner sein und es hat halt kein Raytracing, dafür ist die Grafik mMn extrem stimmig und immersiv. Ich kenne kein Spiel, was z.b. Wälder so realistisch darstellt. Und dafür läuft das Spiel noch ziemlich gut.
 
  • Gefällt mir
Reaktionen: woliver23
NguyenV3 schrieb:
Aber oft genug. Auf jeden gezeigten Cherry-Picking Benchmark, wo die 9070 XT als Sieger vom Platz geht, gibt es mehr nicht gezeigte, wo sie verliert. Im Schnitt bleibt die 5080 signifikant schneller.
Man muss nur auf heavy RT (Pathtracing) bzw. die Remix Titel setzen, dann springt häufig die doppelte Performance bei raus. Es gibt auch featureseitig mit MFG genügend Argumente, warum es sich lohnen kann auf eine 5080 zu setzen. Und rein perspektivisch für die Zukunft unterstützt Nvidia deutlich mehr in Hardware, insofern sollte sich die 5080 auf Dauer eher absetzen. Die 9070XT ist aber für den Preis in den meisten Titeln schon ein guter Kauf, gar keine Frage.
 
Zuletzt bearbeitet:
Maxysch schrieb:
Wenn deine Karte 60FPS schafft dann kannst du es ruhig nutzen von daher die Frage: was soll das bringen? Die FG Balken sind leider täuschung und eher für optisches Flüssigbild wichtig, aber nicht jeder mag den Inputlag dabei und das ist schlecht in balken zu vermitteln.

nein, seitdem ich mir nen high refresh rate tft gekauft haben sind 60fps unglaublich ruckelig... alles ruckelt.. ich hab mich in windows halt an 180fps gewöhnt und in games direkt an größtenteils 120fps. das ist ein tag/nacht unterschied zu 60fps... ich kann nicht mehr zurück zu 60fps gehen -.-

zumal es keinen merkbaren input lag gibt bei mir.. ich zocke mit framerate unlocked, meistens habe ich mit dlss quality, spiel maxed out und FG on 100+fps und der input lag ist identisch oder geringer zu 60fps (schwer zu sagen ohne es zu messen aber ich merke keinerlei unterschiede im negativen. tatsächlich je nach game sogar deutlich weniger input lag).

FG on (2x natürlich nur) läuft aktuell immer perfekt und hat nur vorteile. das bild ist meilenweit flüssiger und ich sehe/merke keinen nachteil. ich zocke nicht competetive, vllt würde es dort nicht gut sien, aber für all die singleplayer games die auf den markt kommen ist FG on absolut erstklassig. in kombination mit gsync bekommt man ein butterweiches bild bei gleicher bis geringerem input lag im vergleich zu 60fps locked
 
duskstalker schrieb:
ach Leute echt jetzt? bencht doch einfach alles native und schreibt weiter oben welches upscaling es gibt und fertig. dann kann jeder später selber upscaling dazuschalten, wie er kann und will. so sind die ergebnisse wirklich was für die Tonne.

was wenn fsr4 für rdna3 kommt oder xess nachgepatcht wird?
Die Ergebnisse sind eher so, wie man spielt. Native sind dagegen Benchmarks, mit denen kaum noch einer spielt. Ich weiß nicht, wie sowas sinnvoll sein soll.
McABC schrieb:
Da hat jemand nicht über das Intro hinaus gespielt. Digital Foundry hat gezeigt, dass das Spiel mal wieder nicht ausreichend Shader vorab kompiliert und dann später unter eben jenen shader comp stutters leidet...

Konami+NeoBards haben wohl alles richtig gemacht als sie sich gedacht haben, dass Tester eh nicht viel weiter spielen... Das schon schwach von CB
Es tut mir leid dich zu enttäuschen, ich habe das Spiel 5 Stunden lang gespielt und bin weit über das Anfangsgebiet hinaus. Und auf einem Ryzen 9 7950X3D habe ich absolut nichts von Shader-Kompilierungsruckler gemerkt. Diese dicken Hänger von DF habe ich definitiv schonmal nicht gehabt, zu keiner Zeit. Darum kann ich das so auch nicht nachvollziehen (anders als die Traversal-Stotterer).
 
  • Gefällt mir
Reaktionen: nipponpasi und Pro_Bro
ZeroCoolRiddler schrieb:
Problem dabei, TPU hatte schon oft sehr interessante Ergebnisse die quasi allen anderen Benchmarks wiedersprachen.
Das kann doch jeder Leser für sich selbst entscheiden, ob CB die einzig richtige Szene benutzt oder auch nicht.
(richtig in dem Sinne, das man zu 90% in dem Spiel diese Fps hat und nicht nur zufällig einen worst Case testet)

btw.
Woanders gibts ganz offensichtlich noch ne Szene die RDNA3 gut liegt.
(TPU liegt dann irgendwo dazwischen, ist eigentlich nicht außergewöhnlich abweichend)

k.A. ob die 7900xtx schwieriger auszulasten ist als ne 9070xt und daher die Szenen so unterschiedlich laufen
(als User würde ich mir in so einem Fall den Stromverbrauch anschauen, ob meine GPU nur rumbummelt)
 

Anhänge

  • silenthill GameGPU.JPG
    silenthill GameGPU.JPG
    84,4 KB · Aufrufe: 76
Zuletzt bearbeitet:
Zurück
Oben