• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Silent Hill f im Test: Richtig gruselig auch dank der Unreal Engine 5

Quidproquo77 schrieb:
Die Panikmache wegen den 12GB, die ja schon vor 3 Jahren bei der 4070 Ti gestartet wurde, verschiebt sich glaube ich weitere 1-2 Jahre.
Genau so ist es. Die RTX 4070Ti habe ich im Januar 2023 gekauft. Heute ist sie immer noch auf dem Level einer RX 9070...ausser mit PT. Da dreht sie, um alles was AMD so anbietet, ihre Kreise.
Dank DLSS4/FG/Smooth Motion benötigt die Karte heute weniger Strom und VRam als zu Anfang.
Die toten 12GB zappeln noch richtig gut 👍
Ich sehe da noch überhaupt keinen Grund für 1440p eine neue Karte zu kaufen.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Hotzenplotz45
mibbio schrieb:
Wobei die 5060Ti aber auch keine 4K-Karte ist, sondern maximal eine WQHD-Karte, weswegen die in Benchmarks mit 4K-Auflösung in der Regel auch gar nicht berücksichtigt wird.

Selbst die xx70er Modelle würde ich eher zu den WQHD-Karten zählen, da die auch nur bei weniger fordernden Spielen 4K-tauglich ist.
Ich spiele mit der 5060TI alle Spiele in 4K.
Wie gesagt: optimierte Settings verwenden( am besten die vom Youtuber BenchmarKing), DLSS benutzen auf Quality, Balanced oder auch Performance und fast alles läuft super in 4k bei 60fps.
Sieht fast alles gleich gut oder meist besser aus als auf meiner PS5 Pro.
Alles darüber ist nice to have und zum normalen durchspielen nicht notwendig.

PS:
Ja ein Benchmark mit Grafikeinstellung Preset "Hoch" wäre doch evt. Eine super Ergänzung und Kompromiss wenn man nicht die optimalen Settings verwendet zum testen.
Weil wie gesagt: Alles auf hoch sieht in den meisten Spielen fast gleich gut aus, man wird kaum einen Unterschied merken beim normalen spielen, aber auf FPS Seite tut sich oft einiges.
Das wäre einfach auch die realistische alltagstaugliche Grafikeinstellung für die meisten PC Spieler glaub ich und deswegen durchaus Benchmarkwürdig.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Hotzenplotz45 und Londo85
jiggi89 schrieb:
Also ich muss jetzt mal fragen vielleicht bin ich auch zu dumm oder so.

Ich dem Benchmark Test steht dass selbst eine RTX 5070 nichtmal 50FPS schafft in 4k mit DLSS Quality und höchsten Einstellungen richtig?
Meine RTX 5060TI 16GB wird da nichtmal gelistet. Was bringt mir das jetzt?
Ich kann mir ja jetzt nur ungefähr vorstellen dass meine 5060TI dann wahrscheinlich 35 bis 40FPS ungefähr schafft weil die ja schwächer als eine 5070 ist.
Des nächste ist aber: die höchsten Grafikeinstellungen zu wählen ist in den meisten Fällen wenn man nicht grade eine 5090 hat einfach Quatsch weil die kaum besser sind als hoch oder "optimierte Einstellungen" dafür aber übertrieben viel mehr Leistung brauchen.

Warum wird denn nicht mit optimierten Grafikeinstellungen auch getestet? Der youtuber BenchmarKing macht da ausgezeichnete Videos dazu in denen man sieht dass man die fast exakt selbe Grafik mit optimierten Einstellungen bekommt aber deutlich mehr FPS.
Quasi eine Optimierung auf den PC so wie Spiele auf Konsole optimiert werden.
So und dann mit diesen "richtigen " Einstellungen so wie man sie wählen sollte wenn man eine normale Grafikkarte hat und keine 2k Karte, kommt man relativ easy auf 60FPS in 4K würde ich schätzen.
Und das ist doch eigentlich das was man wissen will oder nicht?

- Schafft meine Grafikkarte mit den richtigen optimierten Einstellungen mit bisschen Kopf einschalten und nicht alles auf Anschlag drehen, eine gute Performance?-
Und dann sollte da auch eine 5060 sowie 5060TI aufgelistet sein weil diese 60iger Karten nunmal viel mehr Leute besitzen und das doch viel relevanter wäre.
Versteht mich nicht falsch ich will den Benchmark Test usw nicht schlecht machen ich will nur verstehen warum man das nicht hinzugefügt?

Mit optimierten Grafikeinstellungen läuft das Spiel auf meinem System nämlich wahrscheinlich ziemlich gut und sieht fast genau gleich aus als würde ich alles auf maximum stellen.

Wenn ich aber den Benchmark ansehe wo meine Karte noch nichtmal gelistet wird und die nächst bessere Karte bei um die 45 FPS nur taumelt dann könnte man denken ich bräuchte das Spiel gar nicht erst anmachen dabei ist es doch gar nicht so.
Genau das sollten einst die Grafikbebchmark-Tests von GameStar leisten. Eine praxisrelevante Einordnung der aktuellen Grafikkarten bei optimierten Grafik Einstellung. Das ist leider sehr arbeitsintensiv und daher machen es die wenigsten Redaktionen so. Mittlerweile glaube ich selbst die Gamestar nicht mehr.
 
Wolfgang schrieb:
Ich kenne das Problem selbst, doch ist das eben kein Problem von dem Spiel selbst, sondern eins von den neueren Nvidia-Treibern. Mit älteren Treibern tritt dieses nicht auf. Das ist aber leider schwer zu greifen, wann dieses auftritt und wann nicht.
Sollte man vielleicht durchaus auch mal in den Artikeln erwähnen. Wenns AMD wäre, gäbe es einen zwanzigseitigen Artikel, bei Nvidia haben alle die Hosen voll dass sie keine Testsamples mehr bekämen...
 
  • Gefällt mir
Reaktionen: KeinNutzerName
@Gullveig Tut mir leid, aber das ist eine völlig haltlose Unterstellung, die komplett falsch ist. Weder das eine, noch das andere ist korrekt.
 
  • Gefällt mir
Reaktionen: Quidproquo77, NguyenV3 und DaHell63
Ui, da kommt meine 6650XT ordentlich ins schwitzen.
Ein Glück gibt es nen FPS Limiter.
30fps werden für mich, in dem Fall hier, vermutlich ausreichen. 😌

Danke für den ausführlichen Hardwaretest!
 
  • Gefällt mir
Reaktionen: meckswell
Pro_Bro schrieb:
Man kann theoretisch natürlich bei einer rx7000er FSR3 Quality aktivieren, das Gegenstück bei der Bildqualität wäre dann jedoch DLSS4/FSR4 Performance/Balanced, statt Nativ.
Aber RDNA 3 mit Nativ TAA gegen Quality Upsampling antreten zu lassen und dann in ein Balkendiagramm rein rotzen ist ja nicht wirklich Aussagekräftig und obendrein liefert das für nicht versierte Leser ein völlig falsches Bild ab. Dann alle in Nativ testen und einen kleines Zusatzdiagramm mit KI Upscalern...
 
Wer braucht schon ne Grafikkarte, wenn er Kartoffel-SEttings hat. :D



Wobei ich KCD2 deutlich beeindruckender fand, bzw. wie das auf Low-End-Hardware noch läuft. Aber Warhorse optimierten wie neulich DICE mit Blick auf die Series S -- und nahmen die Erkenntnisse dann mit auf die besseren Plattformen.
 
Wolfgang schrieb:
Ich kenne das Problem selbst, doch ist das eben kein Problem von dem Spiel selbst, sondern eins von den neueren Nvidia-Treibern. Mit älteren Treibern tritt dieses nicht auf. Das ist aber leider schwer zu greifen, wann dieses auftritt und wann nicht.
Wenn das bekannt ist, sich sogar auf neuere Treiber reduzieren lässt, dazu Unregelmäßigkeiten beim Auftreten nachweisbar sind und ein Ansatz allem Anschein nach im Shader Cache zu finden ist, wäre dann nicht erst recht ein Artikel mit zusammen getragenen Informationen, Treiber-Versionen, anfälligen Spielen, Problem Theorien, dem ein anderen Test und möglichen Lösungsansätzen umso interessanter?!

Ich finde es durchaus kurios, dass es nicht nur allseits bekannt ist, sich auf einige Bereiche ausweitet und es doch die ein und andere nähere Information dazu gibt, aber generell eher ein totgeschwiegenes Thema ist....besonders da die Nvidia Treiber in letzter Zeit ohnehin stark in Verruf geraten sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hotzenplotz45
TausendWatt schrieb:
und obendrein liefert das für nicht versierte Leser ein völlig falsches Bild
Aber beim Lesen erfährt man doch warum. (ES STEHT DIREKT ÜBER DEM DIAGRAMM)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Khaos-Thanathan und Quidproquo77
Jan schrieb:
Stimmt ja auch irgendwie... wenn man das Game eigentlich erst von jemand anderem auf dem eigenen Rechner durchspielen lassen muss, bevor man sich selbst dransetzt, um das leider leicht kaputte shader pre-caching zu umgehen. Speziell wenn man nicht die 'übliche' high-end CPU im System hat... -> DF bei yt.
 
mibbio schrieb:
Es kommt also nicht darauf an, ob Single- oder Multiplayer, sondern eher auf das Genre und das jeweilige Gameplay-Tempo.
Wenn ich so darüber nachdenke, gibt es eigentlich kein Genre oder Gameplay-Tempo bei dem regelmäßige Aussetzer irgendwie akzeptabel sind.

Sagen wir einfach für Filme ist die UE5 sehr gut, aber für alles andere... naja... :D
 
  • Gefällt mir
Reaktionen: HageBen
Pro_Bro schrieb:
Aber beim Lesen erfährt man doch warum.
Ja wenn man ganz aufmerksam liest und versteht was da steht... So ein Balkendiagramm mit unterschiedlichen Testsettings ist einfach schmarrn wenn man Produkte miteinander in ein und dem selben Digramm vergleicht, egal ob es nun im Text erklärt wird oder nicht. Manche überfliegen solche Artikel nur, dann wirds noch kurioser...
Wenn du dir sowas in einer Thesis erlaubst, dann gibt es ordentlich Punktabzug oder direkt ne Abfuhr...
 
Die 7900XTX müsste mit implementiertem FSR4 INT8 per Optiscaler fps-technisch nahe auf RTX4090 Niveau liegen. Aber das nur am Rande...
 
  • Gefällt mir
Reaktionen: Hotzenplotz45
Maxysch schrieb:
dann würde ich dir VR Brille empfehlen, das setzt neue Maßstäbe in Horrorgames, hatte letztens extrem Angst mit RE2 Remake (VR Mod).
Oh Mann, seid ihr eigentlich sicher dass das im Unterbewusstsein keine traumatisierende Nebenwirkungen hat? Ich weiss echt nicht ob ich mir sowas antun wollen sollte...
 
duskstalker schrieb:
was wenn fsr4 für rdna3 kommt oder xess nachgepatcht wird?
Gut (im Sinne von vergleichbar) finde ich das auch nicht, aber es sollen wohl weiterhin mit den (Daten dieser) Tests alle Leser dazu bewogen werden jetzt (teuer) nur wegen FSR4 oder DLSS4 Grafikkarten aufzurüsten.

Intel Arc u.a. Karten in Full HD zu testen war ja auch nicht angesagt (vielleicht kommt da noch ein Test zu diesem Spiel von PCGH), auch wenn die Arc dGPUs relativ gesehen wohl ordentlich abgeschnitten haben.

Zu Deiner Frage, dann gibt es für Interessierte evt. ein Update des Artikels durch @Wolfgang , könnte ich mir vorstellen.

Sicherlich wird man auch weiterhin hier in ähnlichen Fällen so vorgehen, auch wenn das die Daten verzerrt bzw. wenig aufschlußreich ist, aber die Leute mit den alten Karten interessieren auch nur noch bedingt (das hat man doch schon an wegrationalisierten Full HD Tests gemerkt, da ist Upscaling unter Version 4 jetzt die natürliche Folge).

Tja, eigentlich kann man sich dann gleich den Aufwand eines Testvergleichs sparen (für Modelle die nicht Upscaling Version 4 unterstützen), wenn die Datenbasis nicht passt (keine direkte Vergleichbarkeit ermöglicht).

Wie gut die FSR4 Lösung auf RDNA3 (per Redstone) verglichen mit RDNA4 in einzelnen Titeln laufen wird, dürfte auch noch spannend werden.

24GB (RDNA5/UDNA1) Karten können nicht schnell genug kommen, zumal die wenigsten doch von 16GB(+) RDNA 2 oder 3 nur wegen FSR4 auf RDNA4 mit maximal 16GB vorausschauend aufrüsten dürften (da es nicht lohnen dürfte, zumal RDNA4 in Silent Hill f nicht einmal 60fps hier in 4K/UHD noch schafft).
 
Zuletzt bearbeitet:
GOOFY71 schrieb:
Die 7900XTX müsste mit implementiertem FSR4 INT8 per Optiscaler fps-technisch nahe auf RTX4090 Niveau liegen. Aber das nur am Rande...
Wie kommst du darauf? Ihr fehlen 61/94/132% zur 4090 mit TAA Native vs DLSS Quality.

Mit FSR3 Quality läge die 7900XTX vmtl ~5% vor der 9070XT, mit INT8 FSR4 eher 5% dahinter und damit wäre die 4090 je nach Auflösung 30-50% schneller
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Taxxor schrieb:
Mit FSR3 Quality läge die 7900XTX vmtl ~5% vor der 9070XT, mit INT8 FSR4 eher 5% dahinter und damit wäre die 4090 je nach Auflösung 30-50% schneller
Das ist in den anderen Games tatsächlich so, das habe ich selber überprüft mit meiner 7900XT mit starkem UV und +10% PL. Aber hier habe ich ein anderes Ergebnis mit den Einstellungen hier auf CB. Siehe mein Post weiter Oben.
Aber vielleicht kann das eventuell ein 7900XTX Besitzer bestätigen, der das Game auch hat.
Das würde mich stark interessieren...
 
Zuletzt bearbeitet:
zeedy schrieb:
https://www.techpowerup.com/review/silent-hill-f-performance-benchmark/5.html

Komisch, bei TPU sieht es genau andersherum aus, dass AMD eher einen Vorteil gegenüber Nvidia hat.

CB verwendet andere Settings, was nicht in den Diagrammen angegeben ist. Ist daher sehr irreführend. FSR 4 kostet der 9070 XT z.B. etwas mehr Zeit als DLSS der 5070 ti, weshalb die hier etwas lanmgsamer abschneidet im Vergleich. Und die 7900 XTX wird einfach direkt auf native statt 1.5x upscaling betrieben. Und nicht mal das wird im Diagramm angegeben. Diagramme ohne wichtige Informationen sind schon was tolles :)
 
Zurück
Oben