• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Days Gone im Test: Trotz hoher FPS ruckelt es auf dem Gaming-PC

Taxxor schrieb:
Übrigens sehr krass, welchen Unterschied am Startpunkt des CB Benchmarks die Blickrichtung macht. Man beachte CPU und GPU Last

Vom Camp weg gedreht


Zum Camp hin gedreht


Schon eine Seltenheit, dass man einen GPU Benchmark selbst in 1440p Sehr Hoch Settings nicht nachstellen kann, weil der 5800X zu schwach ist (die Bilder oben sind in 1080p um zu sehen, was der 5800X in die andere Richtung schauend noch rausholen kann, in 1440p waren es hier um die 135fps).
Die Kern Auslastung ist auch ein Witz.

Bilder ebenfalls in 1080p
 

Anhänge

  • DaysGone_2021_05_21_22_59_47_882.jpg
    DaysGone_2021_05_21_22_59_47_882.jpg
    895,2 KB · Aufrufe: 421
  • DaysGone_2021_05_21_23_00_07_583.jpg
    DaysGone_2021_05_21_23_00_07_583.jpg
    995,5 KB · Aufrufe: 406
  • Gefällt mir
Reaktionen: bad_sign
Standard UE4 halt, 4 Kerne, hier scheint es sogar auf ganze 5 Hoch zu gehen.
 
Ja da benötigt es nicht viel Power. Mein i7 7700k@4,3 GHz läuft mit Auslastung 44% und minimalen Spitzen (2-3 bei ca. 70%), RAM wird durchweg 16 GB von 32 angesprochen und VRAM hängt mit 5,4 - 5,8 GB voll ausgelastet im Limit bei der RTX 2060. Einstellungen "sehr hoch" auf 4k.

PS: hatte mich bei der Location gewundert, kam so bekannt - dann AHA-Effect: FarCry 5 spielt genau da. :D
 
Ist es normal das die Grafikkarte konstant bis zum Anschlag läuft? Also meine RTX 2060 Super war noch nie so laut und heiß wie bei Days Gone. Selbst bei Cyberpunk (mit Raytracing und Trallala) war das bei Weitem nicht so extrem. Dabei ist sie auch noch undervoltet (0,9V im Boost).
Ansonsten läuft das Spiel super, 75-90 Frames, Very High mit 2560x1440 144hz, I5 11400 und RTX 2060S. Keinerlei Ruckler oder anderes das hier oft genannt wurde.
 
Damien White schrieb:
Kannst du diese Aussage mit objektiven Daten belegen?

CB zumindest hat das mit der ihrigen vollbracht.
@Damien White

Wo ist jetzt dein Beweis?

Und jetzt mal Polemik auf die Seite... Ich bin ein großer Fan der Benchmarks und transparenten Aufbereitung seitens CB... In Summe zeichnet sich jedoch für mich immer noch kein klares Bild ab, weil ich auch gar keine große Lust habe mich in diverse Tests einzulesen.

Fakt ist, dass die Performance auffällig gut ausfällt (max. Einstellungen UWQHD, ohne Raytracing), auf meinem nicht mehr taufrischen Unterbau (1080Ti/9700K).
Ich komme vom zuletzt von Cyberpunk als Referenz... Was für eine Wohltat dagegen!

Das die Community grundsätzlich CB verteidigt ist in Ordnung, aber hier liegt offensichtlich eine Diskrepanz zwischen anderen Ergebnissen und Tests vor!

Nachdem ersten anspielen war ich schlicht begeistert und bin im Anschluss auf diesen Test gestoßen und konnte mir nur verwundert die Augen reiben... Meine Ausdrucksweise war jedoch unpassend und kindisch - sorry dafür!
 
Zuletzt bearbeitet:
Creekground schrieb:
Nochmal zum Thema vsync, free/gsync und Framelimiter.
Ich nutze in meinen Games nur noch Freesync in Kombination mit RTSS (front edge sync) als Framelimiter. InGame und und im Treiber vsync aus und keinen Framerate cap. Als Overlay nehme ich CapframeX.
Ich mache immer ein paar logs mit CapframeX und stelle dann das Limit von RTSS auf die average FPS ein.
Die Frametimes und fps sind damit smooth wie der Schaum vom irischen Bier.

Das ist ja interessant. Ich hab jetzt RTSS auch mal auf Front edge Sync gesetzt und das Limit bei 80 FPS gesetzt.

Tatsächlich zeigt mir CapFrameX jetzt perfekte Werte an:
1621670444721.png



ABER (!)
Jetzt hab ich bei langsamen Kamerafahrten Microruckler im Bild (Gsync). Die Bildausgabe ist dadurch also schlechter als vorher.


Das bestätigt mir abermals, dass selbst perfekte Messwerte mit CapFrameX nichts darüber aussagen, wie das Bild am Display präsentiert/synchronisiert wird.

Man kann also die Messwerte mit den Tools und Limitern so hinbiegen, dass sie optimal aussehen. Nur bringt das nix, wenn damit im Gegenzug die eigentliche Präsentation der Frames aus dem Ruder läuft. (Genau das was CapFrameX NICHT misst)


Ich kann daher nur empfehlen sich lieber auf das eigene Auge oder notfalls eine HighSpeed Cam zu verlassen und nicht auf irgendwelche Messwerte, die man vielleicht gar nicht versteht und deshalb falsch interpretiert.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: HisN, bad_sign und Celinna
|SoulReaver| schrieb:
Es ist nach wie vor ein alter Hut. Kommt ein Spiel raus kann man sich Zeit lassen, denn es braucht IMMER Patches bis es mal richtig läuft.
Ja die Zeiten haben sich stark zum Negativen geändert. Früher mussten die Spieleentwickler einen Weg finden damit die Spiele wunderbar funktionieren.
Seit ~2008 müssen AMD/Nvidia um diese Sache kümmern. Natürlich können die beiden erst darum kümmern wie die Spiele veröffentlicht sind.
Ich erinnere mich an die Zeiten von D2, Wc3, CnC, GTA VC, GTA SA usw, da waren gar keine Patches nötig. Falls doch waren die nötigen Patches sogar in der Installations-CD dabei.
 
  • Gefällt mir
Reaktionen: FleischHals und |SoulReaver|
Hatte es auf der PS4 vor einigen Monaten durchgezockt. Ist ein gutes Spiel. Vor allem die Atmosphäre im freien, ständig von den mutierten angegriffen zu werden und die Soundkulisse, dass jederzeit was vom Busch raus rennt. Man hat sich ständig in Gefahr gefühlt. Das kann man von DayZ (zumindest in der Standalone) nicht behaupten.
 
@B3nutzer
Das Spiel habe ich leider nicht um es mal auszuprobieren.
Hast du noch im Treiber oder in den Grafiksettings AntiLag oder anderes an?
Teste doch mal ob es mit back edge sync besser ist.
Bei Hunt showdown kann ich nichts über Micrruckler sagen, da das Spiel sowieso stuttering hat.
In APex Legends kann ich keine Ruckler feststellen. Muss mal noch andere Games testen.
 
@Creekground

Mit Back Edge ist es etwas besser, aber immernoch leicht ruckelig.

Treiber Settings sind alle auf Default. Kein Vsync, kein Limiter, kein Low Latency Mode.
Ingame genauso. Kein Vsync, kein limiter.

Gut möglich, dass es von Spiel zu Spiel unterschiedlich gut funktioniert. Auch möglich, dass es bei AMD GPUs anders wirkt als bei Nvidia.
 
Nero2019 schrieb:
Ja die Zeiten haben sich stark zum Negativen geändert....
Das Problem denke ich ist das liebe Geld. Ich mein wie sonst erklärt es sich, dass man nicht selten Games an den Start bringt die man oft erst nach Monaten richtig gut spielen kann. Und in der Regel werden Games nur noch zu 70% raus gebracht. Die restlichen 30% nennt man dann DLC. Oft ein Grund für mich zu warten bis ein Sale an steht und da kaufe ich dann so zu sagen 100% in Form von Gold Edition, Ultra oder Collectors.... Ehrlich gesagt will ich schon, dass die was verdienen, aber 120€ und mehr löhnen? Das hört es sich dann mal irgendwann auf.
 
|SoulReaver| schrieb:
Das Problem denke ich ist das liebe Geld. Ich mein wie sonst erklärt es sich, dass man nicht selten Games an den Start bringt die man oft erst nach Monaten richtig gut spielen kann. Und in der Regel werden Games nur noch zu 70% raus gebracht. Die restlichen 30% nennt man dann DLC. Oft ein Grund für mich zu warten bis ein Sale an steht und da kaufe ich dann so zu sagen 100% in Form von Gold Edition, Ultra oder Collectors.... Ehrlich gesagt will ich schon, dass die was verdienen, aber 120€ und mehr löhnen? Das hört es sich dann mal irgendwann auf.
Egal was, egal wo, egal wer - am Ende geht es immer ums Geld... Das mag nicht immer im Vordergrund stehen, aber letztendlich läuft es immer darauf hinaus...
 
  • Gefällt mir
Reaktionen: Bummi
Celinna schrieb:
WTF da steht genau das Gegenteil von dem was du gesagt hattest und dass ein ingame Frame Limiter
besser ist als treiberseitig, ist doch bekannt aber viele Spiele haben eben keinen ingame Frame Limiter.

Dann sagst du man soll in dem Fall V-Sync anmachen weil das angeblich keinen Input Lag erzeugt
obwohl V-Sync je nach Hz viel mehr Input Lag erzeugt als ein Frame Limiter im Treiber + G-Sync !!!

+

Im Artikel ist übrigens ein gravierender Fehler, denn folgende Aussage ist eigentlich völlig falsch:

"Auch wir haben stets den Tipp gegeben, das Frame Limit leicht unterhalb der oberen G-Sync-Grenze zu geben.
Kollegen wie die Blurbusters oder Battlenonsense auf Youtube warnen stets vor maximalen Fps hier, da sonst Vsync-hoher Lag entstehen kann."


Der Sinn knapp unterhalb der Maximalen Aktualisierungsrate zu bleiben ist um garantiert innerhalb
der Sync Range zu bleiben weil es sonst Tearing gibt. Mit dem Input Lag hat das gar nichts zu tun lol


Nachtrag: Der gute Manuel hat offensichtlich auf 240Hz getestet und dort wird ihm das "Tearing Problem"
nicht aufgefallen sein weil je mehr Hz desto weniger Bildrisse aber auf 144Hz mit Frame Limiter auf 144FPS
hat man in der Regel Tearing weil die Sync Range wohl nur bis 143,99Hz geht. Darum das Limit auf 143FPS.
 
Zuletzt bearbeitet:
Coldastop schrieb:
Die Kern Auslastung ist auch ein Witz.

Bilder ebenfalls in 1080p
Soviel zum Thema guter PC-Port im Jahr 2021... Mit DX11 und suboptimalen Multithreading würde man auf PS4/5 nicht weit kommen, aber für die PC Version muss man sich die Mühe ja nicht machen. UE4 unterstützt DX12/Vulkan seit wie vielen Jahren? 2-3 offiziell, 5-6 in Beta-Versionen?
 
  • Gefällt mir
Reaktionen: Czk666
Das Spiel schiebt auf nem aktuellen Ryzen + Nvidia GPU über 300 FPS im CPU limit.
Siehe hier:
https://www.pcgameshardware.de/Days...-Release-Benchmark-Review-Steam-1372247/2/#a2

Ist eben das Resultat der DX11 optimierungen seitens Nvidia die damals mit dem "Wundertreiber" eingeführt wurden https://www.computerbase.de/2014-04/nvidia-geforce-337.50-benchmark-test-wundertreiber/

AMD hat immer mal wieder versucht nachzubessern hat aber wohl nie das Niveau von Nvidia erreicht und stattdessen auf DX12/Vulkan gehofft.

AMD hat eben bei letzteren auch wieder Vorteile im CPU limit wie man jüngst sehen konnte.
Bei DX11 ists eben Nvidia.


Die Frage ist, wie schwer oder einfach es für die Devs gewesen wäre auf DX12 upzugraden.
Glaube so einfach ist das gar nicht zu beurteilen. Wenn da viel Custom Code eingeflossen ist, könnte das gar nicht so einfach sein, auf ne aktuell UE Version zu gehen. Wenn die Devs für DX12 dann noch Hand anlegen müssen und das Know How fehlt wirds auch schwierig.
Soweit ich weiß gibts auf Konsolen auch "higher level" APIs, die einfacher handzuhaben sind, als die low level APIs, aber trotzdem performanter sind als z.B. DX11. Wenn so eine higher level API genutzt wurde haste auch deine Erklärung, warums auf ner alten PS4 vergleichsweise gut läuft.

Fakt ist, DX11 ist immernoch relevant und Nvidia ist da eben im CPU limit im Vorteil. Und nicht alle Entwickler sind solche Cracks wie z.B. die Leute bei ID Software... Ist einfach so.
 
Zuletzt bearbeitet von einem Moderator:
0ssi schrieb:
WTF da steht genau das Gegenteil von dem was du gesagt hattest und dass ein ingame Frame Limiter
besser ist als treiberseitig, ist doch bekannt aber viele Spiele haben eben keinen ingame Frame Limiter.

Dann sagst du man soll in dem Fall V-Sync anmachen weil das angeblich keinen Input Lag erzeugt
obwohl V-Sync je nach Hz viel mehr Input Lag erzeugt als ein Frame Limiter im Treiber + G-Sync !!!

+

Im Artikel ist übrigens ein gravierender Fehler, denn folgende Aussage ist eigentlich völlig falsch:

"Auch wir haben stets den Tipp gegeben, das Frame Limit leicht unterhalb der oberen G-Sync-Grenze zu geben.
Kollegen wie die Blurbusters oder Battlenonsense auf Youtube warnen stets vor maximalen Fps hier, da sonst Vsync-hoher Lag entstehen kann."


Der Sinn knapp unterhalb der Maximalen Aktualisierungsrate zu bleiben ist um garantiert innerhalb
der Sync Range zu bleiben weil es sonst Tearing gibt. Mit dem Input Lag hat das gar nichts zu tun lol


Nachtrag: Der gute Manuel hat offensichtlich auf 240Hz getestet und dort wird ihm das "Tearing Problem"
nicht aufgefallen sein weil je mehr Hz desto weniger Bildrisse aber auf 144Hz mit Frame Limiter auf 144FPS
hat man in der Regel Tearing weil die Sync Range wohl nur bis 143,99Hz geht. Darum das Limit auf 143FPS.
du hast es nicht verstanden ich rede davon die ganze zeit das man keinen framelimiter braucht ob extern oder intern ist egal der erhöht immer den inputlag, OHNE VSYNC GIBT ES KEIN 100% TEARING FREIES BILD also sollte man nicht drauf verzichten. ist das verständlich also muss der an wenn man 100% tearing free spielen möchte!!!

und gsync+vsync sieht man in der tabelle war so sogar schneller als ohne vsync und ohne alles ein einem spiel aber nicht die regel

"
Kurz gesagt: Nein. Zumindest so gut wie keinen. Ja, mittels G-/Freesync wartet das Display bei Aktualisierung auf das nächste Bild und gibt es erst aus, wenn das vorherige vollständig aufgebaut ist. Man muss aber verstehen, dass sich bei einer dynamischen Bildwiederholrate nicht die Aktualisierungszeit ändert, wie etwa bei statischer, niedriger Bildwiederholrate. Ein Beispiel: Ist G-Sync aktiv und die GPU liefert nur 60 Fps, baut ein 144-Hz-Monitor das Bild trotzdem binnen 6,9 ms auf - und nicht in 16,6 ms, wenn die 60 Hz statisch wären. Das hat den Vorteil, dass etwa zukünftige Bilder mit kürzeren Frametimes schneller wiedergegeben werden können.

Im Szenario "Vsync off" sollte es im Prinzip die schnellst möglichste Bildausgabe und damit den geringsten Input Lag geben. Dass der Durchschnitt des Durchlaufs sogar leicht höher als mit aktivem G-Sync ist, führen wir wieder auf die Messtoleranzen zurück - die drei (Durchschnitts-)Balken liegen also an sich gleich auf."

mehr schreib ich nicht dazu wenn man das nicht verstehen will ist das dein Problem
 
Celinna schrieb:
du hast es nicht verstanden ich rede davon die ganze zeit das man keinen framelimiter braucht ob extern oder intern ist egal der erhöht immer den inputlag,

Wie willst du ohne Frame Limiter innerhalb der G-Sync Range bleiben ? Das geht nicht !
Und wenn das Spiel keinen Frame Limiter hat dann bleibt nur der im Treiber oder V-Sync
aber V-Sync erzeugt viel mehr Input Lag. Siehst du nicht die Diagramme im Artikel ???

Celinna schrieb:
OHNE VSYNC GIBT ES KEIN 100% TEARING FREIES BILD also sollte man nicht drauf verzichten.
Natürlich ist das Bild ohne V-Sync auf einem G-Sync Monitor auch Tearing frei
solange man in der Sync Range ist und das geht eben nur mit Frame Limiter.
Denkst du etwa, Nvidia hat Max.Bildfrequenz zum Spaß im Treiber integriert !?

Celinna schrieb:
und gsync+vsync sieht man in der tabelle war so sogar schneller als ohne vsync
Bei den Balken gilt je kürzer, desto besser also ist es mit V-Sync schlechter.

vsync.jpg


Und bei weniger Hz wird der Unterschied/Nachteil mit V-Sync noch deutlicher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MehlstaubtheCat
Ich bekomme das Geruckel nicht in den Griff. Vielleicht habt ihr eine Idee?
Habe eine 6800/2600x/32gb3200ram Kombi. Damit müsste es doch eigentlich laufen? In 1440p habe ich nur Geruckel und freesync flackern, mit 1800p ist es am erträglichsten, aber beim fahren immer wieder dieses ruckeln was richtig nervt.
Ich habe alles mit vsync an/aus, im Spiel oder adrenalin limitieren probiert. HDR an/aus. Vollbild/fensterlos.
Ich warte sonst ob noch ein Patch kommt.
 
Zurück
Oben