• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Fallout 4 Benchmarks: Atomares Spiel mit durchschnittlicher Technik

Dante_dmc schrieb:
Mich stört einfach das bei jedem Test immer nur High End CPUs zum Einsatz kommen, was nützt das der breiten Masse? Wäre mal schön Tests mit i3 und i5 zu sehen.

Aber wie gesagt...High End Testsystem schön und gut...sowas besitzen aber bestimmt nur 1-2% der PC Nutzer. Die Masse wohl eher einen i5 und viele einen i3.

Dir ist klar das es bei den CPU Tests um die Skalierung der Kerne und SMT / HT geht oder ? Zwar hat jede neue CPU Generation eine leicht höhere Leistung pro Takt, jedoch ist das minimal solange man mindestens eine SB CPU hat (welche wohl der Mainstream schlechthin ist).
 
Ganz ehrlich, nach 2 h Gameplay frag ich mich was sich da manche über ACU, Batman und BO3 aufregen. Die Grafik is für die benötigte Leistung ein Witz. Selbst Batman sieht 10x aus bei mehr FPS in 4k, selbst GTA5 is optisch haushoch überlegen bei besserer Weitsicht und quasi identischem Leistungshunger. Auch überzeugt mich die Sache zumindest in den ersten 2h weniger als die genannten anderen Titel und W3 sowieso.
 
Ich habe das Spiel mitlerweile so eingestellt, dass es auf Low gut läuft. Gibt ab und zu mal Nachladeruckler, wenn man sich dreht und dann ne grosse stadt am horizont liegt oder so.
Stimme Krautmaster hierzu, das Spiel schaut so fast genauso aus wie F3 und läuft 10x schlechter.

Aber ein anderes Thema. Ihr hattet vorhin das Thema CPU Auslastung auf älteren CPUs, aber als ich vorhin mal mir kurz msi afterburner angeschaut habe, war die CPU Auslastung über eine lange Strecke, grösser als die meiner GPU, womit ich irgendwie nicht gerechnet habe.
 
Krautmaster schrieb:
naja, schau ich mir die Skalierung über CPU an dann wundert es wenig dass AMD vergleichsweise viel hinter Nvidia ist, zumal die Engine schon etwas älter ist. Das ist nichts Neues dass AMD schneller ins CPU Limit rennt.

Einfach mal vergleichen, Witcher 3:


Fallout 4:


Full HD zählt heute einfach schon zur kleinen Auflösung mit vergleichsweise viel CPU Limit. Da muss der Nvidia Treiber im DX11 Pfad nur n bisschen was besser machen und schon schiebt sich der CPU Bound 20% nach hinten.

Allein der Unterschied i3 mit HTT bei 3,5 Ghz zum OC i7 macht ja >35%, also deutlich mehr als die Differenz zwischen Fury X und GTX 980 TI in FHD aus.

Man kann sich also viel über diese Diskrepanz aufregen, oder sich auch ne schnellere CPU zulegen / OC und gewinnt dabei sogar mehr.

Mit DX12 wird die Sache vermutlich entschärft.

Auf PCGH benchen sie mit einem 4,5 GHz i7 6700K... Von einem CPU Limit kann da wohl keine Rede sein, daher ist deine Theorie unsinnig.

Diesen AMD und frühes CPU Limit Mythos hat doch CB selbst vor nicht allzu länger Zeit zerstört, als man gezeigt hat, dass die fps Unterschiede zw 2500k stock und 4,4 GHz 4770K praktisch immer unwesentlich sind...
 
tobeast schrieb:
Einen interessanten Test gibt es jetzt bei Techspot. Ich hab mich schon gewundert, wieso meine 7950 dort so viel schneller ist als hier im CB Test. Die haben einen eher ungewöhnlichen Test mit RAM Geschwindigkeit gemacht, DDR3-1333 gegen DDR3-2400. Die Unterschiede mit Intel CPUs sind enorm, 67% bei den min FPS (FullHD, 980Ti mit einem 4770k). Wäre cool, wenn CB auch nochmal in die Richtung testet ;)

Wäre mal gut zu wissen ob das auch bei i7 3770 der Fall ist. Wäre ja übel, wenn das Game so viel performanter läuft wg. anderem RAM.
 
@ zeedy

Was hat das mit PCGH zu tun?

Bei CB skaliert F4 massiv über CPU wie man sieht. Egal ob Nvidia oder AMD.. CPU allein macht mehr Delta als zw Fury und Ti...
 
Zuletzt bearbeitet:
@Kraut also wenn man nicht in der Lage ist, Diagramme zu interpretieren, sollte man sich bei irgendwelchen Analysen eher zurückhalten, findest du nicht?
Ich zitieren dich:
naja, schau ich mir die Skalierung über CPU an dann wundert es wenig dass AMD vergleichsweise viel hinter Nvidia ist, zumal die Engine schon etwas älter ist. Das ist nichts Neues dass AMD schneller ins CPU Limit rennt.
Und jetzt diesen Artikel:
Die CPU-Benchmarks zeigen zudem, dass die Geschwindigkeitsnachteile bei AMD nicht durch die ab und zu auftretende CPU-Schwäche des Catalyst-Treibers zu Stande kommt, offenbar gibt es ein Problem im GPU-Limit.
;)
Ich mein, ausgehend vom FX hast du bei der 980ti eine höhere fps Steigerung auf dem 4,4 GHz i7 als bei der Fury X....
PCGH habe ich erwähnt weil sie Custom Karten benchen und eine noch etwas bessere CPU verwenden. Und da sind die Abstände zw AMD und Nvidia noch größer. CPU Limit in 1080p maxed out auf nem 4,5 GHz 6700K...bei aktuellen single GPUs... Aber natürlich. Und selbst im absoluten GPU Limit, in UHD ist die 980ti noch 20% schneller als die Fury X, wo Fiji und alle anderen AMD Chips eher stärker sind..

Das Spiel hat keinerlei Optimierungen für AMD erfahren, anders sind diese aberwitzigen Benchmarks nicht zu erklären. Aber ist ja mal wieder typisch, dass du die Schuld wieder bei AMD suchst, auch wenn deine Vermutungen absolut unsinnig sind.
 
Bitte mit dem AMD 15.11.1Beta nachtesten. (Fallout 4 Performence angeblich)
Und wie immer: Bei den CPU-Tests fehlt der "i7-4770K @ 4,4 GHz + 4K + ohne HTT"
 
Zuletzt bearbeitet:
zeedy schrieb:
Das Spiel hat keinerlei Optimierungen für AMD erfahren, anders sind diese aberwitzigen Benchmarks nicht zu erklären. Aber ist ja mal wieder typisch, dass du die Schuld wieder bei AMD suchst, auch wenn deine Vermutungen absolut unsinnig sind.

Jungchen, ich such die Schuld nicht bei AMD sondern sage lediglich, dass die CPU bei F4 schon schnell mehr Unterschied macht als eben Fury X oder GTX 980 TI (was ja schon überdurchschnittlich viel Diskrepanz ist bei F4)

CPU Limit in 1080p maxed out auf nem 4,5 GHz 6700K...bei aktuellen single GPUs... Aber natürlich.

kann bei ner API oder Frontend Limitierung auf GPU Seite durchaus drin sein. Egal was für ne CPU. Sonst wäre DX12 auch kaum nötig oder?

Edit:
Dass hier beide Karten, AMD wie Nvidia im CPU Limit sind ist doch bei der Skalierung bei CB klar zu sehen. Ich sag ja nicht, dass bei NVidia kein CPU Limit auftritt, im Gegenteil. Recht schon wenn das CPU Limit da wenige % später auftritt und es erklärt vielleicht den Unterschied. Kann sein. Muss nicht.
Was das ausmachen kann sieht man im Extremfall hier:

http://www.tweakpc.de/hardware/tests/grafikkarten/geforce_treiber_vergleich_337_50/s04.php


(kann noch mehr als nur 20% sein, siehe Link oben)

-> wenn ein AI Limit vorliegt, bei der alten F4 Engine ja nicht unwahrscheinlich, dann macht das - ob du willst oder nicht - schnell 20% allein durch den Treiber / unterschiedliches Limit aus.

Genau deswegen gibt es bei AMD so etwas wie das Omega Treiberchen, Mantle oder auch der Weg hin zu DX12.

Aber ja, kann sein, muss nicht. Fakt ist nur, dass F4 wie du ja selbst sagst sehr über CPU skaliert was nun mal für ein Limit auf CPU / API Seite spricht.

Edit II:
Die Engine ist aber auch bei auftretendem API Limit wie gesagt nicht gerade meisterlich. Die Grafik suckt in Relation zu den FPS, (spricht ebenfalls für n Limit an falscher Stelle).
So gesehen muss man das natürlich in erster Linie dem Game ankreiden, dabei muss aber keines Falls eine Optimierung zum Vorteil von Nvidia oder Nachteil von AMD erfolgt sein (was einfach ne haltlose Unterstellung ist und für begrenzten Tellerrand spricht).
 
Zuletzt bearbeitet:
Ich habe mal Testweise Fallout 4 auf meinem 2. PC installiert.
Das ist ein i5-4690@3,5GHz mit Windows 10, 8 GB RAM, dem neuesten NVIDIA Treiber 358.91 und meiner seligen NVIDIA GTX470 1,2 MB.

Als Voreinstellung habe ich dann die Geforce-Experience Vorschläge dahingehend abgewandelt, dass ich die native Auflösung meines Monitors gewählt habe (1920x1200) und FXAA durch TAA ersetzt habe (da das laut CB-Test die bessere Wahl ist).

Ich habe dann ca. 30 Minuten gespielt und muss sagen, dass mit diesen Einstellungen Fallout 4 absolut flüssig spielbar ist. Die mit Fraps ermittelten fps lagen zwischen 30 u. 60. Wobei sie meistens bei guten 48 fps lagen.
Die Grafik ist m.M. nach unwesentlich schlechter als wenn ich es auf Ultra-settings mit meiner 980 GTX TI spiele.

Das sollte den Leuten Hoffnung machen, die bedenken haben das Spiel zu kaufen, da es relativ hohe Anforderungen stellt (minimal GTX 550 Ti 2 MB ).
2015-11-18 20_48_15-NVIDIA GeForce Experience.png
 
Zuletzt bearbeitet:
Drummermatze schrieb:
4,7/10 bei Metacritic.
Keine 21:9 Darstellung.
Furchtbare Steuerung.
Grafik aus 2009

Damit hat sich das Spiel für mich erledigt.
Es sei denn da kommen Mods die diese KO-Kriterien ausmerzen.
Die gibt's stellenweise schon. Die ersten texturmods sind auch schon draußen. den 21:9 fix gabs am ersten tag...
Steuerung usw wird auch noch kommen
einige mods bzw modder haben auch die Texturen optimiert und großflächig verkleinert (bei gleichem aussehen). die modder meinten das die originale Komprimierung eine Katastrophe ist. habs selber nicht getestet, aber laut aussagen auf nexusmods sind die fps Drops verschwunden.
(gibt diverse modder die das gemacht haben, daher verweise ich mal auf die Kategorie texturmods auf nexusmods)
 
Zuletzt bearbeitet:
Tipp an AMD Karten Besitzer falls nicht schon geschehen.-> Vsync deaktivieren <-. Mit war es bei mir mit einer R9 290 Tri-X unspielbar und hat geruckelt. Das deaktivieren dieser einen Option bewirkt Wunder. Sonst alles auf Ultra und es läuft butterweich.
 
Oha das sind deutliche Steigerungen mit dem Treiber. Nun muss der Titel bloß noch 1-2 Patches bekommen und im Sale sein, über 40€ aus nicht-Keyshops kauf ich das nicht.
 
Wenn ein aktiver Nebenbildschirm an meiner iGPU hängt, ruckelt FO4 alle 2 Sekunden eine Sekunde. (15.10beta bis 15.11.1beta)
Kein Problem mit dem non-beta.
 
Zuletzt bearbeitet:
Nun erklärt sich auch, warum eine mein System mit nur einer 970er locker 5-15 fps mehr schafft als die Tests zeigten: Mein nativer 6 Core und wohl auch das DD4 RAM schieben die frames um genau diese Differenz hoch (bin auf 2560*1440 auf Ultra Settings bei ~ 50-70 fps im Mittel)
 
Krautmaster schrieb:
So gesehen muss man das natürlich in erster Linie dem Game ankreiden, dabei muss aber keines Falls eine Optimierung zum Vorteil von Nvidia oder Nachteil von AMD erfolgt sein (was einfach ne haltlose Unterstellung ist und für begrenzten Tellerrand spricht).
...Kräuterchen, steck den Kopf nicht in den Sand bzw zieh ihn da raus und betrachte mal die Fakten:
1. Der lächerliche Abstand zw AMD und Nvidia ist nicht durch ein CPU Limit zu erklären, steht so im Test und sieht man überall sonst in den Diagrammen.
2. 980ti ist sogar in UHD noch 20% schneller als Fury X. Und das ist eine Referenz 980ti. Auf PCGH ist eine 980ti Jetstream sogar aberwitzige 38% schneller, in UHD. In keinem anderen Spiel sieht man so einen Bullshit.
3. es ist ein Nvidia Gameworks Spiel... In neutralen Spielen, also bei denen Nvidia nicht als Partner des Publishers/Entwicklers agiert, sieht man solche Abstände zw AMD und Nvidia interessanterweise nicht. Aber das ist etwas, was du konsequent ignorierst.


"kann bei ner API oder Frontend Limitierung auf GPU Seite durchaus drin sein. Egal was für ne CPU. Sonst wäre DX12 auch kaum nötig oder?" Wären alle Mainstream-CPUs 4,5GHZ 6700K's, wäre DX12 in der Tat nicht wirklich nötig. Übrigens, dass du eine extreme DX12 Demo, einen wie im Titel des Artikels steht "Extremfall für CPU/API Belastung", deren DX11 Pfad für AMD wohl kaum Optimierungen erfahren hat (was versändlich ist), heranziehst, um hier Parallelen zu ziehen, ist schon ganz schön albern.

edit: es ist letztlich scheißegal, ob da ein GPU, CPU, API, PDF oder CDU Limit vorliegt. Der Spielentwickler hat dafür zu sorgen, dass sein Spiel auf aktuellen Architekturen vernünftig läuft. Der Hardwareentwickler optimiert die Kommunikation zw. dem Spielcode und seinem Treiber. Was in der Regel nicht mehr als eine 5-10% Leistungssteigerung bewirkt. Hier bringt Bethesda aber ein Spiel, bei dem eine popelige GTX770 schneller ist als eine Custom R9 290. Die sonst gleich schnellen Karten sind meilenweit von einander entfernt. Deswegen kann man davon ausgehen, dass für AMD keinerlei Optimierungen vorgenommen wurden.
 
Zuletzt bearbeitet:
Zurück
Oben