• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Battlefield 1: Erste Benchmarks der Open Beta inklusive DirectX 12

Den DX12 Ergebnissen traue ich noch nicht. Ich bin auf die Final Version von BF1 gespannt. In DX11 dominiert nVidia, wie erwartet. Die Fury X schlägt sich auch gut, besonders unter 4k, wie immer. Imo erneut ein Beweis, dass 4 GB HBM VRAM ausreichen. Dennoch: Die schnellere GTX 1070 gibt es ab ~ 425€, die Fury X müsste noch ~ 75€ günstiger werden, um richtig attraktiv ggü. einer 1070 zu sein.
 
@ RX480 wird ausgebremst:

https://www.computerbase.de/2016-06...nahme-des-gesamtsystems-star-wars-battlefront

Schaut euch da die Battlefront Werte an. Die RX 480 zu RX 480 Max zeigen schon eine extreme Differenz auf. Oft >50W. Deswegen gewinnt die "Max" Variante (siehe OC) auch bei den Titeln recht ordendlich, 8-12%.

Battlefield 1 wird das Stock Modell schon stressen. Das zeigt sich mit niedrigeren Taktraten und Leistung. AMD muss hier die 150W TDP halten, throttelt. -> sie ereilt dasselbe Schicksal wie die GTX 980 und GTX 970 die bei CB auch je nach Titel schnell ins Limit laufen.
Ergänzung ()

Meiner Meinung nach mit eine der besten Spiele Engines aktuell. Super Frameraten für die Optik. Super gleichmäßiges Gameplay und super SLI / CF Skalierung.

Auch setzt man das Texture Scanning extrem gut ein. Auch Titel wie Deus Ex versuchen ja über hochauflösende Texturen was zu reißen... aber die von Battlefront / Battlefield 1 wirklich deutlich authentischer. / plastischer
 
Was soll das Gewetter wegen der 980ti? Es ist eine Beta, es gibt noch keinen finalen Treiber von nVidia und dank Boost 3.0 ist es nicht unmöglich dass die 1070 hier je nach Situation mal 10% wegzieht.
 
Zuletzt bearbeitet:
Weiter vorne wurde behauptet dass nVidia mal wieder die alte Generation per Treiber verhungern lässt was totaler Blödsinn ist.
 
Krautmaster schrieb:
hm, also wer sich da ne RX 460 als Casual Gamer holt (für Battlefront das fast so teuer is wie die GPU) macht was falsch. Persönliche Meinung ;)
Eine HD7870 dürfte fast genauso schnell sein.
Stell dir bloß vor, ich und andere haben für Overwatch oder WoT und ähnliches eine GTX 950 oder Radeon 370 etc drin. Bei den Videos kommt dann dann auch Interesse auf. Deshalb wäre ein Kurztest solch einer Karte super. Radeon 460 als Vorschlag, weil sie ja erst vor knapp 1 Monat getestet wurde und deshalb vielleicht noch ein Exemplar bei CB vorhanden ist.
 
auch das hängt immer etwas von der Engine ab. Ich finde man sieht gut dass in Titeln mit hoher GPU Last, die eben gerade die Stock CPU (die CB meist testet) an den Rand bringen, diese eher einbrechen. Wenn sich eine GTX 1070 hier zb mehr vom Stock Modell absetzt dann eher weil sie ihren Takt besser halten kann.

CB hatte ja auch oft die Gigabyte Gaming Variante im Test. Die is teils 20% schneller was extrem viel ist für ne standard Partnerkarte. (und wenn sie sich soweit absetzt spricht das dafür dass das Stockmodell über hohe Chiplast und Powerlimit ausgebremst wird).

https://www.computerbase.de/2015-06...h/3/#diagramm-assassins-creed-unity-2560-1440
&
https://www.computerbase.de/2015-08/partnerkarten-geforce-gtx-980-ti-test/3/#abschnitt_leistung

Deswegen macht CB eines in letzter Zeit richtig. Sie nehmen die Customs mit ins Standard Rating...

2016-08-31 18_24_57-Grafikkarten-Kaufberatung für August 2016 - ComputerBase.png
 
Ich lasse die Open Beta aus, The Witcher fesselt mich momentan einfach zu sehr, obwohl ich kein großer Fan von RPGs bin. Aber die Details und die Story, das beste Spiel auf dem Planeten!

Uh, eine R9 390 kommt unter WHQD hast auf 60fps mit maximalen Details. Mal gucken wie BF1 wird und ob die 390 dann mit hohen Details (bei maximal gehe ich von Ultra aus) auch mehr als 60fps schaffen kann.
 
Lemiiker schrieb:
Stell dir bloß vor, ich und andere haben für Overwatch oder WoT und ähnliches eine GTX 950 oder Radeon 370 etc drin.

joa ich stells mir vor, ich hab ja auch gesagt "persönliche Meinung". Wer für einen Titel zwischenzeitlich 50€ + hinlegt und dann in einem Gebiet, das sogar überproportional mit dem Preis skaliert, zu wenig für die Hardware hinlegt, macht was falsch.

Eine RX470 kostet nicht das Doppelte und leistet eben das Doppelte ;)

Das ist in etwa wie wenn ich ich gern Skifahre und mir 100 € Skier kaufe, die Liftkarte aber schnell 50€ am Tag kostet ^^

Aber wie gesagt. Persönliche Meinung. Ich würde dann (wenns unbedingt billig sein muss) eher ne gebrauchte rauslassen oder eben paar € mehr in die Hand nehmen.
 
Zuletzt bearbeitet:
Geht es nur mir so, oder ist das Feuer auf dem Bild auf Seite 1 extrem grell? Also eher unnatürlich leuchtend? Und da wird die Beleuchtung gelobt? Na ich weiß nicht. Erinnert mich an das übertriebene Lens Flare in Star Trek.
 
DX12 ist momentan so unnötig wie ein Kropf am Hals für den Endbenutzer, siehe auch Deus Ex HR.

Das wird noch eine Zeit lang dauern bis man durchgängig von dieser neuen Schnittstelle profitiert.
 
JETZT wären Frametime und VRAM Verbrauchtests aber wirklich mal wieder angebracht!
Frametimes stehen auf der To-Do-Liste für morgen.
Es wird aber weder viel, noch allzu aufwendig werden.

Wo ist denn die 1060 beim DX12 Test? Die fehlt ja auf einmal
Der DX12-Abschnitt soll ja zeigen, wie gut die GPUs mit DX12 umgehen können.
Entsprechend gibt es eine GPU mit Pascal, eine mit Maxwell eine mit 2nd GCN, 3rd GCN und eine mit 4th GCN.

Da schnellere GPUs generell mehr von DX12 profitieren können, haben wir uns jeweils für das schnellste Modell entschieden.
Sprich, wenn die 1080 nicht profitiert, wird es die 1060 erst recht nicht tun.

Testet doch bitte mal vor allem beim Vergleich DX11 und DX12 die minimalen FPS. Diese wären echt interessant.
Die Daten für Frameverlaufsdiagramme sind vorhanden :)

Als FX Besitzer währe für mich interessant wie dieser unter DX 12 abschneidet. Laut PCGH soll der 8350 sehr von DX 12 profitieren. Wäre cool wenn ihr den am Donnerstag mit rein nimmt.
Geplant für morgen (ohne Garantie!) sind Benchmarks mit einem Core i7-5820, Core i3 irgendwas, FX-6300 und FX-8370.

@CB
Für den erweiterten Test, bzw. generell für Spieletests, fände ich es sehr interessant mit jeweils einer Nvidia und einer AMD Karte exemplarisch einen Test der verschiedenen Detailstufen durchzuführen, damit man sieht, wieviel mehr Leistung bei den tieferen Stufen ungefähr zu erwarten ist. Dazu sollte man dann noch einen Screenshot je Detailstufe hinzufügen um uns den optischen Unterschied zu zeigen.
Bei den Spiele-Benchmarktests tun wir das eigentlich immer. Und das ist auch für Battlefield 1 geplant, aber erst mit der Final.
 
Tja das is das Problem das alle jetzt DX12 irgenwie einbauen wollen nur damit man es anbieten kann und dann kommt so ein Murks raus.
Allerdings ist es noch eine BETA von daher sollte man das ganze noch nicht so eng sehen den bei vielen grossen AAA Titeln wie hier kann auch noch die letzten beiden Wochen ordentlich optimiert da genug Mannpower vorhanden ist.
Ansonsten ist die Grafik von den Anforderungen doch ganz gut optimiert im Gegensatz zu einem Deus Ex.
 
ist es nicht total uninteressant wie viel schneller die 1070 als die 980ti ist?
also ich für meinen teil sehe mir die benchmarks an, sehe 108 fps in fhd und weiß, dass es locker spielbar ist :D

aber spielen werd ich das game eh nicht
 
werd es gleich anspielen. mal schauen welche auflösung zwei 1070 schaffen. 8K?
 
@etek_2: musste probieren :p
 
@Wolfgang

danke für die Mühen ;) sry wenn ich manchmal etwas viel erwarte ^^

Kommt das Game auf absehbare Zeit in den Parcour? Bzw... vielleicht Partnerkarten zum Vergleich. Also natürlich erst nach Release.
Ergänzung ()

Vitec schrieb:
Tja das is das Problem das alle jetzt DX12 irgenwie einbauen wollen nur damit man es anbieten kann und dann kommt so ein Murks raus.

ich denke Murks is relativ. Dazu müsste man die MinFrames in heftigen Szenen wissen. Auch für jemand mit nem AMD 6 Kern FX könnte das DX12 schon Vorteile bringen. Es schadet jedenfalls nicht.

Ich denke auch der Port bestehender Engines -> DX12 ist recht schnell vollzogen.
 
Zuletzt bearbeitet:
Zurück
Oben