• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Battlefield 1: Erste Benchmarks der Open Beta inklusive DirectX 12

Standardmäßig ist DirectX 11 aktiviert, DirectX 12 kann aber ausgewählt weredn.
 
DICE steht unter großen Termindruck und muss erst einmal das Spiel herausbringen, mit dem die wahrscheinlich gerade mal so fertig werden ohne noch jede Menge Bugs im Spiel bestehen zu lassen.
Da werden die sich jetzt natürlich noch nicht um eine vernünftige DX12 Integration kümmern. Das steht auf der Prioritätenliste ganz weit hinten auf der Agenda. Erst einmal heißt es Release, dann weiteres Bugfixing und dann erst DX12.

Letztendlich sollte man aber auch dann keine absoluten Wunder erwarten. DICE weiß auch schon mit DX11 sehr performant umzugehen und dessen Bottlenecks möglichst gut zu vermeiden, sodass die mit DX12 wahrscheinlich kaum Vorteile herausholen werden können. Ich sehe jedenfalls nicht, dass das Spiel so entwickelt wurde, dass es Grafikoptionen enthält, die man mit DX11 nicht auch in den Griff kriegen würde. Wozu braucht man dann DX12? Das wäre nur sinnvoll, wenn das Spiel auch Grafikoptionen anbieten würde, die mit DX11 nicht mehr zu machen sind. So etwas könnte ich mir höchstens noch für den Single Player vorstellen, aber nicht für den Multiplayer.
 
"Ich habe keine Ahnung wo sich meine eigene Grafikkarte leistungstechnisch einordnet und will deshalb, dass ihr alle Karten der Welt testet. Bitte in Kombination mit allen CPUs der Welt und bei jeder neuen Version des Spiels bitte erneut!"

Es ist ja nicht so als hätte man keine Möglichkeit, sich ältere Tests anzusehen, um dann seine eigenen Karten mit den moderneren zu vergleichen.

"Abar tann weiz ich ned gans genau wie strong meine Graka izzz."

Ist das das Argument? 2-5% Abweichung ist echt etwas, mit dem die wenigsten geistig klarkommen.

Amen ComputerBase-Redaktion: Super Test!
 
JazzLash schrieb:
Was wäre zu beweisen? Die bessere Technik, oder das die Karte schneller ist?



Nein, Treiberoptimierung.

Beides
Bisher ist es ein Maxwell Shrink.. Solange NV mit keinen Technischen Details rausrückt ist er nur so effizient weil er eben 33% kleiner als Gm104/204/206 ist. Die Karte ist also nur schneller weil sie 1. keinen HPC Ballast mitschleppt und 2. extrem hoch taktet. Alles andere ist Treiber und wenn NV wollte könnte man das Rastering Auch in die Maxwell bringen. Aber bitte feiere weiter ein Konzern der 2 Chips mit einem Modell belegt ;)
Taktbereinigt sieht es eben so aus, dass es nur ein Shrink ist. Die ACE Fähigkeit muss NV auch noch beweisen, bisher verlieren die Karten unter DX12 an Leisten (ausser wenn man den Renderpfad ändert, wie bei Gamewmurks)
Also NUR Treiberoptimierung, und dass man die letzte High End Gen Legacy laufen lässt, macht nicht mal Intel
NV sollte man endlich Gesetzlich dazu verdonnern dass man vernünftigen Treibersupport über 2 Gens bekommt.
Ach und bevor du mit AMD Fanboy kommst, immer schön an die eigne Nase fassen ;)

@
m3rch3r :
Das Problem ist doch viel mehr dass die Treiber dann veraltet sind. Grade bei AMD kriegen die Gens ja noch etwas Power via Treiber, bei NV sollte es dank des Drawcalls Overhead Treibers auch bei alten High End Karten besser aussehen. Aber die Arbeit alle Karten zu benchen, die möchte ich nicht in Stunden fassen.. Sind dann wohl eher Tage
 
JazzLash schrieb:
Nein, Treiberoptimierung.

Achso dann ist für dich völlig OK wenn eine 1 Jahr alte Karte keine Treiberoptimierung mehr bekommt? Du bist mir ja ein Spassvogel... :rolleyes:
 
@m3rch3r: Der Pöbel hat doch aber die Theorie mit dem fallengelassenen Support für die älteren Generationen in den Ring geworfen. Damit sind doch alle alten Tests ohnehin überholt und nicht mehr zu gebrauchen.
 
Vanilla2001 schrieb:
Entspann dich. Es handelt sich um Referenzkarten. Kenne niemanden der wirklich mit so einer schlaff getakteten TI unterwegs ist. Schau http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/. Da sind die Customs dabei.

Ist mir schon bewusst aber beide Karten in diesem Test sind Referenzdesign ;) Von daher sollten beide gleich schnell sein... In der Realität läuft meine Ti auch mit 1500 Mhz ;)
 
Envoy schrieb:
PS: Bei den ersten Tests war die 1070er gleich auf mit der 980 Ti. Vieleicht ist dieses Spiel einfach eine Ausnahme, das ist möglich.

Richtig. Und bevor man mit Vorwürfen um sich wirft, sollte man vielleicht mal abwarten wie sich dies weiter entwickelt und ob sich ein genereller Trend abzeichnet bei den neuen Treiberversionen. Es gibt sehr viele Möglichkeiten, warum BF1 auf einer 1070 relativ besser abschneidet. Dies muss nicht daran liegen, dass keiner mehr Deine 980Ti lieb hat.
 
tidus1979 schrieb:
Ich find das immer so toll, dass man nur noch die aktuellsten Karten und die Vorgängergeneration in die Benchmarks packt. Die Karten also, wo man als Besitzer sowieso schon weiß, dass das Spiel laufen wird.

Ich würde allerdings als GTX 660 Besitzer auch gerne erfahren, ob ich das Spiel spielen kann.

Also ich habe zwar keine 660 wohl aber eine GTX 670 mit 2 GB VRAM.
Die CPU ist ein Intel Xeon E5-1650 v3 (also quasi ein i7-5930) mit 16 GB RAM.

Habe bei der Battlefield 1 Beta auf mittleren Details gut spielbare 45-60 fps. Und auch auf Medium sieht das Spiel Wirklich fantastisch aus.

Ich denke zum Release von BF1 werde ich aber eine 1070 kaufen. Dennoch war ich überrascht wie gut es auch mit relativ alter Hardware noch läuft. Die CPU langweilt sich bei mir noch ziemlich weil die GPU der Flaschenhals ist.
 
Also allein das Beispiel von Witcher 3 zeigt doch auf, dass es nicht nur an der Architektur, sondern eben auch am Unwillen Nvidias liegt für letztere Generation zu optimieren. Kaum war der Shitstorm losgetreten ob der schwachen Kepler Leistung kam etwas später ein Treiber der die Karten nochmal um gut 10% beschleunigt hatte. Hier zum Nachlesen:

https://www.computerbase.de/2015-05/the-witcher-3-nvidia-arbeitet-an-fps-problemen-von-kepler-gpus/

https://www.computerbase.de/2015-06/geforce-353.06-leistung-kepler-witcher-3/

Dass sich daran hier keiner mehr zu erinnern scheint. Sehr merkwürdig.

Gleiches Bild zeigt sich auch hier bei Kepler:

http://www.pcgameshardware.de/Battl...chnik-Systemanforderungen-Benchmarks-1206197/

Gegen die einstigen Konkurrenten (R9 280X und R9 290) stinken GTX 770 und GTX 780 aber ziemlich ab.

Also das hier auf Architekturverbesserungen allein zu schieben ist nicht korrekt. Da ist auch ne ordentliche Portion Kalkül dabei und es scheint ja zu funktionieren.

Das wievielte Rebranding hatte die 380X hinter sich?

Meines Wissens nach... kein Einziges.
 
Zuletzt bearbeitet:
Envoy schrieb:
Ist mir schon bewusst aber beide Karten in diesem Test sind Referenzdesign ;) Von daher sollten beide gleich schnell sein... In der Realität läuft meine Ti auch mit 1500 Mhz ;)

War der Abstand jemals kleiner? Selbst bei der Vorstellung der 1070 finde ich einen vergleichbaren Vorsprung.
 
Ich bin wirklich froh, doch eine 1080 und nicht die 1070 genommen haben. Auch wenn die 1070 sehr schnell ist, mit dem 144Hz Monitor liege ich mit der FTW wirklich so bei ca. 110FPS im Schnitt würde ich sagen. Das spielt sich sehr angenehm, die 70-80FPS mit einer 1070 wäre mir persönlich zu wenig gewesen.

Man sollte jedoch auch bedenken, dass es extremst schwierig ist, hier einen ordentlichen Benchmark fahren zu können. Denn, auch mit der 1080 geht es auf 97 FPS runter, oder mitten in einem explodierenden Panzer auch mal auf 86 FPS.

Ich frage mich warum DX12 so dermaßen limitiert. Erinnert mich etwas an Doom. Dort liefen die Nvidia Karten mit OpenGL+starker Prozessor wie die Hölle.

Grafik und Sound sind wirklich hervorragend bei dem Spiel und das bei wirklich moderaten Anforderungen. Die Frostbite Engine kann schon sehr sehr ordentlich was.
 
Natürlich. Als Ultra Fetischist muss man das schlechtere P/L Verhältnis so hinnehmen. Ich bin schon bei 110FPS genervt.
 
Bin ich blind oder finde ich die 1060 bei den DX12 Benches nicht?

Ich bin mit der Performance in der 1440p ziemlich zufrieden.
 
Als FX Besitzer währe für mich interessant wie dieser unter DX 12 abschneidet. Laut PCGH soll der 8350 sehr von DX 12 profitieren. Wäre cool wenn ihr den am Donnerstag mit rein nimmt.
 
Zuletzt bearbeitet:
Überdurchschnittlich viel Leistung durch DirectX 12 verlieren aktuell die Grafikkarten von Nvidia. Die GeForce GTX 1080 rendert bis zu 15 langsamer,
15 was? Schuhe, Eier, diese Kügelchen die immer in den Tintenpatronen drin sind? :evillol:

Aber danke für die News, sonst bekäme man gar nicht mit dass die open beta läuft. Jemand ne Ahnung wie lange?
 
Envoy schrieb:
Achso dann ist für dich völlig OK wenn eine 1 Jahr alte Karte keine Treiberoptimierung mehr bekommt? Du bist mir ja ein Spassvogel... :rolleyes:

nVidia ist Marktfürerer. Das sind die "besten", die "geilsten" und daher auch die teuersten. Wer es sich nicht Leisten kann braucht sich keine kaufen.

Daher kann ich dieses Kindische rumgeheule wie eine looser nicht nach vollziehen. Erstens kann jeder auch auf AMD ausweichen. Allerdings, die sind auch nicht viel besser. Die können es sich nur in ihrer aktuellen Martsituation nicht leisten den Kunden derart zu verarschen. Aber dieser hinsicht nehmen sich die Unternehmen, sobald sie eine Marktdominierende funktion haben nicht mehr sehr viel. Egal nVidia, Apple,. oder Microsoft... thats the American Way of Life!
 
Envoy schrieb:
Ist mir schon bewusst aber beide Karten in diesem Test sind Referenzdesign ;) Von daher sollten beide gleich schnell sein...

Nicht wenn sich Pascalkarten selbst overclocken können und auch tun? (Unter gewissen Scenarien. Auch wenn das bei Referenzdesign Karten so gut wie kaum der Fall sein wird wegen PT/TT, je nach Belastung der ganzen GPU)
 
Zuletzt bearbeitet:
Zurück
Oben