• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Star Wars Battlefront 2: Auf dem PC wunderschön und superschnell

"Star Wars Battlefield 2 im Technik-Test" :D (Unterschrift bei der Bildstrecke am Ende)
 
Wie PCGH ermittelt hat profitiert das Game sehr von einer CPU mit 6C und 12T. Ein + von 54% von 4 auf 6 Kernen ist schon mehr als ordentlich. Gefällt mir kann bei den nächsten Games ruhig so weiter gehen :)
Schön ist auch das die Vega Karten gut performen können.
 
Zuletzt bearbeitet:
Schön zu sehen das Vega in 1440p eine sehr gute Leistung zeigt:) die Frametimes sind auch Top.:daumen:
1440p ist die Goldene Mitte.
 
Zuletzt bearbeitet:
@Computerbase
"Und auch die Übernahme des Speichermanagements vom Spiel kann laut AMD für einen Performance-Schub sorgen."
Was muß da eingestellt werden und was bringt das ?
 
Vitali.Metzger schrieb:
Wie PCGH ermittelt hat profitiert das Game sehr von einer CPU mit 6C und 12T. Ein + von 54% von 4 auf 6 Kernen ist schon mehr als ordentlich. Gefällt mir kann bei den nächsten Games ruhig so weiter gehen :)

Nicht vergessen, dass Du da aber je nach Auflösung eine sehr potente GPU brauchst. Die 154 vs. 102 FPS im PCGH Test relativieren sich schnell wieder, wenn man bedenkt, dass eine 1080Ti unter 1440p schon keine 110FPS mehr packt. Sprich: von den 54% Mehrleistung kommen bei 1440p und "Ultra" Settings selbst bei einer 1080Ti praktisch nichts mehr an...
 
Freut mich, dass die Kritik von mir und anderen, dass die 1050 ti bei vergangenen Tests gefehlt hat, inzwischen angekommen ist. Vielleicht ist man auch von selbst drauf gekommen, dass nicht jeder eine >250€-Karte hat und daher mehr als eine Karte darunter interessant sein könnte. :-)
Schöner Artikel, schönes Spiel, schade dass die Einzelspielerkampagne in den Tests nicht so gut wegkommt.
 
In der Tabelle wird die Rx 470 sowohl bei annehmbar spielbar wie auch bei gut spielbar gelistet
 
Kann es sein, dass bei der Tabelle für die Grafikkartenempfehlung bei AMD Karten etwas durcheinander kam? Da wird die 470 und die 570 meist bei empfohlen, als auch bei annehmbar gelistet. Dafür taucht nirgends die 580 auf.
 
Kommt es auch anderen merkwürdig vor, dass DX12 grundsätzlich schlechtere Performanceals DX11 bringt, aber trotzdem Mantle gänzlich verdrängt hat? Wie kann das sein? War damals nicht soagr von den für Mantle verantwortlichen zu hören, dass man nur dafür sorgen wollte, dass MS endlich mit DX ähnliche low level Integration bringen sollte, und dass man das ja jetzt geschafft habe, weshalb Mantle jetzt stillgelegt werden würde?

Ich versteh das nicht... ?!?
 
AnkH schrieb:
Nicht vergessen, dass Du da aber je nach Auflösung eine sehr potente GPU brauchst.
Sehe ich auch so. Die 1280 CPU-Tests sind durch die Bank fürn Arsch, weil die Konfiguration in keinem Verhältnis zur Grafik passt.

Da muss man schon differenzieren wie viel Sinn es in einer bestimmten GraKa-Leistungsklasse macht sich eine bestimmt CPU zu kaufen.
Beispiel wäre: Wie viel habe ich davon bei einer 1060/580 davon wenn ich anstatt eines 4T eine 6T CPU zu kaufen.

Aber das erhöht den Aufwand von solchen Tests eben auch ordentlich. In 1280 und einer 1080ti das CPU Limit auszuloten brint aber wenig Einsicht für den Realbetrieb.

------------
On topic:
Was hat man sich da eigentlich bei der DX12 Implementierung gedacht? Nur damit man dieses "Feature" hat?
 
Ich versteh nicht, wieso bei unterschiedlichen Auflösungen an den Grafik-Details geschraubt wird? Somit ist auch dieser Test für die Katz.
 
@CB: Danke dieses mal für den Test.

Eine kleine Verbesserung würde ich noch vorschlagen die Aufschlussreich sein könnte:

Testet mal DX12 mit SMT AUS vs AN
Außerdem würde es auch mal interessieren wie bei DX11 vs DX12 ein Vergleich zwischen 6850K und einem AMD Ryzen 6C12T auf gleichem oder zumindest ähnlichem Takt.

Also den DX11 vs DX12 teil noch 1x mit Ryzen nachholen wäre klasse !!!!
Ich vermute nämlich stark dass dieser Performance einbruch unter DX12 irgendwas mit den Intel CPUs zu tun hat speziell mit SMT/HT.
Vielleicht noch nachtragen ? Wäre echt Super !

Bin ich eigentlich der einzige der die "verbesserten Schatten PCSS und HFTS" eher als grausig empfindet ? Und dabei kosten die neben der subjektiv wesentlich unschöneren Darstellung auch noch massig Leistung.
https://pics.computerbase.de/8/0/6/4/9/7-1080.136744069.jpg => Das ist imho das "schönste" und am echtesten wirkende Bild.
https://pics.computerbase.de/8/0/6/4/9/5-1080.1259532311.jpg
https://pics.computerbase.de/8/0/6/4/9/1-1080.1803517096.jpg (das ist wohl noch verbugged aber trotzdem)
 
Im " Humble Bundle" gibt es gerade das Spiel "Killer is Dead - Nightmare Edition" für kurze Zeit gratis.
 
1280*720 soll vorallem zeigen, wie viel langsamer die CPUs mit schnelleren Grafikkarten werden im Verhältnis zu anderen CPUs. Nur hat das noch nie funktioniert. Das beste Beispiel ist da der FAX 8350/70 vs I5 2500k/I7 2600k. Der Fax hat einiges aufgeholt, obwohl er damals in 720p langsamer war. Diese Methoden sind also Quatsch und zeigen genau nichts. Warum man das noch testet ist mir ziemlich unklar. Und wer kauft eine 1080ti für einen I5 7600 oder drunter ohne auf 1440p oder in 4k zu spielen?
 
Naja ich hab nen i5 (OC) mit ner 1070 (OC) und spiele 1440p.... Mal sehen ob ich die 2 Cores weniger mit den 1,4GHz mehr pro Core ausgleichen kann.
 
Zurück
Oben