• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Star Wars Battlefront 2: Auf dem PC wunderschön und superschnell

Ältere Modelle wurden nicht berücksichtigt oder fallen die ganz unter den Tisch von der Leistung her?
 
Hach wenn ich wüsste wo sich meine GTX750ti einordnet, dann könnte ich schwach werden und mir das Game holen.
Gibt eine Karte die man aus den Test als Vergleich herannehmen kann ?
 
dMopp schrieb:
Naja ich hab nen i5 (OC) mit ner 1070 (OC) und spiele 1440p.... Mal sehen ob ich die 2 Cores weniger mit den 1,4GHz mehr pro Core ausgleichen kann.

Deine 1070 erreicht mit "ultra"-Settings in 1440p um die 70FPS. Ergo wirst Du überhaupt nichts bemerken, da selbst ein Zweikerner bei 720p bereits über 80FPS erreicht...
 
zombie schrieb:
Hach wenn ich wüsste wo sich meine GTX750ti einordnet, dann könnte ich schwach werden und mir das Game holen.
Gibt eine Karte die man aus den Test als Vergleich herannehmen kann ?

Ich denke sie wird etwa 30% unter der 1050 Ti stehen wenn sie 4GB Ram hätte - mit 2 GB kannste das aber wohl vergessen.

Soweit ich das blicke hat CB von allen Karten (460, 960) die 4 GB Versionen im Testparcours. Die 1050 Ti gibt es eh nur mit 4 GB.
 
Zuletzt bearbeitet: (Soweit ich das blicke hat CB von allen Karten (460, 960) die 4 GB Versionen im Testparcours.)
@zombie: Pi * Daumen 2/3 einer 1050 Ti
 
Danke für den Test. Erfreulich hübsche und performante Engine.

Eine Frage hätte ich aber:
Warum hat denn Vega 64 andere avg. FPS in 4K zwischen dem normalen Test und dem HBCC-Test? Da die Angaben in FullHD und WQHD die selben sind wie im Test ohne HBCC geh ich mal von aus das Vega 64 eigentl. 62,4 FPS erreicht?!
 
Was soll der blödsinn die höheren HBMC werte für Vega nicht in die Ergebnisse mit einzurechnen?!
 
Unspielbar mit den neuen Nvidia grafiktreibern hier. 6 abstuerze in 20 minuten.

musste wieder afu die vorherigen zurueck.
 
dante`afk schrieb:

Höchstwahrscheinlich ein Anwenderfehler, denn Nvidia-Treiber sind durch das QM fehlerfrei.
 
Zuletzt bearbeitet von einem Moderator: (Vollzitat entfernt)
frkazid schrieb:
Eine Frage hätte ich aber:
Warum hat denn Vega 64 andere avg. FPS in 4K zwischen dem normalen Test und dem HBCC-Test? Da die Angaben in FullHD und WQHD die selben sind wie im Test ohne HBCC geh ich mal von aus das Vega 64 eigentl. 62,4 FPS erreicht?!

Stimmt! muss ein Bug sein in der Tabelle auf S1 im Test, da die anderen Zahlen (WQHD und FullHD mit den Werten aus dem HBCC-Test deckungsgleich sind.

Damit ist die Vega ja bis auf 7% und das in DX11 ! An einer 1080 Ti dran - na bitte es geht doch die Rohleistung auf die Strasse zu bingen bei genügend fordernden Games und guter Programmierung in-Game.

Umso spannender fände ich jetzt noch ein Ryzen-Intel @DX11/12 @Vega/Pascal Vergleich. (Sprich den DX11 vs 12 Test einmal komplett mit einem Ryzen wiederholen.

@CB: War die CPU jetzt eigentlich ein 8700K oder ein 6850K im Test ? Oder waren beide im Test aber in unterschiedlichen Teilen ?
Die Grafikkarten-Benchmarks sind auf einem Intel Core i7-8700K durchgeführt worden, der mit insgesamt 32 Gigabyte Arbeitsspeicher und einer Geschwindigkeit von DDR4-2.666 (16-16-16-38, Dual Rank) im Dual-Channel-Modus bestückt ist.

Oder soll der folgende Satz nicht bedeuten dass im DX11 vs 12 Test der 6850 benutzt wurde ? Sondern einfach nur dass ein 6850K@DX12 immer noch schlechter performed als ein 8700K@DX11 ?

DirectX 11 vs. DirectX 12 ... Denn die Performance ist zumindest auf einem Core i7-6850K durchweg schlechter als mit DirectX 11.
 
Die RX 580 ist ja für 2k geeignet (2 fps fehlen?..). Die gehört doch eigentlich in die Empfehlungliste für ~60 fps.
Spätestens nach einer Treiberoptimierung sind die 60 fps drin.

Auch wenn mich das Spiel nicht interessiert ist die Technik schon interessant.
 
Echt schade zu sehn, dass ein technisch so solide gemachtes Spiel politisch so absolut und zu 100% disqualifiziert wird :freak:
 
Schaby schrieb:
Ich versteh nicht, wieso bei unterschiedlichen Auflösungen an den Grafik-Details geschraubt wird? Somit ist auch dieser Test für die Katz.

Warum ist der Test damit für die Katz'? Wie wäre es denn besser? Alles immer auf max, auch wenn das Spiel in der höchsten Auflösung dann auf 95% der Grafikkarten unspielbar ist?

Ich finde "sinnvolle" Setting<->Auflösung Kombinationen perfekt aussagekräftig.


Iscaran schrieb:
Bin ich eigentlich der einzige der die "verbesserten Schatten PCSS und HFTS" eher als grausig empfindet ? Und dabei kosten die neben der subjektiv wesentlich unschöneren Darstellung auch noch massig Leistung.
https://pics.computerbase.de/8/0/6/4/9/7-1080.136744069.jpg => Das ist imho das "schönste" und am echtesten wirkende Bild.
https://pics.computerbase.de/8/0/6/4/9/5-1080.1259532311.jpg
https://pics.computerbase.de/8/0/6/4/9/1-1080.1803517096.jpg (das ist wohl noch verbugged aber trotzdem)

"Echt" ist bei dem ersten Beispiel nichts.
Blätter die mehrere Meter über dem Boden sind, werfen einen absolut unscharfen Schatten:
http://img.fotocommunity.com/baum-m...9-8b00-40be-a291-5f8ee71b6848.jpg?height=1080

Auch auf folgendem Bild schön zu sehen, wie der Schatten mit steigender Distanz zum schattenwerfenden Objekt unscharf wird:
https://fotoschule.fotocommunity.de/wp-content/uploads/2016/02/lichtstrasse-1.jpg

Es ist oft schwierig, ad-hoc zu sagen, wie etwas in echt auszusehen hat, wenn man es von games anders gewöhnt ist. Ambient occlusion sieht in meinen Augen auch oft künstlich/ übertrieben aus. Allerdings ist es ohne noch weniger realistisch.
 
@CB: Irgendwie hat die Vega 64 im HBCC Diagramm mehr (avg) FPS in UHD als im normalen Diagramm drüber, was ist denn nun der richtige Wert?

Vega UHD BFII.png

Wenn die HBCC Werte stimmen ist die 1080 Ti in dem Spiel nur noch ~2,5% (avg) - 4% (Percentile) schneller als die V64 mit 16 GB HBCC? Das wäre ziemlich krass.

BTW: Musterbeispiel für die Umsetzung von DX12, perfekte Entlastung der CPU. Nicht.
 
Zuletzt bearbeitet:
SKu schrieb:
Höchstwahrscheinlich ein Anwenderfehler, denn Nvidia-Treiber sind durch das QM fehlerfrei.

Der war gut :volllol:

Ich frag mich nur grad warum die Vega 64 hier 15% vor der 1080 liegt und bei PCGH liegt die 1080 gut 10% vor der Vega (in 2.560 × 1.440)? Bei den schwächeren Karten sieht es ähnlich aus.
Beide testen mit Ultra Settings, nutzen aber wohl eine andere Szene.
Sind wir jetzt soweit das man sagen muss: In Szene sowieso liegt Vega vorne, in Szene blablabla liegt NVIDIA vorne?

Ich muss grad für mich rausarbeiten welche Aussagekraft die Tests gerade für mich haben....
 
immortuos schrieb:
@CB: Irgendwie hat die Vega 64 im HBCC Diagramm mehr (avg) FPS in UHD als im normalen Diagramm drüber, was ist denn nun der richtige Wert?

Offiziell: Der Wert aus der Tabelle mit den anderen GPUs. Warum? Weil HBCC kein standardmäßig aktiviertes Features einer Vega-GPU ist. Das ist für Standardnutzer interessant. Für technisch versierte Nutzer gilt dann eher der Wert mit aktiviertem HBCC.
 
Zurück
Oben