Test Gears of War 4 Benchmark: Eine überraschend gute PC-Version mit UWP

und warum ist zB nicht die GTX 1070 mit dabei ? .. so als Aktionskarte ;)

Ich denke mal es ist zu vergleichen mit der GTX 980 Ti ...

Krass ist allerdings was die AMD CPU bremst ... echt übel
 
Ich hätte also mit meinem Prozessor auf 1440p fast genauso viel Leistung wie bei einem 6700K?

Genau das sollte man von DX12/Vulkan erwarten. Treiber ist bereits der neueste bei AMD? PCGH hat den ja noch nicht drin.

Funfact:

Deutlich besser vergleichen lässt sich dagegen Async Compute. Wer an dieser Stelle Benchmarks mit einer Maxwell-GPU erwartet, wird übrigens enttäuscht werden. Denn wenn das Spiel eine Maxwell-Karte erkennt, wird der Menüpunkt Async Compute gar nicht erst angezeigt.

Ups
 
Liegt halt an DX12, wo AMD Karten besser performen mit schwächeren Prozessor. Hätte gerne noch einen CPU Bench mit einem typischen i5 gesehen, wie ihn viele haben.

Auch überraschend, dass unter 1440p die 1060 kaum schneller als ne 970 ist, trotz 6gig Speicher.
 
Dass die Fury so abgeht, hätte ich nicht erwartet. Gerade in 2560x1440. Deutlich vor der 980Ti und mehr als 50% vor der RX 480. Die aus irgend einem Grund gar nicht von DX12 zu profitieren scheint....
 
Warum sollte man auch in einer anderen Auflösung spielen als die native des Monitors ?

Verstehe den Satz nicht wirklich im Fazit ?
 
Will man hier als Redaktion noch nicht mal versuchen zu erklären, wieso eine Nvidia GPU im CPU Limit hier so massiv an Leistung verliert? Ein einfaches schulterzucken und "isso" ist mir da aus technischer Sicht einfach zu wenig.

Oder ist das nun der umgekehrte Fall wie man ihn bei Nvidia und DX11 hatte, die hier selbst viel optimieren konnten, und hier bei DX12 einfach auf die Entwickler angewiesen wären, die es aber scheinbar nicht juckt auf Nvidia zu optimieren?
 
Warum sollte man auch in einer anderen Auflösung spielen als die native des Monitors ?

Downsampling ist schon fein und hat bis auf den Leistungshunger eigentlich keinerlei negative Auswirkungen, im Gegensatz zu diesem Fall.

Will man hier als Redaktion noch nicht mal versuchen zu erklären, wieso eine Nvidia GPU im CPU Limit hier so massiv an Leistung verliert? Ein einfaches schulterzucken und "isso" ist mir da aus technischer Sicht einfach zu wenig.

Mich würde es noch interessieren wie es bei einer 4C/4T CPU aussieht.
 
Lübke schrieb:
nur wenn man nvidiakarten benutzt. bei amd-grakas ist nahezu kein unterschied vom FX8370 zum i7 6700k.
das finde ich mal krass...

DX12 Overhead? ;)
Das kennt man ja unter DX11 nur anders herum.

ssj3rd schrieb:
Warum sollte man auch in einer anderen Auflösung spielen als die native des Monitors ?
Resolution Scaling?
 
Zuletzt bearbeitet:
Precide schrieb:
Dass die Fury so abgeht, hätte ich nicht erwartet. Gerade in 2560x1440. Deutlich vor der 980Ti und mehr als 50% vor der RX 480. Die aus irgend einem Grund gar nicht von DX12 zu profitieren scheint....

zum glück hab ich mir ne fury und keine rx480 gekauft - in doom hat die bei WQHD auch einen großen vorsprung, trotz 4gb speicher. in der karte schlummert einiges an bisher ungenutzem potential.

wenn das jetzt noch vulkan und nicht das saublöde win10 exklusive DX12 wäre :freak:
 
dass die FPS Balken bei "Async Compute in Gear of War 4 – 1.920 × 1.080
Angaben in Bilder pro Sekunde (FPS)" für die 69 fps der AMD RX 480 und die 125 FPS der Nvidia GTX 1080 gleich lang sind ist etwas irritierend. Warum setzt ihr Balkenlänge nicht entsprechend zur Relation zu den höchsten erreichten fps im Test?
 
Vielen Dank für den ausführlichen Artikel. Die Wahl der Grafikkarten ist bis auf die 1080 gut. 1070er sind ja viel mehr verbreitet. Noch besser wäre es wenn gleich Custom Designs gebencht worden wären. Oder einfach die anliegenden Frequenzen angeben...
Min Werte sollten irgendwann auch berücksichtigt werden da ziemlich wichtig.
 
Zuletzt bearbeitet:
Warum setzt ihr Balkenlänge nicht entsprechend zur Relation zu den höchsten erreichten fps im Test?

Weil es darum geht wie viel FPS man im Vergleich mit und ohne AC hat und nicht um den Wert an sich. Die Relation zueinander (mit/ohne AC) steht hier im Fokus.
 
Interessant ein Spiel wo Nvidia mitgewirkt hat das aber auf AMD Karten gleichwertig läuft. Das hat Seltenheitswert.

Wäre das Spiel nicht Win10 exclusive hätte ich es mir jetzt wohl gekauft.

Danke für den Test.
 
r4yn3 schrieb:
und hier bei DX12 einfach auf die Entwickler angewiesen wären, die es aber scheinbar nicht juckt auf Nvidia zu optimieren?

Ist dann aber auch komisch, weil Nvidia mit den Entwicklern zusammengearbeitet hat (einfach ohne GameWorks)...
 
Als Treiber sind der Crimson 16.10.1 beziehungsweise der GeForce 373.02 installiert.

Bei Nvidia gibts als Treiberdownload den 373.06.
Gibts da Unterschiede zum 373.02?
 
Kurze Frage ans CB-Team:
Macht ihr die Benchmarks eigentlich mit der Founders Edition/Standard Karte bzw. Partnerkarten mit Standard-Clock oder wählt ihr Partnerkarten aus?

Würde mich insofern interessieren, als dass man ja davon ausgehen kann, dass man z.B. mit einer RX 480 Nitro+ nochmal ein oder zwei fps mehr hat, als eine Stock-Karte.

Danke
 
Sehr schön! Zeigt meiner Meinung nach das Potential, das auch UWP-Apps bereit halten. Ich finde die Idee von nahtloser Synchronisierung und 1-Klick-Deinstallation immer noch genial und hoffe, das dann in Zukunft auch komplett auf dem PC zu haben.

Die UWP-Apps stellen den Entwicklern hierbei einfach schon ein wichtiges Grundgerüst und wie man hier sieht, ist es durchaus möglich Spiele gut umzusetzen.

Lg, Franz
 
@Khalinor 373.02 ist der Prelease Treiber für die Presse des 373.06 für GoW4. Denke mal da wird kein Unterschied sein.
 
Zurück
Oben