Test Gears of War 4 Benchmark: Eine überraschend gute PC-Version mit UWP

Artikel schrieb:
Läuft das Spiel in der nativen Auflösung des Monitors (Auflösung bei 100 Prozent), funktioniert der VSync-Schalter auf klassische Art und Weise beziehungsweise die Wirkung ist zumindest gleich. Es gibt also zerstückelte Bilder und keine verworfenen Frames. [...] Nutzt man dagegen nicht die native Auflösung und verändert die Auflösungsskalierung im Spiel, verhält sich GoW 4 wieder wie ein klassisches UWP-Spiel. Warum sich der Actiontitel so merkwürdig verhält, ist nicht ganz klar.
Könnte es nicht sein, dass es einfach die Entscheidung der Entwickler ist bei dynamischer Auflösung vsync zu erzwingen?
Denn es wäre ja sonst möglich, dass zusätzlich zum "normalen" Tearing auch noch 2 Teilbilder mit unterschiedlichen Auflösungen zu einem verwurstet und auf dem Monitor ausgegeben werden, was vermutlich ziemlich beschissen aussieht.

@CB
Haltet ihr das für möglich, bzw. könntet ihr da evtl. sogar mal beim Entwickler nachhaken?
Wäre wirklich interessant :)
 
Dai6oro schrieb:
Weil es darum geht wie viel FPS man im Vergleich mit und ohne AC hat und nicht um den Wert an sich. Die Relation zueinander (mit/ohne AC) steht hier im Fokus.

na wirklich?

Das geht auch, wenn man die Balken von der Längen anpasst, und zwar schon beim ASYNCH OFF Wert.
 
icetom schrieb:
Das geht auch, wenn man die Balken von der Längen anpasst, und zwar schon beim ASYNCH OFF Wert.

Es ist richtig so wie es ist. Man möchte den (prozentualen) Gewinn sehen und das sieht man am besten, indem einer der beiden Werte (hier wurde der ON Wert gewählt) auf "100%" steht.
 
Schade, aber auf der GTX 1070 läuft das Spiel wohl nicht, konnte ich im Benchmarktable nicht finden. Ich werde in Zukunft sowieso, sollte die GTX 1070 nicht in den Spiele Benchmarks auftauchen, gar nicht weiter auf den Bericht eingehen, noch diesen ernst nehmen. Wenn man hier auf CB die GTX 1070 ignoriert, dann kann man ja auch die Benchmark-Berichte ignorieren. Mehr gibt es dazu nicht zu sagen!
 
Besten Dank für den aufschlussreichen Test, die Umsetzung ist ja (beinahe) vorbildlich :), davon können sich die anderen Microsoft Studios oder solche die bei MS unter Vertrag stehen eine Scheibe abschneiden.

Dass DX12 (ältere CPUs sowie Async Compute) noch auf derzeitigen AMD GCN Karten Vorteile gegenüber Pascal zeigen würde bei vernünftiger Umsetzung, war auch zu erwarten. Obwohl es ein nVidia Bundle-Titel ist, ist es eben kein Gameworks Titel und scheinbar war das Studio bemüht die GPUs beider Chiphersteller balanciert auszureizen, dadurch erklärt sich auch das gute Abschneiden der R9 Fury X gegenüber der GTX 980Ti (da erstere die höhere Rohleistung zum tragen bringen kann/einigermaßen gut auslastet).

Die Leistung einer GTX 1070 kann man relativ gut abschätzen (und dann müsste fairerweise noch eine weitere AMD Karte mit aufgenommen werden wie die R9 Nano etwa) und die GTX 1080 ist wichtiger, da sie die (im Gegensatz zur Titan X (rev.2) Luxus-/Prestigeklasse noch erschwingliche) derzeitige Maximalleistung aufzeigt, aber ich hätte mir einige ältere Karten (e.g. R9 280X, GTX 770) noch gewünscht, da deren Leistung in hohen Einstellungsdetails in Full-HD gewesen interessant wären.

Schade, dass die ersten 3 Teile von Epic umgesetzt wurden und MS wohl die Lizenz dazu fehlt (diese für den PC wohl dann nicht kommen werden).
 
Naja wenns denne für Steam kommt werd ichs mir holen.

Man sieht aber das die Fury echt noch sehr brauchbar ist da kommt man wieder ins krübeln ob 480 oder Fury gerade bei WQHD.
 
Zotac2012 schrieb:
Schade, aber auf der GTX 1070 läuft das Spiel wohl nicht, konnte ich im Benchmarktable nicht finden. Ich werde in Zukunft sowieso, sollte die GTX 1070 nicht in den Spiele Benchmarks auftauchen, gar nicht weiter auf den Bericht eingehen, noch diesen ernst nehmen. Wenn man hier auf CB die GTX 1070 ignoriert, dann kann man ja auch die Benchmark-Berichte ignorieren. Mehr gibt es dazu nicht zu sagen!

Eine riesen Frechheit ist das! Der Test, den CB gratis bereitstellt, enthält die eigene Grafikkarte nicht!!! Deshalb sind die anderen Werte alle nicht ernst zu nehmen :freak: Ich werde folgende Tests also so lange boykottieren, bis CB endlich einlenkt. Werden sie schon sehen was sie davon haben!

Ganz ehrlich: Natürlich ist die 1070 ne attraktive Karte, die hier irgendwo fehlt, aber erstens kann man sich das Ergebnis anhand der 980 und der 1080 Performance ganz gut zusammen reimen und zweitens sind genaue FPS Ergebnisse mangels Konkurrenz ohnehin nicht wirklich kaufentscheidend.
 
AMD hat da noch eine Rosige Zukunft vor sich. Xbox 4K und PS4 Pro haben auch AMD GPUs drin.

Eine 490X oder gar 590X müssten krass abgehen. Wo sind die Karten bloss"?"

Nvidia ohne AC, da haben die Medien geholfen das ab zu mildern. Würde bei AMD AC fehlen, wäre es ein Thema mit 8000.000 Klicks.
 
Was mit den AMD GPUs auf dem langsamen FX im Vergleich zu Nvidia abgeht, ist für Nvidia Fanboys sicherlich vollkommen unbegreiflich :lol:

Warum schreibt CB AMD würde auf langsameren CPUs fast immer mehr Leistung verlieren als Nvidia? Guckt euch doch eure eigenen GPU Tests auf dem i5 2500k an. Ob 4,5 GHz aktueller i7 oder 3,5 GHz i5 meist kaum bis keine Leistungsunterschiede.
 
zeedy schrieb:
Was mit den AMD GPUs auf dem langsamen FX im Vergleich zu Nvidia abgeht, ist für Nvidia Fanboys sicherlich vollkommen unbegreiflich :lol:
Natürlich ist es unbegreiflich. Oder kannst du es erklären? Also wirklich erklären, nicht einfach nur raten.
 
Ich finde es schön zu sehen das nvidia unter directx 12 hier gut performt, diese unsinnige Diskussion die aufgrund der schlechten Implementierung in anderen directx 12 Titeln aufkam wurde mir langsam auch zu blöd. Das nvidia soviel bei schwächerer CPU verliert wird wohl daran liegen das sie irgend ein directx 12 Step den bei AMD die Gpu kann wohl die CPU berechnen lassen müssen. Schließlich kann ja noch keine! GPU das komplette directx 12 Feature Set vollständig da werden wohl alle irgendwo tricksen. Ich kann mich irren logisch wäre es aber.
 
SchaGur schrieb:
Eine 490X oder gar 590X müssten krass abgehen. Wo sind die Karten bloss"?"

Wenn man diesem etwa 2h alten Artikel auf WccfTech Glauben schenken will, dann wird es diese Karten nicht geben, sondern zuerst (erstaunlicherweise) die BigVega (Vega 10) Karten mit bis zu 12 TFLOPS und 16 GB HBM2 (vermutlich beschnitten (RX Fury?) und Vollausbau (RX Fury Pro?)) und dann eine neue (gehobenere) Mittelklasse in Form von Vega 11 Karten mit bis zu 7 TFLOPS und 8 GB HBM2 (vermutlich beschnitten (RX 570?) und Vollausbau (RX 580?)).

Allerdings frage ich mich wie das mit den Preiskategorien dann aussehen soll, die RX Fury in GTX 1070 Territorium und die RX Fury Pro in GTX 1080 Territorium und bei den Mittelklasse-GPUs bleibt die Preislage in etwa erhalten, trotz den antizipiert hohen Preisen von HBM2?

Ich hoffe nur, dass ich mir eine RX Fury (beschnittene Vega 10) GPU im kommenden Sommer leisten möchte (bzw. das Preis-Leistungs-Verhältnis stimmt) und diese nicht preislich weit über einer GTX 1070 liegen wird, denn 16 GB hätte ich schon gerne verbaut (das dürfte gut für 4+ Jahre ausreichen).
 
Zuletzt bearbeitet:
r4yn3 schrieb:
Natürlich ist es unbegreiflich. Oder kannst du es erklären? Also wirklich erklären, nicht einfach nur raten.
Wenn das so unbegreiflich ist, ruf doch mal bei Nvidia an und frag nach, was da mit ihrer DX12 Hardware oder den Treibern los ist. Mit schnellen CPUs scheints ja zu funktionieren. Sonst kann man eben nur raten --> Nvidia hat gewisse Einbußen unter DX12, sei es die Hardware, der Treiber etc...
Ach, ich vergaß, natürlich ist die "fürchterliche DX12 Implementierung" oder die "einseitige GCN Optimierung" schuld... Die Erklärung für alles...

Dann hätte sich Nvidia eben selbst die Konsole-Deals schnappen sollen, war doch klar, auf welche Architektur dann vorrangig optimiert wird... Oder sie müssen ihre Hardware eben anpassen. Dazu werden sie wohl noch in der Lage sein. Am Budget wirds nicht mangeln, sind ja nicht AMD.
 
Zuletzt bearbeitet:
Ist das mit den verworfenen Frames eigentlich einfach normales tripple buffering oder steckt da irgendwas anderes dahinter?
 
Zotac2012 schrieb:
Schade, aber auf der GTX 1070 läuft das Spiel wohl nicht, konnte ich im Benchmarktable nicht finden. Ich werde in Zukunft sowieso, sollte die GTX 1070 nicht in den Spiele Benchmarks auftauchen, gar nicht weiter auf den Bericht eingehen, noch diesen ernst nehmen. Wenn man hier auf CB die GTX 1070 ignoriert, dann kann man ja auch die Benchmark-Berichte ignorieren. Mehr gibt es dazu nicht zu sagen!

Ist auch ne Frechheit dass die R5 240 nicht auftaucht!!1 Und Titan Z Benches fehlen auch völlig!!
 
Völlig verständlich dass sich hier Leute wundern, dass die vermutlich meist verkaufte aktuelle Grafikkarte nicht im Benchmark auftaucht... Selbst wenn CB die nicht umsonst bekommt, könnte man ja mal eine für Testzwecke kaufen so ganz oldschool...
 
Zotac2012 schrieb:
Schade, aber auf der GTX 1070 läuft das Spiel wohl nicht, konnte ich im Benchmarktable nicht finden. Ich werde in Zukunft sowieso, sollte die GTX 1070 nicht in den Spiele Benchmarks auftauchen, gar nicht weiter auf den Bericht eingehen, noch diesen ernst nehmen. Wenn man hier auf CB die GTX 1070 ignoriert, dann kann man ja auch die Benchmark-Berichte ignorieren. Mehr gibt es dazu nicht zu sagen!

was ist mit dir denn nicht richtig? :stacheln::confused_alt:


was man schon ewig wusste:

Deutlich besser vergleichen lässt sich dagegen Async Compute. Wer an dieser Stelle Benchmarks mit einer Maxwell-GPU erwartet, wird übrigens enttäuscht werden. Denn wenn das Spiel eine Maxwell-Karte erkennt, wird der Menüpunkt Async Compute gar nicht erst angezeigt.

Sehr gute Umsetzung, bin positiv überrascht. So gehört sich das, beide Hersteller ebenbürtig und DX12 funktioniert mal ordentlich.
 
berkeley schrieb:
Wenn das so unbegreiflich ist, ruf doch mal bei Nvidia an und frag nach...
Wie sagenhaft schlagfertig, *gähn*. Da bekommt man mal mit einer AMD CPU eine sagenhafte Performance in einer gewissen Konfiguration. Warum? Juckt scheinbar niemanden.
 
Zurück
Oben