Test Gears of War 4 Benchmark: Eine überraschend gute PC-Version mit UWP

Denn wenn das Spiel eine Maxwell-Karte erkennt, wird der Menüpunkt Async Compute gar nicht erst angezeigt.
Ein Schelm, wer böses denkt. Soll dadurch vertuscht werden, dass Maxwell AC doch nicht kann?
Vielleicht wurden die Entwickler in diesem Punkt von Nvidia unterstützt ^^
 
r4yn3 schrieb:
Wie sagenhaft schlagfertig, *gähn*.
Und wer außer Nvidia kann dir die Antwort auf deine Frage "also wirklich erklären, nicht einfach nur raten"?. Mal darüber nachgedacht? Und bei Nvidias Kommunikationspolitik...
Sprich es wird niemals eine Antwort geben. Genauso wenig wie für AC auf Maxwell... etc.



r4yn3 schrieb:
Da bekommt man mal mit einer AMD CPU eine sagenhafte Performance in einer gewissen Konfiguration.
Nicht zum ersten mal, deshalb juckts vermutlich niemanden mehr.
 
Zuletzt bearbeitet:
Bestimmt gutes Spiel kein Zweifel aber was ich eine Frechheit finde ist der Preis von 70€ für die PC Version :freak: Naja dann wird wohl zuerst Mafia 3 gezockt was die Hälfte kostet.
 
Mafia 3 mit 30 fps Lock, Matschtexturen und Streamingproblemen :D
Naja, nächste Woche kommt ja noch die Rise of the Tomb Raider 20 Year Celebration, vielleicht taugt die was...
 
Hier im Test ein Benchmark bezüglich Kernskalierung: http://wccftech.com/gears-war-4-performance-review/
Core.Thread.Test_-840x390.jpg
 
Tomb Raider gibts doch schon lange für PC und läuft soweit 1a, auch wenn ich den Vram verbrauch übertrieben finde.
Sehr hoch reichen noch 4gb und ab ultra sprengt das ding 6-8Gb bei kaum unterschied soweit ich weiß an den richtigen stellen
 
ssj3rd schrieb:
Warum sollte man auch in einer anderen Auflösung spielen als die native des Monitors ?

Verstehe den Satz nicht wirklich im Fazit ?

Schonmal von Downsampling gehört?
 
Wo sind jetzt die ganzen Fanboys, welche eine alte Generation gekauft haben (980 Ti), um gerademal 100€ bei so einem Betrag zu sparen. Jetzt haben sie den Salat, die Leistung ist 38% hinter einer 1080, was in etwa immernoch 15% hinter einer 1070 sein dürfte - bei doppeltem Stromverbrauch.

Und auch wenn GoW gut optimiert ist, in diesem Leben kaufe ich kein UWP Spiel mehr.
 
r4yn3 schrieb:
Natürlich ist es unbegreiflich. Oder kannst du es erklären? Also wirklich erklären, nicht einfach nur raten.


Evtl. sollten wir mal in Betracht ziehen dass es außer der reinen "Geschwindigkeit" auch noch andere Unterschiede zwischen Intel und AMD Prozessoren gibt.
Vielleicht sind da ja welche dabei, welche den unter DX12 bisherigen "Nachteil" den AMD GPUs/CPUs in DX11 haben negieren.

Z.B. Unterschiede in der Art der Befehlsweiterleitung/Verarbeitung.

Vielleicht ist DX12 in der Lage die "modulbauweise" irgendwie besser zu nutzen - oder sowas.
Oder man kann mit DX12 einfach "mehr Tasks" oder "queues" oder sowas generieren was den AMD GPU/CPUs einfach liegt während man unter DX11 einfach am "Task-Mangel" verhungert ist (Stichwort "CPU-Overhead").
Siehe auch: http://ext3h.makegames.de/DX12_Compute.html
Dann wäre das gar kein Overhead des Treiber gewesen sondern eher ein Architektur-"Problem" (unter DX11).

Ich würde mich freuen wenn die Hardwareseiten das mal ein wenig mehr untersuchen würden. Diese signifikanten Unterschiede zwischen den CPUs zeigen sich mittlerweile immer öfter bei DX11/DX12 parallel tests.
Allein an der "besseren" CPU-Auslastung kann das doch nicht liegen. Zumal man CPU-Auslastung doch messen können müsste ?
 
Zuletzt bearbeitet:
Oh, noch gar nicht gesehen das eine neue Version raus ist. Deinstalliert ihr auch immer die alten Treiber mit DDU oder kann mein einfach die neuen drüber bügeln?
 
Zuletzt bearbeitet von einem Moderator:
Schön, wenn das bei zukünftigen Spielen auch so ausschaut. Dann kann mein FX-8350 und Fury in WQHD noch ne Weile laufen. Merkwürdig nur die krassen Qualitätsunterschiede zwischen den einzelnen UWP-Titeln.
 
wenn ich folgende tabelle sehe, dann geht mir mal wieder das messer in der tasche auf:
unbenannt-15op39.png

muss das sein? auf dem ersten blick mal wieder alle gleich schnell. maßstab? scheissegal!
das zieht ihr verdammt oft ab. bei grafikkarten tests etc.

für was diese irreführenden grafiken, wenn man eh alles selbst nochmal nachrechnen muss damit man einen sinnvollen vergleich hat!? :grr:
 
yaegi schrieb:
für was diese irreführenden grafiken, wenn man eh alles selbst nochmal nachrechnen muss damit man einen sinnvollen vergleich hat!? :grr:

wie wäre es wenn du ne Seite weiterblätterst.....?
 
Die Grafik ist nicht irreführend. Nimmt man den höchsten Wert und skaliert alles daran, wirken Performancegewinne durch async compute bei den kleineren Karten geringer als sie sind.
 
@Test

Klingt ja mal direkt positiv für ein UWP Spiel ! :) Das "anomale" Verhalten mit der AMD Cpu ist aber in der Tat sehr interessant und wäre cool wenn man da mal nachhaken könnte woran das möglicherweise liegt.

muss das sein? auf dem ersten blick mal wieder alle gleich schnell. maßstab? scheissegal!

In der Tabelle sind die tatsächlichen FPS auch wirklich "scheißegal", denn es ging einzig und alleine um den Gewinn jeder einzelnen Karte mit und ohne zugeschaltenem Async Compute und da ist es nunmal deutlich sinnvoller eine einheitliche 100% Linie zu nutzen um den Gewinn oder Verlust grafisch darzustellen.
 
In der Tabelle sind die tatsächlichen FPS auch wirklich "scheißegal", denn es ging einzig und alleine um den Gewinn jeder einzelnen Karte mit und ohne zugeschaltenem Async Compute und da ist es nunmal deutlich sinnvoller eine einheitliche 100% Linie zu nutzen um den Gewinn oder Verlust grafisch darzustellen.

Dann wäre es eigentlich am einfachsten DIREKT nur die Gewinne/Verluste relativ zu 100% darzustellen...

Also Fury X +7%
RX480 +9%
usw.
 
Zuletzt bearbeitet:
StefVR schrieb:
Völlig verständlich dass sich hier Leute wundern, dass die vermutlich meist verkaufte aktuelle Grafikkarte nicht im Benchmark auftaucht... Selbst wenn CB die nicht umsonst bekommt, könnte man ja mal eine für Testzwecke kaufen so ganz oldschool...

Mein Gott...heul doch mal kräftig. Kleiner Tipp....die "vermutlich aktuell meisterverkaufte Grafikkarte" (lol) liegt zwischen der 1080 und der 1060. Stell dir vor....

Dass der Artikel mit den gewählten Karten einen optimalen Überblick gibt (den Rest kann man gut ableiten) ist dir wohl entgangen, weil dein süßes Baby nicht dabei ist.

Leute gibts!?
 
Zumal ich mal ganz stark bezweifel dass eine 1070 auch nur im Ansatz die meistverkaufte Graka aktuell ist :p Der Großteil kauft keine 400+€ Grakas sondern gibt vielleicht die Hälfte aus oder sogar weniger.
 
Zurück
Oben