Test Ashes of the Singularity: DirectX-12-Benchmarks mit Grafikkarten von AMD und Nvidia

Ich bin schon gespannt, wenn es sich als Tatsache entpuppen sollte, wie nvidia Marketingtechnisch es als Feature verkaufen will... Und wie die üblichen Verdächtigen hier im Forum auch zu beschönigen.

Aber nvidia hat ja kein Problem seine Kunden zu verarschen und einige Kunden von nvidia damit auch nicht :lol:
 
Mich täte interessieren wie Oxide-Games das Vorhandensein von Asyncronous Shaders abfragt. Ich habe eben mal die DX 12 Reference mir angeschaut( https://msdn.microsoft.com/en-us/library/windows/desktop/dn770363(v=vs.85).aspx)
, da sehe ich so spontan gerade keine Möglichkeit dieses Feature abzufragen; kann mich aber auch irren.

P.S. bester Variablenname den ich bislang in einer API gesehen habe: VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation
 
Die Leistung der Nvidia Karten war mit aktiviertem "nutze Async-Shader"-path langsamer als mit deaktiviertem path.
Zumindest habe ich das so aus den ersten beiden Kommentaren des Entwicklers bei overclock.net herausgelesen.
Die Aussage "Nvidia hat keine Async Shader" ist falsch.

AMD_Robert
Oxide effectively summarized my thoughts on the matter. NVIDIA claims "full support" for DX12, but conveniently ignores that Maxwell is utterly incapable of performing asynchronous compute without heavy reliance on slow context switching.

GCN has supported async shading since its inception, and it did so because we hoped and expected that gaming would lean into these workloads heavily. Mantle, Vulkan and DX12 all do. The consoles do (with gusto). PC games are chock full of compute-driven effects.

If memory serves, GCN has higher FLOPS/mm2 than any other architecture, and GCN is once again showing its prowess when utilized with common-sense workloads that are appropriate for the design of the architecture.

Nur eine Aussage von AMD, eine von Nvidia haben wir bisher ja nicht.

Das von AMD_Robert beschriebene "Problem" der Async Shader bei Maxwell könnte der Grund sein weshalb die Nutzung der Async Shader eher von Nachteil ist. Zumindest bei dem Benchmark.
 
Zuletzt bearbeitet:
Erwarten wir von nVidia noch Aussagen die über "das muss so, das soll so" und "ihr versteht das oder benutzt es nur nicht richtig" hinaus gehen? Ich meine jemand der nicht erst gestern aus der Stasis-Kammer gekommen ist...
 
Nein das war alles nur ein kleines Missverständnis zwischen Marketing und R&D. Eigentlich ist es ja toll dass sie async shader nicht können. Also alle Maxwell User pünktlich zu Pascal auf die Titan XL upgraden für schlappe 1,5 k €. Dann passt wieder alles. Und wer nicht jedes Jahr die neuste Graka Gen kauft ist eh kein Gamer...
 
Nai schrieb:
Mich täte interessieren wie Oxide-Games das Vorhandensein von Asyncronous Shaders abfragt.

Nvidias Treiber gibt die Unterstützung an bzw. zeigt es an das es unterstützt wird.
Allerdings hat Nvidia dadurch ein Negative Scaling.
Daraufhin wollte Nvidia das es deaktiviert wird, generell.
Oxide hat es aber so gemacht, dass es anhand der Hardware ID entsprechend deaktiviert wird bzw. wenn Nvidia erkannt wird. Aber weiterhin auf AMD läuft, da es dort keine Probleme gibt.

Naja darüber war NV eben nicht Amüsiert.
Rest kennt man ja.
 
Zuletzt bearbeitet:
Vaporizer schrieb:
Nein das war alles nur ein kleines Missverständnis zwischen Marketing und R&D. Eigentlich ist es ja toll dass sie async shader nicht können. Also alle Maxwell User pünktlich zu Pascal auf die Titan XL upgraden für schlappe 1,5 k €. Dann passt wieder alles. Und wer nicht jedes Jahr die neuste Graka Gen kauft ist eh kein Gamer...

genau! erinnert mich an das erst kürzlich entstandene "missverständnis" bzgl. der 3,5GB der mit 4GB beworbenen GTX 970. Die sollten sich mal besser firmenintern absprechen ;)

bin ich froh, dass ich diese maxwell generation übersprungen habe. hoffentlich findet nvidia mit pascal wieder etwas mehr zur ehrlichkeit.

wir gamer wollen doch einfach nur eine bezahlbare (möglichst unter 400€) brot und butter-karte wie damals die GTX 770.

bringt eine GTX 1070 raus mit 6GB und auf dem leistungsniveau der GTX 980. dann sind alle zufrieden.
 
Titan X @1400mhz

355.60 Drivers
Normal - 72.2 FPS
Medium - 59.5 FPS
Heavy - 49.6 FPS

355.82 Drivers
Normal - 81.1 FPS
Medium - 70.7 FPS
Heavy - 59.6 FPS
____
+12% - normal
+16% - medium
+20% - heavy

980Ti OC jemand?
 
Muss ich dafuer zwingend 44.99$ bezahlen? Wuerde das gerne mal testen.
 
Cat Toaster schrieb:
Zonk -> http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Maxwell-Asynchronous-Compute-1170078/

nVidia versucht das wohl auf der CPU emulieren via Software, eben um sagen zu können "Wir unterstützen das Feature". Dass das irgendwie bedeutet das man es auf der GPU können sollte...naja...schwamm drüber.
Wenn diese Beobachtung und die Schlussfolgerung richtig sind...
ROFL-tastisch!

AMD lässt sich Mantle einfallen um den CPU Overhead zu minimieren.
Microsoft könnte sich dadurch bemüht fühlen, oder hat selbstständig vorher ebenfalls daran gearbeitet den CPU Overhead zu minimieren, und bringt nun DX12 auf den Markt.
Mantle wird als Vulcan weitergeführt und bleibt dabei den CPU Overhead zu minimieren.

Und was macht Nvidia?
Die konterkarieren diese Bemühungen indem sie dieses Feature, welches eigentlich das Argument für die neuen APIs ist, mal eben so aushebeln und erschummeln sich dabei noch den DX12 Aufkleber auf der Verpackung.

Das würde die abgezogene Nummer zur GTX970 gerade zu verblassen lassen und gibt meinen Worten, die ich damals hier gepostet habe, als Nvidia erstmalig verlautbaren ließ, dass Maxwell DX12 Unterstützt, dass ich dieser Aussage erst Glauben schenken werde, wenn das von praktisch allen anderen bestätigt wird.


Ich muss gestehen, ich hoffe wirklich, dass diese Beobachtung und Schlussfolgerung den Tatsachen entsprechen.
Denn ich freue mich jetzt schon auf die Versuche der extremistischen grünen Fanbase, auch diesen Produktschwindel, denn es wäre wieder mal nichts anderes, in positive Argumente zu verkleiden.
 
ach kisser ... wieder mal voll pro Nvidia ohne Quellen zu nenen ... wenn du kein Quellen nennst, geh bitte wo anders spielen. Da drüben z.B. auf der Autobahn
----

zum emulieren: Ja das ist Nvidia zuzutrauen genau wie PhysX bei der Konkurzenz nur alte und langsame / ineffizente Biblioteken zu verwenden und das nur per CPU zuzulassen.
 
Zurück
Oben