Test Ashes of the Singularity: DirectX-12-Benchmarks mit Grafikkarten von AMD und Nvidia

Vor allem wenn man bedenkt das das nur ein reines CPU-Limit und kein GPU-Limit ist. Ich kann mir vorstellen das man schneller im GPU-Limit hängen wird wenn man die Details hochstellt aufgrund der ganzen Effekte. Man sieht ja schön wie alles ganz weit runtergeschraubt wurde um minimale Last auf der GPU zu haben.
 
Zuletzt bearbeitet:
nospherato schrieb:
Stimmt, meine mich auch zu erinnern, dass bei Thief Mantle recht wenig gebracht hat bei der 7970/280x (obwohl diese ja nicht vom 2GB "bug" betroffen war, auf Grund der 3Gb).

Der "2 GB bug" lag/liegt aber an Windows, erst Windows 10 mit "WindowsDisplayDriverModel 2.0" bringt da deutliche Besserung. Die Grundlagen für DX12 sind erst mit dem WDDM2.0 und im speziellen mit dem "GPU virtual memory" Modell möglich. Davon profitiert auch Mantle.

Obwohl bei Mantle selbst, wegen DX12 und Vulkan, nicht mehr viel passiert läuft zb BF4 nun auch auf einer r9 270x (2gb) besser als unter DX11. Aber natürlich ist mehr VRAM besser und bietet mehr Möglichkeiten für mehr FPS oder eben ausgeglichenere Frame times oder oder oder.
 
Zuletzt bearbeitet:
janeeisklar schrieb:
Der "2 GB bug" lag/liegt aber an Windows, erst Windows 10 mit "WindowsDisplayDriverModel 2.0" bringt da deutliche Besserung. Die Grundlagen für DX12 sind erst mit dem WDDM2.0 und im speziellen mit dem "GPU virtual memory" Modell möglich. Davon profitiert auch Mantle.

Obwohl bei Mantle selbst, wegen DX12 und Vulkan, nicht mehr viel passiert läuft zb BF4 nun auch auf einer r9 270x (2gb) besser als unter DX11. Aber natürlich ist mehr VRAM besser und bietet mehr Möglichkeiten für mehr FPS oder eben ausgeglichenere Frame times oder oder oder.


Vor allen gibt es bei Mantle KEINE Leistungsbeschränkung und skaliert schön mit der Anzahl der zur Verfügung stehender Kerne und Threads.

Jetzt bleibt nur zu hoffen, daß Vulkan ähnlich arbeitet denn DX 12 ist wie gehabt DX-verarsche, zwar nicht mehr so extrem wie vorher/früher, aber auch hier wird der PC Nutzer wie gehabt an der Nase herumgeführt. :(



Viele Grüße,
stolpi
 
tic-tac-toe-x-o schrieb:
Die fahren doch schon länger zukunftsorientiert (was jedes mal in die Hose geht, nicht auf DX11 wert gelegt, Bulldozer, etc.).

Auf die Zukunftsorientierung von Bulldozer warte ich bis heute.
Timeline:
-12/2011:*froi* Bulldozer
-Bulldozer ist mäßig -> Forum: aaach die kommen mit Windows 8
-Windows 8 kommt raus, Bulldozer immer noch mäßig, Forum -> aaach die kommen mit einem verbesserten Scheduler, MS ist schuld
-Patch für Scheduler -> Bulldozer immer noch mäßig -> aaach die kommen mit optimierten Games
-DX12 kommt raus, eine der ersten Reaktionen hier im Forum: und mit Bulldozer? Bulldozer Test von anderer Seite -> Bulldozer immer noch mäßig.

Die ersten Benches kamen Ende 2011 Anfang 2012 raus, seit drei Jahren warten einige hier im Forum also immer noch frohen Mutes, dass man endlich die Zeit einholt, die Bulldozer seiner Zeit angeblich vorraus war. Ich persönlich habe da irgendwie schon nach den ersten Benches nicht dran geglaubt. Das ist eine tolle P/L CPU für Anwendungen, aber Games kann man nicht so einfach auf beliebig viele Cores verteilen, jedenfalls nicht so wie einige hier sich das vorgestellt haben. Dass das so ist, wusste AMD garantiert schon 2011, daher dann letztendlich auch die relativ moderaten Preise und die wahnsinnig getakteten 4xxxer, die letztlich nur Singlethread Performance liefern sollten. Ansonsten hätte AMD die 4xxxer wohl 300MHZ langsamer und dafür x Watt stromsparender als SparCPU gebracht...

Naja, schön dass sie mit DX12 wieder ein heißes Eisen im Feuer haben, hätten sie Mantle nicht gebracht würden wir da wohl immer noch drauf warten, von sich aus hätte sich MS da nicht groß gerührt.

Jm2c.
 
Habe eigentlich mehr erhofft aber schlimmeres befürchtet.
Hoffen wir mal das sich das so weiterzuentwickeln damit mal wieder nen Preiskampf im duopol zu sehen ist.
Das kommt dann allen entgegen...
 
Directx11 ist mit GTX 970 schneller als mit Direkt x 12.
Ich dachte, ich bekomme 30- 50% mehr Leistung mit DirectX 12 und Windows 10.

Wenn Directx 12 keine Vorteile bringt oder nur paar Fps, kan man weiter Windows 7 benutzen.

Mit Kaspersky Internet Security ist Windows 7 sicher genug.
 
Zuletzt bearbeitet:
Naddel_81 schrieb:
sehe ich das richtig, dass DX12 nicht die erhoffte revolution bringen wird in sachen performance und nvidia-gpus?

wäre echt schade!
Den großen Performance Sprung geht doch hauptsächlich aus der effektiveren Nutzung der CPU hervor.
Hängt ein Spiel im GPU Limit bleibt nicht mehr viel davon übrig, limitiert hingegen die CPU können die Unterschiede enorm ausfallen.

Damit ist auch klar das der Vorteil bei der gleichen CPU mit langsameren Grafikkarten schrumpft da sich CPU weniger zu tuen bekommt.
Ein netter Nebeneffekt dürfte aber sein dass Leistungseinbrüche bei CPU lastige Szenen deutlich geringer ausfallen. Es fühlt sich irgendwie runder an.
 
was für ein PR-hype, dem wir jetzt fast ein jahr aufgesessen sind!
Geduld ist eine Tugend, daher folglich mal abwarten. Noch pressiert nix ...^^
 
Wadenbeisser schrieb:
Den großen Performance Sprung geht doch hauptsächlich aus der effektiveren Nutzung der CPU hervor.
Hängt ein Spiel im GPU Limit bleibt nicht mehr viel davon übrig, limitiert hingegen die CPU können die Unterschiede enorm ausfallen.

Damit ist auch klar das der Vorteil bei der gleichen CPU mit langsameren Grafikkarten schrumpft da sich CPU weniger zu tuen bekommt.
Ein netter Nebeneffekt dürfte aber sein dass Leistungseinbrüche bei CPU lastige Szenen deutlich geringer ausfallen. Es fühlt sich irgendwie runder an.

ich hing die letzten drei jahre noch nie im CPU limit mit meinem 3570K @ 4,5 GHz. wird sich auch so schnell vermutlich nicht ändern, denn starcraft 2 spiele ich nicht. also ist DX2 für die meisten von uns mit einem prozessor, der nicht gerade 6 jahre alt ist für die katz!
:(
 
Naddel_81 schrieb:
ich hing die letzten drei jahre noch nie im CPU limit mit meinem 3570K @ 4,5 GHz. wird sich auch so schnell vermutlich nicht ändern, denn starcraft 2 spiele ich nicht. also ist DX2 für die meisten von uns mit einem prozessor, der nicht gerade 6 jahre alt ist für die katz!
:(

Meh. Wenn du einem Entwickler mehr von irgendwas erlaubst, benutzt er das auch, und sei es nur indem er weniger optimiert und dadurch Entwicklungszeit spart. Ich kenne einen Haufen Entwickler die zb Ramverbrauch nicht mehr groß optimieren wenn sie nicht ins Limit laufen. Ist ja da, also kann man ihn auch nutzen.
 
http://www.golem.de/news/benchmarks...technologische-singularitaet-1508-115783.html

Guter Artikel

Ziemlich einseitige Techdemo Sache ähnlich wie Swarm, was bei richtigten Titeln bei rumkommt steht auf ganz anderem Papier. Zeigt dasselbe wie die Mantel Demo Swarm, wen wunderts bei selber Engine als Basis... Dass Nvidia gute Dx11 Arbeit gemacht hat ( vermutlich auch deswegen zumeist als runder empfunden wird) und dass AMD mit DX 12 das CPU Limit hinter sich lassen kann. Ich denke nur dass die Engines da noch lange brauchen bis sie Dx12 auslasten. In den meisten Titeln dürfte DX12 zu DX11 quasi identisch sein solange man eine aktuelle CPU einsetzt. Vorteile bleiben natürlich dennoch in den vermutlich besserem Min Frames ... und neue Möglichkeiten. Das CPU Bound wäre bei künftigen 4x-10x schnelleren GPU gravierend, gerade bei AMD, da muss was neues her was Abhilfe schafft. Deswegen gabs Mantle und DX12 führt das fort. Eher eine Pflege statt Revolution.
 
Zuletzt bearbeitet:
Einseitig? Ach was:

Je mehr Render-Aufrufe pro Szene zu sehen sind, desto schlechter schneiden die AMD-Karten ab und desto mehr profitieren sie von der D3D12-Schnittstelle.

Bei Nvidias Geforce-Modellen hingegen zeigt sich, dass offenbar eine sehr gute Draw-Call-Optimierung unter D3D11 im Treiber steckt. Bei normaler oder mittlerer Render-Aufruf-Anzahl ist die ältere Grafikschnittstelle meist flotter, erst mit sehr vielen Draw-Calls generiert D3D12 eine höhere Bildrate.

Viele Draw-Calls sind Stand der Dinge und gewinnen an Wichtigkeit.

Fazit: NV bis DX11 akzeptabel, danach ja geht so...
 
Viele Draw-Calls sind Stand der Dinge und gewinnen an Wichtigkeit.
Viele Draw-Calls sind eben in den meisten Fällen gerade der falsche Weg. Ein Draw-Call hat immer einen Overhead, den man bei vielen Draw-Calls meist vermeiden kann. Selbst mit den neuen APIs wird das Limit nur etwas verschoben und nicht eliminiert.
 
Zuletzt bearbeitet:
Vieleicht weil die xbone, AMD CPU+GPU hat. Und MS bringt ja einige Games der xbox one auf den PC. Jetzt auch Recore.

Vieleicht kommt jetzt der Konsolen Deal zum tragen. Ich frage mich eh wie die kleine PS4 in ihrem mini gehäuse, so eine Grafik hinbekommt. (frag ich meist beim Drive club zocken). Ich dachte die PS4 wäre eine reine 720p Konsole als ich die Specs sah. Aber die AMD@PS4 GPU ist wohl doch besser als angenommen in einem geschlossenem System.
 
mambokurt schrieb:
Naja, schön dass sie mit DX12 wieder ein heißes Eisen im Feuer haben, hätten sie Mantle nicht gebracht würden wir da wohl immer noch drauf warten, von sich aus hätte sich MS da nicht groß gerührt. Jm2c.

Das wird zwar vermutet/kolportiert, aber Beweise dafür gibt es bis heute keine. Ebenso könnte man behaupten MS hätte DX12 entwickelt um die XBOne leistungstechnisch zu pushen (über Nacht ist DX12 sicherlich nicht als Reaktion auf Mantle entstanden), welches plausibel erscheint, wenn man die Aussage dieses Indie-Entwicklers berücksichtigt:

http://www.pcgameshardware.de/DirectX-12-Software-255525/News/DirectX-12-Performance-Xbox-One-1168416/

DX12 könnte sich also insbesondere für XBOne Besitzer auszahlen (inwieweit sich das wirklich in Verkaufszahlen zur mittlerweile enteilten PS4 widerspiegeln wird ist fraglich, aber die neue Spiele und API Offensive von MS ist relativ offensichtlich), natürlich auch für PC Spieler, denn die bekommen dann oft die Ports. Wenn sich das gut entwickelt, halte ich eine DX13 Entwicklung in nicht allzu ferner Zukunft gar nicht 'mal für so unwahrscheinlich für die kommende XBox/MS Konsolen-Generation, wobei Sony dann wohl Vulkan dagegen setzen dürfte ... es ist in jedem Fall für Spannung gesorgt, und dass vor 2017 DX12 keine Rolle spielen wird halte ich noch für ein Gerücht (auch wenn AMD dieses so verbreitet: http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Verbreitung-Hardware-Features-AMD-1166911/, wobei ich das für weniger geschickt von AMD halte nicht mit den (ersten erscheinenden) DX12 "Pfunden" zu wuchern, nVidia hätte sicherlich die optionalen Features beworben), spätestens bei der kommenden Grafikkarten-Generation im kommenden Jahr ist DX11 endgültig Geschichte (auch wenn es vereinzelt noch DX11 Entwicklungen geben wird, die auslaufen werden, denn wer richtet sich denn jetzt noch nach DX11 bei der Entwicklung ganz neuer Spiele), zumal die DX12 Vorteile erheblich sind für die Spieleentwickler und auf DX11 Niveau wird man mit DX12 unterstützten Spielen wohl nur schwerlich mithalten können, je mehr sich DX12 als Standard etabliert ... ich bin schon gespannt auf "Fable Legends" oder das neue "Deus Ex - Mankind Divided" und wie/ob sich ein großer Unterschied zwischen DX12 und DX11 wird erkennen lassen ...
 
Zuletzt bearbeitet:
Zurück
Oben