Test 3DMark API Overhead: DirectX 12 im Test vor Mantle und AMD vor Nvidia

@Deadal:
Das diese Games überhaupt schlecht optimiert sind, ist doch keine Frage.
Ich selbst habe doch den Unterschied gemerkt als ich von meine Phenom 955 auf den 4770K gewechselt habe.
Das war eine extreme Steigerung.
 
Zehkul schrieb:
Nein, wird man nicht. Siehe mein Post weiter oben. Entwickler produzieren Spiele, die auch gespielt können werden sollen. Dinge, die heute absolut suboptimal laufen, werden einfach nicht in Spiele eingebaut. Wäre Unfug. Alte Spiele werden nicht 500% schneller laufen, sehr wohl aber wirst du in zukünftigen Spielen Dinge sehen, die es auf heutiger Hard- und Software 500% langsamer laufen lassen würden.

So pauschal kann man das nicht sagen. Als Entwickler muss man erst mal schauen was gibt es an HW da draußen. Der Großteil der PC User hat kein Sandy i5 oder i7 sondern eine ältere CPU und nicht in der Leistungsklasse. Es bringt nun also nichts nur "Crysis Spiele" zu machen wenn diese nicht spielbar sind werden sie einfach nicht gekauft. Würde heute jeder ein i7 haben wäre das alles kein Problem und man könnte auch besser optimieren aber so wie es halt aktuell ist geht es nur verdammt schwer.
 
Es können auch schlicht optionale Features sein. Und so läuft das bei Grafikkarten schon ewig, warum nicht auch bei CPUs?

Crysis ist eine Ausnahme insofern, dass es seiner Zeit tatsächlich ein bisschen voraus war. Die meisten anderen Spiele sind eher daran interessiert, auf maximalen Einstellungen gerade so noch spielbar zu sein auf der aktuellsten und teuersten Hardware – nicht auf zukünftiger. Niemand baut Features ein, die erst Jahre später nützlich werden, aber wenn irgendwo gratis Rechenkraft brach herumliegt bei einer signifikanten Menge an Usern, dann wird die auch genutzt. Zumindest von AAA Titeln. :)
 
So ist es noch deutlicher ausgedrückt
Alte Spiele werden nicht 500% schneller laufen, sehr wohl aber wirst du in zukünftigen Spielen Dinge sehen, die es auf heutiger Hard- und Software 500% langsamer laufen lassen würden.
 
DirectX12 ist unwichtig. Ich warte auf Vulcan. Ohne Altlasten wird es der Konkurrenz in nichts dastehen.
 
Mr_Tee schrieb:
DirectX12 ist unwichtig. Ich warte auf Vulcan.

Um es mal wie in den "Kolonien" sagen. Das hoffen wir alle.

Das wird aber davon abhängen wie schnell es gute Tools und Dokus und Guides geben wird.
 
Mehr Threads/Kerne bringen also schnellere und größere Lieferung an Daten an die GPUs? Wenn man die DX11 zu DX12 Daten vergleicht, wirkt es aber bereits so, als wäre die kleine i3 CPU bereits ausreichend um mehr Daten zu liefern als jemals nötig(im Direktvergleich mit DX11).

Das heißt, die CPUs werden sich in Zukunft wieder um wichtigere Dinge wie zB. ausgeklügelte KI und eventuell Physik kümmern können, während Grafikkarten machen was sie sollen: Hammer Grafik auf den Bildschirm zaubern? :)
 
Zehkul schrieb:
Dass die 290X, die vorher deutlich langsamer war als eine 980, hier nun schneller ist, blendet deine grüne Sicht aus? :D

Das ist ja gerade der Witz an der Sache: Für AMD ist es sogar besser, wenn auch andere Hersteller Mantle oder vergleichbares haben, weil so mehr Spiele darauf setzen und AMD immer schneller ist. AMD wird mit den kommenden Karten mit Nvidia den Boden aufwischen. Und hoffentlich hat AMD dann auch ein bisschen mehr Geld für Linuxtreiber übrig. (Vulkan pls)

Die 290X ist nicht schneller als die 980 !!!!
Sie kann lediglich besser mit Drawcalls umgehen, weil der Speicher mit einem 512Bit interface angebunden ist.
Bei der 980 sind es dagegen nur 256Bit!
Das bedeutet aber nicht, dass die 290x in der Realität auch mehr FPS liefert, da in dem API Test keine grafischen Berechnungen durchgeführt wurden!
Du kannst also zu 100% davon ausgehen, dass die Titan X immer noch wesentlich schneller sein wird.

Cool Master schrieb:
Na schau dir mal Super-Computer an wie die das machen... Die haben zum Teil nur 2 GHz CPUs aber dafür halt Tausende von Kernen.
Auf Supercomputern laufen auch keine Spiele :freak:
Sie dienen z.B. zur Wettersimulation, Simulationen von Kernwaffentests oder Berechnungen der Faltungen von Proteinen (siehe F@H).
 
Zuletzt bearbeitet von einem Moderator:
Ja und daran sieht man mal wieder, dass das schwächste Kettenglied die Geschwindigkeit bestimmt, indem Fall die Software und man sieht mal wieder wie grottig die meiste Software ist.
Keiner verlangt das 8 Kerne/Threads zu 100% ausgelastet werden. Aber wir haben nicht erst seit gestern Quadcores, und selbst da werden oft nur 2 genutzt...
 
owned139 schrieb:
Das bedeutet aber nicht, dass die 290x in der Realität auch mehr FPS liefert, da in dem API Test keine grafischen Berechnungen durchgeführt wurden!

Vielleicht siehst du dir den Test zumindest ein einziges mal an und erkennst dass es durchaus grafische Berechnung benötigt um ein Bild in 30 FPS zu rendern und dabei die maximalen darstellbaren Objekte zu messen.
 
muss ja irgendwas mit grafik sein.

wird ja aufgelistet:

Mantle draw calls per frame
344064.0
DX11 Multi-threaded final fps
29.39 fps
DX11 Single-threaded final fps
44.95 fps
Mantle final fps
29.05 fps
 
Daedal schrieb:
Vielleicht siehst du dir den Test zumindest ein einziges mal an und erkennst dass es durchaus grafische Berechnung benötigt um ein Bild in 30 FPS zu rendern und dabei die maximalen darstellbaren Objekte zu messen.

Denk mal nach bevor du postest...
Natürlich muss eine Grafikkarte Berechnungen durchführen, um ein Bild zu Rendern.
Ich meinte aber, dass dort nur Objekte in den Grafikspeicher geladen und angezeigt werden und zwar soviele bis man ans Drawcall-Limit kommt!
Es werden kaum oder gar keine Shader benutzt, keine grafischen Effekte wie Smokes oder Flüssigkeiten etc.
Der Test ist nicht aussagekräftig, was GPU Performance anbelangt!

Steht aber auch so in der News:
Die Grafikkarte muss die von der CPU berechneten Drawcalls zwar am Ende umsetzen, wird durch die Einfachheit der gezeichneten Objekte aber so weit wie möglich entlastet.
 
interessant ist auch das

Like AMD, NVIDIA seems to be command processor limited here. GPU-Z reports 100% GPU usage in the DX12 test, indicating that by NVIDIA’s internal metrics the card is working as hard as it can. Meanwhile though not charted, I also tested a GTX Titan X here, which achieved virtually the exact same results as the GTX 980. In lieu of more evidence to support being CPU bound, I have to assume that the GM200 GPU uses a similar command processor as the GM204 based GTX 980, leading to a similar bottleneck. Which would make some sense, as the GM200 is by all practical measurements a supersized version of GM204.

http://www.anandtech.com/show/9112/exploring-dx12-3dmark-api-overhead-feature-test/3

demnach hängen die Werte nicht wirklich von der GPU Leistung ab, sondern vom "command processor".

Mit den FPS hat das wenig zu tun.

Er zeigt, dass hier in Hardware und nur ein spezieller Teil limitiert, nicht die API oder CPU oder das was für Gaming Leistung verantwortlich wäre.
 
Zuletzt bearbeitet:
owned139 schrieb:
Auf Supercomputern laufen auch keine Spiele :freak:
Sie dienen z.B. zur Wettersimulation, Simulationen von Kernwaffentests oder Berechnungen der Faltungen von Proteinen (siehe F@H).

Und was Ändert das an meiner Aussage vor allem im Bezug auf das Zitat von SavageSkull? Da war nciht mal der Hauch von Spiel dabei...
 
Wollte DX12 ebenfalls mal testen - irgendwie pustekuchen - brauche support!

HW:
einmal i7 3770 + GTX 970 + B75 Board + Win10 (Build ka grad - müsste aktuell sein)
und
einmal i5 4690k + GTX 970 + Z87 Board + Win10
Beide mit dem aktuellen Win8.1 Treibern(347.xx) UND dem Win10 Treiber(349.90) getestet.
Der 349.90 wurde "neuinstalliert" (haken bei neuinstallation)

DX12 funktionierte nicht - Fehler C0 bzw "not supported", aber eigentlich müsste es doch gehen ?!?

Des weiteren mal ne Frage: Kann es sein das Games (BF4) und Benchmarks (FireStrike bei 3D Mark) etwas langsamer sind als unter Win7/8 ?
Zumindestens der Benchmark ist ~ 100-300 Pkt geringer als er sein müsste. (edit: war auf ~10250-10350 stark wechselnd)

Edit:
Fehler meinerseits: eben wurde erst auf 10.0.10041 geupdated. Der Benchmark geht.
http://cruseman.de/temp/dx12.gif

FireStrike auch höher: 10567 (relativ stabil, nach mehreren durchläufen)
 
Zuletzt bearbeitet:
Das wäre bestimmt gut für den Microsoft Flight Simulator X.
Das Aufpoppen der autogenen Scenery ist echt nervig. :freak:
 
Ich wollte das auch mal mit meiner Nvidia 780 GTX testen, habe also Windows 10 auf eine Partition installiert, alles wunderbar, Grafiktreiber den letzten für Windows 8.1

Nun zeigt mir 3DMark aber an, das die DX12 API aber nicht unterstützt sei? Liegt es daran, dass ich den Treiber installiert habe, und nicht den von Windows belassen habe?

In DXDiag wird mir jedoch DX12 angezeigt.
 
Könnte es sein, dass deine Grafikkarte einfach nicht dazu in der Lage ist? Na? Naaaaa? Naaaaaaaaaaaaaaaa?
 
Towatai schrieb:
Könnte es sein, dass deine Grafikkarte einfach nicht dazu in der Lage ist? Na? Naaaaa? Naaaaaaaaaaaaaaaa?

Natürlich ist sie dazu in der Lage. Wenn die Karte DX11 kann, kann sie auch DX12.

Habe das Problem lösen können. Es lag an dem Treiber. Ich musste den von Windows 10 nehmen, den er über Windows Update herunter lädt. Version 349.62.

Danach funktionierte der Test einwandfrei.
 
Zurück
Oben