Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

kisser schrieb:
Dann beantworte doch mal folgende Frage:

Woher soll ich das wissen? Bin ich Hardwareentwickler? Entscheide ich über das implementierte Feature-Set? Das hat auch nichts mit dem Thema zu tun.
Fakt ist, dass die aktuellen Nvidia-Chips mit Adaptive Sync umgehen können und um das ging es.
Oder wie siehst du das?
 
rg88 schrieb:
Und weiter? Der Adaptive Sync VESA-Standard ist der selbe, die Chips auch.
Da ist aber auch die Schnittstelle DP wichtig & entscheidend und für den Deslktop kann AdaptivSync/Freesync erst ab 1.2a ermöglicht werden.
NV wollte mMn nicht mehr warten & hat daher diese Synctechnik bereits Ende 2013 per Modul ermöglicht und in der Breite 2014 veröffentlicht. Da gab es noch kein DP 1.2a, aber das ist für gewisse Verschwörungstheorien natürlich mal wieder ein gefundenes Fressen.
Mal schauen, wie es mit DP 1.3 aussehen wird ...;)
 
kisser schrieb:
Dann beantworte doch mal folgende Frage:

Wieso hat es so lange gedauert, Adaptive Sync fähige Monitore zu entwickeln, wenn Adaptive Sync schon seit 2009 in eDP spezifiziert ist?
Das ist doch recht simpel. Man musste erstmal die Idee haben diese Technik dafür zu verwenden, dann musste das durch die VESA Mitglieder verifiziert werden und mit Bürokratie in den Standard aufgenommen werden.

Dazu mussten die Scaler für Desktopgeräte produziert und Firmwares für die Monitore programmiert werden.

Bei nvidia kam ja auch nicht sofort nach dem Adaptive Sync Standard ein entsprechendes Notebook raus, sondern das dauerte seine Zeit.
 
Mich würde ganz stark interessieren, wie es bei den Prozessoren und DX12 aussieht, wenn man nicht ins GPU-Limit kommt. Alle sprechen davon, dass zum Beispiel ein i7 in Spielen durch DX12 profitieren wird und deshalb "zukunftssicherer wäre, aber der Test zeigt ja etwas anderes. Trotzdem argumentieren viele immer noch, dass Hyperthreading immer mehr Vorteile bringen wird.
Was sagt ihr dazu?
 
naja ... wenn ein Game ganz unabh. von DX12 8 Threads auslastet ist HT natürlich von Vorteil. Mit DX12 kommt halt tendenziell eine schwächere CPU ganz gut zurecht, aber die Last auf der CPU bei modernen Titeln kommt ja nicht nur durch die DX11 API, im Gegenteil, der Großteil wird schlicht vom Spiel selbst verursacht werden.

In vielen aktuellen Titeln setzen sich 6 Kerne schon etwas von 4 ab, in diesen Fällen bringt auch HT etwas - aber viel mehr als 20% dürften das nicht sein. Daran ändert auch DX12 nichts.

In den Fällen in denen ein Kern ans Limit geht bzw die Unterschiede stark IPC abhängig sind sieht man vermutlich eher ein API Limit, dann bringt DX12 am meisten. Gerade auch was Min Frames angeht dürfe DX12 die CPU entlasten.
 
Krautmaster schrieb:
naja ... wenn ein Game ganz unabh. von DX12 8 Threads auslastet ist HT natürlich von Vorteil. Mit DX12 kommt halt tendenziell eine schwächere CPU ganz gut zurecht, aber die Last auf der CPU bei modernen Titeln kommt ja nicht nur durch die DX11 API, im Gegenteil, der Großteil wird schlicht vom Spiel selbst verursacht werden.

DX11 ist auf 2 Threads beschränkt - egal wie du daran rum spielst. Wenn ein Spiel nun eigene Threads erstellt, um beispielsweise extern noch KI berechnen zu lassen, dann hat das nix mit DX oder GPU Computing zu tun, sondern ist immer ein rein rechnerischer Task.
Und es gibt nur 2, 3 Titel die ich kenne, die das machen. I.d.R. werden 4+ Cores als Requirement angegeben, damit Spiel-Auslastung sich nicht mit Windows Scheduler/AV Tools etc. überschneidet.

mfg,
Max
 
McLovin14 schrieb:
Mich würde ganz stark interessieren, wie es bei den Prozessoren und DX12 aussieht, wenn man nicht ins GPU-Limit kommt. Alle sprechen davon, dass zum Beispiel ein i7 in Spielen durch DX12 profitieren wird und deshalb "zukunftssicherer wäre, aber der Test zeigt ja etwas anderes. Trotzdem argumentieren viele immer noch, dass Hyperthreading immer mehr Vorteile bringen wird.
Was sagt ihr dazu?

Interessant wird es sein, wie Vulkan damit umgeht denn wie Mantle schon gezeigt hat, ist diese API nicht wie DX 12 auf max. acht Threads beschränkt. ;)

Viele Grüße,
stolpi
 
Hat irgendwer Erfahrung in Sachen AMD GPUs unter DX12 und ZeroCore für die zweite GPU?
Wird das für die zweite GPU ausgelöst wenn da kein Display angeschlossen ist und diese nicht zum rändern zugeteilt wurde?
 
Zuletzt bearbeitet von einem Moderator:
Erst einmal Danke an AMD, dass Sie mit Mantle Geld und Zeit in die Hände genommen haben, um DX12 voranzubringen! Auch wenn das in Ihrem eigenen Interesse war (Zielharmonie). Jetzt gebt mir mehr DX12 Games mit Async Compute!
 
Weiss schon jemand wie es mit der Implementierung von iGPUs aussieht?
Es wäre schon interessant zu wissen mit welchem Aufwand auf Software-ebene das stattfinden würde also ob es sich in der breiten Masse der spiele etablieren wird.

Schließlich würde niemand nein sagen zu zusätzlichen 3-4 fps; vor allem in der Leistungsklasse einer GTX 960 oder R9 380 würde man das als Gamer sicher sehr begrüßen.

Einziges mir bekannte Gegenargument wären die unbrauchbaren Intel Treiber...

Edit. Außerdem gäbe es rein theoretisch die Möglichkeit bis zu vier GPUs (sowie auch wieder Kombinationsmöglichkeiten multiGPUs + iGPU) anzuschließen.

Falls ein Studio mehrere Spiele auf Basis einer Engine erstellt, ließen sich multi-GPU sicherlich auch über nehmen. Evtl könnten ja sogar einige Studios diesbezüglich Quelltext lizenzieren...?
 
Zuletzt bearbeitet:
Die Einbindung einer iGPU zusätzlich zur dedizierten als MultiGPU-Verbund war so ziemlich das allererste was ich von Ashes überhaupt gesehen habe, noch bevor ich wusste was es überhaupt für ein Spiel ist. Aber glaube mal nicht das ich das Video heute wiederfinde. Das ist stellvertretend für die gesamte MGPU-Implementierung, ob eben zwei gleiche, verschiedene oder gar eine zusätzliche iGPU ist dann erstmal egal wenn sie es wie hier von grundauf darauf anlegen.

Da Stardock und Oxide die Engine neu für ein RTS geschrieben haben ist erstmal fraglich ob sie die Pionierarbeit überhaupt an jemanden lizenzieren wollen und ob ein anderer damit etwas damit anfangen könnte. Das RTS-Genre ist ja sehr speziell und es ist ja offenkundig das die Mehrheit der Betrachter des Themas nicht wirklich begreift was für ein Rechenaufwand dahinter steckt tausende Einheiten gleichzeitig zu bewegen die sich mit zehntausenden individuellen Lichtquellen in Echtzeit beharken. Da wird dann lieber an der Bodentextur genöselt. Hauptsache die Lara im Schlauchlevel hat die Haare schön. DAS begeistert die Massen. Ich weiß noch zu gut an welchen technischen Hürden Supreme-Commander in der 32-Bit-Ära zu knabbern hatte und das lag nun auch nicht an der unmittelbaren visuellen Schönheit. Daher werden andere Titel (0815-Shooter) mit einer luschigen "Me-Too" DX12-Implementierung nicht eine derartige Leistungssteigerung wie ein Ashes zeigen weil das trotz DX12- und Mehrkernoptimierung und AC immer noch gewaltig CPU-Limitiert ist wobei sich das Szenario gleichzeitig so perfekt für Parallelisierung eignet wie kaum ein anderes. Auf andere Genres lässt sich das so nicht 1:1 übertragen.

Multi-GPU unter DX12 ist 100% Entwicklerarbeit. Ob sich die Arbeit einer im Triple-Ey-Immersive-Bullshit-Genre macht für unter 1% des Spielermarktes? Es wird sicher Nischen geben wo man das als Alleinstellungsmerkmal anbietet, doch alles andere muss sich zeigen.

Zudem sind vermutlich mehr Grafikfehler-/Probleme zu erwarten wenn man auf zwei bis drei "Game-Ready-Treiber" angewiesen ist als auf einen und ja, wenn Intel irgendwas nicht kann dann sind das Grafiktreiber wobei man hoffen kann, das die DX12-Entwicklung so nah an der Hardware ist, dass das eventuell gar keine große Rolle spielt.
 
Über die Verfügbarkeit und die Lizenzbestimmungen der Engine hat sich die Firma bislang nicht öffentlich geäußert.

Sowie die Nützlichkeit in jedem anderen Genre...
 
"Hauptsache Lara hat die Haare schön"

...ja so sind die Frauen ^^

Danke für deine Antwort, einleuchtende Ansicht die du da hast. Habe jedoch bisher nicht den Eindruck gehabt das man schon an einer CPU-Limitierung angekommen ist. Bei Strategiespielen Logo klar da geb ich dir recht. Aber fernab davon wird oft vermittelt dass vier threads zur not auch vom dual-core ausreichend sind...

Also ich bin jedenfalls gespannt was sich letztendlich alles gpu und igpu
kombinieren lassen wird.
Naja vielleicht heben sich die das die Tester ja für die finale Veröffentlichung auf.

Edit. @cat toaster
jetzt hab ichs kapiert sorry, bei multi-gpu rennt man natürlich automatisch ins cpu-limit. Denke da gerade an ein quad-sli Titan x Gespann von der microsoft/square enix DX 12 final fantasy Vorführung. Klar 4 titan x muss man erstmal mit ausreichend daten füttern können ...
 
Zuletzt bearbeitet:
Cat Toaster schrieb:
Sowie die Nützlichkeit in jedem anderen Genre...
Der Artikel ist eben aus dem Jahr 2013. 2014 wurde dies aber nochmal bekräftigt
http://www.planet3dnow.de/cms/7872-oxide-games-star-swarm-demo-nitrous-engine/

Es sollen 3 Spiele bereits in der Entwicklung sein.
Und die Nützlichkeit in anderen Genres? Für Ego Shooter ist diese vermutlich nichts, aber warum nicht zB MMORPGs?
Fakt ist das die Entwickler ihre Lizenzierungspläne mehrfach genannt haben. Du kannst dich ja gerne bemühen Gegenteiliges zu finden.
 
Ich will Dir da doch nichts an Bein pinkeln, wäre ja toll wenn da tatsächlich noch mehr auf der Basis kommt und auch toll wenn sie die Engine lizenzieren lassen. Lassen wir uns überraschen. Bleibt ja nichts anderes übrig.

toni77 schrieb:
Danke für deine Antwort, einleuchtende Ansicht die du da hast. Habe jedoch bisher nicht den Eindruck gehabt das man schon an einer CPU-Limitierung angekommen ist. Bei Strategiespielen Logo klar da geb ich dir recht. Aber fernab davon wird oft vermittelt dass vier threads zur not auch vom dual-core ausreichend sind...

Also ich bin jedenfalls gespannt was sich letztendlich alles gpu und igpu
kombinieren lassen wird.
Naja vielleicht heben sich die das die Tester ja für die finale Veröffentlichung auf.

Edit. @cat toaster
jetzt hab ichs kapiert sorry, bei multi-gpu rennt man natürlich automatisch ins cpu-limit. Denke da gerade an ein quad-sli Titan x Gespann von der microsoft/square enix DX 12 final fantasy Vorführung. Klar 4 titan x muss man erstmal mit ausreichend daten füttern können ...

Also mein alter 4930k@4GHz ist bereits mit einer einzelnen Nano heftigst CPU-Limit, anders kann ich mir jedenfalls nicht erklären wie eine Leistungssteigerung von 50 bis über 100% nur durch den API-Wechsel realisierbar ist, und GPU-Auslastung ohne AC niedriger ist.

Hier Werte in 3440x1440 auf "Extreme-Preset" mit einer einsamen Nano, Settings in denen ich tatsächlich auch spiele und nicht nur Benche, die ich mir zumindest anders nicht erklären kann:

DX11

Total AVG FPS -> 32
Sub Mark Heavy-Batch AVG FPS -> 20
Shot Satellite Shot AVG FPS -> 17

DX12

Total AVG FPS -> 48
Sub Mark Heavy-Batch AVG FPS -> 40
Shot Satellite Shot AVG FPS -> 38

DX12 AsyncComputeOff=1

Total AVG FPS -> 42
Sub Mark Heavy-Batch AVG FPS -> 36
Shot Satellite Shot AVG FPS -> 35

DX12: 20% GPU-Bound
DX 12 AC Off: 9% GPU-Bound

Wäre das GPU-Limitiert, sollte da doch Richtung 100% stehen bei "GPU-Bound", oder nicht? Vielleicht interpretiere ich das ja auch wirklich falsch. Die physikalischen Kerne sind tatsächlich auch sichtlich komplett im Stress, gelegentlich geht es mal in den HT-Bereich mit bis zu 67% Auslastung.
 
Zuletzt bearbeitet:
Servus nochmal cat toaster
Also erstens finde ich das man einen 4930k nicht wirklich alt bezeichnen kann auch wenn er nun nicht mehr ganz so neu ist...
Zweitens kannte ich die Bezeichnung "GPU bound" noch gar nicht. Es fällt mir ehrlich gesagt sehr schwer einen solchen CPU Limit Verdacht nach zu vollziehen bzw zu verstehen. Ich kann mir den Leistungszuwachs auch nicht wirklich erklären. Ich nutze übrigens msi afterburner mit hwinfo um derartiges zu prüfen. Oft bin ich da bei 30%+-5% CPU Auslastung für eine gtx 960 oc bei diversen shootern und selbst witcher3 hängt die meiste Zeit bei 60% rum glaube ich. Dann gibt es wiederum Spiele wie Total War die gänzlich unspielbar werden mit meinem 4370 bzw keinen Spaß mehr machen. Einen Balanceakt schafft bei mir lediglich Assassins Creed Syndicate wo sowohl CPU- als GPU-Auslastung bei jeweils nahezu 100% harmonisieren und somit die mir bekannte maximal mögliche Leistung unter DX11 ermöglichen (Auch auffällig bei meiner gemessenen Gesamtsystem-Leistungsaufnahme von ca 240 Watt, üblich sind da bei anderen Spielen eher ca 200 Watt Gesamtverbrauch).

Da ich aber wie gesagt nichts mit dem Begriff "GPU bound" an zu fangen weiß kann ich es nicht einschätzen wie es sich nun tatsächlich in deinem System verhält... ich gehe aber davon aus dass es nicht das ist wofür du es hältst

Edit. 100%-Auslastung bringt aber natürlich auch herllich wenig wenn das Spiel keinen Spaß macht und langweilt, mich zumindest. AC Unity war wesentlich besser auch wenn es hier und da von bugs und Leistungseinbrüchen geplagt war.

Intel hats natürlich trotzdem insgesamt so ziemlich versiebt mit ihren andauernden Verspätungen und ihrer Preispolitik, mal sehen... wenn amd bei zen alles richtig macht dürfte das Thema CPU Limit jedoch fürs erste gegessen sein
 
Zuletzt bearbeitet:
Ich gehe ganz stark davon aus das es ist wofür ich es halte, weil der Task-Manager es exakt so darstellt. Bis auf Nahaufnahmen rennt er permanent ins CPU-Limit. Das ist für das Genre auch nichts wirklich unübliches angesichts der Zahl an Einheiten und Projektile die zu wuppen sind. Das wird ja rausgezoomt in der hohen Auflösung nicht weniger.

Unter DX11 hängt es ja noch deutlicher an der CPU, weil die GPU überhaupt nicht mehr adequat befeuert wird. Das ist ja genau das was DX12 macht, die CPU aus der Gleichung dramatisch rauszunehmen weswegen die Benchmarks auf den AMD-CPUs ja nochmal bombastischer ausfallen in der prozentualen Steigerung. Eben weil der Titel so anspruchsvoll auf der CPU ist und AMD durch DX11 enorm limitiert.

60% CPU-Auslastung bedeuten ja HT-Bereinigt 120%, also sechs Kerne sind vollbeschäftigt und etwas darf das HT noch beitragen. Das schaffe ich sonst nur noch mit dem FSX an der Spielefront.

Hier zum Vergleich Messwerte vom untersten Hardware-Ende:

System

AMD 10-6700, AMD Radeon HD7790 2 GB, 16 GB RAM, Windows 10 x64, 1920x1080, Low-Preset, AMD Crimson 16.2.1

DX11

Total AVG FPS -> 22,5
Sub Mark Heavy-Batch AVG FPS -> 16,8
Shot Satellite Shot AVG FPS -> 13,6


DX12

Total AVG FPS -> 30,4
Sub Mark Heavy-Batch AVG FPS -> 28,6
Shot Satellite Shot AVG FPS -> 21,2
GPU-Bound -> 1,9%

Komplett CPU-Limitiert, ein Quality-Preset höher ("Normal") und DX12 reißt nur noch 3fps im Schnitt raus, unspielbar ist es dann ohnehin. In allen Fällen ist die CPU derart schwach, dass sie selbst eine betagte 7790 nicht mal mehr im Ansatz befeuern kann. Dennoch verwandelt DX12 diesen Titel mit dieser Hardware von unspielbar in geht so. Ähnlicher Effekt auf den Konsolen, würde sich niemand über gut 30% Mehrleistung durch Software beschweren.
 
Zuletzt bearbeitet:
Zurück
Oben