Bericht Deus Ex Benchmark: DirectX 12 legt in Mankind Divided massiv zu

Idon schrieb:
Das wird den Großteil der Spieler, die auf 1280x720 Zocken, natürlich sehr freuen. Offenbar ist das auch die Haupt-Zielgruppe für GTX 1060/RX 480.
Das war auch mein erster Gedanke.
Aber Computerbase freut sich halt jedes Mal ein Loch in den Bauch, wenn ein
Spiel mit DX12 API eine normalerweise schwächere 480 vor eine 1060 schiebt. ;)

DirectX 12 läuft in Deus Ex nun massiv besser als zuvor
Ja genau. Aber halt nur auf AMD Karten in 720p. In Full HD oder höher im
Bereich der Messungenauigkeit einen ganzen Frame schneller als DX11.
Und dafür muss ein Team von Programmieren wochenlang coden. Man spürt
förmlich, wie da die menschlichen Ressourcen bestmöglich genutzt werden.

Ein einfaches Treiberupdate holt ja schon mehr Leistung raus als DX 12 :rolleyes:
 
GerryB schrieb:
Betonung auf 4k:
Wenn hier für die GTX1080@4k fast jede CPU funzt ist das OK.
40..50fps reichen vollkommen.

siehe meine Sig = 33-60Hz@4k freesync
Aber das hat doch nichts mit DX12 zu tun. Klar kann an die Auflösung und Einstellungen so hoch prügeln, dass es egal wird, welche CPU man hat.

Ein Ziel für die low-level APIs sollte ja eigentlich sein, die Belastung der CPU zu minimieren bzw. besser zu verteilen. Würde DX12 in Deinem Beispiel sehr gut funktionieren, wäre der Abstand zwischen den Haswell-E-Konfigs und dem 8370 auf der linken Seite des Graphen nicht so massiv.
 
Zitat:"Auch auf der GeForce GTX 1060 sieht es für die DirectX-12-Umsetzung deutlich besser aus als zuvor. Zwar schafft es die API auf der Nvidia-Karte zu keiner Zeit schneller als das DirectX-11-Pendant zu arbeiten, doch der Abstand beträgt nun nur noch maximal zwei Prozent."

Woow cool, jetzt ist Directx12 nur noch 2% langsamer als Directx11. Da fällt mir ein guter Verkaufsslogan für Grafikkarten ein:"Kauf sie sich diese neue Grafikkarte, sie ist nur 10% langsamer als ihre alte." :D
 
Leute, DX12 Ist und bleibt (vorerst) ein Rohrkrepierer...Mit den MEISTEN Konfigurationen und Spielen ist die API mehr Marketing wie Funktion. Bis auf ein Paar exotische Systembeispiele ist die API geplagt von verhältnismäßig schlechten Frames und noch mieseren Frametimes.

AMD Prozessoren werden hier nicht richtig für die Paralellisierung genutzt, sondern es wird nur der Overhead Verringert, was bei schnellem Singlethread anteilsmäßig Pozentual und damit auch Effektiv Mehr Leistung ergibt als bei Lahmen AMD Kernen.
Hier wird aber wieder nur der Vorschlaghammer getestet zusammen mit der veralteten AMD Gurke, der Mainstream wird komplett außer acht gelassen. Nicht dass ichs nötig hätte, aber ich denke hier an die Personen die leider nicht das Glück haben immer wieder Geld in ihren PC zu buttern.

Achso, und die szenarien sind halt oft, egal bei welcher seite, ungünstig Gewählt. Indem man die Auflösung auf 1280x720 stellt erzeugt man keine Echte last auf der CPU, sondern man verschiebt nur das Limit in Richtung CPU, aber die Szenarien mit Physik, Explosionen und KI usw. die Massiv auf die CPU gehen werden oft einfach vernachlässigt, und genau da arbeiten Engines doch immer anders, manche Können diese Zusatzlast gut Paralellisieren und Manche schlecht. Die Meisten wohl eher schlecht :D
 
Zuletzt bearbeitet von einem Moderator:
Schon das vorhandensein einer dx11 Version lässt mich eigentlich schon darauf schließen kein "echtes" dx12 Spiel vor der Nase zu haben. :D

Wenn ein Spiel ernsthaft auf dx12 optimiert wird kann es damit doch garnicht langsamer laufen als auf dx11...
Solange man nicht vorhat die Vorteile welche dx12 bietet auch zu verwenden braucht man doch erst garkeine dx12 Version bringen... außer natürlich man hat irgendeinen Deal mit Microsoft. x]
 
incurable schrieb:
Aber das hat doch nichts mit DX12 zu tun. Klar kann an die Auflösung und Einstellungen so hoch prügeln, dass es egal wird, welche CPU man hat.

Ein Ziel für die low-level APIs sollte ja eigentlich sein, die Belastung der CPU zu minimieren bzw. besser zu verteilen. Würde DX12 in Deinem Beispiel sehr gut funktionieren, wäre der Abstand zwischen den Haswell-E-Konfigs und dem 8370 auf der linken Seite des Graphen nicht so massiv.

Deine Probleme FX8370+GTX1080+144Hz-Monitor @1080p= wird kaum jemand haben (sinnfreie Kombi).
Alle fps über 60 kannst Du Dir bei DEM und TWW schenken.

Für mein Sys interessiert nur 4k = NATIVE Auflösung.
Da läuft DX12 bei TWW Spitze = nach m.E. = gutes Bsp. für sinnvollen techn. Fortschritt.
Für mehr Info kannst Du gerne im STEAM- Forum nachlesen.
 
Für das von Dir beschriebene Szenario ist die verwendete Version von DirectX völlig unerheblich.
 
incurable schrieb:
Ein Ziel für die low-level APIs sollte ja eigentlich sein, die Belastung der CPU zu minimieren bzw. besser zu verteilen.
Ich will nicht hoffen das dies der Grund ist. Meine Hardware soll "immer" zu "100%" ausgelastet werden.
Ansonsten hat der Programmierer Potential liegen lassen.
 
aruff schrieb:
Ich will nicht hoffen das dies der Grund ist. Meine Hardware soll "immer" zu "100%" ausgelastet werden.
Ansonsten hat der Programmierer Potential liegen lassen.

Es geht unter anderem darum, die Ausführungszeiten der Treiberschicht zu reduzieren. Damit bleibt der CPU mehr Zeit für andere Dinge. Wenn die CPU bereits durch den Treiber zu 100% ausgelastet ist, ist es nicht unwahrscheinlich, dass der Grafikkarte zu wenig Arbeit zugewiesen wird - die Karte ist weniger stark ausgelastet und die FPS reduzieren sich.
 
BlackWidowmaker schrieb:
Leute die jedes Game nicht nur dreimal durchspielen wollen, sondern gleich dreizehn Mal, oder Leute die immer wieder das gleiche tun, und obwohl sie immer wieder zum gleichem Ergebnis kommen, ständig den Versuch wiederholen? Moment, wie nannte man die noch gleich?

Zwanghaft Besessen?^^
 
Was auch immer "Du" meinst worum es "geht".
Wenn die Hardware nicht zu 100% genutzt wird, wurde Leistung verschenkt.
Völlig egal auf welcher Ebene.
Hoffentlich kommen die Zeiten nie wieder wo es darum ging wieviel Speicher noch frei ist :)
 
aruff schrieb:
Was auch immer "Du" meinst worum es "geht".
Wenn die Hardware nicht zu 100% genutzt wird, wurde Leistung verschenkt.
Völlig egal auf welcher Ebene.
Hoffentlich kommen die Zeiten nie wieder wo es darum ging wieviel Speicher noch frei ist :)

Um es mit noch einfacheren Worten zu sagen: DX12 soll unter anderem dabei helfen, dass die CPU weniger Flaschenhals für die Grafikkarte ist als zuvor, indem Overhead in der API reduziert wird, bzw. ein direkterer Zugriff auf die Hardware ermöglicht wird. Die CPU-Rechenzeit, die in der API verbraten wird, sollte demnach mit DX12 geringer sein. In der gleichen Zeit sind deshalb mehr API-Aufrufe möglich oder die zusätzlich zur Verfügung stehende CPU-Ressourcen können für andere Dinge verwendet werden (z.B. KI-Berechnungen). Insgesamt sollte DX12 dabei helfen, dass während eines Zeitraums MEHR Arbeit erledigt werden kann als mit DX11.
 
@aruff
Ich glaube du hast nicht verstanden worum es geht.
Wenn deine CPU im Spiel immer auf Anschlag läuft bekommt die Grafikkarte zwangsläufig nicht genug Arbeit.
Das was du beschreibst ist der heutige Stand der Dinge, wie man vor allem durch den FX sehen kann.
Durch die mangelhafte Multicore Unterstützung von DX11 nutzt kaum ein Spiel alle Kerne wodurch direkt Leistung verschenkt wird und Prozessoren mit wenigen aber schnelleren Kernen im Vorteil sind. Neben der Einsparung verschwendeter Rechenleistung (geringere CPU Last bei gleicher Arbeit) kann die deutlich bessere Multicore Unterstützung auch ganz einfach dafür sorgen das mehr verfügbare Rechenleistung überhaupt genutzt wird. Das ist nebenbei auch einer der Gründe warum die Radeons bei den neuen APIs so ab gehen.
 
incurable schrieb:
Für das von Dir beschriebene Szenario ist die verwendete Version von DirectX völlig unerheblich.
Im Durchschnitt war das Wasser 1/2 tief ..., min fps sind in jeder Auflösung relevant auch wenn freesync ne Menge ausgleicht.
Ein gutes Bsp. für patch 1..x ist die Enwicklung von min fps bei Tombraider. (hoffe das bei DEM weiter so)
Bei Tombraider würde keiner mehr auf DX12 verzichten. (und bei TWW in der Schlacht)

anbei ein R390X Cf von einem 3dCenter-User (wirst Du nicht mit DX11 schaffen können)
 

Anhänge

  • ROTTR_DX12_VeryHigh_6850k@4.4Ghz.png
    ROTTR_DX12_VeryHigh_6850k@4.4Ghz.png
    134 KB · Aufrufe: 441
Die Relevanz von Hawaii-Eumeln im Doppelpack in einem anderen Spiel für Deine Fehlinterpretation von Daten zu einer 1080 in einem ganz anderen Spiel ist in etwa so hoch wie das Zutreffen Deiner Behauptung, der von Dir verlinkte Graph zeige "TotalWar@4k DX12 sieht für die CPU`s sehr gut aus."

Diese ganze Litanei von Off-topic-Beiträgen hättest Du uns allen ersparen können, wenn Du den Artikel gelesen hättest, aus dem die Abbildung stammt.
 
Wirklich unrecht hat er aber dennoch nicht denn die min. FPS wurden bei dem Bench von Tomb Raider mit DX12 je nach Config deutlich besser wodurch der Bildverlauf gleichmäßiger wurde.
 
Das schöne an DX12 ist die Langlebigkeit von Hawai-Eumeln.(die auch bei DEM gut aussehen)
Das wird mit Shader Modell 6 noch besser.

Es geht darum eine Tendenz aufzuzeigen, die auch bei DEM klar erkennbar ist.
(min fps nach Patch.., ist im Headquarter mit DX12 schon deutlich besser geworden )
Gerade für Cf-User sehe ich momentan keine Notwendigkeit auf überteuerte Singlekarten
zu wechseln.

Bei DEM ist wohl derzeit noch das Streaming das Hauptproblem.(Auslagerungsdatei würde ich deaktivieren)
Und min. core-i7 erf. für jump`n run ist für mich einfach nur schlecht programmiert.
Die Kollegen Spielentwickler sollen sich mal ein Bsp. an Doom(Vulkan) nehmen.

Offtopic Thief@Mantle läuft nach wie vor. (kann auch mal wieder angespielt werden)
 
Wadenbeisser schrieb:
Ich glaube du hast nicht verstanden worum es geht.

Ich befürchte einmal Du hast es nicht verstanden.
Es ist völlig unerheblich wie wir uns eine Verteilung/Aufteilung/Verschiebung zusammen reimen oder vorstellen.
Selbstverständlich sollte auch eine CPU immer zu 100% eingebunden sein. Wenn nicht geht Leistung für unnützes verloren.
Müßig darüber zu diskutieren was denn nun effektiver ist, Auslastung von Berechnungseinheiten oder Schnittstellen.
Das optimale System nutz alles immer zu 100%.
 
Schön zu lesen das sich was tut mit DX12. Werde noch bis Februar 2017 warten, dann denke ich werden die Treiber und kommenden Spiele mit DX12 bzw. Low Level API noch ausgereifter sein.

Dann kann ich meine HD 7950 in den wohlverdienten Ruhestand schicken.

Werde mit der RX 480 oder GTX 1060 zwar nicht viel mehr Performance haben da nur AMD System FX8320 mit 16GB DDR3 Ram aber für Full HD wird alles im für mich ausreichenden FPS Bereich sein.

Mehr brauch ich nicht, nur kann ich mich bis jetzt noch nicht so recht zwischen der ASUS 480 Strix oder der GTX 1060 Strix entscheiden.

https://www.computerbase.de/preisve...90yv09k0-m0na00-a1479631.html?hloc=at&hloc=de

https://www.computerbase.de/preisve...90yv09q0-m0na00-a1478721.html?hloc=at&hloc=de

Was würdet ihr mir empfehlen ?

Ich weis das die 1060 minimal schneller ist, nur kann man das ja nicht auf jedes PC System beziehen.Da ich meinen letzten PC überwiegend aus ASUS Komponenten zusammengestellt habe (M5A99XEvo /ASUS HD 7950) tendiere ich doch schon sehr zur RX 480

Irgendwie war die Entscheidung vor 4 Jahren leichter für mich :freak:

Gruß

Slaughter
 
Zuletzt bearbeitet:
GerryB schrieb:
Es geht darum eine Tendenz aufzuzeigen, die auch bei DEM klar erkennbar ist.
(min fps nach Patch.., ist im Headquarter mit DX12 schon deutlich besser geworden )
Gerade für Cf-User sehe ich momentan keine Notwendigkeit auf überteuerte Singlekarten
zu wechseln.
Was haben minimale FPS von Hawaii in CF in Spiel X damit zu tun, dass Du einen Graph als Zeichen für die sehr gute Funktion von DX12 in Spiel Y misinterpretierst, in dem verschiedene CPUs (bzw. -Konfigurationen) offensichtlich von einer einzelnen 1080 limitiert werden? (und das genau so auch vom Autor darunter erklärt wird)

Nichts.

Eröffne ggf. einen eigenen Thread mit Deinem Thema.

aruff schrieb:
Das optimale System nutz alles immer zu 100%.
Nein.
Ergänzung ()

Sgt.Slaughter schrieb:
Was würdet ihr mir empfehlen ?
Keine von beiden, die Strix-Karten sind unnötig laut und überteuert, wie auch der Test auf - Wie heißt die Seite noch mal? Ach ja! - computerbase.de zeigt:

https://www.computerbase.de/2016-07/asus-radeon-rx-480-strix-test/3/
 
Zuletzt bearbeitet:
Zurück
Oben