Test Hitman Benchmarks: DirectX 12 hebt das CPU-Limit massiv an

EXTREM schrieb:

Jap es ist nicht klar ob es überhaupt unterstützt wird... was beunruhigend ist, dass NVIDIA nichts dazu sagt. Oder haben Sie sich irgend wo wieder zum Thema Async Computing geäussert seit letztem September?
 
hab den Thread leider nicht weiter durchgelesen, aber mich würde ein Phenom II X6 1090T dazu gestellt noch interessieren, frag mich ob hier die Anzahl der Kerne jetzt mal richtig zum Tragen kommt un dob ich in meinem zarten Alter doch noch auf einen Wohnzimmer Gaming PC aufrüsten sollte.
 
Zuletzt bearbeitet:
TP555 schrieb:
Re

@Pisaro

Jo stimmt , aber Async Shaders / Compute ist doch ein bestandsteil von DX12 oder nicht ?

Ja, und jeder Async Shader, der auf einer Nvidia GPU läuft, führt zum korrekten Rechenergebnis. Eine API macht keine Vorgaben wie die Hardware auszusehen hat, sonst wäre es ja keine hardwareunabhängige API. Den Sinn einer solchen API scheinen hier einige nicht zu verstehen.
 
compute 9-11ms (erste 31 tasks)
graphics ~42ms
compute+graphics 50-51ms

nach den ersten 31 compute tasks erhöht sich die dauer um weitere 9-11ms im Schnitt [Edith: nach jeden weiteren 32 tasks], genau wie alle compute+graphics tasks ab #32
compute:
31. 9.07ms
32. 17.85ms
compute+graphics:
31. 50.48ms (33.23G pixels/s)
32. 59.18ms (28.35G pixels/s)

compute:
63. 20.03ms
64. 26.55ms
compute+graphics:
63. 61.57ms (27.25G pixels/s)
64. 68.08ms (24.64G pixels/s)

etc. Ich sehe nichts was da für async compute spricht
 
Zuletzt bearbeitet:
Dann sollte das nochmal jemand mit einer karte vergleichen, die das definitiv nicht unterstützt.
 
GP100 mit 512bit GDDR5 interface und 4096bit HBM interface. Sowas dummes sollte nicht verbreitet werden.
 
Re

@poi

Sind ja auch nur Leaked Specs ^^.

Aber das mit dem 512bit Speicher Interface wäre doch mal was , lange hatten die Karten 256-384Bit.
Zum 4096 Bit Speicher Interface , keiner kennt die Specs von HBM2 , nur eins ist jetzt schon klar , die Titan wird unbezahlbar werden :D

Ich hoffe sehr , das AMD mit den Nächsten Karten endlich mal Nvidia einen Arsch Tritt Verpasst , als Rache wegen der GTX970 und DX12 , oder ein ganz neuer Hersteller kommt noch dazu Wunder gibts vlt.

Edit , hmm

https://geizhals.de/sapphire-radeon-r9-fury-nitro-11247-04-40g-a1393963.html?hloc=at&hloc=de

4096 wenn das Stimmt , dann können die Furys das schon längst.
 
Zuletzt bearbeitet:
Es geht bei HBM2 nicht darum die Geschwindigkeit zu erhöhen sondern die Kapazität pro Stapel zu erhöhen.
 
Bis chips mit, die über 400 mm^2 groß sind in 14/16 nm gefertigt werden und die angegebenen Daten sprechen für wesentlich größere Chips.
 
Patch 1.03 hat eine neue Einstellung hinzugefügt: bisher wurden bestimmte Grafikeinstellungen blockiert/man konnte nicht die maximalen Einstellungen wählen, wenn der Grafikkartenspeicher zu gering war.

In meinem Fall (HD 7950) konnte ich weder Supersampling aktivieren noch die höchste Textur-Qualität wählen. Das ist nun aber möglich.
Interessant dabei ist, dass maximal 2.5gb Speicher meiner HD 7950 belegt werden bei maximaler Texturqualität (Rest der Einstellungen auf Medium) unter DX12.
Ansonsten brachte der Patch noch etwas mehr FPS (~2 FPS gegenüber den alten Werten, mittlere Details, 50 FPS@DX11 vs 60 FPS@DX12 nun (vorher 50 zu 58).
Maximale Textturqualität kostet gegenüber der mittleren Einstellung ca. 3 FPS unter DX 12 (57 FPS@DX12, restliche Einstellungen auf Medium).

Wäre schön, wenn vllt. hier nochmal ein Nachtest kommen könnte (oder von anderen Nutzern), ob sich an der Performance noch andersweitig was getan hat.
 
Episode Three ist seit dem 31.5 draußen. kommt da auch wieder ein test zu? @CB
 
Glashüpfer schrieb:
Was ist das nur für ein Verein, ich ärgere mich wahnsinnig, dass ich mir eine Nvidia Karte zugelegt habe. DX12 Fake, Gsync Fake, GTX970 Fake!!! Danke Nvidia !
Was meinst du mit G-Sync-Fake?

Eusterw schrieb:
DX12 hilft nicht speziell AMD, sondern langsamen Prozessoren. Auch langsame Intel Prozessoren werden so enorm zulegen. Für den Moment bedeutet das, das schnellere Prozessoeren überflüssig sind.
Langsamen CPU´s wird etwas geholfen. Aber viel mehr Multicore-CPU´s. Natürlich auch flotten Multicore-CPU´s - ob von Intel oder AMD.

kisser schrieb:
In erster Linie ist es eine Entlastung der CPU, auch CPUs mit weniger Kernen profitieren sehr stark durch DX12.
In 1. Linie? Hast du eine Quelle dafür? Ist es nicht gerade die Auslastung der Kerne, die den mit Abstand größten Nutzen von Dx12 ausmacht?
-> http://winfuture.de/news,86363.html

Marcel55 schrieb:
Weil man bei der Benutzung von Free- und G-Sync kein V-Sync mehr braucht, was zu einem reduzierten Inputlag führt, trotz anhaltender Synchronisation.
Trotzdem nicht wirklich toll dieses Adaptive Sync: "In unserem Praxistest in Ausgabe 04/2014 haben wir mittels LED und 1.000-FpsKamera genau das getan und dabei festgestellt: Ein Einfluss auf die Eingabeverzögerung vom Mausklick bis zum sichtbaren Resultat auf dem Bildschirm ist durch adaptive Bildraten-Technologien nicht wirklich zu erreichen – höchstens gegenüber traditionellen Anti-Tearing-Maßnahmen wie V-Sync, die durch Buffering (das Zurückhalten von Frames, bis der Monitor für den nächsten Refresh-Zyklus bereit ist) zu erhöhtem Input-Lag führen können. Im Mittel lag die mit adaptiver Synchronisation gemessene Zeitspanne zwischen Schuss und Bild sogar etwas höher – allerdings im Bereich der Messungenauigkeit."
Q: PC Games Hardware 08/16
 
Zuletzt bearbeitet:
Zurück
Oben