Test 3DMark API Overhead: DirectX 12 im Test vor Mantle und AMD vor Nvidia

somit geht nun auch das letzte Argument für einen Kauf von AMD unter ...

schönes Ding ;)

Ergebnis überrascht aber nicht wirklich.

Dennoch natürlich ein netter Zug von AMD auf die Idee aufmerksam gemacht zu haben.

Der Umstieg von Win 8.1 auf 10 war eh schon vor langer Zeit 100% fest gemacht, bei allen Pc's / Laptops im Familien,- Bekanntenkreis, Freunden.
 
strex

Die Frage ist, wie lange "Single-Performance" durch die neuen API noch an großere Relevanz haben werden, besonders da der eigentliche Grund für die Wichtigkeit der Single-Core Performance DX 11 und Vorgänger war, was sich ja laut MS jetzt ändern soll.

Sry, aber ich finde dass die Aussage deutlich genug ist und es ersichtlich ist, dass es hier klar ums Gaming geht. Dass du jetzt noch den Satz aus dem Kontext nimmst, naja, was soll ich noch dazu sagen.

Aber gut, dann stelle ich dir mal eine andere Frage, welchen Single-Core Prozessor nutzt du denn aktuell in deinem PC ?
 
Wadenbeisser schrieb:
Weil das Argument so ziemlicher Blödsinn ist.
Jede Grafikkarte die im CPU Limit hockt kann nicht ausgelastet werden, deshalb nennt man es ja CPU Limit.
Das sich das CPU Limit durch eine bessere CPU Auslastung verschieben kann ist wieder ein anderes Thema.

Das ist doch der Punkt um den es geht.

Wenn ich jetzt mal von meiner Situation ausgehe: HD7950 = zu 50% ausgelastet, CPU zu 100% und ich erhalte sagen wir 40 FPS in einem Spiel.
DIe GTX980 ist beim gleichen Spiel in der selben szene sagen wir zu 25% ausgelastet, die CPU wieder zu 100%, erhalte aber 50 FPS.

Dann ist es doch ganz eindeutig, dass nVidia weniger CPU overhead hat und folglich im CPU limit mehr FPS liefert.


Hier wurde aber wie ich schon sagte immer wieder behauptet, dass meine Messungen unsinn sind, da die die GTX980 sehr viel schneller sei. Wie ich aber anhand des Beispiels jetzt erklärt habe hat das im CPU Limit natürlich keine Relevanz.
Das bedarf normalerweise keiner Erklärung wenn man CPU limit sagt, meint man auch CPU LIMIT, keine Ahnung, warum hier einige meinen, die Ergebnisse wären von der höheren Leistung der nVidia Karte beeinflusst worden....


Im Endeffekt: Genau zu diesem Ergebnis kommt man nunmal bei etlichen CPU limitierten Spielen. Was ist daran also Falsch?


Entweder drücke ich mich zu unverständlich aus oder einige lesen den Text nicht richtig. Ich weiß es nicht....
 
Zuletzt bearbeitet von einem Moderator:
Trinoo schrieb:
somit geht nun auch das letzte Argument für einen Kauf von AMD unter ...

schönes Ding ;)

Ergebnis überrascht aber nicht wirklich.

Dennoch natürlich ein netter Zug von AMD auf die Idee aufmerksam gemacht zu haben.

Der Umstieg von Win 8.1 auf 10 war eh schon vor langer Zeit 100% fest gemacht, bei allen Pc's / Laptops im Familien,- Bekanntenkreis, Freunden.

weil die 290x bei einem Bruchteil des Preises der GTX980 in dem Test deutlich schneller ist? Aaaah ja..
 
BlauX schrieb:
Wieso sollte man etwas "abstreiten" wenn der Omega genau dieses Problem angeht und weiterhin tun soll ( Stage 2 > usw ) und genau deswegen auch so " gut " war, weil das Problem angegangen wurde und wird.

gut, abgestritten mag von AMD nichts geworden sein, aber er bezog sich ja nur auf die Foren Member. Bestes Beispiel direkt danach von Dadeal, die mit der Aussage

Mich würde das doch jetzt interessieren. Erkläre mir doch mal wie du mit einem GPU-Treiber ein CPU-Limit aufhebst.
Bedenke bevor du antwortest: Ein CPU-Limit bedeutet, dass die CPU bis ans Maximum ihrer Leistungsfähigkeit ausgelastet ist und nur durch eine schnellere CPU dieses Limit aufgehoben werden kann: Hardwaretausch.
Nun? Ich bitte allerdings um eine technische Erklärung worin das CPU-Limit liegt.

die schwächere DX11 Performance bzw. das einhergehende CPU Limit bei AMD Karten direkt wieder "abstreitet". Keinen Sorge, ich bin gespannt was AMD in Stage 2 abliefert und ich finds gut, dass AMD hier noch Anstrengungen unternimmt.
Wenn man sagt "früher ins CPU Limit" bedeutet das ja nichts anderes, als dass Overhead, durch den Treiber verursacht, weniger effizient verteilt wurde (zb mehrere Kerne) als bei der Konkurrenz. CPU Limit kann auf einem Thread oder vielen Thread stattfinden. Auch ohne "Hardwaretausch" erhält man ein nach hinten verschobenes CPULimit.

@Dadeal
Erkläre mir doch mal wie du mit einem GPU-Treiber ein CPU-Limit aufhebst.

Schau dir Omega an, schau dir den Nvidia 337 an. Hexerei? Sind das keine GPU Treiber? Offensichtlich verursacht der Treiber unabh. von der API wie DX eben auch das Limit zu einem nicht unerheblichen Teil. Nvidia hat nicht zuletzt genau deswegen als Antwort stark auf Multicore optimiert. Es gibt schöne Tests die genau das aufzeigen, bessere Verteilung auf mehr Kerne. Genau das was DX12 und Mantle auch mitbringen.
Wie können zwei unterschiedliche Grafikkarten mit unterschiedlichen Treibern unterschiedliche Ergebnisse haben wenn ein CPU Limit vorliegt?

AMD entwickelt ja nicht umsonst am Omega weiter und verteilt keine schnelleren CPU an die DX11 Anwender oder?
 
Zuletzt bearbeitet:
pipip schrieb:
Sry, aber ich finde dass die Aussage deutlich genug ist und es ersichtlich ist, dass es hier klar ums Gaming geht. Dass du jetzt noch den Satz aus dem Kontext nimmst, naja, was soll ich noch dazu sagen.

Ich will nur richtig stellen, das eine Relevanz von Single-Performance immer geben ist und das (wie schon ein paar mal beschrieben) völlig egal was das Programm macht. Es verwendet zum Schluss immer die selben Instruktionen bzw. atomare Operationen. Sobald die Parallelisierung stagniert (und das wird sie irgendwann, letztlich bei atomaren Operationen (Theorie) - praktisch weit früher) hat die Single-Performance wieder Relevanz. Deshalb ist der Nebensatz völlig egal, denn es trifft auf alles zu.

pipip schrieb:
Aber gut, dann stelle ich dir mal eine andere Frage, welchen Single-Core Prozessor nutzt du denn aktuell in deinem PC ?

Was ich für eine CPU haben, dass hat jetzt doch nichts mit dem Thema zu tun. Aber egal, das was mir der Arbeitgeber stellt. Gaming oder der andere Scheiß interessiert mich nicht. Nur wenn man über technische Gegebenheiten schwadroniert und Behauptungen aufstellt, die dann hier jeder gerne weiter erzählt, dann sollten die auf die Theorie fußen und nicht frei aus der Luft gerissen sein.

Auf was du anspielen willst ist klar, netter Versuch. Ich habe dir die theoretische/physikalische Gegebenheit aufgezeigt in der immer Single-Performance besser ist. Ob sich jetzt eine Single-Performance in's unendlich steigert oder nicht ist egal. Sobald nämlich die Parallelisierung stagniert, wie bereits aufgezeigt ist das unumgänglich, wird der Takt der unendlichen Cores wieder erhöht und dann ist Performance eines einzelnen Cores wieder wichtiger, sprich die Single-Performance.
 
Zuletzt bearbeitet:
Laggy.NET schrieb:
Das ist doch der Punkt um den es geht.

Wenn ich jetzt mal von meiner Situation ausgehe: HD7950 = zu 50% ausgelastet, CPU zu 100% und ich erhalte sagen wir 40 FPS in einem Spiel.
DIe GTX980 ist beim gleichen Spiel in der selben szene sagen wir zu 25% ausgelastet, die CPU wieder zu 100%, erhalte aber 50 FPS.

Dann ist es doch ganz eindeutig, dass nVidia weniger CPU overhead hat und folglich im CPU limit mehr FPS liefert.

Genau zu diesem Ergebnis kommt man bei eltichen CPU limitierten Spielen. Was ist daran Falsch?

Du argumentierts leider an der Realität vorbei denn die schaut dann eher so aus dass das Spiel nie an die 100% CPU Auslasutng ran kommst weil Direct3D ganz einfach nicht dazu in der Lage ist.
Eher gurkt die CPU dann bei ca. 50% Auslastung rum, wobei ein Kern auf Anschlag läuft und die Mehrleistung der Geforce geht dann auch mit einer höheren CPU Auslastung einher. Eben eine Verschiebung des CPU Limits durch eine höhere CPU Auslastung.
 
strex schrieb:
Ich will nur richtig stellen, das eine Relevanz von Single-Performance immer geben ist und das (wie schon ein paar mal beschrieben) völlig egal was das Programm macht. Es verwendet zum Schluss immer die selben Instruktionen bzw. atomare Operationen. Sobald die Parallelisierung stagniert (und das wird sie irgendwann, letztlich bei atomaren Operationen (Theorie) - praktisch weit früher) hat die Single-Performance wieder Relevanz. Deshalb ist der Nebensatz völlig egal, denn es trifft auf alles zu.

schön geschrieben und untermalt auch die Sinnhaftigkeit eines hohen Turbo Modus bei low TDP CPU / APU.
 
Also zeigt dieser Test im Grunde wie mies DX11 ist, wieviel Potential seid Jahren verschwendet wird und das DX12 es schaft auch die vorhandene Rohleistung von den AMD GPUs auf die Straße zu bringen. Ich mein, eine 290x ca.40% vor einer 980 ist schon beachtlich. Wenn das so ähnlich auch auf zukünftige Spiele eintreffen sollte, dann könnte eine 390x die Titan regelrecht wegfegen.
 
Wadenbeisser schrieb:
Du argumentierts leider an der Realität vorbei denn die schaut dann eher so aus dass das Spiel nie an die 100% CPU Auslasutng ran kommst weil Direct3D ganz einfach nicht dazu in der Lage ist.
Eher gurkt die CPU dann bei ca. 50% Auslastung rum, wobei ein Kern auf Anschlag läuft und die Mehrleistung der Geforce geht dann auch mit einer höheren CPU Auslastung einher. Eben eine Verschiebung des CPU Limits durch eine höhere CPU Auslastung.


Sorry, das verstehe ich nicht. Wenn selbst die schwächere Grafikkarte nichtmal ansatzweise ausgelastet ist, wie kann dann die Stärkere Grafikkarte die FPS im CPU limit steigern?

Dann sollte ja das Übertakten der schwächeren GPU die Performance im CPU limit steigern. Das ist aber nicht möglich.
Das ergibt doch keinen Sinn....
 
Wadenbeisser schrieb:
Eher gurkt die CPU dann bei ca. 50% Auslastung rum, wobei ein Kern auf Anschlag läuft und die Mehrleistung der Geforce geht dann auch mit einer höheren CPU Auslastung einher.

absolut richtig.
 
Trinoo schrieb:
somit geht nun auch das letzte Argument für einen Kauf von AMD unter ...

schönes Ding ;)

Dass die 290X, die vorher deutlich langsamer war als eine 980, hier nun schneller ist, blendet deine grüne Sicht aus? :D

Das ist ja gerade der Witz an der Sache: Für AMD ist es sogar besser, wenn auch andere Hersteller Mantle oder vergleichbares haben, weil so mehr Spiele darauf setzen und AMD immer schneller ist. AMD wird mit den kommenden Karten mit Nvidia den Boden aufwischen. Und hoffentlich hat AMD dann auch ein bisschen mehr Geld für Linuxtreiber übrig. (Vulkan pls)
 
Gnodab schrieb:
Also zeigt dieser Test im Grunde wie mies DX11 ist, wieviel Potential seid Jahren verschwendet wird und das DX12 es schaft auch die vorhandene Rohleistung von den AMD GPUs auf die Straße zu bringen. Ich mein, eine 290x ca.40% vor einer 980 ist schon beachtlich. Wenn das so ähnlich auch auf zukünftige Spiele eintreffen sollte, dann könnte eine 390x die Titan regelrecht wegfegen.

dieser Test betrachtet lediglich Drawcalls. Mit der Gamingleistung selber hat das wenig zu tun. Es würde einen Vorteil bedeuten wenn künftige Games direkt wieder die DX12 Drawcalls auslasten. Dann würde AMD je nach Draw Call Limit in Game, besser wegkommen. Real macht der Unterschied im Test ja weniger aus als heute bei DX11 zwischen Nvidia und AMD. Ergo fast nichts & wenn dann nur in Einzelfällen. Dennoch ist es natürlich richtig auch hier zu optimieren.

Für AMD ist der Sprung zu DX12 in der Tat, gemäß diesem Test, interessanter und lukrativer. Allerdings... bis bei DX12 hier wieder Limits auftreten, ist auch die R9 390X / GM200 vermutlich Geschichte. Wichtiger find ich das hier und jetzt um DX11 und Omega Stage 2.
 
Zuletzt bearbeitet:
Laggy.NET schrieb:
Sorry, das verstehe ich nicht. Wenn selbst die schwächere Grafikkarte nichtmal ansatzweise ausgelastet ist, wie kann dann die Stärkere Grafikkarte die FPS im CPU limit steigern?

Dann sollte ja das Übertakten der schwächeren GPU die Performance im CPU limit steigern. Das ist aber nicht möglich.
Das ergibt doch keinen Sinn....

Das Hauptproblem ist das Direct3D offensichtlich so gut wie nichts mit Multihreading anfangen kann und deshalb von der Leistung eines Kerns limitiert wird. Eine Grenze die nvidia offenbar durch welche Tricks und Kniffe auch immer zumindest teilweise und im beschränkten Maße umschiffen kann.
Dadurch steigt die Framerate im CPU Limit allerdings erhöht sich dadurch auch die CPU Last.

Der Kanckpunkt bei der Sache ist dass das CPU Limit nicht mit einer ausgelasteten CPU gleich zu setzen ist sondern lediglich die nutzbare Hardware an seine Grenzen kommt. Im Falle eines Quadcore ohne HTT würden damit bei DX11 im CPU Limit ca. 75% der verfügbaren CPU Rechenleistung für Direct3D ungenutzt brach liegen. Je mehr Kerne, desto größer das Problem.
 
Zuletzt bearbeitet:
Krautmaster schrieb:

Wadenbeisser schrieb:
Das Hauptproblem ist das Direct3D offensichtlich so gut wie nichts mit Multihreading anfangen kann und deshalb von der Leistung eines Kerns limitiert wird. Eine Grenze die nvidia offenbar durch welche Tricks und Kniffe auch immer zumindest teilweise und im beschränkten Maße umschiffen kann.
Dadurch steigt die Framerate im CPU Limit allerdings erhöht sich dadurch auch die CPU Last.

Der Kanckpunkt bei der Sache ist dass das CPU Limit nicht mit einer ausgelasteten CPU gleich zu setzen ist sondern lediglich die nutzbare Hardware an seine Grenzen kommt. Im Falle eines Quadcore ohne HTT würden damit bei DX11 im CPU Limit ca. 75% der verfügbaren CPU Rechenleistung für Direct3D ungenutzt brach liegen. Je mehr Kerne, desto größer das Problem.
OK, das ist natürlich absolut richtig. Die CPU Auslastung sagt wenig über ein CPU limit aus, da oft der Main Thread bei 100% Last hängt, während der Rest nichts zu tun hat..
Genau dieses Problem versucht ja nVidia und nun auch AMD unter DX11 mit ihren Treibern anzugehen. Der overhehad der Hauptsächlich durch den Main Thread abhägig ist wird reduziert. Die CPU last verteilt sich gleichmäßiger auf alle Kerne, wodurch die CPU insgesamt besser ausgelastet werden kann und letztendlich mehr FPS liefert.

Mein Beispiel mit den 100% CPU last diente aber nur zur Veranschaulichung, dass auch wirklich ein CPU limit anliegt. Man muss es ja im Beispiel irgendwie deutlich machen.


Was jedoch immer ein eindeutiger Indikator für ein CPU Limit ist, ist die Tatsache, dass eine GPU im CPU limit nicht mehr zu 100% ausgelastet ist.
Sobald es weniger als 100% GPU Last sind, limitiert die CPU und dann steigert eine Stärkere GPU auch nicht die FPS.

Trotzdem wurde mir wie ich schon sagte obwohl die GPUs nicht ausgelastet waren unterstellt, dass die unterschiedliche Performance der Karten die Werte im CPU limit verfälscht und deshalb keine Aussagen zu dem Overhead zulassen würden. Das ist aber (und ich wiederhole mich) im (deutlichen) CPU Limit nicht möglich.
Solange die CPU limitiert ist es völlig egal, ob eine Karte doppelt so viel Leistung wie die andere hat. Es hat einfach keinen Einfluss, wenn beide Karten nicht ausgelastet sind.
Folglich kann man in so einem Fall sehr exakt feststellen wie gut die AMD Treiber im CPU limit arbeiten und wie gut es die nVidia Treiber tun. Meine Feststellung, die mittlerweile nun doch allseits bekannt ist war einfach nur, dass nVidia deutlich bessere Ergebnisse liefert. Nicht mehr und nicht weniger.




Man sieht ja auch hier schon wieder, wie unfassbar mühsam es ist, selbst einfachste Gegebenheiten zu erklären und klar zu machen, nur um mal auf den selben Standpunkt zu kommen. :(
 
Zuletzt bearbeitet von einem Moderator:
Das-Korn schrieb:
Cool - irgendwelche Zahlen - beeindruckend

Was bedeutet das für die FPS?
Welche Computerspiele profitieren davon?

Synthetische Benchmarks waren und sind schon immer für die Katz.
 
Nice, da geht die Technik endlich in die Richtung, wo das seit Jahren eigentlich gebraucht wird. Man kann demnächst also auf einer Map mit der 4K Auflösung vom "but can it run Crysis" Spiel über 10000 Fernzünd-Bomben platzieren und diese gleichzeitig zünden, die auch alle berechnet UND angezeigt werden können :-)

Btw, AMD sollte sich endlich um seine Treiber kümmern... Ja, in Spielen ist es noch ganz OK, aber so manches externe Programm mit OpenCL und GL könnte neue Bahnen brechen... Viele Devs haben Probleme diese gut in die Programme zu implementieren. Bsp.: Blender... Seit Jahren werkelt man damit rum und konnte bisher nicht gescheit etwas hervorbringen, der Treiber wegen.

Mit DX12 a.k.a. Mantle's kleiner Sohnemann der super flüssige Sponsoren hat, kann die gute Technik der AMDs immer mehr zur Geltung kommen.

Freue mich darauf meine CPU noch weitere Jahre lang nutzen zu können ohne das Gefühl zu haben wieder einmal aurüsten zu müssen.
 
strex schrieb:
Was ich für eine CPU haben, dass hat jetzt doch nichts mit dem Thema zu tun. Aber egal, das was mir der Arbeitgeber stellt. Gaming oder der andere Scheiß interessiert mich nicht. Nur wenn man über technische Gegebenheiten schwadroniert und Behauptungen aufstellt, die dann hier jeder gerne weiter erzählt, dann sollten die auf die Theorie fußen und nicht frei aus der Luft gerissen sein.

Das finde ich schon sehr löblich und das ist das letzte, worüber ich mich aufregen werde. Es ändert aber trotzdem nicht viel an meiner Aussage.
Ich habe in keinem Fall behauptet, dass Single-Thread Performance unwichtig wird und mit der Argumentation, dass wenn eine CPU ausgelastet ist, erhöht man den CPU-Takt, damit hast du klar Recht. Klar, weil dadurch die Single Core-Performance steigt.
Anderseits es steigt auch die Multi-Core Performance, da man meist "alle" Cores über einen Base-Clock mitübertaktet.Außer du OC nur einen Core, dann steigt auch die "Single-Core" Performance, was ja im Endeffekt in aktuellen Turbo Modis diverser Prozessoren Anwendung findet.

Einen weiteren Core selbst am Die zu befestigen wird wohl keine Option sein, da gäbe es nur die Option "Core" zu aktivieren.

Interssant bleibt es trotzdem, dass du meinem Satz aus dem Kontext ziehst, weil dir Gaming oder der andere "S...ß" nicht interessiert und meine Aussage auf allgemeine Basis kritisierst.
Denn würdest du dich fürs Gamen interessieren, würdest du wissen, wie oft in CB Threads ein Dual Core oder Quadcore empfohlen wird, weil die "Single-Thread" Performance bei Spielen alles ist.
Jetzt erklärt man uns, dass mit DX12 die Cores wesentlich besser auf viele Threads ausgelastet werden können, was bei DX 11 nicht der Fall war, weil zuvor alles auf einem Core abgestimmt/beschränkt war.
Somit, verliert die Single Thread Performance, wenn es ums Gaming geht, an Relevanz (das heißt nicht die komplette Relevanz, aber eventuell könnte man in Zukunft eben günstigere Multi-Core Prozessoren nützten mit "schlankeren" Cores, wie es bei Konsolen der Fall ist)

Das wird auch ersichtlich, wenn jemand mit einem Pentium auf 4,7 Ghz und ein andere auf einem Athlon II x4 680k auf 4,2 Ghz (die Tests findet man im Internet) mit einer Grafikkarte spielt. Da hat der Pentium einen langen Balken im Benchmark, kommt aber im Vergleich zum Athlon im 64 Player Multiplayer ins ruckeln. Das wird im Vergleich mit einem I3 im Base-Takt auch nicht anders laufen.

uf was du anspielen willst ist klar, netter Versuch.
Dazu kann ich nur sagen :D
"Lege dich nie mit einem Idioten an , er zieht dich auf sein Niveau hinunter und schlägt dich mit Erfahrung !"
(Damit wird niemand beleidigt, maximal meine eigene Person)
 
Zuletzt bearbeitet:
ich finde gerade das letzte halbe Jahr / Jahr, bzw seit Omega, tut sich gerade beim AMD Treiber schon was. Das Downsampling kam fix, neue Eyefinity Modi, FreeSync... nun Ausbau Linux Team. Auch der DX12 Renderpfad scheint im Vergleich zum letzten Andandtech Test zugelegt zu haben. CB hätte gern noch Swarm testen dürfen ;)
 
Zurück
Oben