DirectX 12 - AMD scheint gut gerüstet zu sein - R7 260X schlägt GTX980

Faust2011

HTTP 418 - I'm a teapot
Moderator
Registriert
Aug. 2011
Beiträge
13.122
In letzter Zeit wurde viel über DX12 berichtet. Vor langer Zeit wurde bekannt, dass mit DX12 der Draw-Call-Overhead deutlich reduziert werden kann. Dadurch können CPUs ihr Multithreading deutlich besser einsetzen und mehr Draw-Befehle homogen auf die GPU übertragen. AMD hat das mit Mantle bereits gezeigt und spiele wie BF4, die dies unterstützen, haben in der Praix gezeigt, dass ein CPU-Limit damit deutlich nach hinten verschoben werden kann.

Zuletzt wurde nun darüber berichtet, dass auch die Abarbeitung auf der GPU besser parallelisiert werden kann. Die Technik dazu nennt sich Asynchronous Shader und bietet die Möglichkeit, zum einen per Queues übertragene Draw-Befehle zu priorisieren und zum anderen verschiedene Queue-Typen (man unterscheidet 3 Stück: Grafikbefehle, Compute-Berechnungen und Daten-Kopier-Anweisungen) parallel abzuarbeiten. Asynchronous Shader bieten prinzipiell AMD GPUs ab der GCN-Architektur (HD 7000 / R200) sowie Nvidia ab Maxwell-2.

Das Resultat von alldem: AMD hat nun zuletzt gezeigt, wie gut in bestimmten Situationen die GCN-Architektur unter DX12 im Vergleich zu Nvidia performt. Da schlägt dann selbst eine R7 260X eine GTX980! Sehr provokativ dieses Benchmarkergebnis, mal schauen, wie es sich in der Praxis (Spiele mit DX12!) dann tatsächlich bewahrheitet:

DX12-R9-290X-and-even-R7-260X-outperforms-GTX980.PNG
 
naja Benchmarks direkt vom Hersteller ? Wie wissen doch alle das sowohl AMD wie auch nVidia da bescheissen ... unabhängige Ergebnisse abwarten ;p
 
Zuletzt bearbeitet:
LOL, das ist doch nicht deren ernst. Die spucken aber verdammt große Töne.

Na ja, mir egal. Dann pack ich eben wieder meine HD7950 aus. :lol: :evillol:
 
also das glaube ich erst wenn ich es schwarz auf weiß in nem unabhängigen test sehe^^
 
Da AMD mit mantle gemäss den AMD-Jüngern quasi DX12 erfunden hat und Mantle ja eigentlich noch immer ach so viel besser ist wissen wir bereits was es in der Realität bringt... Gerade genug um sich nicht lächerlich zu machen.
 
Da würde ich jetzt mal nicht soviel drauf setzen. Die Architekturen von AMD und Nvidia unterscheiden sich schon sehr. Klar gibt es dann Teilgebiete, in denen die Roten oder die Grünen massiv besser sind. Wichtiger ist aber das Gesamtpaket. Anders siehts dann bei Spezialanwendungen aus. Lassen wir uns überraschen.
 
Ja, man glaubt es kaum, aber der Vorsprung, der hier gezeigt wird, ist schon immens. Und egal, wie groß der Performance-Unterschied zwischen den Chips (AMD vs. Nvidia) ist, so zeigt es doch gut, dass in Zukunft 3D-Modelle mit deutlich mehr Polygonen gezeichnet werden können, was die Spiel-Optik nochmals einen deutlichen Schritt nach vorne bringen sollte.
 
Das ist der Polygon-Durchsatz ... das hat nix mit späteren FPS zutun -.-'
 
zeromaster schrieb:
Da AMD mit mantle gemäss den AMD-Jüngern quasi DX12 erfunden hat und Mantle ja eigentlich noch immer ach so viel besser ist wissen wir bereits was es in der Realität bringt... Gerade genug um sich nicht lächerlich zu machen.

Ja wir wissen, NV war es, der DX12 erfunden hat und jetzt geh wo anders trollen.

Faust2011
Es gibt eine komplett geleakte Präsentation. Aber das wird ein "theoretischer" Wert sein. Wer weiß was hier getestet wurde. Kann gut sein, dass da irwas getestet wurde, was den Maxwell GPUs nicht liegt.
 
Wird erst interessant wenn das erste DX12 Game erscheint. Bis dahin ... Abwarten und Tee trinken sowie DX11 Zocken.
 
Man könnte auch sagen, dass Nvidia anwendungsorientert programmiert und designt, da sie derzeit mehr fps pro Watt liefern (wenn auch für etwas mehr Geld). Die meisten wollen ja heute mit ihrer Karte zocken. Wer weiß schon, was die mit dem nächsten Treiber verändern. Wäre aber mal wieder nett, wenn AMD irgendwo die Führung übernehmen würde.
 
Auf der Folie ist ja nur zu sehen, dass es sich um den 3DMark DX12 API Overhead Test handelt. Dass AMD mit DX12 den Overhead besser beherrscht, ist ja bereits länger bekannt. Dort kann auch eine R9 285 ohne Probleme gegen eine 980 anstinken. Aber dass das auch mit der 260X klappt, halte ich eher für unwahrscheinlich.

Insgesamt sagt aber der Overhead Test nicht so wahnsinnig viel über die generelle DX12 Performance aus. Es zeigt nur, dass damit wesentlich komplexere Spieledesigns möglich werden, ohne zuviel Performance "opfern" zu müssen.
 
Zuletzt bearbeitet:
Toms schrieb:
Das ist der Polygon-Durchsatz ... das hat nix mit späteren FPS zutun -.-'

Doch hat es. Der Test zeigt, aus wie vielen Polygonen ein Objekt zusammengesetzt sein darf, damit es unter 4k mit 30fps auf dem Screen erscheint. Es wird demnach die komplette Rendering-Pipeline der GPU durchlaufen.

pipip schrieb:
Kann gut sein, dass da irwas getestet wurde, was den Maxwell GPUs nicht liegt.

Ich tippe mal auf den Draw-Call-Overhead ;) Vermutlich kann das jedoch Nvidia mit einer Treiberoptimierung noch nachholen. AMD könnte auf Grund von Mantle hier einfach bereits mehr Erfahrung gesammelt haben und dementsprechend performt ihr Treiber unter DX12 in dieser Hinsicht besser.

HisN schrieb:
Wird erst interessant wenn das erste DX12 Game erscheint. Bis dahin ... Abwarten und Tee trinken sowie DX11 Zocken.

... und ärgerlicherweise hat AMD bei DX11 eine Treiberschwäche.

Qarrr³ schrieb:
Man könnte auch sagen, dass Nvidia anwendungsorientert programmiert und designt, da sie derzeit mehr fps pro Watt liefern

Nein, das hat nichts mit der Software zu tun, sondern ist vor allem einer effizienten Hardware geschuldet, wie hier gezeigt wurde. Wird Maxwell-2 jedoch richtig gefordert (eventuell dann ab DX12?), dann könnte sich die Energieeffizienz in Luft auflösen und wieder das Niveau von Nvidas Kepler / AMDs GCN erreichen.

Zitat aus Link: "Maxwell legt bei dieser Spannungssteuerung noch einmal richtig nach, aber wie wir später noch sehen werden, ist bei voller Shader-Last kaum noch ein großer Vorteil zu Kepler sichtbar. Der hauptsächliche Zugewinn liegt im somit Umstand, dass Maxwell bedeutend besser mit den wechselnden Lasten umgehen und die Leistungsaufnahme noch gezielter an die tatsächliche Last anpassen kann. Je stärker und schneller die Anforderungen der Applikation schwanken, umso besser kann Maxwell also punkten.

Schauen wir uns dazu einmal an, was Maxwell innerhalb von nur einer einzigen, kurzen Millisekunde macht und wie sich die Leistungsaufnahme ändert. Diese schwankt zwischen 100 und satten 290 Watt hin und her, was unterm Strich in diesem Interval nur einen tatsächlichen Mittelwert von ca. 176 Watt ergibt. Trotzdem können bis fast 300 Watt umgesetzt werden, wenn es wirklich notwendig ist. Ansonsten tritt die GPU auf die Bremse."
 
Bezeichnet mich als troll wenn ich das tolle Mantle als referenz nehme was eine neue API in der Realität bringt ;) lustig.
Und wenn man den zitierten Text liest Faust, ist deine Schlussfolgerung Maxwell verbraucht dann mehr Strom sehr AMD-Lastig, denn die Energie geht ja wo hin und das wäre dann wohl deutlich mehr Rohleistung "tritt die GPU auf die Bremse" ist der fett zu markierende Teil. Das passt aber wohl nicht zu dem was du propagieren willst.
 
Erstmal eine Klarstellung: auch wenn ich derzeit ein AMD-Logo als Avatar hier im Forum habe und daneben noch ein XFire-System betreibe, heißt das nicht, dass ich eine Seite (rot oder grün) präferiere. In diesem Thread soll es nur um Fakten gehen.

Meine Gedanken zur Schlussfolgerung, Maxwell unter hoher Last mehr Energie verbrauchen wird: Eine Maxwell-2 GPU wird es in Zukunft schwieriger haben, auf die Bremse zu treten (und damit den Takt und die Spannung zu reduzieren), da mit DX12 der Chip häufiger (in einem Zeitabschnitt) unter Last steht, als mit DX11. Die Energie, die dann mehr verbraucht wird. resultiert natürlich in mehr gerenderten Bildern. Genau wegen diesen Gedanken wünsche ich mir bei den derzeitigen Vergleichstests (die GTX980Ti als jüngstes Beispiel) auch einen DX12-Test (Swarm Demo, 3D Mark API Overhead, ... was auch immer), wo nicht nur die Performance gezeigt wird, sondern auch der Energieverbrauch.

Was mir gerade zum Thema Energieverbrauch des Maxwell einfällt: Wurde dieser Mehrverbrauch nicht bereits bei reinen Compute-Anwendungen nachgewiesen!?
 
Dem Threadersteller(und dem Rest des Forums) ist hoffentlich klar, dass Polygone alleine noch kein fertiges Spiel machen :evillol:
 
Ich denke, das ist uns allen klar. Das Hersteller gerne mal tolle Folien zeigen, passiert ja auch öfter.

Zum Thema Effizienz. Man braucht eine passende Software, damit die Hardware läuft. Und derzeit ist Nvidia einfach effizienter, man entwickelt nicht für irgendwann, sondern fürs Erscheinungsdatum und die zu der Zeit verfügbar Software. Wenn es an der schnellen Anpassung an wechselnde Last liegt, dann scheint AMD bei den GPUs ja das gleiche Problem wie bei den CPUs zu haben. Dort liefert Intel ja auch eine längere Akkulaufzeit, weil kürzer hochgetaktet wird.
Aber keine Frage. Wenn AMD tatsächlich so stark von dx12 profitiert, dann können wir ja von deutlich schöneren Spielen ohne neue Grafikkarte ausgehen.
 
Doch hat es. Der Test zeigt, aus wie vielen Polygonen ein Objekt zusammengesetzt sein darf, damit es unter 4k mit 30fps auf dem Screen erscheint. Es wird demnach die komplette Rendering-Pipeline der GPU durchlaufen.
Naja nicht ganz. Es ist der Polygondurchsatz bei Draw-Calls mit sehr wenigen kleinen einfachen Polygonen pro Call. Dadurch will das Benchmark testen, wie gut das Frontend der GPU beim Abarbeiten des Command-Buffers ist.

Allerdings sind Draw-Calls mit wenigen Polygonen etwas was GPUs allgemein trotz neuen APIs wenig mögen. Dies zeigt sich auch an den Benchmark-Ergebnissen. So kann eine moderne GPU maximal mehrere Milliarden Polygone pro Sekunde zeichnen. Die Geforce 980 GTX schafft 6 Milliarden. Im Benchmark schafft sie nur 10 Millionen pro Sekunde. Unter der Annahme, dass der Polygondurchsatz repräsentativ für die Auslastung der gesamten GPU ist, so ist die Auslastung extrem schlecht. Analog verhält es sich mit den AMD-GPUs, sogar wenn sie etwas besser sind.

Deshalb testet das Benchmark einen suboptimalen Fall, den man in Anwendungen durch Optimierungen, sofern sie möglich sind(!), sowieso vermeiden sollte.

Da das Frontend in Hardware gegossen ist, kann NVIDIA vermutlich auch nichts durch Treiberoptimierungen verbessern.
 
Zuletzt bearbeitet:
Zurück
Oben