Test 3DMark API Overhead: DirectX 12 im Test vor Mantle und AMD vor Nvidia

Selbst wenn der FX8er einem 4790k nahe kommt würde ich den dann nicht kaufen. Sind eben Features die fehlen und neue kommen, die genutzt werden.
Wohl auch der Grund, wieso AMD mit Zen mit Intel nahezu gleich zieht @Features. und auch welche einstampft, da es nichts nutzt, mit geringerer Marktmacht etwas durchzudrücken.

Dazu kommt auch PCI-E 2.0 etc... man verschenkt doch so einiges, viele kleine Dinge.


Das einzige was man erkennt, dass AMD immens auf MT gesetzt hat. Sowohl beim BD als auch bei den Treibern. Viel zu früh damit angefangen, wo auf seitens der Anwendungen noch nicht in diese Richtung gegangen wurde.
Dies fängt jetzt erst langsam an, mit Win 10, Vulkan etc ...

Und wenn AMD mit Zen mit einem 8 Kerner kommt, später vielleicht auch mit 12 oder gar mehr, und die Entwicklung mit DX12 so richtig fruchtet, sehe ich da durchaus Potenzial den AMD ausspielen kann, da bereits auf diese Unterstützung hin gearbeitet wurde, die aber bisher nie genutzt wurde, es aber das Genick brach...
Haben den Markt was MT betrifft völlig falsch eingeschätzt, was sich bis durch die Treiber niederschlägt. Einfach in etwas investiert, woraus man noch keinen wirklichen nutzen ziehen konnte, der jetzt erst kommt.
Gut, haben sicherlich vorarbeitet geleistet, das gibt ihnen nun den Vorteil zu Beginn sehr gut da zu stehen, wie man hier ja bei dem Bench nun sieht.

Auch was die APUs betrifft. Selbst Intel hat erst kürzlich eine Website gebaut, um die APUs von AMD zu bashen, weil sie durch die kommende Entwicklung erheblich besser sind als Intel, hinsichtlich Mobile-Geräten mit gescheiter iGPU.
 
Zuletzt bearbeitet:
Laggy.NET schrieb:
Ich sage "Wahrheit", weil hier gerne verschweigen wurde bzw. es einfach nicht akzeptiert wurde, dass AMD nunmal die langsameren Treiber im CPU limit hat, obwohl ich immer wieder darauf aufmerksam machen wollte, da es mir nunmal schlicht und einfach aufgefallen ist. Besonders deutlich eben nach dem Wechsel AMD -> nVidia.

Sorry, aber das ist schon ewig bekannt. AMD hat mit dem Omega Treiber da auch einiges verbessert, merkt man bei Blizzard Titeln stellenweise sehr deutlich. Aber der Fokus lag mit Sicherheit auf Mantle.
 
Zuletzt bearbeitet:
pipip schrieb:
Die Frage ist, wie lange "Single-Performance" durch die neuen API noch an großere Relevanz haben werden

Die Wichtigkeit der Single-Performance wird uns noch eine ziemlich lange Zeit erhalten bleiben, so lange wie es Algorithmen und Abläufe gibt die sich nicht parallelisieren lassen. Davon findest du in der theoretischen und praktischen Informatik jede Menge. Sehr gut sichtbar im Embedded und Smartphone-Bereich.
 
Zuletzt bearbeitet:
Was mich begeistert ist das der olle FX auf einmal in DX12 richtig gut da steht gegen einen i 2500k. gut den 2500k kann man übertakten kann man aber den fx auch und evtl ist amd jetzt mal dort wo sie sein könnten wenn alles einigermassen optimiert wird.
Bin gespannt wie sich das noch entwickelt.
Auch der 7850 gegen den i3 ist richtig gut was da an Potential vorhanden ist.
Ich denke DX12 liegt AMD richtig gut umsonst haben sie wohl Mantle auch nicht entwickelt und sei es nur das MS dann die Arbeit für sie macht und halt DX12 nochmal optimiert.
Somit selbst wenn Mantle tot ist, hätte Amd gewonnen da sie MS gewzungen haben ihre Arbeit zu optimieren.
Von der Sicht ein richtig guter Schachzug von AMD wenn es den so geplant war.
Auch was die Treiber von AMD angeht scheinen die wirklich gute Arbeit geleistet zu haben bei DX12, was evtl auch an der Erfahrung liegt die man mit Mantle schon sammeln konnte wer weiss.

@ DrueDespair
Ich weis nicht ob es am Kamerawinkel oder der Bewegung auf der Xbox liegt aber schau einfach mal hinten am Ende der Gasse die Fassade der Xbox an dann weist du warum hier 30 fps möglich sind. Absolut hässliche verwaschene Texturen die man vor 20 Jahren auf dem C64 hatte während auf der PS4 die Fassade für Konsolenverhältnisse ganz ok aussieht.
 
Zuletzt bearbeitet:
Ich weiß nicht ich finde die Werte komisch warum sind die Amds unter DirectX 11 so extrem langsam und unter DirectX 12 und Mantle sind sie auf einmal so schnell wie sie von der Rechenleistung her einzuordnen sind das stinkt nach einer Kooperation von Nvidia und Microsoft bei DirectX 11. Da wäre auch die Einführung von Mantle zu erklären wenn Amd bewußt war das ihre Karten bei DirectX 11 durch die Api benachteiligt werden.
 
Laggy.NET schrieb:
Danke, dass die Wahrheit auch endlich mal von der "Presse" bzw von euch ausgesprochen wird.
selbst im 3Dcenter wirds immer wieder gesagt, dass AMD mal was tun sollte, da das Problem auch in diversen Spielen spürbar ist: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10568728#post10568728

Aber interessant, dass sich das Bild unter DX12 wendet.

Oh ja, statt einem Kern werden bei der Geforce doch tatsächlich fast 2 Kerne der i7 Modelle ausgelastet.....könnte man zumindest meinen denn der HTT lose i5 bricht beim multithreading Test genau so wie die Radeon ein. Unterm Strich bekommt man ab der 8 fachen Anzahl an Threads max. 80% mehr Drawcalls durch. Bei Intels i3 und AMDs A10 bewegt sich im multithreading Test von DX11 praktisch nichts, eher kann man froh sein wenn es keine Einbußen gibt.

Andere würden sagen das es offensichtlich ist das die API selbst die mit Abstand größte Bremse ist....
 
@xxxx
Nö... AMD hat volles Rohr mit Marzipan auf MT gesetzt, auch beim Treiber. Fing mit der Entwicklung des BDs ja an.

MS, NV, AMD sitzen im selben Boot. Eine Verschwörung sehe ich da nicht, der Verantwortliche bei AMD hat den Markt entweder völlig falsch gedeutet, oder Absichtlich den Markt in eine Richtung steuern wollen, was damals aber schon nicht ginge....
Jetzt wo es da ist, spielt AMD nun seine Karten aus, die schon vor langer Zeit bereit liegen... sollten dabei natürlich nicht müde werden.
 
Zuletzt bearbeitet:
strex schrieb:
Die Wichtigkeit der Single-Performance wird uns noch eine ziemlich lange Zeit erhalten bleiben, so lange wie es Algorithmen und Abläufe gibt die sich nicht parallelisieren lassen. Davon findest du in der theoretischen und praktischen Informatik jede Menge. Sehr gut sichtbar im Embedded und Smartphone-Bereich.

Stimmt schon, besonders was embedded angeht, wenn man nämlich viel mit Schleifen, weniger mit Timer arbeitet.
Nur soviel dazu.

Aber besonders hier im Smartphone-Sektor könnte HSA früher oder später interssant werden und wir reden hier von Grafischen-Ausgaben und da kann sehr wohl einiges parallelisiert werden, was aktuell scheinbar nicht der Fall ist. Als Beispiel brauche ich sogar nur auf dieser News richten.
Also eventuell etwas genauer lesen, denn die Aussage "Single-Performance" betrifft hier Gaming und um nichts anders geht es hier im Thread.

Vitec schrieb:
Was mich begeistert ist das der olle FX auf einmal in DX12 richtig gut da steht gegen einen i 2500k. gut den 2500k kann man übertakten kann man aber den fx auch und evtl ist amd jetzt mal dort wo sie sein könnten wenn alles einigermassen optimiert wird.

Dazu muss man sagen, dass der günstige FX 6300 fehlt, der damals zum Release von Crysis 3 vorne beim i5 2500k gut mitgespielt hatte.
Crysis-3-Test-CPUs-VH-720p.png
 
Zuletzt bearbeitet:
@BlauX ich bin mir da nicht so sicher ich traue das Nvidia durchaus zu das die mit nem Geldkoffer zu Microsoft gegangen sind macht mal so wäre ja nicht das erste Mal das Nvidia versucht zu bescheißen und das Microsoft da mit gemacht hat kann ich mir auch vorstellen die haben selbiges ja schon mal bei Intel gemacht.
 
pipip schrieb:
Stimmt schon, besonders was embedded angeht, wenn man nämlich viel mit Schleifen, weniger mit Timer arbeitet.
Nur soviel dazu.

Dann solltest du dich einmal mit Paketverarbeitung beschäftigen, auch so ein Fall vom embedded. Timer, hmm, woher weiß ich wann das Paket kommt - schwere Frage. Deshalb hat man seit Jahrzehnten das Problem bei Firewalls und anderen Systemen mit Pakete, dass sich eben doch auch auf so parallelen Systemen wie Firewalls, Router und co. nicht alles verteilen lässt. Viele Regeln in Firewalls, IPSs,.. sind bis dato nur auf einem Thread bzw. nur pro Paket auf einem Thread, aus dem Grund hat man auch die schönen Flows erfunden, um sich doch nur ein Paket am Anfang anschauen zu müssen und den Rest nicht.

pipip schrieb:
Aber besonders hier im Smartphone-Sektor könnte HSA früher oder später interssant werden und wir reden hier von Grafischen-Ausgaben und da kann sehr wohl einiges parallelisiert werden, was aktuell scheinbar nicht der Fall ist. Als Beispiel brauche ich sogar nur auf dieser News richten.
Also eventuell etwas genauer lesen, denn die Aussage "Single-Performance" betrifft hier Gaming und um nichts anders geht es hier im Thread.

Embedded ist eben nicht gleich embedded - so wie Grafik nicht gleich Grafik ist. Dann wird man merken, auch mit beschränkten Horizont, dass Grafik eben auch nur auf mathematische Formeln und Algorithmen zurückgreift und viele davon sind eben nicht parallelisierbar und das sogar mathematisch beweisbar. Da hilft auch dein schon lange versprochenes und bis dato nicht verwendbares HSA nichts und produziert nur heiße Luft.

Wie kommt man nur auf die Idee, dass sich nachweislich nicht parallele Algorithmen sich doch parallelisieren lassen. Eventuell dann wenn man zu oft auf die Marketing-Folien geschaut hat, aber nicht in die reale Funktionsweise. Aber scheinbar arbeitet die Grafik ja nicht mit Mathematik und Algorithmen sondern mit heißer Luft, die sich unendlich parallel herstellen lässt.

Du solltest dich zurückhalten und nicht jedem hier das Wunder von AMD versprechen, wie so oft, sondern nur auf Fakten berufen und Fakt ist eben dass sich viele mathematischen Formeln und Algorithmen sich nicht parallelisieren lassen - egal ob das jetzt Intel, AMD oder XY ist.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
strex schrieb:
Du solltest dich zurückhalten und nicht jedem hier das Wunder von AMD versprechen, wie so oft, sondern nur auf Fakten berufen und Fakt ist eben dass sich viele mathematischen Formeln und Algorithmen sich nicht parallelisieren lassen - egal ob das jetzt Intel, AMD oder XY ist.

Ändert aber nicht an der Tatsache, dass die Aussage im Zusammenhang mit Single-Thread Performance getätigt wurde. Da kannst du noch 100 andere Beispiele nennen die nicht parallelisiert werden können.
Fakt ist, Mantle hat bereits gezeigt, dass man einen Game Code offensichtlich besser aus mehrere Threads verteilen kann.
Somit stimmt die Aussage, Single-Thread Performance wird hier unwichtiger, wenn es ums Gamen geht. Dass diese bedeutungslos wird, habe ich anderseits auch nie behauptet.

Fakt ist eben dass sich viele mathematischen Formeln und Algorithmen sich nicht parallelisieren lassen
Und habe ich das wo bestritten ? Nein.
Ich habe lediglich gesagt, dass es sicherlich noch genug Sachen gibt, die eventuell parallelisiert schneller laufen lassen. Und da ist HSA durchaus ein Beispiel, weil es auch darum geht, den Flaschenhals zu lockern, indem zwischen CPU und GPU nicht ständig Daten herumkopiert werden müssen und die GPU nicht so stark von der CPU abhängig ist.

und wie du schon sagtest, embedded ist nicht gleich embedded.
Hier ist aber klar, um welche Grafik es geht und dass es ums Gaming geht und hier (Forum) hat man oft die Aussage betätigt, Single - Thread Performance ist alles.

Da hilft auch dein schon lange versprochenes und bis dato nicht verwendbares HSA nichts und produziert nur heiße Luft.
Wo habe ich was versprochen ? Wem denn ? Ich erwarte mir einiges davon und es sieht auch so aus, als ob Bewegung reinkommen wird und das nicht mal vorwiegend durch AMD. Aber das wird hier wohl Themenverfehlung sein.

Wie kommt man nur auf die Idee, dass sich nachweislich nicht parallele Algorithmen sich doch parallelisieren lassen.
http://de.wikipedia.org/wiki/Gustafsons_Gesetz
Es besagt, dass ein genügend großes Problem effizient parallelisiert werden kann.
Kranke Professoren der theoretischen Informatik wahrscheinlich.
Aber auch hier habe ich nie behauptet, dass man nicht parallele Algorithmen einfach parallelisieren lassen, eher dass es eventuell Anwendungen gibt, die vllt bisher nie mit parallelisierbaren Algorithmen umgesetzt worden sind. Klar eine Behauptung von mir, die ich nicht belegen kann, aber DX12 vs DX11 zeigt, dass es lange ein Potential gab, dass nie genützt wurde.
 
Zuletzt bearbeitet:
@xxxx
Das hat weniger damit zu tuen als vielmehr damit das Direct3D bei DX11 schlicht nicht in der Lage ist mehr als einen Kern sinnvoll zu nutzen. Die deutlich geringerer Einzelkern Leistung von AMDs Prozessoren sorgt dann für dieses Bild.
Da hatte Intel deutlich mehr davon profitiert allerdings hätten die damit im Bezug auf ihre Multicore Prozessoren ein ziemliches Eigentor geschossen.

Unterm Srich bleibt aber die Erkenntnis das es für eine API die gute 4-5 Jahre die nach den ersten Dualcores raus kam ein ziemliches Armutszeugnis ist und wir bei Direct3D 5-6 Jahre danach dort sind wo wir schon seit Jahren sein sollten...10 Jahre nach den ersten Dualcores.
 
hrafnagaldr schrieb:
Sorry, aber das ist schon ewig bekannt. AMD hat mit dem Omega Treiber da auch einiges verbessert, merkt man bei Blizzard Titeln stellenweise sehr deutlich. Aber der Fokus lag mit Sicherheit auf Mantle.

Ja, es ist schon länger bekannt.

Komischerweise wurde mir bisher wirklich absolut jedes mal das letzte halbe Jahr, wenn ich es erwähnt habe unterstellt, ein Fanboy zu sein, der irgend welchen Müll daherredet (im übertragenen sinne) und zudem sei es ja logisch, dass eine neue Nvidia Karte schneller sei als meine alte AMD karte usw.
Da konnte ich diskutieren und erklären, was ich wollte, es wurde mir einfach kein Glauben geschenkt, dass nVidia im CPU limit meist schneller ist...

Selbst die Tatsache, dass meine AMD Karte im CPU Limit nur zur hälfte ausgelastet war und deshalb keinen Einfluss auf die CPU performance hatte, wurde mit dem Argument abgespießt, dass die GTX980 ja schneller sein muss. Wie käme ich nur auf die idee eine 500€ Karte mit einer 250€ Karte zu vergleichen....
Da kommt man sich schon etwas verarscht vor. Dabei war mir das Problem auch bewusst, als ich noch gar keine nVidia Karte hatte...

Deswegen war ich überrascht, dass CB endlich das schreibt, was ich und wahrscheinlich auch einige andere hier schon öfter angesprochen haben, aber immer als Unsinn abgestempelt wurde.

Und sobald man mit ner nVidia Karte auch nur ein Wort gegen AMD sagt blockieren die meisten sowieso völlig. Ich glaube ich sollte mal meine Signatur löschen....
 
Zuletzt bearbeitet von einem Moderator:
pipip schrieb:
Fakt ist, Mantle hat bereits gezeigt, dass man einen Game Code offensichtlich besser aus mehrere Threads verteilen kann.
Somit stimmt die Aussage, Single-Thread Performance wird hier unwichtiger, wenn es ums Gamen geht. Dass diese bedeutungslos wird, habe ich anderseits auch nie behauptet.

Du verstehst den theoretischen Ansatz schon nicht. Die Frage ist nicht, dass es sich optimieren lässt sondern wie weit. Man optimiert jetzt die Teile die sich parallelisieren lassen. Einige davon werden möglich sein, bei anderen hast du immer entweder eine Kontrollfluss- oder Datenabhängigkeit, denn es gibt kein Programm das gar keine Abhängigkeit hat. Sprich irgendwann ist der Punkt erreicht, da lässt sich nichts mehr parallelisieren, die Kurve der Optimierung fällt ab/stagniert, da sich eben nichts mehr parallelisieren lässt und dann ist wieder Single am Zug. Der theoretische Punkt ist genau bei Zeit t, bei dem X Operationen anfallen die keine Abhängigkeit (also alle zu diesem Zeitpunkt) haben welche dann auf Y Kerne (X=Y) verteilt werden. Will man dann mehr Leistung wird die Single-Performance wieder wichtiger da sich das Programm dann wieder nur bei der Beschleunigung der atomaren Operationen optimieren lässt.

Deshalb die gewagte These aufstellen, dass in Zukunft die Single-Performance keine Rolle "Relevanz" (wie du selbst sagst) spielt, ist eine klare Lüge, weil sich eben doch nicht alle Algorithmen/Formeln unendlich parallelisieren lassen und dann die Single-Performance wieder wichtiger wird.

Aber du kannst uns alle bereichern in dem du deine Rechenarchitektur vorstellst die bei allen Instruktionen und Algorithmen zu jederzeit auf unendlich vielen Kernen skaliert.
 
Zuletzt bearbeitet:
strex schrieb:
Sprich irgendwann ist der Punkt erreicht, da lässt sich nichts mehr parallelisieren, die Kurve der Optimierung fällt ab/stagniert, da sich eben nichts mehr parallelisieren lässt und dann ist wieder Single am Zug. Deshalb die gewagte These aufstellen, dass in Zukunft die Single-Performance keine Rolle spielt eine klare Lüge ist, weil sich eben doch nicht alle Algorithmen/Formeln unendlich parallelisieren lassen..

Welche Lüge ? Die du mir unterstellst. Ich zitiere mich mal selbst und dann wirst merken, dass du von etwas völlig anderem redest als ich. Hier geht es ums Gaming.
Und Mantle selbst hat schon Realanwendungen gezeigt.

pipip schrieb:
Die Frage ist, wie lange "Single-Performance" durch die neuen API noch an großere Relevanz haben werden, besonders da der eigentliche Grund für die Wichtigkeit der Single-Core Performance DX 11 und Vorgänger war, was sich ja laut MS jetzt ändern soll.

Und ich habe zuvor sogar einen Link gepostet wo in diese Richtung sogar Aussagen getätigt worden sind.
http://winfuture.de/news,86363.html

Also wie gesagt, bleib beim Thema. Es interssiert nicht, wenn ich mich auf Games beziehe und du mir mit embedded Systeme kommst, die im Endeffekt genau das Beispiel für Single-Thread Performance sind.

Du verstehst den theoretischen Ansatz schon nicht.
PS: Glaub mir, ich vestehe schon etwas, aber du ließt offensichtlich grob.

Die Frage ist nicht, dass es sich optimieren lässt sondern wie weit.
Meine Behauptung, es gibt genug Programme, die schnell und günstig gelöst worden sind und deshalb auch nur auf einen Core ordentlich laufen.
Somit, ich habe nicht behauptet, dass man alles parallelisieren kann, sondern dass es genug Software gibt, die man hätte "besser" optimieren hätte können und DX12 zeigt uns, dass hier vieles vorenthalten wurde.
Das hat nichts mit "nicht verstehen" zu tun, sondern damit, dass es wahrscheinlich viel "Potential" gibt, dass oft verschenkt wird.
 
Zuletzt bearbeitet:
Laggy.NET schrieb:
Ja, es ist schon länger bekannt.

Komischerweise wurde mir bisher wirklich absolut jedes mal das letzte halbe Jahr, wenn ich es erwähnt habe unterstellt, ein Fanboy zu sein, der irgend welchen Müll daherredet und zudem sei es ja logisch, dass eine neue Nvidia Karte schneller sei als meine alte AMD karte usw.
Da konnte ich diskutieren und erklären, was ich wollte, es wurde mir einfach kein Glauben geschenkt, dass nVidia im CPU limit meist schneller ist...

Das haben CB und andere schon desöfteren erwähnt, vllt. hättest einfach mal Links dazu posten sollen.
Den hier zB, der ist über ein Jahr alt, das haben schon viele Testseiten zum Mantle-Release bemerkt:
http://www.overclock.net/a/amd-mantle-cpu-bottlenecks-cpu-limitations-and-you

Note: Now it has also been said that nVidia GPUs run better in very CPU Limited/Bound scenarios, here is a good example of the weaker GTX 580 out performing or matching performance in single and SLI configuration that appears CPU limited. It appears that the AMD GPUs are also very sensitive to what is going on with the CPU, whether its artificially bound, or just at the end of its life.
 
pipip schrieb:
Welche Lüge ? Die du mir unterstellst. Ich zitiere mich mal selbst und dann wirst merken, dass du von etwas völlig anderem redest als ich. Hier geht es ums Gaming.
Und Mantle selbst hat schon Realanwendungen gezeigt.

Die Antwort ist genau hier:

pipip schrieb:
Die Frage ist, wie lange "Single-Performance" durch die neuen API noch an großere Relevanz haben werden

Und die Antwort ist, immer! Single-Performance wird immer eine Relevanz haben, egal wie weit man parallelisiert (siehe oben). Denn eine Aufteilung von atomaren Operationen zu noch weiteren parallelen Ausführung ist nicht möglich. Das ist auch bei Gaming nicht anders.


pipip schrieb:
Es interssiert nicht, wenn ich mich auf Games beziehe und du mir mit embedded Systeme kommst, die im Endeffekt genau das Beispiel für Single-Thread Performance sind.

Es ist völlig egal was das Programm macht, heiße Luft, Grafik, echos,..der Ansatz der Architektur bleibt immer gleich.

pipip schrieb:
PS: Glaub mir, ich vestehe schon etwas, aber du ließt offensichtlich grob.

Scheinbar ja nicht, sonst würdest du ja nicht die Relevanz von Single-Performance abstreiten.
 
Zuletzt bearbeitet:
Laggy.NET schrieb:
Selbst die Tatsache, dass meine AMD Karte im CPU Limit nur zur hälfte ausgelastet war und deshalb keinen Einfluss auf die CPU performance hatte, wurde mit dem Argument abgespießt, dass die GTX980 ja schneller sein muss. Wie käme ich nur auf die idee eine 500€ Karte mit einer 250€ Karte zu vergleichen....
Da kommt man sich schon etwas verarscht vor. Dabei war mir das Problem auch bewusst, als ich noch gar keine nVidia Karte hatte...

Weil das Argument so ziemlicher Blödsinn ist.
Jede Grafikkarte die im CPU Limit hockt kann nicht ausgelastet werden, deshalb nennt man es ja CPU Limit.
Das sich das CPU Limit durch eine bessere CPU Auslastung verschieben kann ist wieder ein anderes Thema.
 
Zurück
Oben