Test DirectX 12: Vollgas für AMD in der Beta von Ashes of the Singularity

mambokurt schrieb:
Alteisen für 300€, na Danke ;)
Eine GTX280 hat auch mal 500€ gekostet. Trotzdem gehört sie zu den Alteisen. ;)

Diese vereinzelten DX12-Titel bringen uns auch nicht weiter wenn 95% aller Spiele DX11 haben. Von älteren Spielen die immer noch sehr gut sind ganz zu schweigen.
 
Oder auch mit DX9, seit es programmierbare Shader gibt.
Pfff wer braucht für soetwas schon Shader - geht ja auch fast alles mit der Fixed Function Pipeline ;)
 
mambokurt schrieb:
Ich gehe davon aus, das jede Graka von DX 12 profitieren müsste, weil es bei DX 12 ja eben um etwas mehr Hardwarenähe bzw Entlastung der CPU und Entschärfung der Drawcalleskalation ging

So einfach ist das leider nicht. Schau dir mal halbwegs aktuelle Benchmarks an wo unter anderem die CPU-Limitierung gemessen wird, und du wirst feststellen dass nVidia-Karten die CPU deutlich später ins Limit laufen lassen. Das liegt an sehr gut optimierten DX11-Treibern.
Genau dieses Problem wird aber von DX12 angegangen. Diese Baustelle ist wegen dieser DX11-Optimierungen nun längst nicht mehr so groß, dass man massiv von einem API-Wechsel profitieren könnte wie die Konkurrenz. Das hat sich schon damals bei Battlefield 4 angedeutet

mambokurt schrieb:
Dass DX12 unter einer Graka schlechter performed als DX11 ist schlicht ein Lacher, das heißt übersetzt dass man auf der Graka DX12 direkt in die Tonne treten und weiter DX11 benutzen kann.

Nein, das ist die direkte Folge von dem was ich eben geschrieben habe. Man kann die Optimierungen die man schon hat leider nicht von DX11 zu DX12 mitnehmen. Es geht jetzt wieder von vorne los.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Genau dieses Problem wird aber von DX12 angegangen. Diese Baustelle ist wegen dieser DX11-Optimierungen nun längst nicht mehr so groß, dass man massiv von einem API-Wechsel profitieren könnte wie die Konkurrenz. .

Soll heißen eine 390 hat per se 20% mehr Dampf als eine 970 und bringt die nur nicht auf die Straße weil die Treiber für DX <12 bescheiden sind? Soll außerdem heißen, selbst wenn die 970 async computer anständig supporten würde, wäre sie nicht viel schneller?

Beides IMHO vielleicht ein Stück weit, aber nicht zu 100%.
 
Die Rohleistung ist schon etwas höher bei der 390. Die hat eine Menge mehr Shader, auch wenn die schwächer sind und die Speicherbandbreite ist größer. Mich wundert das nicht wirklich das sie auf einmal so gut abschneidet im Vergleich zur 970. Ich hab immer das Gefühl das Nvidia "maßgeschneiderte" Lösungen hat die ein Problem hier und jetzt sehr gut bewältigen und AMD bis jetzt mehr die Vorschlaghammer Methode um den Treiberrückstand auszugleichen, allerdings wird sich das wohl langsam ändern, denn an den Treibern wird ja massiv gearbeitet und optimiert.
 
richtig, Hawaii hat zB schon immer mehr Rohleitung und den heftigeren Chip, das breitere SI usw... genau deswegen leidet auch die Marge bei AMD etwas aber genau deshalb nehmen diese mit der Zeit etwas mehr zu (da die Rohleistung langsam besser umgesetzt wird). Nvidias Chip sind da etwa leichtfüßiger unterwegs.

Fiji zeit in meinen Augen zur Zeit eher schwache Leistung, gerade auch in Relation zur Rohleistung.

Ich denke es ist nicht nur der Treiber unter DX11, viel eher auch ein grundlegendes Architekturproblem das hier etwas ausbremst. AMD sagst ja selbst dass genau das bei der Next Gen wieder grundlegend überarbeitet wurde. Bisher hat sich da die letzten Jahre bei AMD kaum was getan, auch die Fiji / Tonga sind architekturell doch schon etwas älter und das Frontend lastet den Chip zu schlecht aus, auch der Takt ist einfach zu klein im Vergleich zu Nvidia. 300Mhz machen halt schnell 30% aus.

Bin mal gespannt was AMD bei den nächsten Chips zaubert, vermutlich die erste richtige Architekturänderung seit GCN Einführung.
 
@ SlaterTh90
Die Shader an sich sind überall nahezu gleichwertig und schaffen 2 FLOPS FMA pro Takt (In anderen Operationen unterscheiden sie sich zum Teil aber die sind größtenteils irrelevant).
 
Kein Wunder das alle die DX12 Support versprochen haben aber von NV gesponsort werden nicht in die Pushen kommen (z.b Ark & Rottr) Mal sehen wann sie grünes Licht für den Support bekommen.
 
Jep, sieht man eindeutig, im Gegensatz zu den zahlreichen DX12 AMD-Titel...
 
Zuletzt bearbeitet:
Locuza schrieb:
Natürlich kann DX12 auch optisch etwas Neues bieten, wenn die neuen Rendering-Features genutzt werden, die auf anderem Wege zu teuer sind.

Nein kann es nicht, es kann die Umsetzung erleichtern (le API), das ist nur Backend ;)
Visuelle Unterschiede wird es höchstens in einzelnen Spielen geben, wo man sich für DX11 nicht mehr die Mühe macht, entsprechende Effekte umzusetzen.

Ich meinte das zudem nur "grundsätzlich", weil einige davon Ausgehen dass Spiele mit DX12 generell besser aussehen werden.

Vaporizer schrieb:
Kein Wunder das alle die DX12 Support versprochen haben aber von NV gesponsort werden nicht in die Pushen kommen (z.b Ark & Rottr) Mal sehen wann sie grünes Licht für den Support bekommen.
Ark = UE4 und UE4 besitzt lediglich einen experimentellen Wrapper für DX12, der noch exakt .... 0 Vorteile gegenüber der DX11 Implementierung bringt. Ob EPIC hier nachbessert muss man abwarten, Async Shaders Support hatten sie zumindest schon mal angekündgt gehabt.

Die ARK Pfeifen ehh Entwickler wussten bescheid und haben trotzdem von Performance Increases up to 30% gelabert.

mfg,
Max
 
Zuletzt bearbeitet:
Der Landvogt schrieb:
Kaufst du ernsthaft eine GPU um sie erst in 3 Jahren voll nutzen zu können? Glaub mir, bis dein "langfristig" eintrifft ist die Karte ein Fall für den Müll. Wir leben im hier und jetzt. Daher sollte man sich erst mal ernsthaft fragen, ob es im Zeitpunkt des "langfristig" AMD überhaupt noch in der Form gibt. Vieles spricht nicht dafür. Die potentielle Kundschaft treibt man ja schon seit Jahren zur Konkurrenz namens Intel und Nvidia.

Nö aber ich kaufe ein produkt um es möglichst lange nutzen zu können und muss sagen dass meine R9 290 die wohl besten Investition meines Lebens war.
Gekauft zu Kepler Zeiten, war selbst da für den mittleren Geldbeutel erschwinglich, kann zusammen mit den lower level APIs selbst mit den Maxwells noch sehr gut mithalten bzw. dreht da erst richtig auf, erspart mir dabei auch noch ein CPU Upgrade und es benötigt wohl erstmal eines Pascal um ihn ernsthaft ablösen zu können. Der für mich einzige Nachteil ist dabei dessen Strombedarf. Da ich ohnehin nicht allso oft zum Zocken komme (nicht zuletzt wegen des Spiele Angebots) ist mir der Punkt mit dem Strombedarf ohnehin ziemlich egal.

Mit anderen Worten benötigt die geforce Fan Fraktion 3 Generatioen um gegen diesen alten Schinken keine Nachteile mehr zu haben und freut sich das sie auf dem Weg dort hin gleich 3 Generationen kaufen durften. :daumen:

Necareor schrieb:
Alter Schwede Lemmi91w, hast du dich jetzt extra angemeldet, um hier deinem AMD-Fanatismus zu frönen?
Ich bezweifle stark, dass der Landvogt die Leistung der HD 4870 und HD 6970 mit der Leistung heutiger Karten vergleichen wollte. Aber du kommst schon noch drauf, worauf er abzielt...
Selbst wenn, hier gibt es genug nvidia "Fanatiker" um das mehrfach "ausgleichen" zu können.
 
Wadenbeisser schrieb:
Mit anderen Worten benötigt die geforce Fan Fraktion 3 Generatioen um gegen diesen alten Schinken keine Nachteile mehr zu haben und freut sich das sie auf dem Weg dort hin gleich 3 Generationen kaufen durften. :daumen:
Solch einen Blödsinn liest man hier wirklich selten. Und hier liest man viel Blödsinn.
 
Sontin schrieb:
Er hat absolut recht damit. AMD unterstützt weniger Features der API. Werden die eingesetzt, gibt es die Effekte entweder nicht auf AMD Hardware oder müssen über langsame Shader-Techniken emuliert werden.

Das gleiche Spiel hatten wir auch schon bei DX11 oder wieviele Spiele kennst du bei denen sich DX11.1 und 11.2 durchgesetzt hatten?
Es wird für die Masse programmiert und ohne "Entwicklungshilfe" pfeift man ganz einfach auf die zusätzlichen Funktionen und wählt den kleinsten gemeinsamen Nenner.
Ergänzung ()

Der Landvogt schrieb:
Solch einen Blödsinn liest man hier wirklich selten. Und hier liest man viel Blödsinn.

Um so öfter lese ich hier verweise das bei Pascal ja alles soo viel besser wird, ohne Belege versteht sich.
Vielleicht solltest du dich erst einmal an die eigene Nase fassen.
 
Wadenbeisser schrieb:
Um so öfter lese ich hier verweise das bei Pascal ja alles soo viel besser wird, ohne Belege versteht sich.
Deine Belege dass alles gleich bleibt oder gar schlechter wird? Deine Belege dass deine 290 bald deutlich schneller sein wird als Kepler oder Maxwell?
 
Locuza schrieb:
Oder auch mit DX9, seit es programmierbare Shader gibt.
Viele Dinge muss man dann über 10 Umwege programmieren und hat dann am Ende 0,37 FPS, aber was solls. :p

Natürlich kann DX12 auch optisch etwas Neues bieten, wenn die neuen Rendering-Features genutzt werden, die auf anderem Wege zu teuer sind.

Nun ja, das primäre Feature von DX12 ist letztendlich doch ohnehin "nur" die effektivere und effizientere Nutzung der CPU, was jeden mit einer vergleichsweise schwachen CPU freuen wird. Entwickler dürfte es wiederum freuen das sie sich weniger Gedanken um das draw call Limit machen müssen und damit vor allem für den PC Spiele Bereich mehr Freiheiten haben.
Ergänzung ()

@Der Landvogt
Hättest du dir den Test zu diesem Diskussionsthema angesehen dann hättest du auch deinen Beleg dafür das die Geforce bei DX12 zurück fällt und die Radeon deutlich zulegen kann gesehen, was wiederum auch der Beleg für meine Aussage zum Langzeitnutzen ist.
Das Ding hatte mich seinerzeit gute 350€ gekostet, der damalige Gegenspieler wäre eine GTX780 gewesen und der Nachfolger mit dem gleichen Chip (R9 380) macht hier unter DX12 eine GTX970 nass die heute in der gleichen Preisregion erhältlich ist und mit deren kastrierten Speicherinterface spätestens beim Erscheinen des Nachfolgers ein ziemliches Problem bekommen dürfte wil sich ganz einfach der Fokus bei der Treiberentwicklung verschiebt und die benötigte extra Wurst zum Umschiffen des Problems immer unwarscheinlicher wird.

Da es derzeit keine andere Vergleichsmöglichkeit gibt mußt du dich damit zufrieden geben ob es dir nun passt oder nicht.
 
Wadenbeisser schrieb:
Hättest du dir den Test zu diesem Diskussionsthema angesehen dann hättest du auch deinen Beleg dafür das die Geforce bei DX12 zurück fällt und die Radeon deutlich zulegen kann gesehen, was wiederum auch der Beleg für meine Aussage zum Langzeitnutzen ist.
Ist es nicht, das wurde hier im Thread schon zig mal erläutert. Aber wenn du dich an diesen nichtssagenden Benchmark klammern willst, bitte. Muss irgendwie Verzweiflung sein.
 
Ignorier den Landvogel doch einfach, der schnabuliert immer weiter, egal worum es geht.
Der erste Test war "nichtsaussagend" weil ALPHA.
Und nun geht er langsam zu "schlecht progorammiert" über, obwohl es ja offensichtlich nicht so ist, siehe CB Tests + Fazit.

Dieses besagt auch man solle die Tests mit Vorsicht genießen, nicht man solle sie leugnen und ihre Existenz dementieren.

mfg,
Max
 
max_1234 schrieb:
Nein kann es nicht, es kann die Umsetzung erleichtern (le API), das ist nur Backend ;)
Visuelle Unterschiede wird es höchstens in einzelnen Spielen geben, wo man sich für DX11 nicht mehr die Mühe macht, entsprechende Effekte umzusetzen.
Also ja oder nein? ;)

Ich meinte das zudem nur "grundsätzlich", weil einige davon Ausgehen dass Spiele mit DX12 generell besser aussehen werden.
Die letzten 10 Jahre gab es sowieso keine Situation mehr, wo eine neue DX-Version grundsätzlich schönere Spiele hervorgebracht hat.
Jedenfalls nicht zu Beginn und alles hat stets seine Zeit gebraucht.

Wadenbeisser schrieb:
Nun ja, das primäre Feature von DX12 ist letztendlich doch ohnehin "nur" die effektivere und effizientere Nutzung der CPU, was jeden mit einer vergleichsweise schwachen CPU freuen wird. Entwickler dürfte es wiederum freuen das sie sich weniger Gedanken um das draw call Limit machen müssen und damit vor allem für den PC Spiele Bereich mehr Freiheiten haben.
Primär im Sinne, dass ist das was man auf jeden Fall für jedes DX12 Spiel potentiell als Verbesserung ausführen kann.
Ja, aber daneben gibt es auch auf der GPU-Seite eine Menge an Verbesserungen und gerade für die Zukunft.
Und zu meinem Erstaunen wird es schon bald zwei Spiele geben, die sogar Conservative Rasterization und ROVs verwenden.
 
@Der Landvogt
Worauf stützt du deine Aussage? Auf den heiligen grünen Geist der Vollkommenheit, getreu dem Motto was nicht sein darf das nicht sein kann? :D

@Locuza
Ja für zukünftige Spiele könnte es mit den neuen APIs lustig werden aber eines nach dem anderen.
Mit Geschichten wie async compute könnte man die GPUs besser auslasten und die neueren Features dürften ohnehin in zukünftige GPUs mit einfließen. Das die neueren Features genutzt werden ist sicherlich interessant allerdings gehe ich davon aus das dies durch die Unterstützung der Hardware Hersteller eingearbeitet wird und sie müssen natürlich auch erst einmal zeigen was sie bringen.
Ich für meinen Teil hoffe allerdings darauf das zukünftig verstärkt auf Vulcan zurückgegriffen wird um nicht auf Windows 10 angewiesen zu sein.
 
Zurück
Oben