News DirectX 12: AMD bestätigt maximal Feature-Level 12_0 für GCN

valnar77 schrieb:

Wer kauft sich auch so eine teure High-End-Kombi, um sie dann 5 Jahre mitzuschleppen ?

SLI/CF und Einzelkarten wie Titan sind Spielzeug für die, die es sich leisten können. Otto Normalverdiener fährt wesentlich besser, wenn er die Preis-Leistungskracher wie damals die 5850 herausgreift, und dann alle 3 Jahre etwas aktuelles kauft.
 
hab ich das richtig verstanden?

wenn man sich eine gute Grafikkarte die voll Dx12 unterstützen kaufen tut, reicht dann auch ein i3 Prozessor weil die CPU ja durch Dx12 entlastet wird?
 
@CB

Wo habt ihr die gesicherte Info her, das die GTX 9xx saemtliche Feature nativ in Hardware berechnen?
 
supersotir schrieb:
hab ich das richtig verstanden?

wenn man sich eine gute Grafikkarte die voll Dx12 unterstützen kaufen tut, reicht dann auch ein i3 Prozessor weil die CPU ja durch Dx12 entlastet wird?

Nicht ganz. Jede Grafikkarte die DX12 Support erhalten wird (egal welches Featurelevel) kann von der CPU Entlastung profitieren, sofern nicht irgendwas anderes limitiert. Letztendlichz das gleiche Spiel wie bei AMDs Mantle API.
Ob diese bei DX12 Spielen eingesparte CPU Last für andere Funktionen genutzt wird hängt wiederum vom Hersteller des Spiels ab.
 
supersotir schrieb:
hab ich das richtig verstanden?

wenn man sich eine gute Grafikkarte die voll Dx12 unterstützen kaufen tut, reicht dann auch ein i3 Prozessor weil die CPU ja durch Dx12 entlastet wird?

Im Endeffekt würde ich ein anders Beispiel nennen. Ich habe einen Freund ein Xeon mit 8 Threads verbaut, anstatt einem i5 oder i7.

DX profitiert at least von "mehreren" Threads, weil Aufgaben besser auf Threads verteilt werden können. Bei DX11 war meist nur 1 Thread wichtig und unter DX11 konnte man bereits von einem i3 profitieren, wenn das Spiel schlecht von mehreren Threads profitiert hat.
 
supersotir schrieb:
hab ich das richtig verstanden?

wenn man sich eine gute Grafikkarte die voll Dx12 unterstützen kaufen tut, reicht dann auch ein i3 Prozessor weil die CPU ja durch Dx12 entlastet wird?
AAA Titel wird man damit trotzdem nicht spielen können, 2 Kerne reichen dafür einfach nicht. Wie sehr die CPUs am Ende in der Praxis ausgelastet werden muss man sowieso ersteinmal abwarten.
 
pipip schrieb:
Mantle => Hat in erster Linie eigentlich nur für die R9 290X und R9 260 X funktioniert. Genau jene Karten die FL_12 unterstützten. Bei der R9 280X hatten ja viele einen vollen Speicher. Wer weiß ob das nicht daran lag, dass die GPU nur FL_11.1 unterstützt und deshalb eventuell einen höheren Speicherverbrauch hat. Dann wird es plötzlich für die ganze GTX 400 und 500 Serie sehr eng.
Aber darüber machen wir uns erst in 2 oder mehr Wochen Gedanken ^^

(Natürlich lässt sich das gesagte auch Anzweifeln, wenn man die R9 285 + Mantle BF4 ansieht, trotzdem bleibt es interessant, wie gut die emulierung ist und wie sich Fermi damit rumschlagt. Ob es da genaue Optimierungen gibt, oder eher nur durch Architektur Ähnlichkeiten eine "Kompatibilität" bekommt.)
Das hat mit FLs in erster Linie gar nichts zu tun.
Der erhöhte Speicherverbrauch kam durch die Spiele-Umsetzung.
Und von welcher Emulation sprichst du?

Ich sage mal was anders. Kann genauso sein dass AMD noch einige Features unterstützt die noch nicht zu DX zählen, MS aber einige Features übernommen hat, die NV angeboten hat, die aber eben zu FL_12.1 passen.
Max Mcmullen (DX12 Tech Lead) meinte die DX12 API zwischen Xbox One und PC ist praktisch identisch.
In dem Sinne müsste fast alles nützliche für GCN Gen 2 dort bedacht worden sein, wobei scheinbar leider doch paar Sachen nicht in die Spezifikation eingeflossen sind, wie Cross-Lane-Operations.

GreatEvil schrieb:
Wo habt ihr die gesicherte Info her, das die GTX 9xx saemtliche Feature nativ in Hardware berechnen?
Die bessere Frage ist, woher haben die Leute die ganzen Vorstellung mit emulierten Features und Software-Zeug.
Es ist allgemein gesicherter alles als Hardware-Support anzusehen, als einen Workaround, um das Feature zu supporten.
 
Soweit ich mich erinnere können Funktionen auch emuliert werden, die Frage ist nur ob es sinnvoll ist.
Die Funktionen müssen nutzbar sein, ob in Hardware oder in Software war wohl relativ egal.
 
Wie war denn das Tier 2 und Tier 3?
CB hat dazu nix erwähnt und aufgeschlüsselt, da unterschieden sich auch wieder die Grakas von amd/nv..
 
Es gibt einen Haufen Features die Tiers/Stufen haben.
Für ein Feature-Level sind gewisse Tiers Pflicht, alles darüber hinaus ist optional.
Vielleicht werden in Zukunft einige optionale Sachen später Pflicht für ein neues Feature-Level.

Man muss sich auf der anderen Seite nicht unbedingt an das Feature-Level halten.
Einzelne Features kann man auch so verwenden.
 
Bei nvidia hat sich hier hingegen nicht sooo viel verändert, wodurch sich die Arbeiten für einen entsprechenden DX12 Treiber überschaubar sein dürften.
LOL von Fermi auf Maxwell ist ein massiver Architektur Unterschied. Fermi die ineffizienteste Architektur, zur absolut effizientesten Architektur ever, war ein weiter Weg für NV. Noch dazu wurde der Shadertakt abgeschafft, bei Fermi konnte man noch die Shader separat hoch ziehen, seit Kepler ist es wie bei den AMD Shadern der Core Clock. (NV hat hier definitiv AMD nachgeeifert)

Dazu kommt dann noch die Frage ob die Karten dann nicht ohnehin schon zu langsam wären um von den primären Vorteilen wie der CPU Entlastung ernsthaft zu profitieren denn die greift ohnehin erst bei DX12 Spielen.
Das ist kein Problem, es gibt viele Leute die kaufen sich diese Leistung der Karten heute hier und jetzt Brand neu. Die fahren die Karte so lange bis sie kaputt ist oder das Spiel nicht mehr startet.


Wenn sich AMD diese Arbeit für längst ausgelaufene Produkte ersparen will halte ich das angesichts ihrer Wirtschaftslage für durchaus annehmbar.
Das ist auch der einzige Grund warum AMD das so macht. Geld. Nicht so viel Geld für die Treiber wie NV zur Verfügung hat.

. Ich glaube kaum das diese bei entsprechenden Spielen ernsthaft ins CPU Limit geraten
Einige Games sind massiv CPU limitiert, das hat mit der GPU 0 zu tun. Das liegt an der jeweiligen Engine und Setting. Du kannst nicht alle Games über einen Kamm scheren, schon klar das der CPU Overhead nicht in jedem Game Vorteile bringen wird. Aber jedes bisschen hilft mit Bulli, Core 2 Quad, Phenom 1+2 und der ersten I7 Generation im Kasten.

Hätte AMD schon seit der HD 5000 auf GCN gesetzt hätte man jetzt auch für HD 5000 und HD 6000 ein DX 12 Feature.
So ein Schwachsinn, hätte, wäre, wenn, AMD mehr Geld hätte, hätten die DX 12 bekommen. Und bei Fermi auf Maxwell ist absolut gar nichts gleich, die haben komplett neue Shader bekommen. AMD Karten haben sich wesentlich weniger verändert in der Zeit.

Aber wir wissen eh, dass es dir um nichts anderes geht, als um deine 580 GTX mit 3 GB. Glückwunsch, dass deine CPU bei der Grafikkarte jetzt weniger werkeln muss.
Schon wieder Schwachsinn. Ich hab einen 4GHz Ivy-E 6Kerner drin, der kennt noch keine CPU Limits. Noch dazu hab ich in ein paar Wochen eine Titan X EVGA Hybrid im Rechner, also bye bye 580er. Die war nur ein Beispiel das die Karten dieser Zeit noch ordentlich Power haben den Job zu erfüllen. Und es gibt viele Leute denen reicht die Power einer 480/580 noch zig Jahre bis die Karte kaputt ist, oder das Spiel mit dieser Karte gar nicht mehr startet. Vor allem wenn man 2 oder 3GB hat mit einer 5870 2GB; 6970 oder 580 sind die Karten noch ganz schön lange solide mit dabei bei mittleren bis hohen Details in vielen Spielen. Macht auf jeden Fall Sinn der DX 12 Support.

Aber auch mit einem Intel 6 Kerner freue ich mich auf DX 12, in zig Jahren dürfte meine CPU dann dadurch ein paar Jahre länger durchhalten als geplant. Der Core 2 Quad schaffte bei mir 6 Jahre, mal schaun ob ich das mit Ivy-E(2013) knacken kann.
 
Zuletzt bearbeitet:
JMP $FCE2 schrieb:
Wer kauft sich auch so eine teure High-End-Kombi, um sie dann 5 Jahre mitzuschleppen ?

SLI/CF und Einzelkarten wie Titan sind Spielzeug für die, die es sich leisten können. Otto Normalverdiener fährt wesentlich besser, wenn er die Preis-Leistungskracher wie damals die 5850 herausgreift, und dann alle 3 Jahre etwas aktuelles kauft.

Ich habe die Karten nicht neu zum Release gekauft, sondern gebraucht im Abstand von einem Jahr zu jeweils relativ günstige Konditionen.

Meine "Wünsche" sowie Argumentation hat nichts damit zu tun wer wann welche Karten zu welchem Preis gekauft hat.
 
Hier mal ein aufschlussreicher Artikel mit der Stützung auf Microsoft zu den FeatureLeveln und den Tiers
http://www.bitsandchips.it/52-engli...out-tier-and-feature-levels-of-the-directx-12

it is worth to restate that feature level 12.1 does not coincide with an imaginary “full/complete DirectX 12 support” since it does not cover many important or secondary features exposed by Direct3D 12.
FL12_1 heißt also nicht, dass vollständige DX12-Unterstützung besteht. Die Sache ist also etwas komplexer.


Auf deutsch zusammengefasst:
http://www.pcgameshardware.de/Direc...nterschiede-Feature-Levels-Tiers-AMD-1161045/
 
Zuletzt bearbeitet:
@Volker

Das ist aber der entscheidende Teil:

Das bedeutet letztendlich, dass die GCN-GPUs der Konkurrenz in Form von Maxwell 2.0 in kaum etwas nachstehen, teilweise sogar mehr können, bloß eben auf dem Papier schlechter dastehen. Dank Low-Level-Zugriff sollten den Entwicklern zudem Möglichkeiten offenstehen, nicht unterstützte Funktionen zu umgehen. Auf der Habenseite für AMD steht darüber hinaus noch die aktuelle Konsolen-Hardware als kleinster gemeinsamer Nenner.

Der fehlt bei euch in der Form, und das wiederum könnte manche zur Annahme verleiten, FL12_1 sei irgendwie überlegen.

Was ja, wie wir jetzt wissen, so nicht stimmt.
 
@Pilstrinker
Wie Recht du hast.
Ich hab mich schon gewundert, warum bei CB die Tiers noch nicht erörtert wurden. Bis jetzt klingt das ja positiver für NV Max v2
 
Natürlich ist eine Karte mit Feature Level 12_1 einer Karte mit 12_0 überlegen. Wie kann man nur so sinn befreit sein und die zu verneinen? :freak:

Feature Levels bauen aufeinander auf. Das heißt, dass alle Funktionieren eines niedrigen Levels im höheren ebenfalls unterstützt werden.

Wenn eine Karte also nur 12_0 ist, dann fehlt dieser CR Tier 1 und ROV. Wenn eine Karte nur 11_1 ist, dann fehlt dieser UAVs (64 in jeder Stage), Ressource Binding Tier 2 und Tiled Ressources Tier 2.

Ressource Binding Tier 3 ist eine optionale, zusätzliche Ausbaustufe, genauso wie Tiled Ressources Tier 3 oder CR Tier 2 und 3.
 
@Sontin

Ich gehe mal davon aus, dass du den PCGH-Artikel - wenn überhaupt - nicht richtig gelesen hast.
 
Volker schrieb:
Gibt es bei uns auch shcon seit Tagen: https://www.computerbase.de/2015-06/welche-grafikkarte-unterstuetzt-directx-12/

Die ganzen Artikel basieren ja zum Teil alle auf den Aussagen, die wir AMD entlockt haben zu dem Thema, vorher hatte die keiner.
Warum ist dieser Artikel eigentlich weder in der News, noch in der Artikel oder in der Notizübersicht zu finden? (Mobile Ansicht)

Das würde mal etwas aufklären der sein und nicht nur als Link im Update der News.
 
Hallo CB

es fehlt immernoch die Rückmeldung, woher ihr die gesicherte Info herhabt, das die GTX 9xx saemtliche Feature nativ in Hardware berechnen?

Wenn man sich in den entsprechenden Fachforen umsieht, heisst es derzeit, das es eine solche ebend NICHT gibt bzw. NVIDIA bisher eine klare Antwort schuldig geblieben ist.

Also nochmal, wie kommt ihr auf native FL12_1 Unterstuetzung fuer Nvidias 9xx Serie?
 
Zurück
Oben