News DirectX 12: AMD bestätigt maximal Feature-Level 12_0 für GCN

@Tomislav: ich schrieb auch nicht dx12, sondern dx12.2!!
Aha, dx12 aber feature level 11.x?
Soll das ein Witz sein?

Entweder ein Grafikchip unterstützt dx12 (geringerer Overhead + evlt andere features) oder nicht!
Und dann dx12.1: entweder ein Grafikchip unterstützt die features von dx12.1 oder nicht!
Analog dx12.2 mit weiteren features.

Alle anderen Bezeichnungen sind doch nur unnötig und dumm.
Und so Dinge wie auf den Karton "dx12 ready" raufzu pinseln, wenn die Karte nur dx11.0 und eben die dx12.0 features wie etwas den geringen overhead NICHT unterstützt, sind Betrug!!
Ja, man kann mit dieser dx11.0 Graka auch dx12 Spiele spielen, sie werden laufen...
Aber das dx12 hat am Karton und in der Werbung NICHTS verloren!
AMD/ATI hats immer als erster unterstützt (dx10.1, dx11.1) und nVidia hats einfach auf den Karton gepinselt, obwohl es nur dx .0 Karten waren!
Das ist absichtlichet Betrug und gehört stark bestraft!!
Ich kann ja auch auf meinen uralt Gameboy "Videoschnitt ready" oder Minecoin ready draufschreiben, nur wird unser Universum kein Ergebnis mehr erleben (siehe news zum alten IBM mainframe und bitcoin mining)!

Wie ich schon sagte: abwarten biss alle grakas, win10 mit dx12 auf dem Markt ist und monatelang von allen gegegetestet wurde. Dann erst Meinung bilden ;)

MfG
Ergänzung ()

luda schrieb:
Ich versteh das nur nicht ganz. Warum hat die 260x 12_0 und die 280x nur 11_1? Sowas ist doch auf den ersten Blick wieder total bescheuert.

Es war damals schon bei Erscheinen klar, dass der "kleinere", HD7790 ein anderer Chip mit weiterentwickelter Architektur ist.
Auch bei den Umbenennungen, wodurch dieser zur Rx 260x wurde, wurde es erneut kommuniziert.
Wenn du das verschlafen hast ist das leider Pech.
Eine R9 285 (Tonga) ist auch moderner ald eine R9 290(X) (Hawaii) obwohl die Nummer niedriger ist!
Bei den Maxwells ist auch die GTX960 moderer als 970/980/980Ti/Titan X, wegen dem neuen UVD.
Also nach dem.Releasedatum der Chips schauen und gucken, ob sich in der Technologie etwas verändert hat!
7790 kam nach 7970 raus, 285 kam nach 290(X) raus, 960 kam nach 970/980 raus.

MfG
 
Hallo
Smartbomb schrieb:
@Tomislav: ich schrieb auch nicht dx12, sondern dx12.2!!
Aha, dx12 aber feature level 11.x?
Soll das ein Witz sein?

Entweder ein Grafikchip unterstützt dx12 (geringerer Overhead + evlt andere features) oder nicht!
Du hast es immer noch nicht verstanden, schau auf das Bild: http://www.hardwareluxx.de/index.ph...980-ti-directx-12/gtx980ti-dx12-1fc0b45c.html
DirectX 12 ist abwärtskompatibel zu DirectX 11 und bietet DirectX 11 Karten innerhalb der DirectX 12 API mit dem Feature Level 11.X Vorteile, nämlich Low Overhead, More Control und Async Compute.
Darüber hinaus gibt es noch neue DirectX 12 Hardware Funktionen:
Feature Level 12.0: Bindless, Typed UAV Access, Tiled Resource
Feature Level 12.1: Raster Order Views, Conservative Raster
Feature Level 12.2: Volume Tiled Resource (Dieses Feature Level gibt es offiziell (noch) nicht, NVidia nennt es aber so weil die entsprechenden NVidia Karten es über das Feature Level 12.1 hinaus beherrschen.)

Wolfgang schrieb:
Diese Tabelle ist ein Fake!
Diese Tabelle ist nicht ganz so fein aufgelöst von NVidia, was zumindest die Aussagen zu Feature Level 11.X und 12.X bestätigt: http://www.geforce.com/whats-new/articles/introducing-the-geforce-gtx-980-ti
Das es Feature Level 12_0 und 12_1 gibt bestätigst du selber: https://www.computerbase.de/2015-06/directx-12-amd-radeon-feature-level-12-0-gcn/
Zitat: "Nvidias GPUs auf Basis der Maxwell-2.0-Architektur unterstützen DirectX 12 mit den Feature-Levels 12_0 und 12_1."

Grüße Tomi
 
Zuletzt bearbeitet:
Wolfgang sagt, die Tabelle ist ein Fake!
Dx11.1 Karten bleiben aber dx11.1 Karten!!
Ok, manche unterstützen das Zusätzliche "feature" von dx12.0, nämlich den geringeren Overhead.
Da dx12.0 ja wohl aus mehr als nur dem geringeren Overhead besteht, was die dx11.1 Karten nicht alles vollständig unterstützen, werden aus den Chips eben keine dx12.0 Chips!
Würden die dx11.1 Karten dx12.0 VOLLSTÄNDIG unterstützen, ja, dann wäre es dann plötzlich statt einer dx11.1 eine dx12.0 Karte! :)

MfG

PS: so wie nvidias dx11.0 Karten einige features von dx11.1 unterstützten, aber halt nicht alle. Sie blieben deshalb aich dx11.0 Karten und wurden nicht zu dx11.1 Karten,eben weil sie dx11.1 nicht vollständig unterstützten!

PPS: Achso, dx12 ist schon ein Jahr lang fertig?
DAS wäre mir neu! Drecks MS hat ja erst nach Release von mantle begonnen, auch wenn sie NATÜRLICH :rolleyes: gegenteiliges Behaupten. Jaja, schon jaaaahrelang mit viel Aufwand wurde dx12 schon entwickelt :rolleyes:
 
Zuletzt bearbeitet:
Hallo
Smartbomb schrieb:
Wolfgang sagt, die Tabelle ist ein Fake!
Wolfgang weiß es also besser als Nvidia: http://www.geforce.com/whats-new/articles/introducing-the-geforce-gtx-980-ti Etwas runter scrollen !

Smartbomb schrieb:
Dx11.1 Karten bleiben aber dx11.1 Karten!!
Ok, manche unterstützen das Zusätzliche "feature" von dx12.0, nämlich den geringeren Overhead.
Richtig.
DirectX 12 ist abwärtskompatibel zu DirectX 11 und bietet DirectX 11 Karten innerhalb der DirectX 12 API mit dem Feature Level 11.X Vorteile, nämlich Low Overhead, More Control und Async Compute.

Smartbomb schrieb:
Da dx12.0 ja wohl aus mehr als nur dem geringeren Overhead besteht, was die dx11.1 Karten nicht alles vollständig unterstützen, werden aus den Chips eben keine dx12.0 Chips!
Na endlich hast du es verstanden, die zusätzlichen Features von DirectX 12 sind:
Feature Level 12.0: Bindless, Typed UAV Access, Tiled Resource
Feature Level 12.1: Raster Order Views, Conservative Raster
Feature Level 12.2: Volume Tiled Resource (Dieses Feature Level gibt es offiziell (noch) nicht, NVidia nennt es aber so weil die entsprechenden NVidia Karten es über das Feature Level 12.1 hinaus beherrschen.)

Smartbomb schrieb:
Würden die dx11.1 Karten dx12.0 VOLLSTÄNDIG unterstützen, ja, dann wäre es dann plötzlich statt einer dx11.1 eine dx12.0 Karte!
Das hat auch niemand behauptet.

Smartbomb schrieb:
Achso, dx12 ist schon ein Jahr lang fertig?
DAS wäre mir neu!
Das es dir neu ist heißt nichts, DirectX 12 wurde im März 2014 auf der Game Developers Conference in San Francisco vorgestellt:
http://de.wikipedia.org/wiki/DirectX#DirectX_12
http://blogs.msdn.com/b/directx/archive/2014/03/20/directx-12.aspx

Smartbomb schrieb:
Drecks MS hat ja erst nach Release von mantle begonnen, auch wenn sie NATÜRLICH gegenteiliges Behaupten.
Was hast du denn für Probleme ? Noch keinen Kaffee gehabt ? Mantle kam 2013 was nach meinem Kalender vor 2014 liegt.

Grüße Tomi
 
Zuletzt bearbeitet:
Verstanden hab ich es ychon immer und auch so gemeint, du dürftest nur meine vorherigen Kommentare anders interpretiert haben! :)

Vorstellen kann man einiges!
Ich lasse auch nen Grafiker ein Renderbild eines neue Lamborghini erstellen, erfinde ein par Daten und stelle ihn dann vor.
Danach gehts in die Entwicklungsabteilung und sage, hop hop, entwickelt mir das Teil. In 2 Jahren muss der Ptototyp fahren, braucht eh erst in 3 auf der Straße sein ;)
Vorstellen = hallo, wir arbeiten dran.
Nix weiter. Leider ;)

Nach deinem Link wird unterschieden in dx12 API (=geringer overhead) und dx12 features.
Kein Wort von dx12.1, dx12.2, 11_x, 12_0, 12_1, 12_2, 12_3, Tier 1-3 or whatever.

Aber ich sag es nochmal: warten wir mal bis alles draußen und nachgetestet ist, vorher sind diese Spekulationen ja ohnehin wertlos ;)
Ergänzung ()

Was, mantle Spiele gibts seit 2013? Sch i werd alt bzw die Zeit vergeht!
War ned Battlefield 4 das erste mantle game?
Ne, noch keinen Kaffee ;)
Kleines Handydisplay im.Bett ;)
 
Hallo
Smartbomb schrieb:
du dürftest nur meine vorherigen Kommentare anders interpretiert haben! :)
Evtl. solltest du mal an deiner Ausdrucksweise arbeiten, dann würde man dich auch besser verstehen.

Smartbomb schrieb:
Was, mantle Spiele gibts seit 2013? Sch i werd alt bzw die Zeit vergeht!
War ned Battlefield 4 das erste mantle game?
Mantle und Battlefield 4 kamen 2013:
http://de.wikipedia.org/wiki/AMD_Mantle
http://de.wikipedia.org/wiki/AMD_Mantle#Unterst.C3.BCtzende_Spiele

Smartbomb schrieb:
Nach deinem Link wird unterschieden in dx12 API (=geringer overhead) und dx12 features.
Richtig und für den geringeren Overhead reicht Feature Level 11.X und für die zusätzlichen DirectX 12 Features benötigt man Feature Level 12.X, das was ich die ganze Zeit schreibe.

Grüße Tomi
 
Zuletzt bearbeitet:
@smartbomb:

Ich hab die ja gar nicht. Finds nur generell unschön. ^^
 
Jop, wie gesagt, früh am Morgen, kein Kaffee, Handydisplay im.Bett. und nur eine Zeile sichtbar, weil die untere Displayhälfte die Tastatur verdeckt, oben die Browser Adressleiste ist und darunter die blaue Computerbase leiste!
Und dann ist die weiße Kommentarbox unnötigerweise nedmal so breit wie das Display...
MotoG gen 1, 4,5" bei 720p, Stock android 5.0.2 und google chrome. War aber seit 4.3 und auch dem.alten CB design so. Übrigens bin ich auf der mobilen Seite.
Grüße auch von mir und guten Morgen übrigens! :)
 
Smartbomb schrieb:
Es war damals schon bei Erscheinen klar, dass der "kleinere", HD7790 ein anderer Chip mit weiterentwickelter Architektur ist.
Auch bei den Umbenennungen, wodurch dieser zur Rx 260x wurde, wurde es erneut kommuniziert.
Wenn du das verschlafen hast ist das leider Pech.

Das ist aber etwas was keiner von den Endkunden verstehen kann oder auch überhaupt verstehen muss.
Woher soll jemand der keinen Account in einem Computerforum besitzt bitte wissen, dass die Radeon Soundso mit der Bezeichnung 12345 eigentlich nur eine Karte mit der Bezeichnung ABCDE ist, die aber umbenannt wurde um besser in das Namensschema des Nachfolgers zu passen?
Und dass dann einige der Karten in diesem Namensschema hingegen doch wieder neuer sind.

Tomislav2007 schrieb:
Was hast du denn für Probleme ? Noch keinen Kaffee gehabt ? Mantle kam 2013 was nach meinem Kalender vor 2014 liegt.

Ich finde es auch nicht so ganz unrealistisch, dass DICE (von denen Mantle ja eigentlich stammt) sich am Anfang der Entwicklung bereits an Microsoft wandten und darum baten die Funktion von Mantle in ein zukünftige DirectX zu übernehmen.
Damals lehnte Microsoft die Idee vielleicht ab, setzten aber trotzdem ein paar Entwickler daran mal zu schauen wie man das in DX integrieren könne, während DICE sich dann an Nvidia und AMD wandte und AMD schließlich die Idee akzeptierte.
 
Smartbomb schrieb:
Entweder ein Grafikchip unterstützt dx12 (geringerer Overhead + evlt andere features) oder nicht!

Der geringere API-Overhead ist keine Sache der GPU, sondern der Direct3D-API von DX12. Jede Grafikkarte, für die der Hersteller noch DX12-fähige neue Treiber rausbringt, wird von dem geringeren Overhead profitieren. Natürlich mehr oder weniger stark, z.B. abhängig davon, wie gut der bisherige Treiber schon mit den Limitierungen von DX11 umgehen konnte, wie gut er für Multithreading optimiert war und natürlich, wie stark die CPU ist, die man nutzt usw.

Die sonstigen Features müssen hingegen von der GPU-Hardware unterstützt werden. Daraus ergibt sich der jeweilige Featurelevel 12_X.

Und so Dinge wie auf den Karton "dx12 ready" raufzu pinseln, wenn die Karte nur dx11.0 und eben die dx12.0 features wie etwas den geringen overhead NICHT unterstützt, sind Betrug!!
Ja, man kann mit dieser dx11.0 Graka auch dx12 Spiele spielen, sie werden laufen...
Aber das dx12 hat am Karton und in der Werbung NICHTS verloren!

Wie gesagt, vom geringeren Overhead profitieren alle Grafikkarten mit DX12-Treibern. Und für den Kunden/Spieler ist doch am allerwichtigsten zu wissen, ob zukünftige DX12-Spiele auf der betreffenden Karte laufen werden oder nicht!
Alles andere, wie einzelne optionale Features oder sogar Leistungsgewinne durch weniger API-Overhead (wenn es nicht sowieso gegeben wäre) interessieren den Otto-Normal-Kunden doch berechtigterweise viel weniger bis gar nicht. Zumal z.B. der Leistungsgewinn ja immer relativ ist. (Eine alte DX11-High-End-Karte ohne DX12-Treiberunterstützung wird in der Regel immer noch schneller sein, als eine neuere Low-End-Karte mit DX12-Treibern.)
 
Das ist schon bitter für Leute mit einer 270(x) oder 280(x), dass sie auf FL_11_1 stehen bleiben.

G3cko schrieb:
Die ersten DX12 Spiele werden es schon zeigen, wie gut welche Architektur dann dasteht und was benötigt wird. Alles andere ist nur wilde Spekulation. Hoffentlich gibt es dann hier auch einen umfangreichen Test, auch und gerade mit älteren Karten.

Ja, darauf kommt es letztlich an.

Smartbomb schrieb:
Jop, wie gesagt, früh am Morgen, kein Kaffee, Handydisplay im.Bett. und nur eine Zeile sichtbar, weil die untere Displayhälfte die Tastatur verdeckt, oben die Browser Adressleiste ist und darunter die blaue Computerbase leiste!

Das nennt sich dann Foren-Sucht :D
 
@iSight: Der Endkunde der sich nicht informiert gat nicht. Aber der kauft eh einfach nur n PC und ist.glücklich. Oder ne schnellere Karte als dieser hatte und ist.glücklich. Er spielt vl Spiele, die laufen dann und er ist glücklich.

Endkunden die sich informieren wissen oder erfahren das wärend sie sich informieren.
Also könnte man die Karten auch alle von mir aus nur mit nem Barcode alleine bezeichnen. Der der keinen Plan hat wird ebenßo glücklich wie jener mit Plan und sich entscheidet die Karte zu kaufen. Von dem Gesichtspunkt her kein Problem. An aller erster Stelle steht eh die Leistung und dann der Preis bei Grafikkarten. Da guckt man Benchmarks und das Preis Leistungsverhältnis, dann noch ein leises Kühlsystem und ist gekauft.
So wirds bei den meisten doch wohl sein. Die anderen kaufen Komplettsysteme, zB den neuen Aldi PC...
 
Zuletzt bearbeitet: (@iSight)
Laut dem Update von dieser Nachricht bekomme ich mit meine HD 7950 Nachteile was Feature-Level 12 angeht.

Schade eigentlich !

Kann man eigentlich eine HD 7950 (3GB VRAM) mit einer R290 X (8 GB VRAM) in einem Crossfire-Verbund kombinieren oder geht das nicht ?

Wie ist denn das, wenn eine Karte DirectX 12 kann, die andere aber nicht ? Gibt es dann Nachteile und wie äußern sich diese Nachteile eventuell ?
 
Herdware schrieb:
Wie gesagt, vom geringeren Overhead profitieren alle Grafikkarten mit DX12-Treibern.

Und geanu das wäre noch die nächste Frage: Bis zu welcher GPU-Generation unterstützen neue Win10/DX12-Treiber noch diese? Ist ein Nvidia-Fermi (GTX400/500) mit dabei? Wie stehts bei AMD um die Terrascale-Chips (HD5000/6000)? Eigentlich sind beide Architekturen noch leistungsfähig genug, um sie nicht unter den Tisch fallen zu lassen.
 
Betrug! Am Ende sind die letzten 256MB nur mit 32bit angebunden anstatt mit voller Bandbreite!
 
@Psycho:

Du hast eine dx11.1 Grafikkarte, die trotz ihres Alters die dx12 API (=reduzierter overhead) unterstützt. Das ist nicht schade, das ist super!! :)
Eine 3 Jahre alte dx11.1 Karte kann halg keine neuen dx12.x features, das müsste ja Sonnenklar sein!
Das mit Abstand wichtigste ist das win 10 ready und der geringe overhead durch die Unterstützung der dx12 API!

@Faust: DAS ist die Frage ja. Also ab Kepler (GTX600) und Tahiti (HD7000) ganz sicher, darunter wird man sehen.

MfG
 
Die Sache ist doch eigentlich ganz einfach: Sollte mir Hersteller A bei seinem Spitzenprodukt etwas nicht bieten, dann wird eben bei Hersteller B eingekauft.
 
herliTz_234 schrieb:
Betrug! Am Ende sind die letzten 256MB nur mit 32bit angebunden anstatt mit voller Bandbreite!


1.) wo genau tuts weh?
2.) gehts hier um AMD und nicht um nVidia
3.) und um dx12 und nicht um VRAM!
;)
 
Zuletzt bearbeitet:
da hab ich damals die richtige Karte (HD7790) gekauft.
Wobei die jetzt eh mit der neuen AMD Generation ausgetauscht wird.
 
Zurück
Oben