News DirectX 12 Ultimate: Neue API für Turing, RDNA2 und Xbox Series X

Tulol schrieb:
Wie lange hingen wir bei DX9?

Ca. 6 Jahre und aus Spieler-Sicht kann man noch das eine oder andere Jahr dranhängen, denn DX10 wurde von vielen Spieleentwicklern damals weitgehend ignoriert. (Wohl weil DX10 Vista-exklusiv war, während WinXP noch marktbeherrschend war, und die damaligen Konsolen natürlich auf DX9 festhingen.)

Es stimmt also, die Stagnation von DirectX ist eher schon ca. 15 Jahre im Gange. Zumindest was die Versionierung angeht.
 
Herdware schrieb:
Es stimmt also, die Stagnation von DirectX ist eher schon ca. 15 Jahre im Gange. Zumindest was die Versionierung angeht.
Naja- Es gab ja von DX9 auch unterschiedlichste Versionierungen/Revisionen 9.0-9.0C.

Dann
DX10/10.1
DX11/11.1/11.2/11.3
und jetzt DX12 mit all seinen Versionierungen.

Da war schon immer regelmäßig Bewegung im "System".

Die Versionen wurden aber aus unterschiedlichsten Gründen kaum oder teils erst sehr spät adaptiert, weil man mit DX9 erst relativ spät an Grenzen gestoßen ist, die die zu dieser Zeit verfügbare Hardware eingebremst hätte.

Zum Teil hatte man bezüglich z.B. der Grundsatzfrage Forward/Deferred teils keinen Nutzen von Features, die dann jeweils nur auf eine der beiden Techniken anwendbar waren.

Somit wäre der Aufwand der Integration eines zusätzlichen Renderpfades, welcher performancetechnisch kaum Auswirkungen hat und zudem nur einen Bruchteil der Installbase bedient, einfach auch unwirtschaftlich gewesen.
Es ist oftmals nicht ratsam Technik nur um der Technik Willen zu nutzen.

Just my 2 cents
Zero
 
Zuletzt bearbeitet:
kann man schon etwas zur Raytracing Leistung der Konsolen im vergleich zur 2060,2070,2080 RTX sagen ?
sry wenn es davon schon einen Eintrag gibt will mich jetzt nicht über die Seiten lesen ^^
 
Chismon schrieb:
Ergänzung ()

Ach ja, den direkten Leistungsvergleich zwischen kommender Konsolengrafikhardware und aktuellen PC-GPUs bin ich schuldig geblieben, daher hier noch nachgereicht:

Anhang anzeigen 890266

Da macht sich die Leistung der XBSX, wenn diese Abschaetzung denn zutreffen sollte, doch sehr gut im direkten Vergleich mit der PC-Konkurrenz.

Wenn man das jetzt uebersetzt, dann liegt die Leistung der 36 Compute Units starken RX 5700 (7,95 TFLOPs) leicht ueber einem TFLOP hinter der RDNA2-Konsolenchipversion in der Sony PS5 mit ebenfalls 36 Compute Units (9.2 TFLOPs ohne massive Uebertaktung), was schon ein wenig ernuechternd waere als Ausblick auf die Mehrleistung von Big Navi mit RDNA2-Architektur Ende des Jahres.

Jedenfalls hatte ich gehofft, dass mehr als 1.25 TFLOPs dabei herausspringen wuerde generationsuebergreifend in dieser Leistungsklasse von Navi-RDNA1 zu Navi-RDNA2, aber gut, die PC Grafikkarten mit RDNA2 Archtitektur koennten ja evt. noch anders/leistungsfaehiger ausfallen als die Konsolen-SoCs.

Die Hoffnung (dahingehend) stirbt bekanntlich zuletzt.
Was die bei Wccftech aus verständlichen Gründen nicht mitberücksichtigt haben, ist die zu erwartende und bereits zugesicherte Steigerung der IPC.

Auszug aus Heise online Artikel:
AMD Radeon Spielergrafikkarten mit 50 Prozent mehr Effizienz zum Jahresende:
"Einen ersten Ausblick auf RDNA 2 gab AMDs Chefingenieur für GPUs David Wang auf dem Financial Analyst Day vergangene Nacht.
Wang versprach bei RDNA 2 sowohl eine höhere Leistung pro Takt (Instructions per Cycle, IPC) als auch steigende Taktfrequenzen." RDNA2 Mehr IPC

Hab mir mal die Mühe gemacht einige Diagramme zu erstellen, die uns eine ungefähre Leistungseinschätzung relativ zur RX 5700XT unter Miteinbezug einer um 10-15% gesteigerten IPC ermöglichen sollte.

Ach ja, wer meint das eine IPC Steigerung um +10% bei RDNA2 nicht realistisch ist bzw. 80-96CU bei Big Navi, soll seine Argumente vorbringen bin schon gespannt.
XBox series X Die Size 360mm2 (GPU ca. 300mm2)
80/56*300=429mm2 (5120)
96/56*300=514mm2 (6144)

XBox Series RDNA2_1.png

XBOX RDNA2_2.png
 
ArrakisSand schrieb:
Ach ja, wer meint das eine IPC Steigerung um +10% bei RDNA2 nicht realistisch ist bzw. 80-96CU bei Big Navi, soll seine Argumente vorbringen bin schon gespannt.

Poor Volta?
Die kommende 25Tflops Grafikkarte auf dem Schaubild kauf ich mir, wenn die die Leistung auch auf die Straße kriegt.
Da kann sich nvidia dann warm anziehen, wenn deren 3080TI dann um 30-40% von AMD deklassiert wird.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer und captain kirk
Poor Volta 2.0 auf ein Neues bis zur Ernüchterung :D

Möge das Zaubern beginnen

Ich setze mal eher auf Ampere als wirklichen Fortschritt ,denn der hat sowohl Architektur u Shrink Joker noch in Petto ...
Und ein R&D Budget inne, von dem die Radeon Group in den letzten Jahren ,mit u ohne Koduri ,nur träumen konnte, wegen finanzieller Schieflage des Mutterkonzerns
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
thepusher90 schrieb:
Also an die Gurgel wäre ich dir nicht gesprungen, aber über die Implementierung von nVidia wäre ich doch schon sehr unzufrieden gewesen, wenn sich das als Standard durchgesetzt hätte. Es wurde einfach bei den Reflektionen nicht hinbekommen verschiedene Oberflächen korrekt darzustellen. Alles hat einfach gespiegelt wie ein klarer Spiegel. Das sieht in der AMD Demo schon 1000 Mal besser aus. Da gibt es sogar "Smudges" auf den reflektierenden Oberflächen und entsprechend milchiger ist dann die Reflektion. Genauso bei raueren Oberflächen. Ich hoffe, dass das dann der Standard wird. Keinen Blutpfützenspiegel mehr, bitte!
Mal abgesehen davon, dass ich die Storm Trooper Demo von Nvidia damals viel besser fand als die jetzige Demo von AMD. Was hat das denn bitte schon mit der Technologie an sich zu tun?
Was man daraus macht ist doch vollkommen unabhängig davon welches Potenzial sie bietet.
Von Quake RTX, Minecraft, über realistische Grafiken bis hin zu hyper-stylisierte Grafiken ist damit alles möglich. Was einem davon gefällt ist Ansichtssache, ändert aber doch nichts an der darunterliegenden Technologie.
Nvidia hatte da keinen Standard oder so etwas gesetzt, der sich da durchsetzen hätte können. Die Standards sind DirectX und Vulkan und was die Entwickler damit machen bleibt ihnen überlassen.
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
Ach ja, wer meint das eine IPC Steigerung um +10% bei RDNA2 nicht realistisch ist bzw. 80-96CU bei Big Navi, soll seine Argumente vorbringen bin schon gespannt.

In der Grafik fehlt der Marktführer NVIDIA mit Ampere. :)
 
Zurück
Oben