Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

.Sentinel. schrieb:
Auch dann finde ich keinerlei validen Hinweis darauf, dass man die AMD Optimierungen bei God of War alle rausgenommen hat. Noch weniger, dass das einem Impuls von nVidia zu verdanken wäre.

Ich bitte um entsprechenden Link.
Der Link ist in der Beschreibung des Spiels zu lesen: DirectX 11.
Die PS4 (auch PS5) hat kein DX11 sondern etwas ähnliches wie Mantle, eine low-level API für die GPU. Ergo wurde einfach eine DX11 Runtime draufgeklatscht und alle Optimierungen für AMD gekübelt. Einen Port für DX11 zu veröffentlichen grenzt auch an Hohn.
Bei Horizon Zero Dawn hat man gleiches gemacht. Allerdings ist das immerhin DX12, aber es gibt keinerlei Optimierungen. Einen zweiten Renderpfad zu machen war halt zu teuer (man will schließlich nur abcashen).
Es wäre generell wesentlich einfacher gewesen, die PS API auf Vulkan zu "mappen", weil Vulkan ja viel von Mantle geerbt hat.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
Eli0t schrieb:
Es wäre generell wesentlich einfacher gewesen, die PS API auf Vulkan zu "mappen", weil Vulkan ja viel von Mantle geerbt hat.
Nur basieren GNM und GNMX nicht auf Vulkan, schon gar nicht auf Mantle und auch nicht auf OpenGL. Für OpenGL hatte Sony eine eigene Api und Vulkan ist als zusätzliche API meines Wissens grundsätzlich erlaubt. GNMX wurde hingegen DirectX ähnlich ausgelegt, schlichtweg damit man weniger Portierungsaufwand hat.
https://en.wikipedia.org/wiki/PlayStation_4_system_software#System
 
  • Gefällt mir
Reaktionen: .Sentinel.
xexex schrieb:
GNMX wurde hingegen DirectX ähnlich ausgelegt, schlichtweg damit man weniger Portierungsaufwand hat.
Erstens das - Und zweitens sind die Optimierungen für die einzelnen Karten API agnostisch.
Da hat Eli0t sich aufs Glatteis begeben...

Wobei ich mich bei Dir, Elißt doch zeitgleich entschuldigen muss, da ich das mit dem, dass nVidia mit dem Geldköfferchen gewunken hat, in den Mund gelegt habe.
 
Zuletzt bearbeitet:
Colindo schrieb:
Ich habe nicht alle Kommentare gelesen, deswegen die Frage: Gab es schon eine Architekturdiskussion?

Mich würde die neue Verdopplung der FP32-Einheiten interessieren. Laut AMD kommen die dann zum Tragen, wenn zweimal exakt die gleiche Instruktion angegeben wird. Ist das vergleichbar mit Nvidia oder gibt es unterschiedliche Szenarien, wo wer die Einheiten voll ausgelastet kriegt? Außerdem klingt es so, als hätte AMD jetzt zwei Einheiten, die sowohl INT als auch FP32 können. Gibt es da Szenarien, wo auch INT doppelt so schnell verarbeitet werden kann? INT kommt ja deutlich seltener in Spielen vor als FP32, aber interessant fänd ich's.

Was ist mit dem Gerücht, dass AMD eine größere Karte per 2x Navi 32 herausbringen könnte. Kann man das schon ins Reich der Mythen schicken? Würde mich sehr reizen, darauf bis ins nächste Frühjahr zu warten.

Was mir jetzt klar ist, ist der Grund für den kleinen Infinity-Cache. Die Hitrate bleibt gleich, aber die Bandbreite ist doppelt so groß, womit man effektiv auf höhere Raten kommt. Das erklärt, warum AMD den Cache nicht vergrößern muss und macht meiner Meinung nach eine weitere Version mit doppeltem IF-Cache obsolet.
Hab leider auch noch nix gefunden der Thread ist schon ziemlich lang. Aber ich könnte mir vorstellen das die sowas wie Apple beim M1 Ultra machen können. Denn es gibt auf den DIE shots links ein Teil der nicht Näher erläutert wurde und auch so aussieht wie bei den M1 Max die Infinity Band Bridge

Hab das mal laienhaft zusammen gestellt:
1667924447816.png


und hier in groß:
1667924487184.png


Und hier von Apple der M1 Ultra im Video:
https://www.apple.com/newsroom/videos/apple-m1-ultra-ultrafusion/large_2x.mp4
 
.Sentinel. schrieb:
RT und Tesselation sind jeweils ein Subset von DX Features und somit keine nVidia proprietäre Technik.
Er spielt glaube ich darauf an, das Nvidia Entwickler dazu ermuntert hat Tessellation jenseits von gut und böse und ohne erkennbaren Vorteil einzusetzen und so zwar zum Nachteile der Spieler, nur damit sie in den Benchmarks besser als AMD aussehen.
Klassisches Nvidia Marketing halt, es wird Geld und Manpower dafür investiert das die eigenen Karten unnötig langsamer laufen, weil man dann in einer Review den längeren Balken hat.
Hairworks overkill war ja auch so ne Geschichte.
Nichts gegen Nvidia Hardware, da kann man glaube ich seit Thermi nimmer wirklich meckern, selbst die 970 war ja eigentlich eine geniale Resteverwertung. Aber Marketing und Firmenpolitik … ist halt ein dreckiges Geschäft. ;-)
Aber um ehrlich zu sein, ist mir jetzt kein Fall bekannt, wo nvidia jetzt etwas vergleichbares bei RT gemacht hätte. Klar, die Presse einschüchtern und mehr Fokus auf Raytracing statt Raster Performance verlangen. das hat Nvidia schon gebracht, aber immerhin macht das AMD Karten auch nicht schneller oder langsamer.
Ergänzung ()

Sly123 schrieb:
ein muss man nicht. Genieße dank DLSS volles RT in 1440p bei Cyberpunk mit einer 700€ GPU.
Sorry could not resists. ;-)
 
  • Gefällt mir
Reaktionen: icke79
Apocalypse schrieb:
Er spielt glaube ich darauf an, das Nvidia Entwickler dazu ermuntert hat Tessellation jenseits von gut und böse und ohne erkennbaren Vorteil einzusetzen und so zwar zum Nachteile der Spieler, nur damit sie in den Benchmarks besser als AMD aussehen.
Der Einsatz bzw. die Anpassung der Tesselation an die gewünschten Faktoren obliegt dem Studio, welches diese integriert. nVidia liefert nur die Bibliotheken inkl Doku.
Die klassischen "Beweise", die da immer wieder hervorgekramt werden (Witcher 3, Crysis 2), sind längst als Unwahr enttarnt.
 
Zu HRR 3 habe ich jetzt auf die schnelle nichts gefunden, die alten Pathtracing Versionen liefen Problemlos auf AMD Karten, aber die waren iirc auch noch reine Shader und haben erst gar nicht RT Hardware verwendet. Ob das heute anders aussieht weiß ich nicht.
 
Apocalypse schrieb:
Aber um ehrlich zu sein, ist mir jetzt kein Fall bekannt, wo nvidia jetzt etwas vergleichbares bei RT gemacht hätte.
NVIDIA macht das auch nicht bei RT.

Die Leistungsunterschiede in bestimmten Spielen - gerade die älteren - kommen primär daher, dass die Entwickler damals noch keine AMD RT-Hardware hatten und daher bestimmte Eigenheiten von RDNA2 und bei RDNA 3 - BVH-Tree über die Shader und TMU - überhaupt nicht beachten konnten.

Das merkt man relativ gut eben an Cyberpunk - primär auf RTX 20x0 entwickelt mit den RT-Effekten, hier bricht RDNA 2 wirklich massiv ein und RTX 30x0 liegt bis zu 70 % vorne. Das Gegenbeispiel wäre dann Metro Exodus Enhanced Edition, dass in einem ähnlichem Umfang gebraucht von RT macht und RDNA liegt nur 30 % zurück.

Man kann hier natürlich jetzt darüber schreiben, dass ja Cyberpunk ja viel mehr macht und Metro nicht, aber jede Person, die Ahnung von Entwicklung hat, weiß, dass man erst wirklich mit der entsprechenden Hardware und den Whitepapers anfangen kann auch den eigenen Code an die Eigenheiten von Hardware anzupassen.

Auch wenn DX12 und DXR vieles vorgeben, die Architekturen unterscheiden sich dennoch und darauf muss man auch eingehen. NVIDIA hat jetzt ihre SER-API veröffentlicht, auch als Erweiterung für DXR, auch hier muss für die Optimierung für SER eben vom Entwickler dieses aktiv eingepflegt werden.
Apocalypse schrieb:
Klar, die Presse einschüchtern und mehr Fokus auf Raytracing statt Raster Performance verlangen. das hat Nvidia schon gebracht, aber immerhin macht das AMD Karten auch nicht schneller oder langsamer.
Das macht die Karten nicht schneller oder langsamer, aber auf die eigene Architektur zugeschnittene RT-Shader kann das sehr wohl.

Nur ist das Problem in dem Fall anders gelagert, als damals mit Tesselation und den GameWork-Effekten, bei denen NVIDIA absichtlich teilweise unsinnige Tesselation-Modi auswählte: Die Rt-Architekturen sind einfach unterschiedlich und in dem Fall kann man von NVIDIA wirklich nicht verlangen, dass sie optimierte Shader auch für AMD bereit stellt, darum muss sich der Spieleentwickler selbst kümmern und bei AMD anfragen.
 
  • Gefällt mir
Reaktionen: Apocalypse
Apocalypse schrieb:
Zu HRR 3 habe ich jetzt auf die schnelle nichts gefunden, die alten Pathtracing Versionen liefen Problemlos auf AMD Karten, aber die waren iirc auch noch reine Shader und haben erst gar nicht RT Hardware verwendet.

https://www.patreon.com/posts/download-seus-3-60268558
Kann man auch ohne Bezahlaccount runterladen. Irgendwo auf der Vorstellungsseite vom Ersteller allgemein heißt es, auf AMD geht es noch nicht, aber vielleicht hat sich das geändert und die Beschreibung ist veraltet.
 
Apocalypse schrieb:
[....}
Sorry could not resists. ;-)
Verstehe den Wink nicht. 😅
Bei AMD-GPUs verwendet man natürlich FSR, notfalls einen Mod. DLSS wird da schwierig...
Zumal ich direkt mehrere Drops unter 60 gesehen habe. Wäre bei meinem TV ohne VRR inakzeptabel.
Welche FSR Qualitätsstufe wurde denn da verwendet?
Auf einer 3080 12G läuft DLSS Balanced permanent über 60@1440p bei vollem RT auf Ultra.

Aber: Mir gings echt nur darum, dass RT ein sinnvolles Feuture ist.
Wenn AMD auf ein gutes Level kommt sehe ich für mich überhaupt keinen Grund mehr auf nVidia zu setzen.
D.h. ich entscheide dann nur noch über den Preis.
Brauche nicht unbedingt DLSS und FSR 2.1+ würde mir auch vollkommen reichen.
Noch besser wäre natürlich RT ohne AI-Resolution-Methoden aber bei der steigenden Anforderung neuer Spiele ist das wohl utopisch.
 
Zuletzt bearbeitet:
Ich habe Cyberpunk selbst mit RT gespielt und ich finde ehrlich gesagt, dass gerade Cyberpunk absolut kein RT Vorzeigetitel ist, da vieles einfach extrem künstlich dadurch wird (in meinen Augen! Ist halt Geschmackssache). Aber ich denke auch: Wenn man es nicht nur exzessiv nutz um es drin zu haben, sondern es da nutzt, wo es Sinn ergibt, kann es die Stimmung deutlich anheben (Licht in Horrorspielen, Spiegelungen von Fenstern so wie es glaube in irgendeinem Spiderman spielt gemacht wird usw.).
Bisher muss ich aber dennoch sagen, dass die Spiele die ich so spielen würde, auch ohne RT leben können.
 
Sorry, wenn ich das in den über 90 Seiten überlesen haben sollte: Gibt es Realeasedate (ungefähr oder exakt) für den Rest der Karten ala RX 7700 / RX 7800 (mit und ohne XT) ?
 
SonyFriend schrieb:
Rest der Karten ala RX 7700 / RX 7800 (mit und ohne XT) ?
nur Gerüchte, irgendwann im ersten Quartal nächsten Jahres
 
Es gibt ein paar neue Bilder zur exakten Performance, diesmal auch mit der 7900XT dabei.

Ich hab mal die Unterschiede zusammengefasst.

Dabei sollte man beachten, dass sowohl bei der Raster Performance (Cyberpunk) als auch bei der Raytracing Performance (Dying Light 2) je ein recht großer Ausreißer dabei ist und die Durchschnittswerte daher vmtl am Ende in Reviews etwas niedriger liegen dürften.

RADEON-RX-7900-3.jpg

RADEON-RX-7900-2.jpg



Der Abstand zwischen 7900XT und 7900XTX liegt demnach ca in dem Bereich von 6800XT und 6950XT.
Also ein Performanceunterschied, der vorher zwischen $649 und $1099 bestand, herrscht nun zwischen $899 und $999.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: msv und LamaMitHut
Cyberpunk 2077 mit Raytracing ist interessant. Bei der 4090 werden da (ganz grob) aus 40 fps mit DLSS Quality ca. 60 fps.
Was mich zu dem Schluss führt, dass AMD da wohl FSR mit Performance oder ähnliches nimmt und kein Quality. Sonst wäre da nicht der riesen Sprung von 21 auf 62 fps.
 
Zurück
Oben