Test AMD RDNA 2 vs. RDNA 3: RX 7900 GRE vs. RX 6950 XT bei gleicher Rechenleistung

cunhell schrieb:
Und warum frägt bei Starfield keiner den Spielehersteller sondern unterstellt direkt AMD sie hätten DLSS verhindert?
Immer schön mit zweierlei Maß messen.
Bethesda wurde gefragt und hat nicht auf die Anfragen reagiert.
Ich wüsste nicht wo hier irgendwer mit zweierlei Maß misst.

Es ist nachgewiesen das kein AMD sponsored Titel DLSS hat seitdem DLSS2 raus ist außer die Sony Spiele (und Deathloop das aber zu Release kein AMD sponsored Titel war) wohingegen nur bei 4 Nvidia sponsored Titeln FSR fehlt.
Natürlich alles Zufälle. Vondaher troll dich. Ist ja nicht auszuhalten. Als ob man mit einem 10 jährigen diskuttiert.

wfyldxr9iyab1.png
 
Zuletzt bearbeitet:
duskstalker schrieb:
stellt AMD preislich die 7700xt mit angenommenen 40 CUs gegen die 6800, muss die nach den 5% "ipc" gleich 45% über den takt ausgleichen, also mal angenommen die 6800 liegt bei 2,2ghz, dann braucht die 7700xt mit 40 CUs lockere 3,2ghz.
Die 7700xt hat aber 54CU und 2500mhz boost clock.
 
andi_sco schrieb:
Punkt und Kommata?
Die sind zwar noch im angebot, aber gerade einfach hoffnungsloß überteuert wegen der Chipkriese und Coron und dem Ukraine Krieg sowie Niger Putsch.
Kann man einfach nix machen :sex:
 
  • Gefällt mir
Reaktionen: andi_sco
cunhell schrieb:
Und warum frägt bei Starfield keiner den Spielehersteller sondern unterstellt direkt AMD sie hätten DLSS verhindert?
Immer schön mit zweierlei Maß messen.

Cunhell
Solche Fragen darfst du hier nicht stellen. Sitzt du doch auch in den tollen Listen die hier rumgehen. Publisher und/oder Spielehersteller haben keine Rechte.

Ist ja auch nur Microsoft mit im Boot. Geht ja auch nur um einen der großen Titel für die Xbox. Denen wird’s egal gewesen sein.

DLSS hätte auf der Xbox definitiv auch besser ausgesehen…

Ja sorry, ich konnte wieder nicht an mich halten, wie lächerlich ich dieses Thema finde. Vielleicht geht ja wieder ein Sturm los jetzt

Und mir ist auch klar, es kann alles sein. Aber genauso auch nicht. Es ist doch nichts bewiesen.
 
Zuletzt bearbeitet:
pacifico schrieb:
Die 4070 bietet die Leistung der 3080 und mehr Speicher.

Desweiteren ist die 4070 günstiger als die 3080.

Im Grunde genommen ist die 4070 die einzige Karte im Lineup von Nvidia die relativ fair bepreist ist und zum Preis des Vorgängers zumindest ein bißchen besser aufgestellt ist. Siehe 12GB VRAM. Die anderen Karten von Nvidia sind für ihre Leistung zu teuer...
Ich habe die 4070, ist der Preis fair? Nein, meckere ich deswegen rum? Nein. Denn normalerweise hat es sich über die letzten Generationen so entwickelt dass das normale XX70er Modell das vorherige Gaming Topmodell angreift. Stattdessen haben wir einen XX70er Chip bekommen der so kastriert worden ist das er von der Leistung eher als XX60er Chip hätte durchgehen müssen, denn schon die Pascal Generation mit der 1060 war auf Augenhöhe mit der 980 der Vorgeneration.

Jetzt hatten alle Chips eine Stufe weiter nach unten aufgestellt. Im Endeffekt habe ich mit meiner 4070 eine normale 4060 gekauft. Ich bin mit meiner 4070 aber zufrieden, klar ist das Preisgefüge aktuell etwas kaputt aber soll ich jetzt den ganzen meckern? Ne lass mal, ich spiele die Spiele die mir Freude bereiten und nutze meine Zeit für sinnvolleres.
 
yamiimax schrieb:
Du siehst doch den Verbrauch der ist niedriger als die 6950 xt?
Bei unterschiedlicher Taktrate.
Wieso machen wir überhaupt noch Tests, schauen wir doch einfach auf Datenblätter.
 
[wege]mini schrieb:
Da man beide Karten auf 2 Ghz "kastriert" hat und das Powerlimit erhöht hat, um Taktschwankungen kategorisch auszuschließen, würde das keinen Sinn ergeben.
Würde es sehr wohl. Vergleich mal zwei CPUs von verschiedenen Generationen bei selbem Takt, da gibts durchaus große Unterschiede.
 
Crifty schrieb:
Ich habe die 4070, ist der Preis fair? Nein, meckere ich deswegen rum? Nein. Denn normalerweise hat es sich über die letzten Generationen so entwickelt dass das normale XX70er Modell das vorherige Gaming Topmodell angreift.
Bist du der Typ der hier was von Betrug geschrieben hat?
 
Betrug? in welchem Kontext? ein paar mehr Infos wären schön. Ich wollte mit meinem Post nur anmerken das ich zwar kein Freund der neuen Preise bin aber eingesehen habe, das es nur ein "entweder/oder" gibt. Ich möchte weiter PC-Spiele spielen, also zahle ich die Preise und fertig. kein Gemecker oder Geweine warum die Welt so doof ist.
 
  • Gefällt mir
Reaktionen: Grundgütiger und Evgasüchtiger
Ich finde der Artikel ist eine schöne Idee, da man 2 sich entsprechende Karten gegenüberstellt und so direkt die Performance je CU ohne Klimmzüge ablesen kann. Ein Test mit 7700 und 6500XT wäre allein schon wegen Raytracing nicht sinnvoll gewesen.

Es wäre nett gewesen auch die Verbrauchswerte zu haben, aber es ging hier um einen Performancevergleich je CU.

Übrigens war bei gleicher Frequenz die Performance von RDNA 2 CUs ein bisschen kleiner als die der CUs von RDNA. Da gab es einen netten Artikel von Wolfgang.

AMD hat bei RDNA 2 massiv an der Taktschraube gedreht und Navi 21 hat im vergleich zu Navi 10 die doppelte Anzahl von CUs. Deshalb hat diese kleine Regression der IPC je CU keine Rolle gespielt.

Bei RDNA 3 stagniert der Takt. Navi 31 hat nur 20 % mehr CUs als Navi 21. Navi 33 hat dieselbe Anzahl von CUs wie Navi 23. Mit diesen Voraussetzungen tut es natürlich weh, dass die Rasterleistung je CU nur ein wenig steigt.

Ich finde das was Wolfgang hier gemacht hat schon interessant, da man es direkt mit dem Vergleichen kann, was AMD behauptet. AMD will 17,4 % höhere Rechenleistung je CU bei gleicher Taktfrequenz gemessen haben. Wolfgang kommt im Schnitt auf 5 % mehr Frames bei 3840x2160.

Dass RDNA 3 die Performance-Ziele nicht erreicht ist seit Dezember offensichtlich. Als Gründe gibt es seitdem jede Menge BlaBla und Spekulationen. Sinnvollen Content zu den möglichen Gründen gibt es eigentlich nur im Leseartikel von @DevPandi.

syfsyn schrieb:
eine gpu ist linear folglich gibt es keine ipc sondern nur Mehr shader und mehr Takt.
Bei CPUs gibt es streng genommen auch keine IPC. IPC-steigerungen werden bestimmt indem man die Performance der CPUs im selben System bei derselben Taktfrequenz misst. Und oft kann man wie bei Zen 3 und Zen 4 das nicht direkt messen, sondern mus mit jeweils anderen Plattformen messen.

GPUs skalieren viel besser als CPUs, aber sie skalieren immer nur bis zu bestimmten Grenzen gut.
Die Shader nützen erst dann etwas, wenn sie tatsächlich Berechnungen durchführen. Die 5700XT hat mit weniger Shadern eine bessere Performance als Vega 64.
syfsyn schrieb:
Aber amd hat ja eine fp32 + fp32 architektur versprochen und liefert nix
Das ist Unsinn.

AMD hat Shader implementiert, die unter bestimmten Voraussetzungen 2 FP32 Befehle parallel ausführen können. @DevPandi hat nochmals erklärt was die Voraussetzungen sind. Und wenn die Voraussetzungen nicht erfüllt werden, können eben keine 2 FP32 Befehle parallel ausgeführt werden.

AMD hat darauf verzichtet in den Specs die Angabe der Shader zu vedoppeln und spricht statt dessen von Dual Issue. Bei den meisten Spielen bringt Dual Issue wenig.

Es gibt jedoch einige Beispiele bei denen RDNA 3 sehr stark von Dual Issue profitiert. Das hat Chips und Cheese schon im Januar demonstriert
1692989297171.png


syfsyn schrieb:
Der grund ist klar um die zusätzliche fp32 ausführung machen zu können brauicht es mehr cache im cu und genau der fehlt.
....


Der schnelle fix ist simple cu internen L0 und L1 physisch +5% L2 physisch +5% das ließe sich in n4x problemlos umsetzen ohne an die Struktur zu müssen.
Was hier einige nie verstehen wollen ist, dass AMD sehr wohl einiges an den Shadern und den CUs geändert hat, Dual Issue ist nur eine Änderung.

1692991264631.png

Gerade bei den Cachegrößen gab es massive Steigerungen im Vergleich zu RDNA 2, siehe Gelbe Umrandung. Dagegen wirken die von Dir vorgeschlagenen 5 % geradezu lächerlich.
1693002292715.png

Nur beim Inifity Cache gab es sowohl bei der Größe als auch bei den Latenzen Verschlechterungen im Vergleich zu RDNA 2. AMD behauptet jedoch, den Cache effektiver zu nutzen, so dass sich die geringere Kapazität nicht auswirken soll.

Der Artikel von Chips and Cheese zeigt, dass AMD insgesamt die Bandbreite deutlich gesteigert hat. Nur im Bereich 96 MByte bis 128 MByte liegt RDNA 2 wegen des größeren Infinity Caches vorne.

Allerdings gilt. mehr Bandbreite zu Verfügung zu stellen, steigert die Performance nur dann, wenn die Performance zuvor durch die Bandbreite limitiert wurde.

1692991620082.png

Auch beim Zugriff auf das VRAM hat RDNA 3 eine bessere Bandbreite. Bei dieser Messung deutet nichts darauf hin, dass das Chiplet-Design einen negativen Einfluss hat.

Inzwischen ist das Thema sowieso geklärt. Die Navi 33 und die iGPU in Phoenix bringen im Vergleich zu ihren RDNA 2 Entsprechungen eine ebenso geringe Performancesteigerung. Navi 33 und Phoenix sind monolithisch. Auch dies zeigt dass das Chipletdesign nicht das Problem ist.

Neben dem Verfehlen der behaupteten IPC erreicht RDNA 3 die anvisierte Taktfrequenz bei Games nicht (AMD selbst nennt mehr als 3 GHz). Außerdem geht jede Taktsteigerung bei Games mit einem enormen Mehrverbrauch ein her.
BxBender schrieb:
Es hätte fast schon gereicht zu erwähnen, dass bei der Umstellung von RDNA2 auf 3 das Hauptaugenmerk auf die Umstellung auf das Chipletdesign gelegt worden ist.
Wo soll das Problem mit dem Chipletdesign liegen? Das wurde an einer unkritischen Stelle eingefügt verwendet erprobte Technik und hier hat Navi 31 laut Chips and Cheese die doppelte Bandbreite wie Navi 21.

Im übrigen hat AMD einiges an den Shadern und CUs geändert. Siehe die beiden Folien oben und die folgenden als Beispiele:

1693001978335.png


1693002073638.png


1693003039443.png


Die Folien zu den Änderungen der Ray Tracing Units lass ich Mal weg.
BxBender schrieb:
Da wäre es kontraproduktiv gewesen, gleichzeitig auch noch am Chip selbst zu viel verändern zu wollen, da man dann bei womöglichen Fehlern nachher gar nicht mehr weiß, wo man mit der Suche und deren behebung anfangen soll.
Das was mich an der ganzen Sache so verunsichert ist, dass man heutzutage keinen Chip entwirft und sich anschließend über die Performance bzw. Power wundert. Das sollte AFAIK eigentlich schon viel früher durch Simulationen sichergestellt sein.

Du hast allerdings vollkommen unterschlagen, dass AMD die RDNA 3 GDCs in einem neuen Prozess herstellt. Dieser Prozess ermöglich eine deutliche Erhöhung der Taktfrequenz oder bei derselben Taktfrequenz eine deutlich niedrigere Power. Bei Zen 4 hat es hervorragend funktioniert. Bei RDNA 3 nicht.
BxBender schrieb:
Intel hat das auch mit dem Tik-Tok-Modell damals so gehandhabt, um nicht zu viele Baustellen auf einmal zu generieren.
Intel wollte jedes Jahr eine neuen CPU-Generation vorstellen. Durch Tik-Tok mussten sie nur alle 2 Jahre eine neue Architektur fertigstellen.
Ergänzung ()

Ein Beispiel bei dem Navi 31 sehr gut im Vergleich zu Navi 21 abschneidet ist Stable Diffision:
https://www.pugetsystems.com/labs/a...al&utm_source=twitter&hss_channel=tw-17290084
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grundgütiger und DevPandi
Ich meinte nicht die menge an cache sondern dessen physische größe also weniger dicht das Steigert den Takt dem rest ist der arch geschuldet.
Cpu können sehr wohl an ipc steigern da diese nicht linear arbeiten sondern sequenziell auf gpu gibt es kein out of order bei cpu ist das Normal demzufolge ist neben Takt und somit cache geschwindigkeit jede Prozessorerweiterung mit perf Zuwächse zu erwarten.
Bei gpu geht das nur durch Masse mehr kerne oder man setzt auf ein anderes design amd hat wirklich fp32 ansatz mit 2 operationen auf maximal 4 erweitert das aber wird durch die Latenz verhindert. Am ende sind es 17% von 2 operatioenen maximal zu den 2 operatioen per takt möglich. = 2,34
Diese aussage hatte mal ein Ingenieur von amd so ausgedrückt. Das n33 und n23 gleich schnell sind ist sehr bedauerlich und darauf zurückzuführen das der cache mehr Fehler verursacht weswegen die zusätzliche Einheit nicht arbeitet und man den Takt auf nur noch 1,6-2,0ghz mehr perf aus den alu bekommt als bei 2,6ghz. Am ende ist es identisch
Wär der n33 in n5 node sähe das anders aus.
 
Glaubt ihr das die 7900GRE auch im freien Handel kommt?
Schwanke nämlich zwischen eine 7800xt und eine 7900GRE.
 
wenn du nicht rund um die uhr am zocken bist düfte es wegen dem Stromverbrauch nichts nennenswert ausmachen, kauf einfach eine Karte in der gleichen Leistung, außer die ist maßlos überteuert.
 
nec2000 schrieb:
Glaubt ihr das die 7900GRE auch im freien Handel kommt?
wird sie nicht nach dieser News zu urteilen: https://www.computerbase.de/2023-08/amd-rdna-3-es-wird-keine-weiteren-rx-7000-grafikkarten-geben/

daher entweder ein kpl. PC oder Aufrüstkit bei MemoryPC (Grafikkarte kostet übrigens etwa 640€ wenn man die günstigsten Preise der Komponenten im Kit im Netz vergleicht) holen oder halt eine vergleichbare 6950XT mit 100W Mehrverbrauch

ansonsten halt zur 7800XT in zwei Wochen greifen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alexander2
Echt mit starfield was ein Zufall haha
 
UrlaubMitStalin schrieb:
Vergleich mal zwei CPUs von verschiedenen Generationen bei selbem Takt

Und hier liegt das Problem.

Wenn man 2 Generationen vergleicht, bekommt man nur den Fortschritt der Fertigung zu Gesicht, wenn sie gleich schnell sind, bei gleichem Takt. Wenn jetzt also die Fertigung (als Beispiel) eine Ersparnis von 20% bei der Stromaufnahme ermöglicht, die neue Generation aber bei gleichem Takt nicht schneller ist, haben die Jungs von der Designabteilung nicht gut gearbeitet.

20% schneller, bei gleichem Stromverbrauch wäre also keine große Leistung.

Daher ist die Überschrift der "gleichen Rechenleistung" auch irreführend, da in der Theorie deutlich mehr Rechenleistung zur Verfügung stehen sollte. Hier hat man vernachlässigt, dass RDNA3 völlig anders aufgebaut ist, als RDNA2 und dann verbreiten sich Falschmeldungen, die nahelegen, dass RDNA3 nur eine leicht veränderte Version von RDNA2 ist.

Ist es aber nicht.

TSMC findet es auch nicht gut, dass AMD den Eindruck hinterlässt, ihre sündhaft teure Fertigung wäre nur ein Papiertiger. Nvidia zeigt aber, was man mit kleinen Veränderungen damit bauen kann. So bleibt der "schwarze Peter" bei AMD.

Niemand will an solch einem Desaster schuld sein. :heilig:

mfg

p.s.

Und Schuld sind sowieso immer die Softwareheinis. :evillol:
 
Zurück
Oben