Hey zusammen,
ich darf eine RX9070XT Hellhound von PowerColor mit leichtem Aufpreis mein Eigen nennen und bin sehr happy mit der Karte.
Da ich sie zwecks Vermessung für GPU Kühler zu Alphacool gesendet hatte, war ich happy zur UVP auch eine Asus RX9070 Prime bekommen zu haben, die ich dann 2-3 Wochen nutzen konnte, bis ich die XT zurück hatte.
(Die Prime ist ohne Aufpreis bei einem Freund gelandet, der keine erwischt hat #noScalping)
Da ich jetzt beide Karten ausgiebig bespielen und testen konnte, muss ich sagen, dass der Unterschied noch nie so klein war zwischen einer XT und non XT Karte, wenn man sie auf die gleiche TBP normiert. Bei der Recherche bin ich über die 5700 und 5700XT gestoßen, hab aber keine TBP normierten Tests gefunden, da könnte es vllt. ähnlich sein.
Ich habe jetzt keine große Wissenschaft daraus gemacht mit mehreren Tests, weil ich nicht beide Karten Tage-lang testen wollte und auch keine Zeit dazu habe. Einen sauberen Einzelvergleich mit einer Witcher 3 Next Gen Szene (das selbe Savegame, keine Mausbewegung, keine Perspektivverschiebung) habe ich im Thronsaal von Vizima gemacht, während in WQHD bis auf Hairworks alles an Features inkl. Ray Tracing hoch gedreht war auf Ultra+.
Beide GPUs sind in dem Szenario zu 100% ausgelastet.
Die RX9070 hat eine leicht höhere Güteklasse, da sie einen UV von -100mV stable mit macht, die XT "nur" -65mV.
Für die Vergleichbarkeit wurden beide Karten auf -65mV gesetzt und die TBP auf 228Watt normiert und auch noch einmal auf 252 Watt.
Zudem habe ich dank der Anregung von @syfsyn auch noch einmal getestet, welches Bild sich zeichnet, wenn man den GPUs ein jeweils identisches Power Budget für die einzelnen GPUs gibt (zweite Tabelle), da man hier genau sehen kann, wie viel die einzelnen CUs mit der selben Stromversorgung schaffen, ohne dass der Effekt der steigenden Effizienz bei geringerem Takt eine Rolle spielt. Auch das ist nur ein Näherungswert, denn eigentlich müsste man wissen, wie viel andere Komponenten abseits der GPU vom TBP Budget brauchen. Der Rest wäre das Budget für die GPU, welches man dann separat mit einem TBP plus von 12,5% erhöhen müsste. Die hier getesteten pauschalen Aufschläge von 12,5% auf die gesamt-TBP sind also nur ein Näherungswert von der anderen Seite.
Dabei erreichte ich folgende Ergebnisse:
Tabelle 1 (normiert auf gleiche TBP):
Tabelle 2 (normiert auf gleiche TBP anhand der CU count Unterschiede)
In dieser Stichprobe erreicht eine RX9070 bei normierter TBP (228W) mit einem ~2% höheren Takt ~97% der FPS einer XT. Mit steigender TBP von 253W gehen die Ergebnisse etwas weiter auseinander und die RX9070XT scheint sich bzgl. Effizienz zu steigern und von der non-XT abzusetzen. Der Unterschied bewegt sich allerdings im Rahmen der Messungenauigkeit zwischen den TBPs mangels Karten und mangels verschiedener Tests.
Es stellt sich mir die Frage: wie schaffen 12,5% weniger Recheneinheiten mit läppischen 2% mehr Takt 97% der Leistung einer XT auf den Bildschirm zu bringen. Die 8CUs verbrauchen natürlich auch mehr Energie, aber verbrauchen 8 CUs so wenig Energie, dass sich das in nur 2% Taktunterschied nieder schlägt?
Bei Karten älterer Generationen ist der Unterschied deutlicher. Eine größere Karte mit höherer CU Anzahl kann normalerweise bei geringerem Takt besser performen, wenn die CUs gut ausgelastet sind, da sie in einem niedrigeren Taktbereich effizienter arbeiten.
Ein gutes Beispiel dafür sind die RX6800XT und RX6900XT in folgendem CB Testabschnitt:
https://www.computerbase.de/artikel...00_xt_6800_xt_2080_ti_3080__3090_bei_270_watt
Hier beträgt der Unterschied eher 8-10% je nach Leistungsbereich (270 bzw. 300 Watt). Dabei unterscheiden die beiden Karten ebenfalls 8CUs, allerdings sind die absoluten Werte hier 72 (91%) und 80 (100%) CUs und damit nur 9% weniger, was genau in diesem 8-10% Bereich liegt.
EDIT:
Mit der "Normierung" auf TBP pro CU sehen wir in Tabelle 2, dass die zusätzlichen CUs in diesem Fall von einem höheren Power Budget profitieren. Es kommt also entgegen RDNA2 nicht mehr so stark zu dem Effizienzgewinn der CUs durch weniger Takt. Dieser Effekt ist zwar vorhanden, der Sweetspot dafür scheint allerdings jenseits der 228 Watt zu liegen. Das ist insofern schade, als dass der Bereich um die 300 Watt (wie hier mit der RX9070XT bei 289 Watt gemessen) allgemein für RDNA4 betrachtet bereits weit außerhalb eines Sweetspots liegt, denn verglichen mit einer TBP von 228W auf der XT gibt es ein fast schon klägliches Mehr von nur 8% (69fps statt 64fps) bei einem Verbrauch von zusätzlichen 27% (289 Watt statt 228 Watt).
Dabei ist, wie oben beschreiben, zu beachten, dass hier außer Acht gelassen wird, wie hoch der Anteil aller Komponenten auf der Grafikkarte Abseits der GPU ist. Daher sieht es nach einem deutlich stärkeren Scaling nach oben aus, als es wirklich ist.
Was aber eindeutig zu erkennen ist, ist dass mit steigendem Power Budget pro die XT deutlicher davon zieht: ~7% geringere fps bei 228W vs 261W und ~9% geringere fps bei 253W vs 289W
Zudem kommt jetzt noch hinzu:
https://www.computerbase.de/news/gr...ie-rx-9070-fast-so-schnell-wie-eine-xt.92079/
Wenn die TBP einer RX9070 per BIOS Mod jetzt RX9070XT Grenzen von 300W erreichen kann, ist auch dort oben der Unterschied scheinbar nur sehr klein. Hier fehlen mir Zahlen, die ich so selbst nicht nachstellen oder testen kann.
Meine These zu Release der RX9070er war:
Es ist unglaublich, dass die GPUs so abnormal linear mit CU Anzahl, Spannung und Takt skalieren, dass die Karten im selben TBP Bereich eine nahezu identische Rechenleistung in Spielen abliefert.
Das würde aber auch bedeuten, dass ab einer bestimmten Takt/TBP Grenze oben die XT davon ziehen muss bei maximalem Takt und voller Auslastung, da sie 12,5% mehr Recheneinheiten hat und der Takt zwischen beiden Karten das Architektur-Maximum darstellt (wenn wir jetzt von gleicher Chipgüte ausgingen).
Ob dieser Bereich (wenn es sich denn so verhält) im Rahmen dessen, was eine gemoddete RX9070 mit XT BIOS leisten kann, liegt, müsste mal jemand mit Expertise nachtesten.
Der von mir gemessene Abstand in den unteren TBP Klassen ließe sich schon fast mit Chipgüte (wie man das bei CPUs auch kennt, dass zwei gleiche CPU Modelle sich im worst case um mehrere % Leistung unterscheiden können) der GPU Chips begründen und nicht mit CU Anzahl.
Vielleicht gibt es Spiele/Anwendungen, wo das noch ganz anders skaliert. Falls aber auch im ü300Watt Bereich die Karten ähnlich knapp zueinander skalieren, sind die 8CUs mehr für die Tonne... oder schlimmer fake (#missingROPS
)... oder eine Limitierung des RDNA4 Designs und bietet damit neben dem Marketing (Gamer kaufen keine Karten ü700€) nun auch einen technischen Grund, warum es kein Halo-Produkt mit größerem Chip und noch mehr CUs gibt, wenn diese einfach nicht in Anzahl und Leistung skalieren können.
Falls dem so ist, heißt das aber auch, dass man sich den Griff zur RX9070XT und dessen Aufpreis eigentlich sparen kann.
Die 10% Leistungsunterschied, die hier mit 38% mehr TBP (220W vs. 304W) erkauft werden, machen nicht den Unterschied, ob ein Game spielbar ist oder nicht. Was man mit einer RX9070XT gut spielen kann, kann man auch mit einer RX9070 spielen.
Sollte Modding der TBP Grenzen einfacher werden kann in Zukunft auch jeder RX9070 Besitzer in den "Genuss" der RX9070XT Leistung kommen. Dass die gemoddete TBP dann nicht von der Garantie gedeckt wird ist mir bewusst, aber eigentlich hätte ich auch erwartet mit dem Kauf einer XT einen echten Mehrwert zu erhalten anstatt einfach nur einen unlimitierteren Verbrauch.
Die XT fühlt sich ein bisschen an, wie eine Karte mit zu wenig ROPs
(ist nur ne Anspielung auf Nvidia, ich weiß, dass die 9070 und XT die selbe ROP Anzahl haben)
Was denkt ihr? Sind die CUs nicht ordentlich ausgelastet? Ist die Skalierung einfach nur "zu gut" und am oberen Ende gehen die Wege dann doch wie erwartet auseinander zwischen XT und non-XT (vielleicht auch erst in einem theoretischen real gar nicht erreichbaren Verbrauchsbereich)? Besteht eine FineWine Chance, so dass die CUs besser ausgelastet werden können durch bessere Treiber und/oder modernere Spiele-Engines?
ich darf eine RX9070XT Hellhound von PowerColor mit leichtem Aufpreis mein Eigen nennen und bin sehr happy mit der Karte.
Da ich sie zwecks Vermessung für GPU Kühler zu Alphacool gesendet hatte, war ich happy zur UVP auch eine Asus RX9070 Prime bekommen zu haben, die ich dann 2-3 Wochen nutzen konnte, bis ich die XT zurück hatte.
(Die Prime ist ohne Aufpreis bei einem Freund gelandet, der keine erwischt hat #noScalping)
Da ich jetzt beide Karten ausgiebig bespielen und testen konnte, muss ich sagen, dass der Unterschied noch nie so klein war zwischen einer XT und non XT Karte, wenn man sie auf die gleiche TBP normiert. Bei der Recherche bin ich über die 5700 und 5700XT gestoßen, hab aber keine TBP normierten Tests gefunden, da könnte es vllt. ähnlich sein.
Ich habe jetzt keine große Wissenschaft daraus gemacht mit mehreren Tests, weil ich nicht beide Karten Tage-lang testen wollte und auch keine Zeit dazu habe. Einen sauberen Einzelvergleich mit einer Witcher 3 Next Gen Szene (das selbe Savegame, keine Mausbewegung, keine Perspektivverschiebung) habe ich im Thronsaal von Vizima gemacht, während in WQHD bis auf Hairworks alles an Features inkl. Ray Tracing hoch gedreht war auf Ultra+.
Beide GPUs sind in dem Szenario zu 100% ausgelastet.
Die RX9070 hat eine leicht höhere Güteklasse, da sie einen UV von -100mV stable mit macht, die XT "nur" -65mV.
Für die Vergleichbarkeit wurden beide Karten auf -65mV gesetzt und die TBP auf 228Watt normiert und auch noch einmal auf 252 Watt.
Zudem habe ich dank der Anregung von @syfsyn auch noch einmal getestet, welches Bild sich zeichnet, wenn man den GPUs ein jeweils identisches Power Budget für die einzelnen GPUs gibt (zweite Tabelle), da man hier genau sehen kann, wie viel die einzelnen CUs mit der selben Stromversorgung schaffen, ohne dass der Effekt der steigenden Effizienz bei geringerem Takt eine Rolle spielt. Auch das ist nur ein Näherungswert, denn eigentlich müsste man wissen, wie viel andere Komponenten abseits der GPU vom TBP Budget brauchen. Der Rest wäre das Budget für die GPU, welches man dann separat mit einem TBP plus von 12,5% erhöhen müsste. Die hier getesteten pauschalen Aufschläge von 12,5% auf die gesamt-TBP sind also nur ein Näherungswert von der anderen Seite.
Dabei erreichte ich folgende Ergebnisse:
Tabelle 1 (normiert auf gleiche TBP):
Witcher 3 Vizima Szene | RX9070 | RX9070 XT | RX9070 | RX9070 | RX9070 XT |
|---|---|---|---|---|---|
CUs | 56 (87,5%) | 64 (100%) | 56 | 56 | 64 |
UV | -65mV | -65mV | -100mV | -65mV | -65mV |
TBP | 228W | 228W | 253W | 253W | 253W |
GPU Takt +-10MHz (%) | ~2580 MHz (~102%) | ~2530 MHz (100%) | ~2770 MHz | ~2703 MHz (~102%) | ~2654 MHz (100%) |
GPU Spannung | - | - | 858mV | 865mV (~103%) | 837mV (100%) |
GPU Auslastung | 99-100% | 99-100% | 99-100% | 99-100% | 99-100% |
FPS (%) | 62 fps (~97%) | 64 fps (100%) | 64 fps | 63fps (~95%) | 66 fps (100%) |
Tabelle 2 (normiert auf gleiche TBP anhand der CU count Unterschiede)
Witcher 3 Vizima Szene | RX9070 | RX9070 XT | RX9070 | RX9070 XT |
|---|---|---|---|---|
CUs | 56 (87,5%) | 64 (100%) | 56 | 64 |
UV | -65mV | -65mV | -65mV | -65mV |
TBP | 228W (87,5%) | 261W (100%) | 253W (87,5%) | 289W (100%) |
GPU Takt +-10MHz (%) | ~2580 MHz (~95%) | ~2703 MHz (100%) | ~2703 MHz (~97%) | ~2794 MHz (100%) |
GPU Spannung | - | 851mV | 865mV (~98%) | 885mV (100%) |
GPU Auslastung | 99-100% | 99-100% | 99-100% | 99-100% |
FPS (%) | 62 fps (~93%) | 67 fps (100%) | 63fps (~91%) | 69 fps (100%) |
In dieser Stichprobe erreicht eine RX9070 bei normierter TBP (228W) mit einem ~2% höheren Takt ~97% der FPS einer XT. Mit steigender TBP von 253W gehen die Ergebnisse etwas weiter auseinander und die RX9070XT scheint sich bzgl. Effizienz zu steigern und von der non-XT abzusetzen. Der Unterschied bewegt sich allerdings im Rahmen der Messungenauigkeit zwischen den TBPs mangels Karten und mangels verschiedener Tests.
Es stellt sich mir die Frage: wie schaffen 12,5% weniger Recheneinheiten mit läppischen 2% mehr Takt 97% der Leistung einer XT auf den Bildschirm zu bringen. Die 8CUs verbrauchen natürlich auch mehr Energie, aber verbrauchen 8 CUs so wenig Energie, dass sich das in nur 2% Taktunterschied nieder schlägt?
Bei Karten älterer Generationen ist der Unterschied deutlicher. Eine größere Karte mit höherer CU Anzahl kann normalerweise bei geringerem Takt besser performen, wenn die CUs gut ausgelastet sind, da sie in einem niedrigeren Taktbereich effizienter arbeiten.
Ein gutes Beispiel dafür sind die RX6800XT und RX6900XT in folgendem CB Testabschnitt:
https://www.computerbase.de/artikel...00_xt_6800_xt_2080_ti_3080__3090_bei_270_watt
Hier beträgt der Unterschied eher 8-10% je nach Leistungsbereich (270 bzw. 300 Watt). Dabei unterscheiden die beiden Karten ebenfalls 8CUs, allerdings sind die absoluten Werte hier 72 (91%) und 80 (100%) CUs und damit nur 9% weniger, was genau in diesem 8-10% Bereich liegt.
EDIT:
Mit der "Normierung" auf TBP pro CU sehen wir in Tabelle 2, dass die zusätzlichen CUs in diesem Fall von einem höheren Power Budget profitieren. Es kommt also entgegen RDNA2 nicht mehr so stark zu dem Effizienzgewinn der CUs durch weniger Takt. Dieser Effekt ist zwar vorhanden, der Sweetspot dafür scheint allerdings jenseits der 228 Watt zu liegen. Das ist insofern schade, als dass der Bereich um die 300 Watt (wie hier mit der RX9070XT bei 289 Watt gemessen) allgemein für RDNA4 betrachtet bereits weit außerhalb eines Sweetspots liegt, denn verglichen mit einer TBP von 228W auf der XT gibt es ein fast schon klägliches Mehr von nur 8% (69fps statt 64fps) bei einem Verbrauch von zusätzlichen 27% (289 Watt statt 228 Watt).
Dabei ist, wie oben beschreiben, zu beachten, dass hier außer Acht gelassen wird, wie hoch der Anteil aller Komponenten auf der Grafikkarte Abseits der GPU ist. Daher sieht es nach einem deutlich stärkeren Scaling nach oben aus, als es wirklich ist.
Was aber eindeutig zu erkennen ist, ist dass mit steigendem Power Budget pro die XT deutlicher davon zieht: ~7% geringere fps bei 228W vs 261W und ~9% geringere fps bei 253W vs 289W
Zudem kommt jetzt noch hinzu:
https://www.computerbase.de/news/gr...ie-rx-9070-fast-so-schnell-wie-eine-xt.92079/
Wenn die TBP einer RX9070 per BIOS Mod jetzt RX9070XT Grenzen von 300W erreichen kann, ist auch dort oben der Unterschied scheinbar nur sehr klein. Hier fehlen mir Zahlen, die ich so selbst nicht nachstellen oder testen kann.
Meine These zu Release der RX9070er war:
Es ist unglaublich, dass die GPUs so abnormal linear mit CU Anzahl, Spannung und Takt skalieren, dass die Karten im selben TBP Bereich eine nahezu identische Rechenleistung in Spielen abliefert.
Das würde aber auch bedeuten, dass ab einer bestimmten Takt/TBP Grenze oben die XT davon ziehen muss bei maximalem Takt und voller Auslastung, da sie 12,5% mehr Recheneinheiten hat und der Takt zwischen beiden Karten das Architektur-Maximum darstellt (wenn wir jetzt von gleicher Chipgüte ausgingen).
Ob dieser Bereich (wenn es sich denn so verhält) im Rahmen dessen, was eine gemoddete RX9070 mit XT BIOS leisten kann, liegt, müsste mal jemand mit Expertise nachtesten.
Der von mir gemessene Abstand in den unteren TBP Klassen ließe sich schon fast mit Chipgüte (wie man das bei CPUs auch kennt, dass zwei gleiche CPU Modelle sich im worst case um mehrere % Leistung unterscheiden können) der GPU Chips begründen und nicht mit CU Anzahl.
Vielleicht gibt es Spiele/Anwendungen, wo das noch ganz anders skaliert. Falls aber auch im ü300Watt Bereich die Karten ähnlich knapp zueinander skalieren, sind die 8CUs mehr für die Tonne... oder schlimmer fake (#missingROPS
Falls dem so ist, heißt das aber auch, dass man sich den Griff zur RX9070XT und dessen Aufpreis eigentlich sparen kann.
Die 10% Leistungsunterschied, die hier mit 38% mehr TBP (220W vs. 304W) erkauft werden, machen nicht den Unterschied, ob ein Game spielbar ist oder nicht. Was man mit einer RX9070XT gut spielen kann, kann man auch mit einer RX9070 spielen.
Sollte Modding der TBP Grenzen einfacher werden kann in Zukunft auch jeder RX9070 Besitzer in den "Genuss" der RX9070XT Leistung kommen. Dass die gemoddete TBP dann nicht von der Garantie gedeckt wird ist mir bewusst, aber eigentlich hätte ich auch erwartet mit dem Kauf einer XT einen echten Mehrwert zu erhalten anstatt einfach nur einen unlimitierteren Verbrauch.
Die XT fühlt sich ein bisschen an, wie eine Karte mit zu wenig ROPs
Was denkt ihr? Sind die CUs nicht ordentlich ausgelastet? Ist die Skalierung einfach nur "zu gut" und am oberen Ende gehen die Wege dann doch wie erwartet auseinander zwischen XT und non-XT (vielleicht auch erst in einem theoretischen real gar nicht erreichbaren Verbrauchsbereich)? Besteht eine FineWine Chance, so dass die CUs besser ausgelastet werden können durch bessere Treiber und/oder modernere Spiele-Engines?
Zuletzt bearbeitet:
(-65mV Werte auch bei 253W noch mal nachgetestet, weitere Ergebnisse mit selber TBP pro CU.)