Test 7900 XTX OC vs. RTX 4080 OC: RDNA 3 und Ada Lovelace mit maximalen Taktraten im Duell

Technisch zwar sehr verschieden aber vom Ton her erinntert die ganze Diskussion schon sehr stark an die Diskussionen nach Vega. Sogar der Test hier.

Und wie auch Vega nur durch UV zu bändigen war so sollte es auch hier sein. Ich bin fast geneigt mir eine XTX zuzulegen um das selber anzugehen aber der Preis ist einfach zu hoch für die "versprochene" Leistung.

Meine 6900XT habe ich jetzt so eingestellt (Speicher OC 2120 FT, Chip UV auf 1090mv, Max Mhz auf 2575), dass ich auf standard PT 5-7% mehr Leistung in Spielen wie CP2077, Metro Exodus und Witcher 3 NG habe. (Ich nehme die Games mittlerweile als Stabilistätstest, nachdem mein Chip mit Timespy einfach nicht gut läuft, ja ist nicht ganz sauber aber TS spiele ich ja nicht.)

Von daher würde ich mir auch eher einen UV Test wünschen als einen Max OC Test. Trotzdem Danke für die Arbeit!
 
  • Gefällt mir
Reaktionen: el_zoido und SirDoe
DevPandi schrieb:
Es gibt sogar eine weitere Methode: Man sucht sich mal die entsprechenden Stellen, an denen der Code verwendet wird und überlegt, was da dann genau steht:
Hätte ich jetzt als nächstes getan, aber ich hatte den 13500 auf dem Benchtable.

Aber was ist das bitte für ein Code? Dezentrale Side Effects mit jeder Menge Gefrickel?! :freak:

ampre schrieb:
Auch das untenstehende Bild ist merkwürdig, mesh shader gehen bei RDNA nicht über die DX12 Standartaufrufe und auch die MultiDrawIndirect Werte die AMD auf Folien mit 2,3x Performance anpreist, werden nicht erreicht.
Spricht auch keiner drüber, genau so wie die Errata Liste von GitLab. Gut, einen Gamer interessiert so was auch nicht wirklich, der will wissen, was die Karte in Spiel XYZ für FPS liefert.

Nichtsdestotrotz ist RDNA3 eine riesige Baustelle mit einigen Schönheitsfehlern. Hoffen wir mal, dass wenigstens das Fundament solide ist.
 
Zuletzt bearbeitet:
Hach, ja da gibts wirklich noch einiges Verbesserungspotential. Da würde doch eine 7970 XTX 3GHz-Edition so richtig schön dazu passen mit den ganzen fixes ^^
 
  • Gefällt mir
Reaktionen: Sun-Berg und b|ank0r
Ich glaube den verstehen nicht alle 😊

Zumindest aber die, die diese Frage im Nikolaus Gewinnspiel richtig beantwortet haben 🤓😂
 
  • Gefällt mir
Reaktionen: ComputerJunge und Javeran
von Undervolt halte ich nichts mehr, da kriegt man mit der 4090 schlechtere min fps/Frametimes. Getestet einmal mit 80% Powertarget und einmal mit einem großzügigen (noch gut Spielraum) undervolt von 950mV bei 2700mhz, saubere Curve.
Bei AC Valhalla Benchmark je 2 x bei beiden durchlaufen lassen, fps Ergebnis ziemlich gleich, MIN FPS bei undervolt bei 1fps, MIN FPS bei 80% PT 60fps. Frametime bei undervolt all over the place.
Far Cry 6 selbes Spiel, Min Fps bei undervolt deutlich schlechter.

Im 8auer Review Youtube, merkte er auch an PT funktioniert deutlich besser, UV fühlt sich nicht gut an.
 
  • Gefällt mir
Reaktionen: el_zoido
JahJah192 schrieb:
Bei AC Valhalla Benchmark je 2 x bei beiden durchlaufen lassen, fps Ergebnis ziemlich gleich, MIN FPS bei undervolt bei 1fps, MIN FPS bei 80% PT 60fps. Frametime bei undervolt all over the place.
Far Cry 6 selbes Spiel, Min Fps bei undervolt deutlich schlechter.
Min FPS bei AC:Val sind statistische Ausreißer, das wird sehr wahrscheinlich nichts mit UV zu tun haben. Ich habe auch UV getestet und keinen negativen Einfluss auf die Lows feststellen können. Schlechte Lows kommen eh meistens von der CPU, bzw. teuren Speicherzugriffen.
 
Ich würde ja gerne undervolten, aber die Spannunskurve im MSI Afterburner lässt sich nicht einstellen / 4070ti + MSI AB 4.6.5 beta 4 - Hat jemand ein ähnliches Problem?
 
https://www.tomshardware.com/news/amd-rdna-3-gpu-architecture-deep-dive-the-ryzen-moment-for-gpus
Die stelle
Zitate
RDNA 3 comes with an enhanced Compute Unit pair — the dual CUs that became the main building block for RDNA chips. A cursory look at the above might not look that different from RDNA 2, but then notice that the first block for the scheduler and Vector GPRs (general purpose registers) says "Float / INT / Matrix SIMD32" followed by a second block that says "Float / Matrix SIMD32." That second block is new for RDNA 3, and it basically means double the floating point throughput.

You can choose to look at things in one of two ways: Either each CU now has 128 Stream Processors (SPs, or GPU shaders), and you get 12,288 total shader ALUs (Arithmetic Logic Units), or you can view it as 64 "full" SPs that just happen to have double the FP32 throughput compared to the previous generation RDNA 2 CUs.




This is sort of funny because some places are saying that Navi 31 has 6,144 shaders, and others are saying 12,288 shaders, so I specifically asked AMD's Mike Mantor — the Chief GPU Architect and the main guy behind the RDNA 3 design — whether it was 6,144 or 12,288. He pulled out a calculator, punched in some numbers, and said, "Yeah, it should be 12,288." And yet, in some ways, it's not.

AMD's own slides in a different presentation (above) say 6,144 SPs and 96 CUs for the 7900 XTX, and 84 CUs with 5,376 SPs for the 7900 XT, so AMD is taking the approach of using the lower number. However, raw FP32 compute (and matrix compute) has doubled. Personally, it makes more sense to me to call it 128 SPs per CU rather than 64, and the overall design looks similar to Nvidia's Ampere and Ada Lovelace architectures. Those now have 128 FP32 CUDA cores per Streaming Multiprocessor (SM), but also 64 INT32 units.

Along with the extra 32-bit floating-point compute, AMD also doubled the matrix (AI) throughput as the AI Matrix Accelerators appear to at least partially share some of the execution resources. New to the AI units is BF16 (brain-float 16-bit) support, as well as INT4 WMMA Dot4 instructions (Wave Matrix Multiply Accumulate), and as with the FP32 throughput, there's an overall 2.7x increase in matrix operation speed.

That 2.7x appears to come from the overall 17.4% increase in clock-for-clock performance, plus 20% more CUs and double the SIM32 units per CU. (But don't quote me on that, as AMD didn't specifically break down all of the gains.)

Sofern ich das verstehe ist das ws ich schrieb von 6144 alu rechen 2 operationen pro takt plus 17% bei den anderen 2 operrationen
man spricht von 2,7 fache Auslastung der alu aber generell eher 17,4% mehr von den 2 zusätzlichen Ausführungen ergeben dann 2,34 Statt 2,7
Ob amd jemals diese ungenaue 20% zusätzlichen Ausführungen von fp32 per Treiber freilegen kann ist ungewiss.
Was sicher ist das dass cache system irgendwas zurückhält und das kann im Endeffekt nur der interposer sein.
Geplant ist wie beschrieben 4 Operationen pro cu die auf einen Daten Pfad zugreifen quasi wird daraus 3 Operationen ich gehe davon aus das irgendwann 2,5 Operationen per Treiber erreicht werden können.
Amd gibt an 2,7 derzeit erreicht 2,34
Was sich auch mit den fps deckt bzw abstand vs rdna2 fp32 Leistung.

Die Energieeffizienz im idle Problematik ist noch in Beobachtung direkt nen link dazu findet man nicht.
Die Ursache kann nur sein das die spannung von den mcd nicht geändert werden kann. zumal man darauf keinen zugriff hat.
Das kann man per Treiber lösen ist aber nicht sauber und wird definitiv Probleme machen.
Aktuelle Lösung ist wirklich die hardware Beschleunigung abzustellen den das zwingt die gpu in den 3d modus womit der gesteigert wird.

ich erinnere mich an die Problematik die mal nvidia hatte bei der ersten tesla gen (g92b g80) an gpu irgendwann 2008 wo der chip nur in 3d Modus laufen konnte da der 2d Modus zu abstürzen führte
man munkelte das es an windows lag der Grund war aber ein anderer. Am ende half nur ein vbios update das die gpu dauernd im 3d modus läuft entsprechender verbrauch im idle.
Statt 50w dann 100w
richtig stromsparen konnte gpu erst ab fermi 2010
 
Simanova schrieb:
Ich würde ja gerne undervolten, aber die Spannunskurve im MSI Afterburner lässt sich nicht einstellen / 4070ti + MSI AB 4.6.5 beta 4 - Hat jemand ein ähnliches Problem?
Nö, da keine Ada, allerdings wird’s ja vorerst nichts neues geben.
MSI kann den Russischen Entwickler nicht mehr bezahlen.

Eventuell ein anderes Tool in Betracht ziehen :).
 
syfsyn schrieb:
Sofern ich das verstehe ist das ws ich schrieb von 6144 alu rechen 2 operationen pro takt plus 17% bei den anderen 2 operrationen
Nicht ganz falsch, nicht ganz richtig!

Die neuen Vec-ALUs in den CU können entweder einen Wave64-Befehl bearbeiten oder 2 Wave32-Befehle. Anfangs hieß es, dass die beiden Wave32-Befehle den gleichen Operator haben müssen, was aber so nicht stimmt. Ausgeführt hab ich es in Kurzfassung hier - mit dem Verweis auf das Whitepaper.

Die neuen Vec-ALUs verhalten sich in der Form also entweder wie eine Vec64 oder eben Vec32+32. Wobei für die Vec32+32 einige Limitierungen gibt. So gibt es nur f32-Befehle (Float 32) und auch nicht alle. Es sind aber die normalen Operatoren wie ADD, MUL, SUB und MAD und ein paar mehr.

Die 17 % - die du hier erwähnst - beziehen sich auf die IPC.
syfsyn schrieb:
man spricht von 2,7 fache Auslastung der alu aber generell eher 17,4% mehr von den 2 zusätzlichen Ausführungen ergeben dann 2,34 Statt 2,7
Du hast hier einen Fehler drin, denn die 2,7 stammen aus dem folgenden Zitat: "That 2.7x appears to come from the overall 17.4% increase in clock-for-clock performance, plus 20% more CUs and double the SIM32 units per CU. (But don't quote me on that, as AMD didn't specifically break down all of the gains.)"
1 * 2 * 1,174 * 1,2 = 2,81

Noch wichtiger ist aber der Abschnitt davor - die 2,7 beziehen sich scheinbar auf die Matrix-Operationen: "and as with the FP32 throughput, there's an overall 2.7x increase in matrix operation speed."

syfsyn schrieb:
Die Ursache kann nur sein das die spannung von den mcd nicht geändert werden kann. zumal man darauf keinen zugriff hat.
Wieso sollte man auf die Spannung der MCDs keinen Zugriff haben? Wenn AMD die MCDs so gestaltet hat, dass sie diese nicht weitgehend kontrollieren können, dann ist das wirklich Broken-By-Design und eine halbe Katastrophe.

syfsyn schrieb:
Das kann man per Treiber lösen ist aber nicht sauber und wird definitiv Probleme machen.
Und warum ist es nicht sauber, wenn man es per Treiber löst? Du weißt schon, dass eine GPU keine CPU ist und daher die GPU weitgehend eben von einem Treiber gesteuert wird?

GPUs verzichten weitgehend auf komplexere Kontrolllogik zur Steuerung des Chips, genauso wird an vielen Stellen auf Steuerungslogik und Co verzichtet, die selbstständig agiert, damit man viele ALUs und Co unterbringen kann.
 
  • Gefällt mir
Reaktionen: Colindo, McTheRipper und incurable
IXI_HADES_IXI schrieb:
Beispiel

Ab dem 21.6.1 gings stets Berg auf mit der Performance und Problembeseitigung...

Also beim Launch Test der RX 6000 von CB ist die 6900 XT ca. 3% vor der 3080 FE 10gb.
Die 6800 XT ist ca. 6% dahinter.

Beim Launch Test der 4070 Ti von CB ist die 6900XT ca. 5% vor der 3080 FE 10gb.
Die 6800XT ist ca. 5% dahinter.

Heißt, die gewonnene Leistung mit den AMD Treibern (es herrscht ja im Forum die Meinung, AMD altert deutlich besser und die Leistung legt immens zu) ist im Rahmen dessen, was man so erwartet.

Selbiges wird für die RX 7000 Gen gelten.

Ich würde mir auch eine XTX Custom kaufen (mit mind. 3j Garantie), aber die Preise sind auf 4080 Niveau.
Leider ergibt das keinen Sinn.
Überlege sogar schon wieder, die 4080 loszuwerden und auf meine 3080 12GB zurückzugreifen..die Spiele sind eh alle... :D
Ergänzung ()

Grundgütiger schrieb:
Nö, da keine Ada, allerdings wird’s ja vorerst nichts neues geben.
MSI kann den Russischen Entwickler nicht mehr bezahlen.

Eventuell ein anderes Tool in Betracht ziehen :).
Wie keine Ada?

Ich kann meine 4080 und 4090 normal undervolten.

Geht das bei der 4070ti nicht mit dem neusten Beta-Update (ca. 2 wochen alt)?
 
Caramelito schrieb:
Also beim Launch Test der RX 6000 von CB ist die 6900 XT ca. 3% vor der 3080 FE 10gb.
Die 6800 XT ist ca. 6% dahinter.

Beim Launch Test der 4070 Ti von CB ist die 6900XT ca. 5% vor der 3080 FE 10gb.
Die 6800XT ist ca. 5% dahinter.
Gab es dazwischen nicht auch noch einen "Wundertreiber" bei Nvidia?

Aber grundsätzlich ist es schon richtig. Beide Architekturen werden noch Treiberoptimierungen bekommen, somit ist im Balkenvergleich unterm Strich keine grössere Differenz zu erwarten. Man müsste mal die Launch Treiber mit dem aktuellen Treibern vergleichen.
 
Crifty schrieb:
4% mehr Performance für über 148 Watt mehr an Strom. Es tut mir leid aber mit jedem Tag mehr, wo ich News und Tests aus Interesse an den Karten lese, vergeht mir die Freude an den neuen AMD Karten. Ich behalte einfach die 6000er Generation in guter Erinnerung.
Das ist halt N4 mit einer bewährten Technik auf gemeinsamen Raum, dem gegenüber steht N5+N6 mit geteilten Chipbausteinen, die durch diese beiden Vorraussetzungen auf jeden Fall immer mehr schlucken werden, um irgendwie konkurrenzfähige Leistung erzielen zu können.
Soll heißen: AMD musste fertigungsbedingt die KArten stark überdrehen, um in etwa den gleichlangen Balken präsentiern zu können.
Mit Extrem-OC wird das dann proportional natürlich noch viel schlechter im Verhältnis zueinander.
Diese steil ansteigenden Verlaufskurven am Ende kennt man doch.
Ich bin fest davon überzeugt, dass die Karten mit rund 2Ghz Takt das wesentlich rundere Gesamtprodukt ergeben hätten.
Weniger Kühlung, dadurch gleich schon mal geringere Preise, geringerer Stromverbrauch, gute Effizienz.
Vermutlich hat AMD im letzten Moment an der Schraube gedreht, das sieht man an der 355W Grenze des Stromsteckers.
So ein Konzept würde man im Normalfall niemals durchwinken.
Ursprünglich wollte man wohl wieder 300 oder 320 W (für die XTX) mitgeben und den Rest halt als OC Option über den Treiber zur Verfügung stellen.
Aber wie gesagt, die beste Effizienz hätte man mit weniger Takt und dann wohler eher im Bereich der 250-275W haben können.
Schaut euch mal an, was der Ryzen 7900 im Vergleich zur X version mit 65W zu 170W TDP für ein Effizienzwunder geworden ist und zumindest in Spielen nur wenige Prozent an Leistung einbüßt.
Und wie schlecht Intel da jetzt mit seiner 13er Gen da steht, mit heruntergelassener Effizienzhose, trotz so toller Fertigungstechnik als Grundlage.
Da kann man den 13900KS mit dieser 7900XTX mit 500W OC gleichsetzen.
 
  • Gefällt mir
Reaktionen: b|ank0r
BxBender schrieb:
Das ist halt N4 mit einer bewährten Technik auf gemeinsamen Raum, dem gegenüber steht N5+N6 mit geteilten Chipbausteinen
4N, nicht N4. Und 4N ist eine Variante von N5 von der nicht bekannt ist, welche Vorteile sie genau bietet.
 
  • Gefällt mir
Reaktionen: Perdakles
Zer0Strat schrieb:
Min FPS bei AC:Val sind statistische Ausreißer, das wird sehr wahrscheinlich nichts mit UV zu tun haben. Ich habe auch UV getestet und keinen negativen Einfluss auf die Lows feststellen können. Schlechte Lows kommen eh meistens von der CPU, bzw. teuren Speicherzugriffen.
Mag vllt auch daran liegen:

ist bei der 4000 nicht empfohlen.
 
  • Gefällt mir
Reaktionen: Zer0Strat
Vermutlich ist es wie immer bei AMD, man hat die Karte nicht schnell genug fertig bekommen, deswegen musste man Sachen wie Effizenz- und Treiberoptimierung hintenanstellen und in einem Jahr kommt dann ein Wundertreiber mit dem die Karten 50% mehr leisten beim halben Verbrauch oder so.
 
el_zoido schrieb:
Danke, dass ist gut zu wissen. Dann werde ich das in Zukunft auch so handhaben. Hast du schonmal versucht reduziertes Powertarget in Verbindung mit overclocking zu verwenden? Das soll wohl eine Alternative zu Undervolting sein...
Ne, hab nur 80% PT nicht mal Memory OC etc. Performance ist so schon einfach gefühlt wie Basuka auf Fliege. Doppelte fps in BF 2042 zur 3090 um 220fps, in restlichen Games was ich aktuell zock 40-70% Auslastung in meinem 117fps cap (3 unter Monitor Hz für gsync) für Singleplayer.
 
Sun-Berg schrieb:
Gab es dazwischen nicht auch noch einen "Wundertreiber" bei Nvidia?

Aber grundsätzlich ist es schon richtig. Beide Architekturen werden noch Treiberoptimierungen bekommen, somit ist im Balkenvergleich unterm Strich keine grössere Differenz zu erwarten. Man müsste mal die Launch Treiber mit dem aktuellen Treibern vergleichen.

Ja seitens Nvidia gabs auch ca. 3-6% oder so.

"Wichtig" zu wissen ist halt, dass man bei beiden Herstellern ungefähr dort bleibt, wo man am Anfang war in der Reihenfolge.

Manche Leute hier erwarten von ihrer XTX auf einmal RTX 4090 Performance nach Treiber Updates. Not gonna happen.
Wurde auch schon von Gamers Nexus thematisiert z.B.

Auch 10% sind unrealistisch in den nächsten Monaten.

Am Ende von Zyklus hat man dann vllt. die 10% (aber auch NV schläft ja hier nicht) erreicht und ist dann auf dem Niveau der Mid-Range Karten Ende 2024.
 
  • Gefällt mir
Reaktionen: Sun-Berg
Zurück
Oben