News Aus der Community: Ein umfassender Vergleich von RX 7900 XTX und RTX 4090

DevPandi schrieb:
Natürlich entspricht das, was ich gemessen habe, der Realität, sonst hätte ich das ja nicht messen können. Und die Kombo 5800X3D und RTX 4090 ist jetzt auch nicht "so" selten, wenn man sich einige Signaturen ansieht.
Ich habe nicht behauptet, dass die von Dir gemessenen Werte nicht der Realität entsprechen. Dass hier ein CPU-Limit vorliegt und die Werte daher entsprechend ausfallen, habe ich ja auch geschrieben. Das habe ich auch selber in etlichen Spielen genau so beoachten und messen können.

Ich bezog mich natürlich auf die von mir zitierte Aussage von @blackiwid, die tatsächlich nicht der Realität entspricht und die er offenbar aus Deinen (realen) Testergebnissen versucht abzuleiten.

Dass die Kombi aus 5800X3D und 4090 nicht realitätsnah ist, habe ich auch nicht behauptet. Bis vor kurzem hatte ich genau diese Kombi selbst bei mir laufen. Ich habe dann auf den 7800X3D aufgerüstet, da ich, vor allem in UWQHD bzw. 5160x2160 mit DLSS Quality, ständig im CPU-Limit war. Das hat sich durch die ~26% höhere CPU-Leistung nun deutlich verbessert.

DevPandi schrieb:
Gleichzeitig ist es aber durchaus interessant, dass in einem CPU-Limit der Treiber von AMD besser aggiert. ;)
Das würde ich auf der Grundlage von 2% Abweichung in einem relativ kleinen Testparkour nicht schlussfolgern können. Das könnte m. E. genauso gut durch Messungenauigkeit und/oder Variation im Spielverlauf begründet sein. Muss aber natürlich nicht falsch sein. Man müsste hier denke ich sicherstellen, dass beide Karten 100% der Zeit im CPU-Limit sind (z. B. in 720p) und viele Benchmark-Wiederholungen durchführen, um gesicherte Aussagen treffen zu können.
 
Zuletzt bearbeitet:
Die XTX ist für unter 950 Euro sicherlich konkurrenzlos, aber eigentlich wie hier schon erwähnt auch nur mit der 4080 vergleichbar. Die RTX 4090 ist eine eigene Liga, aber trotzdem ist die XTX eine tolle Karte, hatte ich selber schon im Rechner.
 
DevPandi schrieb:
Kommt immer darauf an, wie man die Betrachtung zieht und was man bei Spielen am Ende auch aktivieren möchte.

Ich hätte in meinem Tests auch die Spiele so wählen können, dass die 7900 XTX kein wirkliches Land mehr gesehen hätte gegen die 4090, was aber nicht fair wäre.
Das ist klar gegen die 4090 - 4090 = Eigene Liga und nicht vergleichbar.

4080 vs XTX vergleiche ich aber gerne.
Klar RT/DLSS3 ist eine Sache, die kann halt 4080 deutlich besser.
Limitierter VRAM bzw. in einigen Titeln am Limit kratzen ist für mich halt keine 1150+Euro wert vs. einer XTX die es hier und da um 900eur gibt.

Wenn jemand Cyberpunkt RT/PT braucht...der kauft keine AMD^^
 
MoinWoll schrieb:
Man müsste hier denke ich sicherstellen, dass beide Karten 100% der Zeit im CPU-Limit sind, um gesicherte Aussagen treffen zu können.
Ach, das AMD Grafikkarte im "CPU"-Limit etwas besser agieren - besser der Treiber - haben andere aber auch schon fest gestellt.

Aber ein CPU-Upgrade ist jetzt maximal zu Weihnachten drin. Bis dahin halte ich die Füße Still! :)
Ergänzung ()

Caramelito schrieb:
Das ist klar gegen die 4090 - 4090 = Eigene Liga und nicht vergleichbar.
Die 4090 ist einfach eine GPU auf Transistor-Doping! 144 SM ... 128 davon aktiv? Die Dame hat zu viele Trainiert und weiß aktuell nicht wohin mit der Kraft.
 
Zuletzt bearbeitet:
Ich finde die Verwendung der 99,9% Perzentile für die GPU Tests auch unglücklich (hier auch übrigens entweder 0,1% FPS oder 99,9% Frametimes, nicht 99,9% FPS), da diese fast immer durch kleine CPU Spikes entstehen und eher nicht auf die GPU zurückzuführen sind.

Daher testet CB ja auch schon seit Langem mit dem P0.2 statt dem P0.1, weil das aussagekräftigere Werte liefert, wenn man GPUs vergleichen möchte, und dazu hat man dann auch eine der stärksten CPUs für den Test.
Hat man eine langsamere CPU, würde ich sogar eher auf P1 hoch gehen.

Ich sehe im Artikel jetzt auf Anhieb keine Angabe zur Testlänge, ich gehe aber mal von 20 oder 25 Sekunden aus, damit entspricht das 0.1 Perzentil bei ~125 avg FPS für die 7900XTX gerade mal 2-3 Frames die ignoriert werden. Bei der 4090 sind es 3-4. Und das wäre für den Schnitt aller Spiele, da werden auch welche dabei sein, wo durch das 0.1 Perzentil lediglich ein einziger Frame ignoriert wird.

Ergänzung ()

@DevPandi Ich gehe mal davon aus, dass du CX für die Benches benutzt hast?
Wie sehen denn die kombinierten Werte für P0.2 und P1 aus? Bildet sich dort der gleiche Abstand wie bei den avg FPS?
 
Zuletzt bearbeitet:
DevPandi schrieb:
Ach, das AMD Grafikkarte im "CPU"-Limit etwas besser agieren - besser der Treiber - haben andere aber auch schon fest gestellt.
Ist es nicht eher umgekehrt bei der aktuellen Generation? Im CB Test* der 7900 XTX ist die 4080 unter 4K z. B. gleichschnell wie die 7900 XTX und unter 1440p 3% schneller. Das deutet für mich eher auf einen geringeren Treiberoverhead bei NVIDIA hin. Kann aber natürlich auch hier sein, dass neuere AMD-Treiber das mittlerweile angegangen sind.

*https://www.computerbase.de/2022-12...nitt_benchmarks_mit_und_ohne_rt_in_3840__2160
 
DevPandi schrieb:
Man kann gespannt sein, was AMD mit RDNA4 bringt und abschreiben sollte man AMD auf keinen Fall, nur weil diese Generation "versemmelt" wurde:

"AMD hat für RDNA 4 einige Hausaufgaben zu erledigen und sie werden die Probleme von RDNA 3 angehen müssen. Probleme in den ROPs sind lösbar und wenn AMD weitere Verbesserungen in die CU einfließen lässt und an ihrer RT-Struktur arbeitet, kann AMD mit RDNA 4 NVIDIA wieder gefährlicher werden, so reicht es einfach nur für eine Alternative, die ihre Schwachpunkte hat."

Die Probleme von RDNA 3 liegen nicht in der Architektur, sondern vermutlich im Chipdesign und das ist auf jeden Fall behebbar. Man sollte AMD also auf keinen Fall abschreiben!
Ich denke immer noch das AMD den release der 7800xtx soweit nach hinten schiebt weil sie mit biegen und brechen an einer Lösung für dieses Problem suchen!


DevPandi schrieb:
Aber ein CPU-Upgrade ist jetzt maximal zu Weihnachten drin. Bis dahin halte ich die Füße Still! :)
Ergänzung (Vor einer Minute)
Die 4090 ist einfach eine GPU auf Transistor-Doping! 144 SM ... 128 davon aktiv? Die Dame hat zu viele Trainiert und weiß aktuell nicht wohin mit der Kraft.
Top.
Die Wette gilt.

Aber ja. Ich Stimme dir zu das die 4090 Monster ist.
Auch wenn sie momentan immer noch oft im CPU Limit läuft würde ich sogar behaupten das sie ZU viele Transistoren hat und das Frontend/die Treiber gar nicht damit zu Schlag kommen.
Screenshot_20230724-162748.png
34% Performance plus zur 4080?
Das sind 128 zu 76 SM
Oder 82.6 zu 48.8 TFlops
Also auch nVidia hat hier eigentlich eine Karte die miserabel läuft. Es kaschiert sich halt nur dadurch das sie keine Konkurrenz hat.
 
  • Gefällt mir
Reaktionen: Flaschensammler
Chesterfield schrieb:
verbrauch hin oder her... niemand fragt bei einem Lamborghini am ende nach dem verbrauch wenn er einen gewissen Anspruch befriedigen will. daher ist der verbrauch nur am Rande entscheidungsgrund bei Highend

Finde die Effizienz einer Karte weiterhin am Wichtigsten und habe mich deswegen nach der 1070 8GB für die 4080 16GB entschieden. Man braucht kein neues Netzteil, der Rechner wird weniger warm, man spart Stromkosten gerade bei Dauernutzung und am Ende kommen noch coole Features bei Nvidia dazu.

4k, Ultra Details, Raytracing und 100 Frames+ mit unter 250 Watt war bis vor kurzem nur Wunschdenken, geht aber jetzt mit einer 4080. Davor hatte ich weniger Leistung unter FullHD und habe dafür auch schon knapp 150-170 Watt benötigt.
 
  • Gefällt mir
Reaktionen: shaboo
MoinWoll schrieb:
Das deutet für mich eher auf einen geringeren Treiberoverhead bei NVIDIA hin. Kann aber natürlich auch hier sein, dass neuere AMD-Treiber das mittlerweile angegangen sind.
Bei so geringen Unterschieden ist das schwierig genau zu erfassen.
Es kann in dem Fall auch einfach dazu kommen, dass die 7900XTX Schwierigkeiten hat, ihre Einheiten in geringeren Auflösungen auszulasten und dass diese Schwierigkeiten die FPS mehr runter ziehen, als der Treiberoverhead bei Nvidia die FPS der 4080 limitiert.

In 5K ist die 7900XTX in dem Test dann 3% schneller als die 4080, auch das spricht eher für ein Auslastungsproblem der 7900XTX.
 
  • Gefällt mir
Reaktionen: MoinWoll und DevPandi
Taxxor schrieb:
Bei so geringen Unterschieden ist das schwierig genau zu erfassen.
Es kann in dem Fall auch einfach dazu kommen, dass die 7900XTX Schwierigkeiten hat, ihre Einheiten in geringeren Auflösungen auszulasten und dass diese Schwierigkeiten die FPS mehr runter ziehen, als der Treiberoverhead bei Nvidia die FPS der 4080 limitiert.
Das ist natürlich richtig. Die Aussage, dass die AMD-Treiber weniger Treiber-Overhead haben, lässt sich hieraus aber auch nicht ableiten. Und m. E. auch nicht aus DevPandis Ergebnissen, wo es ja sogar nur 2 und nicht 3% Unterschied sind.

Taxxor schrieb:
In 5K ist die 7900XTX in dem Test dann 3% schneller als die 4080, auch das spricht eher für ein Auslastungsproblem der 7900XTX.
Könnte das nicht auch mit einer Bandbreitenlimitierung der 4080 zu tun haben, die dann widerum dafür sorgt, dass hier die 4080 ihre Einheiten nicht mehr voll auslasten kann? Die Speicherbandbreite der 7900 XTX ist ja knapp 34% höher als die der 4080 bei ähnlicher Raster-Rohleistung.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ich finde die Verwendung der 99,9% Perzentile für die GPU Tests auch unglücklich (hier auch übrigens entweder 0,01% FPS oder 99,9% Frametimes, nicht 99,9% FPS)
Jaha, da kann man drüber streiten. Ich kann die aber sagen, dass die Testsequenzen alle nicht unter 60 Sekunden waren. ;) Und als sich das eher zur Analyse der 7900 XTX verwandelt hat, war das im Endeffekt auch egal, sondern nur ein: Ich nehme es noch mit, weil eh aufgeschrieben.

Ansonsten zur Bezeichnungen: GNAGH! Merk ich mir mal fürs nächste mal.
Taxxor schrieb:
Wie sehen denn die kombinierten Werte für P0.2 und P1 aus? Bildet sich dort der gleiche Abstand wie bei den avg FPS?
Ich hab die Date schon aufgeräumt, aber mir ist gerade bei meiner Excel-Datei etwas aufgefallen, dass das Bild etwas "ins" rechte Licht rückt. Holla die Waldfee, bin ich froh, dass die P0.1 fps keine Aussage kraft für mich haben und den Artikel.

Ich hab die P0.1 Werte bei einem Spiel mit den Avg. FPS-Werten vertauscht... Am Ende kommt damit 73 fps zu 78 fps raus. :) Das werde ich auch noch mal korrigieren. :) Bei fast 300 Datensätzen nur bei den Spielen kann das mal passieren. Was lerne ich daraus: Beim nächsten mal programmiere ich mir eine Datenbank, die auch die Eingaben prüft nd sowas korrigiert. :D aber es war wirklich nur das eine Spiele!
Haldi schrieb:
Ich denke immer noch das AMD den release der 7800xtx soweit nach hinten schiebt weil sie mit biegen und brechen an einer Lösung für dieses Problem suchen!
Ja und Nein, wir werden mal abwarten müssen.
 
Haldi schrieb:
Ich denke immer noch das AMD den release der 7800xtx soweit nach hinten schiebt weil sie mit biegen und brechen an einer Lösung für dieses Problem suchen!
Die 7800er Serie erscheint mit Navi32 Ende August. Vorstellung Gamescom, Release noch vor Starfield am 6.9. Ist ein offenes Geheimnis.
Zudem wird am 28. Juli die auf China begrenzte 7900 GRE erscheinen mit einem Navi 31/32 Hybrid. Die Karte wird unter anderem Namen vermutlich auch ihren Weg auf den globalen Markt finden
 
MoinWoll schrieb:
Könnte das nicht auch mit einer Bandbreitenlimitierung der 4080 zu tun haben?

Könnte, man schaue sich mal den Unterschied zwischen 4080/4090 und 7900XT/7900XTX zwischen 4K und 5K an:

7900XTX vs 7900XT
4K: 117%
5K: 123%
Differenz: 5%

4090 vs 4080
4K: 134%
5K: 138%
Differenz: 3%

Wenn es an der Bandbreite liegt, müsste anhand der Daten oben die 7900XTX relativ zur 7900XT mehr Bandbreite besitzen als es die 4090 relativ zur 4080 hat, da ihr Vorsprung in 5K stärker wächst.

Das Problem ist durch den Infinity Cache kann man die tatsächliche Bandbreite der AMD Karten in den Tests nicht wirklich annehmen, aber wenn man die von TPU angegebene Bandbreite hernimmt, ergibt sich:

7900XTX vs 7900XT
960 GB/s vs 800 GB/s
Differenz: +20%

4090 vs 4080
1008 GB/s vs 717 GB/s
Differenz: +40%

Spricht also eigentlich nicht für ein Bandbreitenproblem der 4080, denn dann würde die Veränderung des Unterschieds zwischen 4080 und 4090 beim Sprung von 4K auf 5K größer ausfallen als die von 7900XT zu 7900XTX
Ergänzung ()

DevPandi schrieb:
Was lerne ich daraus: Beim nächsten mal programmiere ich mir eine Datenbank, die auch die Eingaben prüft nd sowas korrigiert.
Alternativ hättest du auch direkt die in CX integrierte Report Seite nutzen und deine ganzen Benches dort rein laden können, die gibt dir am Ende als letzte Zeile auf Wunsch auch den Durchschnitt der jeweiligen Metriken aus, da kann auch nix mehr in der Zeile verrutschen.

Wobei es hier immer noch passieren kann, dass du versehentlich einen Benchmark 2x einfügst, also ganz ohne menschliche Fehler kommt die Methodik auch nicht aus^^


Aber deshalb dachte ich auch du könntest die P1 und P0.2 Werte relativ easy nachliefern, aber wenn du die Daten bereits "aufgeräumt" hast, ist das natürlich schwierig.
Ich bin immer ein Fan davon, sowas ne Weile aufzuheben, falls man noch mal irgendwas anderes aus den Daten rausholen möchte.
Aber @Wolfgang ist da auch nicht besser, der löscht seine Benches auch immer zu früh, wenn ich mal ein paar Tage nach Test Release nach Daten frage^^
 
Zuletzt bearbeitet:
Taxxor schrieb:
Spricht also eigentlich nicht für ein Bandbreitenproblem der 4080, denn dann würde die Veränderung des Unterschieds zwischen 4080 und 4090 beim Sprung von 4K auf 5K größer ausfallen als der von 7900XT zu 7900XTX
OK, das ergibt Sinn. Danke für die Erklärung.

Edit: @Taxxor: Grade nochmal drüber nachgedacht - es könnte auch sein, dass die 4090 in 5K noch früher als die 4080 in ein Bandbreitenlimit rennt. Das ist recht naheliegend, da die 4090 relativ zu ihrer Rohleistung (in TFLOPS) schlechter mit Bandbreite ausgestattet ist als die 4080 und die AMD Karten (die unterschiedlichen Ansätze beim Cache mal ausgeblendet):

4090: 12,2 GB/s pro TFLOP
4080: 14,7 GB/s pro TFLOP
7900 XTX: 15,6 GB/s pro TFLOP
7900 XT: 15,54 GB/s pro TFLOP
(Quelle: TPU)

Die 4090 spricht meiner Erfahrung nach auch generell relativ gut auf Speicher-OC an, was ebenfalls für eine relativ starke Bandbreitenlimitierung spricht.

Dann würde der Vergleich der Abstände in 4K/5K an Bedeutung verlieren, da die 4090 als allererstes in ein Bandbreitenlimit rennt und das den geringeren Zugewinn der 4090 ggü. der 4080 als bei der 7900 XTX ggü. der 7900 XT beim Wechsel 4K->5K bereits erklären würde.
 
Zuletzt bearbeitet:
peakyblinder schrieb:
Leider hinterlässt AMD nach wie vor beim Lesen solcher Tests den Eindruck, dass die Grafiktreiber auf Beta Status sind. Das nervt.
Es nervt auch das sowas immer wieder wiederholt wird. Zutreffend sind diese FUD Geschichten nimmer. Weder bei AMD noch bei Nvidia. Die Nervensägen übertreiben quasi alles ins maßlose...

Ich hatte vier Jahre ne Radeon R 9 290 und seitdem eine GTX 2080, RX 6800 XT und jetzt mal wieder eine arschteure 4080.

In Sachen Stabilität und Kompatibilität zu Spielen machen beide Anbieter überhaupt keinen Unterschied . Alle Games sind auf allen genannten Karten richtig gut gelaufen.

Bei Nvidia nervt allerdings dieses old school Treiber UI das Nvidia seit 20 Jahren nicht überarbeitet hat.

AMD hat alle Funktionen inkl Framecounter, OC Menü, Lüfterkurven etc in einem schicken UI untergebracht.

Bei den arschteuren Nvidia Karten sind diese Funktionen über den Treiber, GeForce Experience und externe Tools ala Afterburner verteilt.

Warum zum Teufel muss man bei Nvidia ein third party tool ala afterburner benutzen wenn man das Power target ändern möchte.

Von daher kauft das was euch und eurem Portemonnaie zusagt. Lasst euch nicht von dummen Zweiflern und Fanbois die Kaufentscheidungen abnehmen.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Taxxor schrieb:
Spricht also eigentlich nicht für ein Bandbreitenproblem der 4080, denn dann würde die Veränderung des Unterschieds zwischen 4080 und 4090 beim Sprung von 4K auf 5K größer ausfallen als die von 7900XT zu 7900XTX
Als Bandbreitenproblem kann man bei beiden Karten ausschließen.

Das der Unterschied zwischen 7900 XTX und XT größer wird spricht wirklich eher, dafür, dass die 7900 XTX besser ausgelastet werden kann. Aber auch da muss man am Ende eher tiefer mal in die Spiele eintauchen.
Taxxor schrieb:
Ich bin immer ein Fan davon, sowas ne Weile aufzuheben, falls man noch mal irgendwas anderes aus den Daten rausholen möchte.
Klar, das stimmt schon. Ich bin in dem Fall aber "ordentlicher". Viele Daten machen es mit der Zeit schwer den Überblick zu bewahren.
Taxxor schrieb:
Aber @Wolfgang ist da auch nicht besser, der löscht seine Benches auch immer zu früh, wenn ich mal ein paar Tage nach Test Release nach Daten frage^^
Was ich in dem Fall verstehen kann. Ich habe pro Spiel und Modus immer 3 Durchläufe gemacht. Ich hatte alleine für Cyberpunk am Ende 72 Datensätze: Normal, RT, PT mit Unlimitiert, 72 fps, FSR/DLSS, FSR/DLSS 72 fps. Das ganze in Cyberpunk dann noch mit SMT-Fix und ohne.

Zu dem weiteren: Das, was ich am Ende gemacht habe, bietet ihr nicht an, entsprechend muss man die Daten dennoch übertragen. Rechnen muss ich nämlich dann trotzdem. :p
gartenriese schrieb:
Man könnte ja fast auf die Idee kommen, dass gar nicht der Stromverbrauch das Ausschlaggebende ist, sondern ob vorne auf der Packung "AMD" steht
Muss man immer in den Themen einen Fanboy-Krieg starten? Ich bin auf das Thema Effizienz im Test breit eingegangen. die Effizienz der 4090 hat aber für meinen Test nur keine große Relevanz, weil nicht der Unterschied zwischen 4090 und 7900 XTX wichtig ist, sondern das Verhalten der Karten und damit die Effizienz innerhalb der Karten.
pacifico schrieb:
Warum zum Teufel muss man bei Nvidia ein third party tool ala afterburner benutzen wenn man das Power target ändern möchte.
Das Power-Target kannst du per alt+z im Overlay anpassen, After Burner brauchst du dafür nicht mehr.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
DevPandi schrieb:
Das Power-Target kannst du per alt+z im Overlay anpassen, After Burner brauchst du dafür nicht mehr.
Meh, aber dafür müsste man Geforce Experience nutzen, wo das Overlay ja auch dafür bekannt ist, die Leistung negativ zu beeinflussen.
Gut man könnte es einmal umstellen und dann nie wieder anmachen, aber so wirklich bequem ist das auch nicht, wenn man dafür erst mal ein Spiel starten muss, um den Wert zu ändern.
 
DevPandi schrieb:
Das Power-Target kannst du per alt+z im Overlay anpassen, After Burner brauchst du dafür nicht mehr.
Vielen Dank für den Hinweis.

Und wie sieht es mit One Click Undervolting aus. Oder überhaupt die Möglichkeit die Takt Raten im Treiber einzustellen?
 
Taxxor schrieb:
Meh, aber dafür müsste man Geforce Experience nutzen, wo das Overlay ja auch dafür bekannt ist, die Leistung negativ zu beeinflussen.
Bring mich nicht noch auf dumme Gedanken einen nächsten Test vorzubereiten! Ich bin schon so leicht beinflussbar!
Ergänzung ()

pacifico schrieb:
Und wie sieht es mit One Click Undervolting aus. Oder überhaupt die Möglichkeit die Takt Raten im Treiber einzustellen?
Das fehlt noch. Mal sehen, ob sie da was lernen!
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Zurück
Oben