Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Danke für den Test. Sehr spannend und sehr genau auf die Details eingegangen.

Ich hoffe, dass der Stromverbrauch mit Frame Limiter und im Idle wirklich nur ein Treiberproblem ist. Denn bei der RX 6900XT gehts ja auch.
Schade, dass die RTX 4080 anscheinend doch das bessere Angebot zur 7900XTX ist. Wenn die 7900XTX noch effizienter und etwas günstiger wäre, dann müsste Nvidia auch einlenken. Nvidia ist mMn schon ein bisschen abgehoben. Die müssen mal wieder auf den Boden der Tatsachen!

Mal gucken, was die 7800, 7700, 7600er so bringen.
 
Zuletzt bearbeitet:
Sebbi schrieb:
denn bei weniger Verbauch und weniger Kosten auf Augenhöhe mit der 4080
Hä? Die 7900XTX verbraucht deutlich mehr als die RTX 4080 o_0.
 
  • Gefällt mir
Reaktionen: t3chn0, KlaasKersting und lynx007
xexex schrieb:
Ich würde hier nur trotzdem nicht auf einen "Wundertreiber" hoffen, sondern es eher als einen "missglückten Versuch" mit Chiplets ansehen, der vielleicht in der zweiten oder dritten Generation Früchte tragen wird.
Man müsste erstmal die Speicher- und Cache-Latenzen checken, sowie einen Speichertaktskalierungstest machen, um darüber Aussagen machen zu können.
 
Blazin Ryder schrieb:
Was? Rt ist ne 4080 locker bis zu 30% schneller, dann mit Frame Generation ist es endgültig vorbei, Rt Leistung auf 3080 Ti /3090 Niveau, Raster mit ach und krach Gleichstand mit 4080. Die Werbefolien waren wirklich nur Werbefolien.

Nope, es sind exakt 15-18%, die NV TWIMTBP-Titel mal ausgenommen! Have to wait for Custom-Designs!
 
riOrizOr schrieb:
Der aktuelle markt ist absolut lahm. Die 4080 ist überteuert, die kleine Schwester vor launch rausgenommen und wird rebranded als 4070 oder 4060 ti oder sonst was.
Nvidia wird uns die dritte GPU über 1000 Euro präsentieren, auch darauf können wir uns einstellen.
 
  • Gefällt mir
Reaktionen: Piep00, CrustiCroc, Windell und 6 andere
  • Gefällt mir
Reaktionen: Viper816 und CiX
Weiß man eigentlich bereits ob und wann die kleineren Nvidia 4XXX und RDNA 3 Karten kommen werden? Ich warte noch auf etwas Aktuelles zum halben Preis (500€).
 
  • Gefällt mir
Reaktionen: scheru
Vieles wurde schon gesagt. AMD hat hier teilweise nur einen Full node shrink TSMC N7 auf N5/N6 -> +25% + Architekturverbesserung 10-20%, nicht zwei wie bei NVIDIA (SAMSUNG 8nm (= etwas verbesserter SAMSUNG 10nm) -> TSMC N7 -> TSMC N4 (=etwas verbesserter TSMC N5)). Habe zwar mit ca. 10-15% Verbesserung gegenüber einer 4080 gehofft (raster) -- bei manchen anderen Testern schneitet die 7900XTX auch etwas besser ab als hier auf CB -- aber mindestens 4080 Geschwindigkeit reicht mir. Was mir gar nicht gefällt sind 80 Watt Leistungsaufnahme bei YouTube, hoffe auch, dass es ein Treiber- und nicht Hardwarebug ist.

Am stärksten hat mich überrascht:
  • die ca. 30% höhere Effizienz der 4080, hätte fast gleichstand erwartet
  • die kaum gesunkene Leistungsaufnahme bei 4K@144 FPS (345 Watt), hoffe ist ein fixbarer Treiberbug

Igor misst in 4K einen um +81 Watt höheren Stromverbrauch der 7900XTX gegenüber einer 4080. Das muss in der Tat nicht weiter kommentiert werden, vor allem bei den immer höheren Strompreisen (bzw. Energiepreisen generell), wobei das Gehalt auch mitwächst, nur wir stark, wäre die Frage.
Wenn ich 2h am Tag in 4K zocke, macht das ca. +25€ im Jahr mehr und in 8 Jahren hätte sich die 4080 ausgezahlt, die aktuell ca. 200€ mehr kostet (81*2*365*0,45/1000). In 8 Jahren habe ich 100% eine andere Karte. Auch wenn wir alle gerne effizientere Karten hätten, die weniger Strom verbrauchen, gehen 25€/Jahr im Rauschen unter (und Streamer und Renderer, die 8h statt 2h die Karte auslasten, machen das ganze möglicherweise Beruflich, kommt also auch nicht auf die Stromkosten an). Mich stört eher, dass die Referenz 7900XTX spulenfiepen haben soll, da warte ich mal noch auf die custom AIBs wie SAPPHIRE Pulse mit 2x8Pin Anschlüssen. Übertakten werde ich nicht, eher untertaken, wobei kommt auf die Verbesserung an (bei der 4090 lohnt sich das ja mal richtig).

Wenn einem Raytracing wichtig ist, sind die +200€ für 4080 es wert (oder gleich 4090). Die Karte hat man dann mindestens 2-2,5 Jahre bzw. bis zur Generation, was sind 200€ auf 2 Jahre gerechnet. (korrekt, kein Fragezeichen)

Insgesamt ernüchternd. Hoffe die 7900XTX korrigiert sich im Preis. Verwende Linux und da sind die open source Treiber für AMD Karten super, aber die höhere RT Geschwindigkeit und Effizienz der 4080 ist verlockend (leider ist erst die sehr teure 4090 richtig schnell in RT (in OLED sollten es angeblich schon >90 FPS sein, damit durch die sehr kurzen 0,1ms pixel response times kein "ruckeln" Effekt entsteht, aber die ist mir zu teuer, leisten könnte ich mir sie, aber sehe es bei 2k€ einfach nicht ein)).
Ayo34 schrieb:
Gerade noch die Übersicht bei PGH gesehen, dass schockiert mich schon. Das Hauptthema war doch immer die Effizienz bei AMD. Da versagt man komplett. Sowohl in der Spitze, aber extrem bei Teillast oder wenn man kein 100% Workload hat.

Verbräuche 7900xtx / 7900xt
Desktop, 1 Display, Idle, 4K60 17 Watt 15 Watt
Desktop, 1 Display, Idle, 4K120 48 Watt 41 Watt
Desktop, 1 Display, Idle, 4K144 102 Watt 87 Watt
Desktop, 2 Displays, Idle, 4K60+2K60 48 Watt 41 Watt
Desktop, 2 Displays, Idle, 4K144+2K120 102 Watt 88 Watt
Youtube-Video, 1 Display, 4K60 69 Watt 64 Watt
Youtube-Video, 1 Display, 4K144 78 Watt 71 Watt

-> Im Idle einfach mal über 100 Watt wo die 4080 unter 20 Watt benötigt. Dazu 350 Watt in Spielen, immer, auch mit Framecap. Starke Einbrüche, wenn man die TDP z.B. auf 250Watt limitieren will.

-> Entweder ist der Treiber eine Katastrophe oder die Karte. Hoffe das kann in den nächsten Wochen noch gefixed werden.
Danke für die Info. Hoffe auch, dass es im Treiber gefixt wird.
 
  • Gefällt mir
Reaktionen: Galatian, Ragnarök88 und shaboo
Zer0Strat schrieb:
Man müsste erstmal die Speicher- und Cache-Latenzen checken, sowie einen Speichertaktskalierungstest machen, um darüber Aussagen machen zu können.

Was hier brachliegt? Sollte selbst dir auffallen!
 
zeigt eigentlich nur wie GUT die 40x0 Serie von Nvidia ist.

denkt mal kurz zurück, an die Verbrauchswerte die geschätzt wurden sind für die 4080 370W? für die 4090 450W?
stellt euch vor das wäre Realität geworden ... dann Stände AMD eigentlich gut dar. so leider nicht.

trotzdem hat sich AMD enorm gesteigert, was nun gerne vergessen wird.
 
Nano-kun schrieb:
trotzdem hat sich AMD enorm gesteigert, was nun gerne vergessen wird.
Finde ich leider nicht wirklich. AMD war viel näher an nVidias Highend mit der RX 6xxx Serie dran als jetzt mit der RX 7000 Serie.
 
  • Gefällt mir
Reaktionen: CrustiCroc, LTCMike, Ragnarök88 und 3 andere
Mindestens -0.050v runter geht wohl immer bei AMD RDNA. Als kleines Leckerli mit einkalkuliert. Sonst wär die undervolt - Funktion im Treiber ja sinnlos :D
 
  • Gefällt mir
Reaktionen: Benji18
mscn schrieb:
Na, wer hat noch erstmal direkt bis "zu den Balken" geblättert?
Ich nicht und ich Teile diesmal die Auffassung nicht von CB, denn AMD hat DP2.1 und MMC als zweiter und sorry auch Intel mit der A770 hatte da Probleme. Diese hat NV noch vor sich und keine CPU Testblase wie Intel und AMD. Auch interessiert RT immer noch nicht trotz 4er GEN von NV nicht, da immer noch schlecht umgesetzt finde ich. Auch der Preis der RTX4080 16GB ist einfach ein Witz von der RTX4080 12GB (RTX4070ti) reden wir erst nicht mal.
 
  • Gefällt mir
Reaktionen: Benji18 und cookie_dent
ich denke der preis wird es wieder richten - sowohl für nvidia als auch amd.
 
  • Gefällt mir
Reaktionen: cookie_dent und Galatian
OLED4K360 schrieb:
  • die ca. 30% höhere Effizienz der 4080, hätte fast gleichstand erwartet
Bessere Fertigung und Monolith. Eigentlich keine Überrasschung. Das Ergebniss ist schon sehr ernüchternd. Insbesondere die RT Leistung. Nichtmal für die 3080/3080ti hats gereicht.
.
So kann nVidia weiter an der Preisschraube drehen. Ärgerlich, ohne echte alternative. AMD Fans kommen vieleicht auf ihre Kosten. Für jeden der auf etwas bewegung bei Raytracing GPU gehofft hat, ist es schon eine entäuschgung.
 
Pisaro schrieb:
Finde ich leider nicht wirklich. AMD war viel näher an nVidias Highend mit der RX 6xxx Serie dran als jetzt mit der RX 7000 Serie.
Ja aber es wird immer Vergessen MMC gegen Riesigen Monolith dass muss NV erstmal machen da sehe ich Vorteile bei AMD und Intel.
 
  • Gefällt mir
Reaktionen: Benji18
Mcr-King schrieb:
Ja aber es wird immer Vergessen MMC gegen Riesigen Monolith dass muss NV erstmal
Muss nVidia gar nicht. Selbst wenn die nVidia Karte 10KM groß wäre und die AMD Karte 0,00001nm mit sieben Chiplets. Es geht nur um Leistung in Kombination mit dem Stromverbrauch und dem Feature-Set.
 
  • Gefällt mir
Reaktionen: Uncreative, .Sentinel. und cbmik
lynx007 schrieb:
o kann nVidia weiter an der Preisschraube drehen. Ärgerlich ohne echte alternative.
Nur solange der Dumme Kunde kauft ist so sage nur E-Auto aus DE sorry USA und Co sind besser was P/L angeht.
 
Zurück
Oben