Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Danke erst einmal für den Test.

Die 7000er GPUs sortieren sich dort ein, wie die 7000er CPUs von AMD. Beides eine schwache Generation. Ich kann nur hoffen, die nächste GPU/CPU Gen von AMD ist wieder merklich besser.
 
  • Gefällt mir
Reaktionen: Kuestennebel79, Celinna, coral81 und eine weitere Person
Apocalypse schrieb:
Hmm. Die 5700xt hätte ich mir damals als es sie für 300€ gab holen sollen/wollen, aber bevor ich dazu gekommen bin, war sie mit dem Mining Boom dann für meinen Geschmack zu teuer, jetzt sind statt dessen 700€ für eine neue GPU drauf gegangen, klar ist das nur noch Oberklasse, aber das war dann unter der Erwartung das die neue Generation ohnehin nicht die Preis/Leistung verbessert sondern nur die Leistung, so wie jetzt auch bei den Reviews erst einmal bestätigt.

Hätte ich da mehr erwartet, hätte ich gewartet und mehr ausgegeben ... geht anderen sicher auch so.
Welche hast du dir jetzt geholt? Die 6900XT? Ist für 700 ein guter Kauf. Wobei ich in dem Fall doch noch die 300 Euro in die Hand genommen und eine 7900XT gekauft hätte.
Ergänzung ()

.Snoopy. schrieb:
Danke erst einmal für den Test.

Die 7000er GPUs sortieren sich dort ein, wie die 7000er CPUs von AMD. Beides eine schwache Generation. Ich kann nur hoffen, die nächste GPU/CPU Gen von AMD ist wieder merklich besser.
Dito. Ich habe das Asus Hero X670E Mainboard mit 6000er DDR5 Ram gekauft. Aber die 7000er Ryzen sind so "enttäuschend" dass ich jetzt auf die 3D Pendants warte. Mein 5800X3D ist für 240Hz nicht schnell genug. Meine Strix 4090 ist sehr oft im GPU Limit. Zu oft, für meinen Geschmack.
 
Eidgenosse schrieb:
Als Besitzer einer 1080TI werde ich noch nächstes Jahr upgraden. Ich hab eigentlich gehofft, dass AMD an Nvidia vorbeizieht. Da dies jedoch nicht der Fall ist, werde ich wohl zu Nvidia greifen.
Naja, bei Preis/Leistung gab es nichts zum Vorbeiziehen und die ist zumindest recht solide geblieben. Nvidia hat eine Karte die in einer anderen Liga spielt und eine Karte die ein wenig schneller und viel teuer ist. Den Rest schlägt AMD sowohl im Preis als auch in der Performance.
Halo Produkte wirken. Die 7900xtx muss sich bei dem Preis wirklich nicht vor der 4080 verstecken.
Die 4090 hingegen ist halt ein Titan, der einen Preis hat der mehr was für Liebhaber ist.
 
Pisaro schrieb:
Ich behaupte das nicht, ich habe dir das schwarz auf weiß gezeigt. Nochmal: Dein zweiter Benchmark war von EINEM Spiel! Das ist schon faktisch völliger Schwachsinn.

Also ich hab die Arbeit für dich gemacht:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-2060-test.66104/seite-3
Markdown (GitHub flavored):
| Title                           | Release Date |  fps diff | 99th Percentile |
|---------------------------------+--------------+-----------+-----------------|
| Assassin's Creed Origins        | 10/2017      |         0 |             -65 |
| Call of Duty: wwii              | 11/2017      |        24 |              20 |
| Destiny 2                       | 10/2017      |         3 |               1 |
| Elex                            | 10/2017      |       -16 |             -16 |
| Elex  korrigiert                | 10/2017      |        16 |              16 |
| Ghost Recon Windlands           | 3/2017       |         4 |              -1 |
| Hellblade Senua's Sacrifice     | 10/2017      |         2 |               3 |
| Mittelerde Schatten des Krieges | 10/2017      |        16 |              16 |
| Star Wars: Battlefront 2        | 11/2017      |        25 |              19 |
| Wolfenstein 2                   | 10/2017      |        22 |              21 |
|---------------------------------+--------------+-----------+-----------------|
|                                 |              | 8.8888889 |     -0.22222222 |
|    korrigiert                   |              | 12.444444 |       3.3333333 |

Markdown (GitHub flavored):
| Title                     | Release Date | fps diff | 99th Percentile |
|---------------------------+--------------+----------+-----------------|
| F1 2018                   | 10/2018      |       15 |              19 |
| Far Cry 5                 | 3/2018       |        4 |               4 |
| Jurrassic World           | 6/2018       |        7 |               8 |
| Kingdom Come: Deliverance | 2/2018       |       17 |              20 |
| Monster Hunter World      | 10/2018      |       23 |              18 |
| Shadow of the Tomb Raider | 9/2018       |       15 |              11 |
|---------------------------+--------------+----------+-----------------|
|                           |              |     13.5 |       13.333333 |

Also die Games 2017 waren 9% schneller Average und 0% schneller 99th Percentile, aber 2018 waren es 13.5% und 13.33%, sicher nicht mehr so riesen unterschied wie die 30% wobei es real nur 20% waren weil die 590 schon 10% schneller war das Delta war bei dem Titel also nur 20% aber er ist da.
Hab Final Fantasy XV raus gelassen weil der Konsolenrelease 2016 war und der PC Release 2018 also geh ich davon aus das das Spiel Grafik 2016 fertig war und der Release nur ein Port war von einem 2016 Titel um Diskussionen aus dem Weg zu gehen ob man das zu 2017 oder 2018 zählt hab ichs weg gelassen.

Bei 99th Percentile hat sich immerhin bei 15 Titeln der Wind um 13.5% zu Gunsten der 8gb Radeon geaendert und um 4,5% bei average fps.

Und das selbst bei 1080p, um so höher die Auflösungen um so mehr werden die 6gb logischerweise zum Problem. (ok hab nen Zahlendreher übersehen in Elex sinds 16% nicht -16%) heisst die Average % kommen zusammen auf 1% aber 99th Percentile sind immer noch 10% unterschied. zwischen den 2 Jahren.
 
Zuletzt bearbeitet:
Zer0Strat schrieb:
Man müsste erstmal die Speicher- und Cache-Latenzen checken, sowie einen Speichertaktskalierungstest machen, um darüber Aussagen machen zu können.

Daran dürfte es nicht liegen. Glaube GCD <-> MCD funktioniert. Latenz dürfte bei einer Consumer GPU auch nicht so die Rolle spielen.

Das Problem bei RNDA3 ist eher, dass man eben jetzt wieder ähnliche Probleme hat wie mit GNC die DCU auch wirklich auszulasten. Zu einen müssten die Entwickler für RNDA 3 recht stark optimieren bzgl. FP32 und Int32 wenn eben Wave32 angesagt ist (Speziell weil es vor allem Vertex Shader und RT Kramm betritt was heute eher die Hauptlast generiert), versuchen alles in 64-er Groups zu organisieren etc. und zum anderen hat es viel mit der Granularität zu tun. Ja, der Compiler kann hier besser werden....aber trotzdem nimmt er was da so kommt von der Engine...nur glaube ich, wird RNDA3 das gleichen Problem wie GNC haben -> in der Theorie pro DCU überlegen........faktisch aber macht eben Softwareoptimierung die meisten kosten und darauf hat keiner Bock...ILP als Stichwort. Daher kommt auch wieder die deutlich schlechtere Effizienz gegenüber nVidia obwohl beide auf den identischen Prozess sind (nVidia optimiert hin oder her). RNDA 2 war eben viel einfacher auzulasten und damit auch viel effektiver.

nVidia hatte eben ähnliches Problem: man brauchte doch mehr FP32 Leistung, wie sharet man mögichst viel beim SIMD dabei mit guter Auslastung etc. nVidia hat es mit der Adalove ganz gut hinbekommen ohne große Abhängigkeit zum Code der rein kommt.
 
Apocalypse schrieb:
Naja, bei Preis/Leistung gab es nichts zum Vorbeiziehen und die ist zumindest recht solide geblieben. Nvidia hat eine Karte die in einer anderen Liga spielt und eine Karte die ein wenig schneller und viel teuer ist. Den Rest schlägt AMD sowohl im Preis als auch in der Performance.
Halo Produkte wirken. Die 7900xtx muss sich bei dem Preis wirklich nicht vor der 4080 verstecken.
Die 4090 hingegen ist halt ein Titan, der einen Preis hat der mehr was für Liebhaber ist.
Naja die 150 Euro für besseres Raytracing, keine Probleme mit Gsync, besseres Rendering in 3D Programmen und viel bessere Stromeffizienz macht den Braten nun auch nicht fetter.
 
  • Gefällt mir
Reaktionen: Convert
Chilisidian schrieb:
Naja, man verspricht sich von so einem aufwendiger Designwechsel ja auch irgendwelche Vorteile als User. Stand jetzt gibt es keine, den Beweis bleibt AMD schuldig.

Wahrscheinlich ist die neue Gen. eine chiplet v0.7 von dem was möglich wäre wenn nicht unbedingt jetzt eine neue Produktgeneration auf den Markt hätte geworfen werden müssen. (hoffe die Grammatik klingt nicht zu schlimm ;))
 
Für den Erstwurf mit Chiplet Design gar nicht schlecht, ich habe schlimmeres erwartet. Fühl mich etwas an meine alte Vega64 erinnert.
 
Adzz schrieb:

Es gibt einfach immer noch Leute, die wollen es einfach nicht sehen, total blind gesteuert.
Ich hab so was auf AMD gehofft, aber die Vorstellung hat mich echt enttäuscht. Dass bei einem 144 FPS Limit nicht mal der Verbrauch anständig sinkt ist einfach traurig. Insgesamt ein absolut ineffizientes Stück Hardware, leider.
Gibt halt solche die haben sich so die TDP eingetrichtert, dass sie denken, dass sei der durchschnittliche Verbrauch (jetzt in Bezug auf Nvidia). Aber wie die Tests gezeigt haben ist das ja nicht der Fall und AMD macht es leider nicht mal zumindest gleich gut/schlecht. War jetzt zweimal am Stück im grünen Lager und leider wird es wohl auch noch ein drittes Mal so sein, CB hat im Fazit alles gesagt.
 
DeltaPee schrieb:
XBOX Series x unterstützt hier und da schon Maus und Tastatur. Hab ich an meiner auch schon dran…
Das hier und da + die Frage "was ist dann mit meinr Steam Sammlung?", stört mich....
 
Danke für den ausführlichen Test - keine schlechten Karten, besonders auch dank des großzügigen Speichers und der guten Video-Encoding-Performance. Die Leistung und vor allem Effizienz hätte aber doch eine Runde besser ausfallen können. Vielleicht tut sich ja noch was mit den nächsten Treiberrevisionen und bei den kleineren Varianten a la 7700/7800 XT 😉.
 
Wolfgang schrieb:
So gibt es bei RDNA 3 wie auch beim Vorgänger pro Compute-Unit eine RT-Einheit.
Gibt es da irgend einen techn. limitierenden Grund, warum man es bei einer RT-Einheit belassen hat?

Man hat doch gewusst, dass man in RT hinten dran ist und man hat auch gewusst, dass Nvidia die RT-Leistung weiter steigern wird. Da hätte man doch locker auf zwei RT-Einheiten pro CU verdoppeln müssen/können und auch den L2-Cache hätte man mindestens verdreifachen können, damit nicht so viel (stromschluckende) Kommunikation zu den MCDs gehen muss. Oder können die FP32-Einheiten zwei RT-Einheiten in einer CU nicht ausreichend auslasten? Kann ich mir kaum vorstellen, insbesondere mit den "Dual-Issiue-ALUs" müsste doch jetzt auch der BVH-Struktur schneller aufgebaut werden können
 
Frage: Gibt es irgendwo eine Liste/Übersicht über alle Partnerkarten?
Ich hab aktuell eine Red-Devil drin (5700xt), meine Frage wäre jetzt, welche Karte hat (neben dem Referenz Board) noch ein USB-C (für meine VR-Brille) und 3 Stromanschlüsse (ich hab das über 1h Igor Video geschaut und der war nicht so begeistert von den 2 Stromanschlüssen weil so noch mal 50 Watt übers Board gezogen werden müssen)
 
Chilisidian schrieb:
letzten Gen eine sehr solide Basis, man hätte einfach so weiter machen sollen, wie bisher. Das haben sie aber nicht geschafft.
AMD war schon immer experimenteller, was die Hardwareconfig angeht. Sei es HBM oder jetzt halt multi chiplet. HBM war ein rohrkrepierer, multi chiplet allen unkenrufen zum trotz nicht. Die gpu wird auf eine völlig neue Weise produziert und liefert dafür ne runde Performance ab. Turing war auch kein knaller, hat aber rt und dlss gebracht, wenn auch unbefriedigend. In der nächsten Generation werden wir sehen, ob AMD darauf aufbauen kann und ähnlich wie mit Zen auch für uns Konsumenten einen Mehrwert bietet oder nicht. Aber das einseitige bashen hier von den üblichen verdächtigen ist öde.
 
  • Gefällt mir
Reaktionen: simosh, Benji18 und msv
Ich hab eine 6900XT. Wenn man den Preis mit der Leistung vergleicht, ist das richtig enttäuschend.

Dafür mal eben noch 1000 € auf den Tisch blättern?

Bestimmt nicht.
 
Also für mich ist die Performance so, wie erwartet. Allerdings bin ich von der Effizienz dann doch etwas enttäusscht. Irgendiwe hatte ich gedacht, dass AMD gerade hier wieder punktet. Schön zu sehen, dass es beim RT voran geht. Eventuell schließt dann die nächster Generation auf. Nötig wird das denke ich so langsam auch, da neue AAA Spiele so langsam alle RT supporten. Also in Summe nicht schlecht aber irgendwie auch nicht toll. Würde ich eine neue Graka kaufen wollen, wäre es aber sicherlich die AMD wegen des günstigeren Preises.
 
Gerithos schrieb:
Aber das einseitige bashen hier von den üblichen verdächtigen ist öde.

Ist ja kein bashen sondern nackte Tatsache. Der User hat Stand jetzt nichts von den Neuerungen. Weder bringt das ganze einen Performance-Vorteil (auch keine Watt/FPS) noch einen preislichen.
 
mytosh schrieb:
Ich vermute ganz stark, dass AMD mit Treiberoptimierung noch einiges nachlegen wird. Warten wir doch mal ab.

Das Problem ist das die Tests jetzt gemacht wurden. Das setzt für die Zukunft eine Referenz wenn man nach Daten der Karten sucht. Eventuell besstert es sich noch wenn die Partner Karten getestet werden aber wer die Karten vergleichen möchte wird auf solche Benchmarks zurück greifen.

Homer S. schrieb:
weiß jemand die Uhrzeit vom Verkaufsstart?

13.12 15 Uhr.
 
  • Gefällt mir
Reaktionen: californicated
Zurück
Oben