Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

blackiwid schrieb:
Man kann das ja so formulieren das man keine definitive Aussage macht, und auf die Vergangenheit wie Linus TT es auch getan hat, wo Treiber in der Vergangenheit bei AMD schon öfters große Sprünge gemacht haben...
Wann haben AMD Treiber je große Sprünge gemacht? Niemals.
Vielmehr kann man dieses Finewine Argument auf Nvidias Ampere Generation münzen, wo man moderne RT Titel dann deutlich flotter als auf RDNA2 spielen kann.
blackiwid schrieb:
, und dann muss man ja nicht schreiben "dies wird mit absoluter Sicherheit in naher Zukunft gefixt/verbessert" sondern "die Karte hat noch viel Hardwarepotenzial, es ist wahrscheinlich das AMD hier noch nachbessern wird, wie viel werden wir in einem Nachtest gegebenenfalls nachreichen".
Besser man schreibt diesbezüglich gar nichts, weil es bisher auch noch nicht eingetreten ist.
Die 7970 ist aufgrund der Architektur da schon am besten gealtert und hat etwa 10% auf Kepler rausgeholt.
Vega, 5700XT, 6900XT usw. sind zum Launch immer noch gleich schnell.

blackiwid schrieb:
Die Alternative waere ja das die meisten anderen Review Seiten schlechte Arbeit machen weil sie dieses Potenzial und anderes zumindest mehr einpreisen als ihr es macht?
Eigentlich hat Nvidia durch den Fokus auf RT da mehr Potenzial, das wäre zumindest etwas, was man schreiben könnte, ohne auf Treiberverbesserungen zu hoffen.
 
Laphonso schrieb:
Aber für meine 4090 kann man ZWEI 7900XTX kaufen.
Danke du realistischer Mensch :-D
Laphonso schrieb:
Dass die 7900XTX dann am Ende aber auch nicht mal im Raster der 4090 nahekommt, überrascht mich dann doch etwas.
Kommt drauf an, im großen und ganzen ja, die HWLuxx Tabellen sind da ganz interessant. In 4k (wovon wir bei dieser Klasse hier jedoch reden sollten) ziehen die 7000er dann wieder deutlich den kürzeren, bei WHQD sieht es dann anders aus...alles eben ein wenig durchwachsen.

Ragnarök88 schrieb:
Wann haben AMD Treiber je große Sprünge gemacht? Niemals.
Bei RDNA2 haben die Treiber gewaltige Sprünge gemacht. Zum Release lag eine 6800XT z.B. im 3D Mark deutlich hinter einer 3080, ein paar Wochen später gab es ein anderes Bild. Auch eine 6900XT hat gegen die 3090 in vielen Bereichen massiv zugelegt. Ja(!) RT ist was anderes, natürlich.
 
  • Gefällt mir
Reaktionen: Avero und Laphonso
So, hatte jetzt endlich Zeit den Artikel zu lesen. Mein Fazit bleibt: VEGA 2.0

Und bevor sich jemand beschwert: Von RDNA2 ausgehend sind die 2 Karten in jeglicher Hinsicht eine Enttäuschung und das kann man schon mit VEGA gleichsetzen. Klar war Vega absolut gesehen schlechter, aber da kam man von einer RX500 Serie, die nur Mittelklasse war. Ausgehend von RDNA2 sehe ich das hier als ebenbürtig im "Enttäuschungsindex".

Wirklich sinnvoll ist die XTX nur, wenn man sich wirklich rein für Raster interessiert und einem Raytracing und Produktivanwendungen vollkommen egal sind. Dann ist selbst die viel gescholtene 4080 sinnvoller. Die XT kann man für den Preis generell niemandem empfehlen.

Und wenn die Gerüchte stimmen, ist AMD hier die eigene Gier auf die Füße gefallen. Man wollte unbedingt 4090 Leistung bei deutlich geringeren Herstellungskosten. Dadurch kam diese fragwürdige Architektur mit Dual Issue zustande. Das heißt auf dem Papier doppelte Flops, kann halt nur in 90% der Anwendungen nicht genutzt werden und man hat ne 6900XT mit 20% mehr CUs. Dazu noch der Bug der die Taktraten begrenzt (niedriger als einige 7nm RDNA2 Karten). So erhalt man ein technisch fragwürdiges Produkt, das nur in einer Disziplin über den Preis Sinn macht.

Und was ist dieses Jahr bitte mit AMDs Benchmarks los? Angefangen mit der Rembrandt Präsentation im Januar bei der man 15W Cezanne mit 28W Rembrandt vergleicht, kann man die Daten eigentlich nur in den Müll werfen. 7600X 5% schneller als 12900K im Gaming, 7900XTX 55% schneller als 6950XT. Da war selbst Intel dieses Jahr viel näher an der Realität.
 
  • Gefällt mir
Reaktionen: Innocience, ComputerJunge, Uncreative und eine weitere Person
Solange AMD´s Treiber der absolute Müll sind kommt mir sowas nicht ins Haus. Da darf auch ein Preisvorteil von 30% vorliegen, dennoch würde ich zu Nvidia greifen.

Der Fan-Stop macht auf der RX 7900 XT Probleme

Erwähnt werden muss noch eine Eigenheit der Radeon RX 7900 XT. Während die XTX-Version auf dem Windows-Desktop immer brav den Fan-Stop aktiviert hat, wollte dies bei der Radeon RX 7900 XT einfach nicht gelingen. Die Grafikkarte lässt die Lüfter stur mit 450 Umdrehungen weiterrotieren, was zwar sehr wenig ist, aber eben doch aktive Ventilatoren bedeutet

Das verdeutlicht genau das was ich zu bemängeln habe.


Zudem , was ist eigentlich mit den Preisen passiert ?
War nicht gefühlt gestern noch die 3080 für knapp 700€ und die 3090 für knapp 1000€ teuer ? Jetzt jubeln wieder alle mit UVP´s weit über 1000€ ?! Ich glaube, das ich einfach zu alt für diesen Scheiß werde.....
 
Wintermute schrieb:
Ich füge dazu:
nVidia könnte sich gezwungen sehen, die Preise der 4080 nach unten zu korrigieren.
Wäre schön, wenn es so kommt.

Ich "befürchte" eher mehr 4080 Nachfrage nach den RDNA3 Tests heute. Genau das hatte ich letzte Woche prognostiziert.
Mal sehen, was die Händler für die 7900XTX customs haben wollen.
Ergänzung ()

TKessel schrieb:
..alles eben ein wenig durchwachsen.
Eventuell machen punktuelle Nachtests Sinn, wenn die Treiber hier in den nächsten 3-5 Versionen das ganze einebnen.
 
  • Gefällt mir
Reaktionen: TKessel
CrustiCroc schrieb:
Ja es tut weh. Aber die Wahrheit tut im AMD Lager heute weh.

Eure "Rechnung" ist total falsch. Man kann RT heute einfach nicht mehr wegdiskutieren, das gehört einfach zu modernen Karten dazu. Das ist ein Feature was heute ja schon fast normal ist.
Nur Raster aufzuzählen ist sich selbst bescheißen.
So Fanboy kann man doch gar nicht sein.

Und in diesem "Mittel" aus Raster und RT in Summe ist die XTX sogar deutlich langsamer als die 4080.
Das ist Fakt ! Dazu DEUTLICH schlechtere Effizienz.
Igor nennt den Effizienznachteil gegen die 4080 wortwörtlich : DEMÜTIGUNG !
Und das hat dann nichts mehr mit dieser oder jener Website zu tun, zu dieser Erkenntnis kommen alle.
Kann man natürlich auch alles einfach ignorieren.

Da die Referenz eh für keinen Normalsterblichen zu kaufen sein wird bleiben nur Customs.
Und diese haben ein Riesen Problem.

Sie werden zwangsläufig 100 - 300 EUR mehr als die Referenz kosten, was sie fast oder gleich ins 4080 Preisgefüge drückt.
Dabei wird die Effizienz noch weiter abkacken.

Wenn ich ne 4080 ( derzeit ) für 1350 EUR haben kann, spricht wenig für die XTX. Da im Mittel ( Raster und RT ) einiges schneller, und Effizienz ERHEBLICH besser.

Ja es tut weh.
ich bin weder Fanboy, noch aus irgend einem Lager.
Ich habe mich lediglich auf alle Benchmarks bezogen und nicht nur auf einen.

Unterm Strich gebe ich dir Recht, die neuen AMD Karten sind zwar solide, aber in Summe eben nicht besser als eine 4080, die Vorteile derer hat Igor schon ganz gut erklärt.
So schlecht die 4080 zwar preislich positioniert ist, eine 7900 steht da selbst mit 200€ weniger sogar fast noch schlechter da.
 
Laphonso schrieb:
Enttäuscht ist man nur, wenn man nicht realisiert, dass AMD viel mehr Wert auf Effizienz in gewissen Limits setzt als Nvidia.
Welche Limits sind da gemeint? In was für ein Szenario soll die Effizienz besser sein?
Laphonso schrieb:
Ich bin mir sicher, AMD hätte einen Ziegelstein wie die 4090 auch bringen können als 450 Watt Boliden. Genau das wollen sie ja nicht.
Sicher fehlen da einige % Performance.
Einige Prozent? Die liegt Performance/Watt deutlich hinter der 4090. Wenn man jetzt das TDP Limit erhöht, wird die Effizienz noch weiter sinken. Die kommt auch mit 450 Watt nicht annähernd heran.
Laphonso schrieb:
Aber für meine 4090 kann man ZWEI 7900XTX kaufen.
Alles eine Frage der Perspektive.
Für eine 7900XTX kann ich zwei 6800 kaufen. Was hilft das? Wird ja nicht schneller dadurch.
Der Vergleich ist die 4080 und nicht die 4090.
 
Im Fazit sind zwei Sätze dabei die mMn irgendwie etwas fehl am Platz sind.
Der Leistungszuwachs gegenüber der Radeon RX 6900 XT beträgt 43 Prozent. Das ist ein guter, aber kein derart außerordentlicher Sprung, wie ihn Nvidia mit Ada Lovelace hingelegt hat – in UHD ohne RT ging es von 3090 Ti auf 4090 im Test der Redaktion um 65 Prozent rauf.
AMDs Problem ist, dass Nvidia mit der GeForce-RTX-4000-Serie wirklich einen riesigen Leistungssprung hingelegt hat. So etwas hat es selten zuvor gegeben. AMD fällt mit einem normal großen Generationensprung zurück.
Im Test geht es doch um 7900xt/x vs. 4080. Wieso man dann den Leistungssprung von 3090 auf 4090 mehrmals erwähnt verstehe ich nicht. Denn abseits von der 4090 war der Sprung bei Nvidia jetzt auch nicht so groß.
Der Leistungssprung von 3080 auf 4080 ist nämlich nichts besonderes. Das einzige was ist, ist dass die 3090 nicht so weit von der 3080 entfernt war und dadurch AMD auch näher an der 3090 war.


Zur Karte: an sich nicht schlecht, hatte aber gehofft die xtx kann sich zumindest etwas vor die 4080 setzen. Leistungsaufnahme ist jetzt auch nicht so der burner. Insgesamt solide, aber nichts besonderes.

Aber die Preise sind mir auch hier deutlich zu hoch. Es wird die ganze Zeit von "günstig" gesprochen... Ich hoffe selbst als "AMD Fan" dass AMD genauso wie Nvidia auf den Karten sitzen bleibt. Das sind immer noch 1100+€ für ne fu**ing Grafikkarte. Eine 2080 hatte eine UVP von 850€ und die 3080 "nur" 699€. Und in den Preisbereich müssen die Karten dieser Klasse auch wieder rein.

Ich hab meine 6900xt für über 1000€ gekauft, das waren aber auch andere Zeiten, Corona + mining... Nochmal würde ich das nicht machen. Für vielleicht 1-2 wirklich gute Spiele im Jahr, wo man dann die Leistung auch wirklich gebrauchen könnte, ist es mMn einfach nicht wert.
 
  • Gefällt mir
Reaktionen: Arzuriel
Laphonso schrieb:
Dass Nvidia diesen dreisten Preis für die 4080 verlangt, war damit offensichtlich kein Zufall. VIelleicht wusste man da schon, dass die 7900XTX eine 4080 nicht wirklich "knackt".
Wenn man die Geschehnisse auf dem Markt beobachtet, merkt man Recht schnell, dass die Hersteller über die Produkte der Gegner quasi zu 99% Bescheid wissen:

Preis der 4080, der jetzt nach Erscheinen der AMD Karten nicht mehr all zu schlecht aussieht

170W TDP bei Ryzen 7000, damit das Flaggschiff in Anwendungen vor dem 13900K landet

Ryzen 7000 3D deutlich früher als bei Ryzen 5000, da man sie gegen Raptor Lake braucht

Und Höchstwahrscheinlich Tod von Meteor Lake Desktop, weil Raptor Lake Refresh auch gegen ZEN4 3D reichen wird und ZEN5 erst 2024 kommt.
 
  • Gefällt mir
Reaktionen: Ragnarök88 und Laphonso
Wow, von den Benchmarkgames spiel(te) ich genau eines.

FPS Limitierungen macht man besser über Radeon Chill und nicht die ingame Limiter.

Allerdings hab ich herausgefunden, das zumindest auf meiner neuen RX6700XT allgemein RSR nicht geht, wenn man Chill einschaltet - RSR ist eine Art treiberseitiges FSR wo man keine Spieleunterstützung braucht, wenn ich das richtig verstanden habe.

Ansonsten wie erwartet gut ohne RT und weiter hinter NV mit RT.

Alle in einer Preisklasse, die jenseits von gut und Böse ist.
 
Pisaro schrieb:
Weil das bei den Highend Modellen bei nVidia noch nie der Fall war, gerade mit RT. Zumindest nicht so das AMD dann plötzlich schneller ist. Hier hat AMD zwar mehr RAM, ist aber generell langsamer.
Hätte die (schnellere) 4080 nur 12GB okay. Aber doch nicht bei 16GB. Dieses (zu wenig RAM) würde halt auch dann kommen wenn nVidia der 4080 gleich 32GB spendiert hätte, AMD ihrer GPU aber 38GB ;)
Ja wenn du die Grafikkarte ausschließlich nach RT Leistung bewertest ja dann sind die AMD Karten eher schlecht, aber wie wir bei ner Umfrage gesehen haben interessiert RT die meisten recht wenig und für deutlich mehr FPS oder andere bessere Effekte schalten die meisten Leute gerne RT aus.

Und das zu wenig Speicher nie ein Problem wird im späteren Produktlebenszyklus:

Hier z.B. ende 2018 war die gtx 1060 noch ungefähr gleich auf mit der rx590:
https://www.computerbase.de/artikel...hnitt_benchmarks_in_1920__1080_und_2560__1440
Wobei sie schon mit 1440p leicht schwächelte.

Ein Jahr später liegt die Karte dann selbst bei Fullhd 30% hinter der 590:

https://www.computerbase.de/artikel...hnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

Ich sehe kein Grund warum sich das nicht wiederholen sollte, damals meinten auch viele 6gb reichen doch noch ewig aber reichte nicht mal fuer 1080p ohne Einbusen in neueren Spielen wieso dann 16gb bei 4k und RT reichen soll bei zukünftigen Spielen ist mir ein Raetzel, ja es kann sein das AMD dann vor Nvidia liegt in einzelnen titeln tut sie das ja heute schon in God of War.

Wenn es also heute schon von 5 getesteten eines gibt wo AMD vorne liegt wird das in Zukunft sicher nicht besser.
Bei den neueren Titeln schlägt amd sogar 2 von 3 den RT Benchmark die 4080, Gotham Knights, das die AMD Karten mit der groessten Schwaeche in deren RT Schwaeche ueberhaupt in irgend einem Benchmark an Nvidia vorbei ziehen kann mit RT ist schon geradezu absurd und völlig unerwartet.
 
  • Gefällt mir
Reaktionen: Czk666 und Avero
Shoryuken94 schrieb:
Die Zeiten sind doch auch lange vorbei. Also wenn ich mir den Test der 6800XT anschaue, dann war die 3080 in UHD 6% schneller. Im jetzigen Test sind es 5%. RDNA2 hat in 2 Jahren im Schnitt als 1% gutgemacht Bei den Perzentil FPS ist man sogar schlechter geworden!

Bleibt noch zu hoffen, dass der Stromverbrauch bei Youtube ein Treiberbug ist. Um es mit deinen Worten zu sagen, nach 2 Jahren Erfahrung mit RDNA2 und den bis heute nicht gelösten Problemen mit dem hohen Verbrauch bei asymmetrischen Multi Monitorsetups zeigt die Erfahrung, dass man nicht darauf bauen sollte.
Hör bloss auf. Mit der Realität haben sie es nicht so.
 
  • Gefällt mir
Reaktionen: Shoryuken94
bensen schrieb:
Welche Limits sind da gemeint? In was für ein Szenario soll die Effizienz besser sein?
Welche Leistung würde eine 7900XTX schieben, wenn sie sie 1:1 am Limit fährt wie die 4090.
Das bekommen wir ja nicht zu sehen.
 
CrustiCroc schrieb:
Hör bloss auf. Mit der Realität haben sie es nicht so.
Stichwort:
1670865675291.png
 
  • Gefällt mir
Reaktionen: MeisterOek, Innocience, Neubauten und 2 andere
Beitrag schrieb:
Die neuen Karten liegen preislich alle meilenweit außerhalb meiner Liga und das geht jetzt schon so lange so, da verliert man irgendwann einfach das Interesse.
Der Test selbst war ja auch eher ernüchternd. Ich mein, ich kaufe eh nicht in der Preisklasse, aber wenn man über 1000 Euro ausgibt, würde man für die Ersparnis dann wirklich die Nachteile in Kauf nehmen und zu AMD greifen?

Da muss ich dir aber sagen das deine Sicht sehr kurzsichtig ist. Gerade das Chiplet Design hat das Potential wieder günstigere GPUs zu bauen. Aber erst wenn AMD mit einem GDC verschiedene Modelle abbilden kann weil man dann auf dem Highend 4 oder 8 GDC setzt im Midrange dann 2 oder 4 und im Lowend dann 1 oder 2... Davon ab wenn man eine gewisse Streuung hat bei der Quali kann man die GDC s auch unterschiedlich takten...
 
@Wolfgang Das müsste doch gleich auf der ersten Seite statt "AMD gibt aber ehrlich zu, dass das Chiplet-Verfahren bei CPUs zwar Kostenvorteile bringt, jedoch zugleich Leistungsnachteile." hier GPUs heißen?!
 
TKessel schrieb:
Bei RDNA2 haben die Treiber gewaltige Sprünge gemacht. Zum Release lag eine 6800XT z.B. im 3D Mark deutlich hinter einer 3080, ein paar Wochen später gab es ein anderes Bild. Auch eine 6900XT hat gegen die 3090 in vielen Bereichen massiv zugelegt. Ja(!) RT ist was anderes, natürlich.
3DMark Performance interessiert die Spieler aber idR nicht wirklich^^
Und dass die Karten im Ranking zu Release etwas weiter von Ampere weg waren, als aktuell, kann auch viel mit veränderter Spieleauswahl zu tun haben und muss nicht an den Treibern liegen
 
  • Gefällt mir
Reaktionen: Ragnarök88 und Laphonso
Leute lasst mal die RX 7900 in ruhe. Die sitzt schon beim Therapeuten wegen
 
  • Gefällt mir
Reaktionen: Ragnarök88 und CrustiCroc
Ich finde die Roh-Leistung ganz okay. Raytracing sind sie da gelandet, wo ich es erwartet habe und für mich auch kein Kriterium für die Kaufentscheidung.

Was sie unbedingt beheben müssen, damit ich sie als potenzieller Käufer in Erwägung ziehen würde:
  1. Stellungnahme zum Stromverbrauch + Treiber/Bios-Updates bringen, die das Lüfterproblem der XT und den Stromverbrauch im Allgemeinen beheben
  2. Treiberoptimierung für die verschiedensten Games. Die Leistungskurve schwankt für meinen Geschmack noch zu stark.
  3. Preise bisschen unter UVP fallen lassen, damit in dem ohnehin kaputten Markt die "Rangordnung" hinsichtlich Leistung und Qualität der Produkte korrekt einreiht.
Die 4080 ist mit dem Leistungsverbrauch, der konstanteren Leistung verteilt über die Masse an Games und der besseren Raytracing-Leistung, sowie allgemein besseren Treiber das "vermutlich" rundere Produkt. AMD könnte etwas aufschließen, mal sehen, was sie die nächsten Wochen mit der Zeit anstellen.
Das mit dem Stromverbrauch finde ich zum Release hin eigentlich sehr enttäuschend, da merkt man den Zeitdruck. Ob es an der neuen Architektur oder am Treiber liegt, wird sich wohl in Kürze zeigen.
 
  • Gefällt mir
Reaktionen: Uncreative
Zurück
Oben