Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

cbmik schrieb:
Chiplet bring nur AMD Kostenvorteile, aber dem Konsumenten gar nichts in dieser Generation.
? Doch, denn die annähernd gleiche Leistung gibt es ja bei AMD ein bisschen günstiger. Durch die Fertigung im ansonsten (fast) gleichen Prozess und (fast) gleicher Gesamtchipfläche bei mehr Speicher werden die 7900er ja nicht die Hälfte kosten, sondern vielleicht 10% weniger.

Dazu noch der Nachteil des Chiplet Designs bei Takt und Latenz, die auch ausgeblichen werden müssen - dafür ist es doch ganz ordentlich, was an Preisvorteil weitergegeben wird.
 
Team X bietet jetzt die 2. schnellste Karte die 250 Euro weniger kostet als die bisherige 2. von Team Y, welche nun 3. Schnellste ist

Ist doch klar, die neue von X ist Gurke, ich kaufe die die 3. Schnellste von Team Y und bezahle gerne 250 mehr, dafür dass ich die 3.schnellste bekomme. 🤐
 
  • Gefällt mir
Reaktionen: Ash1983
Mr_Cenk schrieb:
Als 5700XT Käufer hast du doch sowieso nie den Kauf einer Highend GPU ernsthaft in Erwägung gezogen.

?.. also ich hatte eine RX 5700 XT wegen dem guten P/L-Verhältnis (eine RTX hatte ich niemals ernsthaft in Erwägung gezogen). Ersetzt wurde sie dann durch eine RX 6900 XT,..


699€ und 799€ hätte sich doch soviel besser gemacht in den ganzen Reviews. Ziemlich blöd wenn die Preise in ein paar Wochen dann doch noch reduziert werden müssen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nefcairon
@DerRico für "nur" ganz ordentlich ist mir der Preis zu hoch
 
  • Gefällt mir
Reaktionen: Nefcairon und Eidgenosse
paganini schrieb:
Bin im Großen und Ganzen extrem enttäuscht. Leistung nicht wirklich was man erwartet hat zur letzten Gen. und Raytracing noch immer so lala. Aber die größte Enttäuschung ist die Effizienz. Der kleine Lichtblick ist der Preis. Schade AMD!
Leistung war ja bekannt und dann bist du nur von deinen Erwartungen enttäuscht.
Also halb so schlimm
 
  • Gefällt mir
Reaktionen: Ork from Mork
SFFox schrieb:
  • bessere Auslastung der neuen Double-Shader, vllt. bedarf das auch schon fast einer per Game Optimierung im Treiber, dann steigt auch die "Durchschnittsleistung" signifikant, wenn die Karte nicht in jedem zweiten oder dritten Game so stark einbricht
In der Vergangenheit haben sich solche Hoffnungen immer schnell zerschlagen. Dennoch gibt es ja schon eine lange Historie in Bezug auf Fine Wine. Bislang sind die Radeons meistens mit der Zeit besser geworden während Nvidia zu Start schon die Leistung bringt. Lag in der Vergangenheit ja an der schon erfolgten Optimierung der Spiele auf Nvidia H/W. Während AMD jedes Spiel erst pimpen muss per Treiber.
 
  • Gefällt mir
Reaktionen: SFFox
schM0ggi schrieb:
Wieso auf Computerbase die Werte geringer sind als auf diversen anderen Seiten kann ich dir nicht erklären.
PCGH sieht die 7900XTX 4% vorne, Igors Lab sieht die 4080 0.1% vorne und CB die 4080 3% vorne. Die Werte sind überall dieselben...
 
  • Gefällt mir
Reaktionen: CrustiCroc und shaboo
Syrato schrieb:
Wenn die Preise unter die 1000 fallen, sind das sehr gute Karten.
Für mich müsste die 7900xt dann aber schon auf unter 800 fallen das sie mein Interesse weckt.
Ich bin jetzt nicht enttäuscht von der Leistung aber tatsächlich habe ich erwartet das die 4080 um 10% geschlagen wird in Raster und bei RT die 7900xtx 10-15% dahinter ist.

Jetzt stellt sich die Frage ob es da wirklich einen Fehler im Design gibt und nächstes Jahr zum Winter hin ein Refresh ohne den Bug kommt. Der dann 10-20% mehr Performance bei etwas weniger Verbrauch bringt.
Mit meiner 6800xt habe ich es nicht eilig zu wechseln. Mal sehen wie sich alles so in den nächsten 3-6 Monaten bei RDNA3 entwickelt. Preise sind mir zu hoch bei AMD und bei Nvidia ist es noch viel schlimmer.
 
cbmik schrieb:
Chiplet bring nur AMD Kostenvorteile, aber dem Konsumenten gar nichts in dieser Generation.
welche Kostenvorteile sollen das hier sein?
 
Für mich insgesamt eine Enttäuschung.

Sowohl PCGH als auch Computerbase bescheinigen im Test der 4080, das gegenüber einer 7900XTX technisch bessere Produkt zu sein. Die 20 oder 24 GB VRAM bei AMD dürften für die meisten ein eher theoretischer Vorteil gegenüber 16 GB sein; beim Rasterizing liegt selbst die XTX gerade mal gleichauf mit einer 4080, bei RT weit abgeschlagen. Ineffizienter ist der Kram auch noch, mit entsprechenden Auswirkungen für die, die einen kühlen und leisen Rechner haben wollen. Um das zu bekommen, wird bei AMD kein Weg an einem entsprechend teureren Custom-Modell vorbei führen, was den zunächst vorhandenen Preisvorteil ein gutes Stück abschmelzen lassen dürfte. Was den Preis betrifft, bewegt man sich - wie schon bei Ampere - im Windschatten von Nvidia. Wer will, kann sich damit trösten, dass Nvidia dabei auf der Unverschämtheitsskala bei einer 10 von 10 landet, während sich AMD bei einer 7 einpendelt, aber so richtig weiter bringt auch das niemanden. Und den Preis der kleinen 7900 muss man sowieso nicht verstehen. Abgesehen davon, dass es bei der definitiv sinnvoller gewesen wäre, sich mit 16 GB VRAM zu begnügen, den Preis dafür aber unter 1000 Euro zu halten.

Ich weiß ja nicht, was Mittel- und Einstiegsklasse noch bringen werden, aber das aktuelle Angebot im Hochpreissegment ähnelt der letzten Generation und ist seitens AMD wohl eher nicht dazu angetan, Nvidia deutlich Marktanteile abzunehmen - leider.
 
  • Gefällt mir
Reaktionen: ComputerJunge, Innocience, Uncreative und 6 andere
Krautmaster schrieb:
welche Kostenvorteile sollen das hier sein?
Mehr Ausbeute => weniger Auschuss der ansonsten nur Kosten wäre ohne etwas verwertwates zu haben.
 
Ragnarök88 schrieb:
PCGH sieht die 7900XTX 4% vorne, Igors Lab sieht die 4080 0.1% vorne und CB die 4080 3% vorne. Die Werte sind überall dieselben...
Aber dann ist doch gut, wenn die 7900XTX auch noch günstiger ist. (Abgesehen davon, das es eh zu teuer ist, aber ich wiederhol mich nicht zum ersten Mal)
 
Legalev schrieb:
Leistung war ja bekannt und dann bist du nur von deinen Erwartungen enttäuscht.
Also halb so schlimm
Leider doch, weil Leistung/Verbrauch von vielen mehr/weniger Erwartet wurde. Und das man nur eine Mehrleistung von 30% zur vorgherigen Gen. hat, hat nicht nur mich getäuscht (siehe Hardware Unboxed). Sieht man ja bei den meistens Tests. Der Sprung der RX 5000 zur 6000er war höher als der hier. Da hat Nvidia einen größeren Sprung (Leistung) von der 3000er zur 4000er Serie gemacht.
 
cbmik schrieb:
Mehr Ausbeute => weniger Auschuss der ansonsten nur Kosten wäre ohne etwas verwertwates zu haben.
So hatte ich mir das auch gedacht. AMD versucht die Leistung günstiger herzustellen. Fände ich einen guten Ansatz.
 
cbmik schrieb:
Mehr Ausbeute => weniger Auschuss der ansonsten nur Kosten wäre ohne etwas verwertwates zu haben.

Wie groß ist denn das Konstrukt? Bei der 4080 sind es AD103: 378.6 mm² - TSMC 5nm mit hoher Yield.
Bei AMD muss man nen Interposer haben, der Hauptchip ist schon unwesentlich kleiner, die 6 MC Die kommen on Top und allein das "Zusammenpacken" in der Fertigung ist nichts was mit 0 Euro angesetzt werden kann.
Noch dazu die Nachteile in Effizienz und verbrauch die sich im Kühlsystem. Phasen, Uncore wiederspiegeln.

380mm² sind für sich schon ein vergleichsweise kleiner Chip. Multichip Design bringt da nur was wenn die Yield klein ist oder man Flächen realisiert die mit einem Chip gar nicht möglich wären.

Edit: Techpowerup redet von

Full Size
533 mm²
Die Size
306 mm²

beim AMD Konstrukt. Der Hauptchip ist ebenfalls in 5nm TSMC.
 
Bengart schrieb:
So hatte ich mir das auch gedacht. AMD versucht die Leistung günstiger herzustellen. Fände ich einen guten Ansatz.
Aber soviel günstiger ist es dann doch nicht für den Kunden. Next Gen wirds vielleicht was mit Vorteil in Leistung ohne die Nachteile
 
Danke für den Test.
Geht in Ordnung die Karten mehr aber auch nicht. Meine RX6900XT Waterforce (stock 2,5GHz) war für den Preis von 799€ das einzig richtige in dieser Situation am Markt.

Wer jetzt über für die neuer Generation 600€ AMD, oder 1200€ NV für ein paar FPS mehr ausgeben möchte, soll es tun.
Ich finde die Preise selbst von meiner Frech und die neuen AMD+NV sind einfach nur Wucher.

Jetzt auf 7900X3D warten und dann mal schauen, alles andere ist erst mal uninteressant.

mfg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cbmik
Danke für den Test!

Für das erste Chiplet-Design einer Graka eine absolut oke Leistung für mich.
Leistungsmäßig ungefähr wie erwartet, denke es wird bei Treiberoptimierungen (wie sonst auch bei AMD) noch Zugewinne in den FPS geben.

Für den Preis auf die FPS bezogen völlig ok einsortiert und wäre von dem Punkt aus durchaus von mir bevorzugt.
Features wie DP2.1, AV1 usw. sprechen eindeutig für die Karte und ich möchte diese eigentlich auf meiner neuen Karte haben.

Was mir gar nicht passt, sind die Ungereimtheiten bei der Energieaufnahme gerade bei FPS-Begrenzung usw.
Das ist ein Ausschluss für mich. Das führt dann für mich dazu, dass ich eher abwarten werde, mir eine Karte aus der alten Generation für den Übergang kaufen werde und dann hoffentlich im 2ten Aufschlag eine Karte bekomme, welche die modernen Anschlüsse bietet und diese Problematik gelöst hat.
Denn es ist für mich nicht nachvollziehbar, warum eine niederigere Framerate so wenig Einfluss auf den Energiebedarf hat.

Alternativ wäre: Kaufen und dann, wenn die neue Generation erschienen ist, als "defekt" zurückgehen lassen. Denn eigentlich ist es das: Ein Defekt. Leider. Oder Glück haben und es ist doch "nur" ein Treiber- oder Firmware-/Biosproblem. Was aber abzuwarten ist.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Wie groß ist denn das Konstrukt? Bei der 4080 sind es AD103: 378.6 mm² - TSMC 5nm mit hoher Yield.
Bei AMD muss man nen Interposer haben, der Hauptchip ist schon unwesentlich kleiner, die 6 MC Die kommen on Top und allein das "Zusammenpacken" in der Fertigung ist nichts was mit 0 Euro angesetzt werden kann.
Noch dazu die Nachteile in Effizienz und verbrauch die sich im Kühlsystem. Phasen, Uncore wiederspiegeln.

380mm² sind für sich schon ein vergleichsweise kleiner Chip. Multichip Design bringt da nur was wenn die Yield klein ist oder man Flächen realisiert die mit einem Chip gar nicht möglich wären
Laut Test 300mm² (TSMC N5) + 37mm² (TSMC N6)
ADA nutzt ja TSMC N4, denke schon, das der erheblich teurer ist pro Wafer mm²?
Zumindest wäre das meine Erwartung.
 
Zurück
Oben