Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Die 200€ zur 4080 hat man durch Stromkosten in 1-2 Jahren drin, wenn man viel zockt. Und dann hat man das bessere Produkt.

Mal abwarten:
-Wie sich die Treiber entwickeln
-Wie sich die Grakapreise entwickeln
-Wie sich die Strompreise entwickeln
 
Der Test ist doch ernüchternd. Ich war von der Performance und der Effizienz von RDNA3 im Vorfeld von AMD doch angefixt. Trotzdem habe ich mir gerade erst eine RX 6900 gekauft und muss sagen, das war doch die richtige Entscheidung.
 
  • Gefällt mir
Reaktionen: Benji18, shyyu, karl_laschnikow und 2 andere
@Wolfgang rein aus Interesse. Warum werden eigentlich beim Performance Rating nicht auch die Avg fps angegeben? Die Prozent zahlen sind ja ok, aber es fehlt doch eine gewisse Größe was 100% im Rating sind.
 
Sieht so aus, als ob wir uns mit den hohen GPU-Preisen abfinden muessen. Nach der Vorstellung wird sich wohl in der Richtung nicht viel tun.

Enttäuschend...
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=- und Master Chief !
RDNA 3 bietet als erste Architektur überhaupt DisplayPort 2.1 in der Ausführung „UHBR13.5“ als Monitorausgang an.

Die Oled-Ultras bald mit Vierfach-UHD (7xxx*4xxx) und 120Hz am Start. Was für Blood011, so mit einem 70"-Fernseher? :evillol:

Damit geht AMD sogar über die Spezifikationen der Stromanschlüsse hinaus, denn beide 3D-Beschleuniger setzen auf zwei traditionelle 8-Pin-Anschlüsse – maximal 375 Watt wären damit inklusive PCIe-Slot erlaubt.

Und es kommt meinem Netzteil entgegen, dass die Karten mit 2 Steckern auskommen. Zumindest die XT sollte eigentlich am 550er (das hat nur 2 Stecker) laufen, auch die XTX, wenn man die TDP nicht hochballert.

Die Radeon RX 7900 XTX ist in 3.840 × 2.160 ohne Raytracing im Durchschnitt absolut gleich schnell wie die GeForce RTX 4080.

Dabei sollte sie in Raster doch durchschnittlich (?) besser sein. :(

Auch der GDDR6-Speicher ist mit 92 °C im grünen Bereich, hier sind 108 °C das Limit. Der Speicher ist damit am ehesten „gefährdet“, zu überhitzen, wobei er allerdings am besten auf eine höhere Lüfterdrehzahl reagiert: Erhöht die Grafikkarte die Lüfterdrehzahl, fällt die Speichertemperatur mehr als die GPU-Temperatur.

Kann das jemand von der Redaktion mit höherer Umgebungstemperatur testen, wie das skaliert? Den Rechner neben die Heizung mit Stufe 5 :king: stellen und Lüfter vom Gehäuse aus! Nicht, dass im Sommer dann doch der Speicher bei 100+°C glüht und die Karte dann kurz nach der Garantie abraucht. Wenn es doch knapp wird, muss man dann ein ein Custom-Design nehmen, sofern es 2 Stecker wie Referenz hat (oder 3, wenn passendes Netzteil vorhanden ist).

Und auch mal WL-Pads zwischen Speicherrückseite und Backplate verbauen, falls keine vorhanden.

Während die Radeon RX 7900 XT ihren Takt offenbar ganz gut mit den maximal erlaubten 315 Watt unterbringt und daher kaum Schwankungen bei der Leistungsaufnahme zeigt, wird die Radeon RX 7900 XTX mit ihren zusätzlichen Ausführungseinheiten ein wenig nervös, um ihre durchschnittlichen 355 Watt einhalten zu können.

Also könnte XTX doch eng werden mit meinem Netzteil., wenn das immer mit Spitzen Richtung 380W geht. :( Eine XT sollte dann nun aber wirklich laufen. 2080S auf 313W hochgeballert ging auch.

Aus den Perspektiven Leistung und Effizienz betrachtet, ist die GeForce RTX 4080 die bessere Grafikkarte als die Radeon RX 7900 XTX.

Das Gefühl habe ich nach dem Artikel auch, dass die Grafikkarte von Lederjacke das ,,rundere" Produkt ist, abgesehen vom Scalper-Preis.

<----------
1049€ XT + 0€ Netzteil
1149€ XTX + 100€ Netzteil
1349€ 4080 + 100€ Netzteil + X€ für Adapter
999€(?) 4070TI + 0€ Netzteil - X€ Adapter
<----------
 
Ich möchte auch mal was potentiell positives über AMD an der Stelle sagen.

Der Unterschied bei RT zwischen RDNA2 und RDNA3 ist gigantisch. Ich hatte eine 3090 und auch eine 6900XT.

Mit beiden habe ich versucht in BF2042 mit RT zu spielen. In 4K "High" Preset kam die 3090 damit auf ca. 60FPS, wo die 6900XT auf 32FPS kam. Das war ein Unterschied zwischen gut spielbar und unspielbar.

Wenn man sich bedenkt, dass die 7900XTX welche mit 1150€ kaum teurer als aktuelle 6950XTs ist, jetzt auf diesem Niveau angekommen ist, ist das schon ein echter Sprung. Das Problem ist einfach das Nvidia mit ADA nochmal richtig einen "on Top" rausgehauen hat.

AMD wird mit RDNA4 deutlich spannender werden. Man übt sich bereits jetzt mit MC Chiplets und wird diesen Prozess auch optimieren. Nvidia setzt noch immer auf ein monolithisches Design. Das dieser Monolith so krass gut ist, hätte niemand erwartet.

Was für mich persönlich absolut absurd krass bei ADA ist, ist wirklich die Effizienz in Kombination mit den Temperaturen.

BF2042 4K Ultra Preset; nativ 4K Verbrauch -> ca. 380W und 99% GPU Load durchgehend bei ca. 62°C und 1200RPM.

BF2042 4K Ultra Preset; DLSS Quality Vebrauch -> ca. 250W und 82% GPU Load durchgehend bei ca. 53°C und 1100RPM.

Das ist absolut krass was hier möglich ist durch die Kombination Hardware/Software Featureset.

Im Gegensatz zum AMD Treiber und ich hatte jetzt > 1 Jahr die 6900XT, hatte ich mal wieder noch nicht ein Treiber Problem, oder irgendein komisches Verhalten. Alles läuft absolut perfekt von Sekunde 1 an.
 
  • Gefällt mir
Reaktionen: Sammy2k8, Benji18, Laphonso und eine weitere Person
die gebrauchten 3090 und 3090Ti Preise müssten ab heute um Mindestens 200€ steigen!
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=- und LBB
Ragnarök88 schrieb:
Die 7970 ist aufgrund der Architektur da schon am besten gealtert und hat etwa 10% auf Kepler rausgeholt.
Selbst wenn das Treiberargument nicht aktzeptieren willst (warum auch immer), ist die RX 590 30% innerhalb eines Jahres an der gtx 1060 vorbei gezogen bei Fullhd weil die 6gb einfach nicht mehr reichen, und der unterschied war damals nur 25% Speicher jetzt sinds sogar 33% weniger als das neue Highend Normal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und Benji18
NonOptionalName schrieb:
Menschen denen wirklich nur Rasterization-Leistung pro (Kaufpreis!) € wichtig ist, mögen das anders sehen
Wer jetzt eine 6900/6800XT hat braucht nicht aufrüsten. Ausser er möchte evt Raytracing etwas mehr nutzen mit 47%+ und FSR 2.0 /3.0wäre das machbar.

Sonst bin ich echt am überlegen.
Die 35% mehr Leistung zur 6900XT sind keine 1150€ wert.
 
Ich denke für das erste Multi-Chiplet geht das in Ordnung. , da kommt sicher nächste Generation mehr / oder günstiger. Der Preis wird regeln.
 
  • Gefällt mir
Reaktionen: joshlukas und Benji18
CrustiCroc schrieb:
Achso. Ich hasse beide Hersteller für ihre Preisgier. AMD keinen Deut besser.

Intel I9 13900K -Gigabyte Z790 Aorus Master- 32 GB DDR5 6000 - Gainward RTX 4080 Phantom - Corsair H 150 i LCD - Corsair Icue 5000X RGB

Wer sich eine preislich total überzogene 4080 leistet und damit die Preispolitik unterstützt, sollte sich aber auch nicht darüber wundern, wenn die Karten immer teurer werden...

Ironie des Schicksals nenne ich das!
 
Laphonso schrieb:
Enttäuscht ist man nur, wenn man nicht realisiert, dass AMD viel mehr Wert auf Effizienz in gewissen Limits setzt als Nvidia.

Ich bin mir sicher, AMD hätte einen Ziegelstein wie die 4090 auch bringen können als 450 Watt Boliden. Genau das wollen sie ja nicht.
Sicher fehlen da einige % Performance.
Aber für meine 4090 kann man ZWEI 7900XTX kaufen.
Alles eine Frage der Perspektive.


Jemand wie Not an Apple Fan steht noch lächerlicher da als sonst mit seinem Feuerwerk an Fehlprognosen.
Die "Nvidia Hate = content"- Youtuber haben dieses Jahr ganz miese Weihnachten :D
Kann ich fragen WO du die Effizienz der 7900er Karten siehst? Ich seh einfach nur weniger Performance und z.T. weniger Effizienz.
 
Forlorn schrieb:
Zu teuer, zu hungrig. Diese gesamte HighEnd Grafikkarten kann man sich einfach nicht mehr schönreden. Egal ob Team Grün oder Rot.
Meine Strix 4090 ist fantastisch. Nur weil die nicht in dein Budget passt macht das die Karte nicht schlechter...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88, CrustiCroc, LBB und 4 andere
Also damit kann man NVIDIAs 4080 unter Druck setzen, mehr aber nicht.
NVIDIA wird vermutlich nicht mit dem Preis herunter gehen. Es gibt zu viele die den Aufpreis wegen Features und Publisherunterstützung zahlen werden. Gerade auch wenn man schon >1000€ hinlegt.

Mr_Cenk schrieb:
Meine Strix 4090 ist fantastisch. Nur wiel die nicht in dein Budget passt macht das die Karte nicht schlechter...
Das P/L ist die allerwichtigste Gewichtung.
Andernfalls würde Apple seine M2 für andere freigeben^^
Auch wird für die "Aus dem Weg Geringverdiener" Fraktion dann die 5090 einfach 4000€ kosten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji18
Banger schrieb:
so mit einem 70"-Fernseher? :evillol:
Ne,zu fett aufm Tisch,aber so 8K120/240Hz auf 42" würde ich nicht nein sagen.^^
 
  • Gefällt mir
Reaktionen: Banger
Augen1337 schrieb:
Mal abwarten:
-Wie sich die Treiber entwickeln
-Wie sich die Grakapreise entwickeln
-Wie sich die Strompreise entwickeln
Bist man hier einen Vergleich, trend ziehen kann, steht schon wieder die nächste Generation am Start.

Eigentlich, wenn man vernünftig sein möchte sollte man sich rein für Gaming sich für ne PS5 oder Xbox entscheiden. In sachen Preis/Leistung und effizient unschlagbar.
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=-
Bengart schrieb:
NV ist aber nur interessant nach der Preissenkung. Die war absolut notwendig.

Nach welcher Preissenkung? Die Euro/Dollar Anpassung? Die 4080 ist ja nach wie vor viel zu teuer. Oder hab ich da was versäumt?
 
Man konnte es ahnen:

nVidia hatte lange Zeit Respekt vor dem MCM Ansatz von AMD. Deswegen ist die 4090 ist jeglicher Hinsicht auch so dermaßen überdimensioniert (TDP Design Kühler, Netzstecker etc.). Irgendwann hat nVidias KGB Wind bekommen wo die AMD Chips landen werden und alles wurde "runtergefahren".

Irgendwo scheint im Design was ziemlich schief gelaufen zu sein bei AMD. Meine Hoffnung ist, dass eine neue Revision noch im nächsten Jahr kommt.

Sorry....aber wenn die 4080 noch bissel im Preis sinkt, gibt es keinen Grund für die 7900 XTX außer AMD geht massiv mit dem Preis runter wo aber AMD kein Interesse haben wird.

Und nein...ich bin kein Fanboy. Ich finde diese Entwicklung für uns Kunden echt schlecht. Bei der Ampere und RNDA2 war man sogar am Top End (3090) dran in einigen Kategorien dran....der Abstand hat sich diesmal vergrößert.
 
  • Gefällt mir
Reaktionen: MADman_One
Taxxor schrieb:
Und wenn er RT haben will und die Leistung nativ nicht ausreicht, ist die Lösung ja nicht, einfach nativ zu spielen.
Natürlich ist es eine Lösung. Wenn GPU nicht für 4k/WQHD und RT ausreicht, so muss man dann auf FHD runterdrehen und/oder Settings. Wenn man es nicht akzeptieren möchte, so muss man eben bereit sein ins Portmonee zu greifen. Oder ist es deiner Ansicht nach nicht legitim? RT ist ein Feature und kein Muss, um beim PC spielen Freude zu haben. Ein 0815 DOTA, LOL, Valorant, Minecraft, usw. Spieler wird nicht mal wissen, was RT ist. Wenn es kein Kiddie ist, wird er höchstens sagen, dass RT der verbotene Sender sei.
 
  • Gefällt mir
Reaktionen: daknoll
Zurück
Oben