Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Blazin Ryder schrieb:
Was? Rt ist ne 4080 locker bis zu 30% schneller, dann mit Frame Generation ist es endgültig vorbei, Rt Leistung auf 3080 Ti /3090 Niveau, Raster mit ach und krach Gleichstand mit 4080. Die Werbefolien waren wirklich nur Werbefolien.
Wir haben aber auch einen anderen Preis. Um das nochmal klar zu stellen. Keiner, außer ein paar Fans, braucht mehr Leistung zu noch mehr Geld. Wir, der ganz ganz große Kundenanteil, braucht einfach ein besseres P/L Verhältnis. Da ist es total egal, ob eine Grafikkarte 10% mehr oder weniger Leistung hat. Es ist auch total unerheblich ob die 7900 jetzt schneller oder langsamer ist. Es gibt kein verdammtes Gesetz, in dem von Konkurrenten immer jeweils gleich schnelle Karten heraus gegeben werden muss. Das Zeug muss einfach günstiger und verfügbarer werden. Ich häng hier immer noch auf einer RX580 rum, da ich nicht nur mehr Leistung sondern auch mehr Leistung zu einem besseren P/L Verhältnis haben möchte. Das will jeder, außer halt die paar Fans von ultrageilen Karten. Die sollen doch die 4090 kaufen und glücklich sein. Mir wurscht. Aber wenn das heißt, das nichts aber auch gar nichts mit einem gescheiten P/L nachkommt ist das für mich kacke.
 
  • Gefällt mir
Reaktionen: Gene Jackman, Ko3nich, Innocience und 7 andere
blackiwid schrieb:
Selbst wenn das Treiberargument nicht aktzeptieren willst (warum auch immer)...
Weil das reine Spekulation ist, wie man an den 4 vorherigen AMD Gens sieht.
Genauso könnte Nvidia noch zulegen.
blackiwid schrieb:
ist die RX 590 30% innerhalb eines Jahres an der gtx 1060 vorbei gezogen bei Fullhd weil die 6gb einfach nicht mehr reichen, und der unterschied war damals nur 25% Speicher jetzt sinds sogar 33% weniger als das neue Highend Normal.
Dein Beispiel zeigt einmal ein Performancerating mit 18 Spielen und dein anderes nur 1 Spiel. Nämlich Call of Duty. Das musst du doch merken.

Wenn ich mir 1 Spiel Heraussuche, bekomme ich die 1060 bestimmt auch 30% vor die RXc580.
 
Super Testbericht - ich dachte schon, mein Scrollbalken wäre kaputt, weil der nur noch als dünne horizontale Linie zu sehen ist.
Danke ans Test Team!
 
  • Gefällt mir
Reaktionen: Jan
Dass man die 7900 XT(X) gegen die 4080 aufstellt war ja vorher schon klar. Man hätte allerdings den Namen entsprechend anpassen sollen und sie als 7800 XT(X) verkaufen sollen.
So macht das Namensschema einfach nur einen schlechten Eindruck.
 
  • Gefällt mir
Reaktionen: Nefcairon und SandR+
Bengart schrieb:
Wir haben aber auch einen anderen Preis. Um das nochmal klar zu stellen. Keiner, außer ein paar Fans, braucht mehr Leistung zu noch mehr Geld. .
Ist auch auch keine schlechte Karte, aber wenn dann dieses Jahr und per Patch immer mehr Game das Feature Frame Generation unterstützen werden, rasiert ne 4070 locker ne 7900xtx weg. Geht auch um das Feature Set bei einem wahrscheinlich geringeren Preis.
 
Für mich fühlt sich diese neue Generation wie eine neue Vega an.

Zu teuer, zu ambitioniert und keine Vorteile des Chiplet Design für den Konsumenten (wahrscheinlich in den nachfolgenden Generationen) .
 
  • Gefällt mir
Reaktionen: ComputerJunge und Nekkepenn
oi was eine Gurke. Und das mit Multi Chip Layout und exorbitant hohen Kosten in der Fertigung? Also gerade Rasterizing Leistung hätte ich gedacht dass man locker die 4080 wegprügelt
 
  • Gefällt mir
Reaktionen: CrustiCroc, Apacon und CuzzImBasti
Die CoD Bros müssen leider alle ihre RTX 4090 aus dem Fenster schmeißen. :D

1670872024962.png
 
  • Gefällt mir
Reaktionen: Stellarix, _Cassini_, Wanderwisser und 5 andere
Krautmaster schrieb:
oi was eine Gurke. Und das mit Multi Chip Layout und exorbitant hohen Kosten in der Fertigung? Also gerade Rasterizing Leistung hätte ich gedacht dass man locker die 4080 wegprügelt
Nee, ich glaub wesentlich günstiger. Der N4 Prozess von Nvidia ist bestimmt wesentlich teurer, oder?
 
  • Gefällt mir
Reaktionen: Benji18 und cbmik
Chiplet bring nur AMD Kostenvorteile, aber dem Konsumenten gar nichts in dieser Generation.
 
av4l schrieb:
Die 4080 zieht ca 65W (~20%) weniger Leistung im Schnitt im Parcours. Gerade die Abwärme ist daran das Hauptproblem aus meiner Sicht. Der Unterschied wäre mir zu groß, um nicht die 4080 für 20% mehr Geld zu kaufen. - Wenn mir das generell so viel Geld wert wäre - Aber die Preise sind mir zu hoch, die 5700XT bleibt also weiter drin.

Beim Verbrauch würde ich primär immer auf den Idle-Verbrauch gucken. Unter Last kannst Du das "fast" vernachlässigen, sofern Du nicht wirklich "24/7" auf der Karte irgendwas rechnest.
Wenn ich das richtig gesehen habe, sind die AMD-Karten im Idle etwa gleichauf.

Und unter Last kann man das ja relativ leicht ausrechnen mit den 65W.
Wenn Du wirklich viel zockst. ...bpsw. 4h am Tag... also unter Last.... das halte ich schon für viel, weil man ja nicht durchgängig zockt und auch mal nur bei YT und Twitch abhängt oder surft. Dann sind das aufs Jahr gesehen knapp 40€ unterschied, wenn man mit 40ct/kwh rechnet. 3,3€ im Monat.... das kann man aus meiner Sicht vernachlässigen....
 
mscn schrieb:
Na, wer hat noch erstmal direkt bis "zu den Balken" geblättert?

Ich, und ich würde es wieder tun. ^^
 
  • Gefällt mir
Reaktionen: Yar und mscn
Bengart schrieb:
Nenn es wie Du es willst. Die Customs und die UVP sind gesunken. Das gab es schon lange nicht mehr. Wäre die Karte gut gelaufen, wäre es so wie bei allen anderen. Nicht verfügbar und eher Aufpreis als Preisnachlass nach kürzester Zeit. Zumindest hat die deutliche Preisanpassung nach unten geholfen das P/L zu verbessern und da es nunmal erheblich war, ist sie auch ein ganzes Stück besser geworden. Aber selbst dadurch halt noch nicht besser als bei der 7900 XTX.

Erheblich besser? Wegen 50 Euro, wenn überhaupt? 1200 Euro ist sie wert.
 
Blazin Ryder schrieb:
Ist auch auch keine schlechte Karte, aber wenn dann dieses Jahr und per Patch immer mehr Game das Feature Frame Generation unterstützen werden, rasiert ne 4070 locker ne 7900xtx weg. Geht auch um das Feature Set bei einem wahrscheinlich geringeren Preis.
Na, das muss man erstmal sehen. Ich glaube auch, das RT nur für wenige von Bedeutung ist. Mir ist auch wieder egal wer wen rasiert. Ich will einfach das P/L verbessern und zwar wesentlich. die 4000er tragen dazu garnichts bei also für mich komplett sinnlos.
 
Lan_Party94 schrieb:
Somit wird die 7800XT(X) auch nicht so dolle, wie ich eigentlich erhofft habe...
Gemaß Igor sollen die Monolithen das Taktproblem der Chipletkarten nicht haben und so hoch takten wie mal ursprünglich erwartet - als +3Ghz. Wenn das so kommt und der Preis stimmt, kann das ja noch was werden.

Ist halt die erste ihrer Art, die ersten Chiplet CPUs hatten auch ihre Probleme und mittlerweile sind sie top, so dass auch Intel folgen wird.
 
  • Gefällt mir
Reaktionen: Benji18
@Bengart
das MCM Layout kostet in der Größe wesentlich mehr als das es bringt. Das wäre was anderes wenn Nvidia hier mit einem 800mm² Die und schlechter Yield unterwegs wäre. Ziemlich viele Quellen sprechen davon dass AMD hier eher draufzahlt.
Allein die X MC Chips die hier bei AMD drauf sind brauchen schon brutal Fläche.
 
FU_long schrieb:
Erheblich besser? Wegen 50 Euro, wenn überhaupt? 1200 Euro ist sie wert.
Naja von 1469 auf heute 1339. Das ist schon was. Wenn die XTX jetzt genauso fällt, dann ist die bei nem Tausender. Immer noch 800 Euro zu viel für mich, aber alles drunter verschiebt sich ja entsprechend. Ich will doch nur meine RX580 in Rente schicken und was haben, was nach 5 Jahren zum gleichen Preis den doppelten Wumms hat. Aber da tut sich nichts.
 
Was'n crap :-(
 
  • Gefällt mir
Reaktionen: CrustiCroc und Geringverdiener
Ich hab' jetzt mehrere Tests auf verschiedenen Plattformen gesehen/gelesen und hoffe für AMD und einen ausgeglicheneren Markt, dass sie folgende Sachen noch mit Treiber-Updates nachbessern können:
  • IDLE Stromverbrauch (laut Linus Tech Tips teilweise abhängig vom verwendeten Monitor MODELL!!!, also nicht nur hz-spezifisch)
  • Niedrig-Last-Szenarien (da ist doch sicherlich mehr Memory aktiv, als da sein muss, wenn ein Youtube Video gerendert wird)
  • bessere Ersparnis bei Framebegrenzung (ich hoffe die Tests haben das nicht nur mit den ingame-Limitern getestet, sondern mit dem Treiber-eigenen Radeon Chill, welches dementsprechend das Taktverhalten viel besser steuern kann und falls es damit getestet wurde muss es ja irgendwo einen Grund geben, warum die Karte trotzdem soviel Strom zieht, obwohl sie begrenzt deutlich weniger FPS liefert)
  • bessere Auslastung der neuen Double-Shader, vllt. bedarf das auch schon fast einer per Game Optimierung im Treiber, dann steigt auch die "Durchschnittsleistung" signifikant, wenn die Karte nicht in jedem zweiten oder dritten Game so stark einbricht
Wenn in diesen Punkte nachgebessert wurde, dann könnte ich mir durchaus vorstellen, dass bei hoffentlich auch etwas niedrigeren Straßenpreisen so eine Karte ihren Weg in meinen Rechner findet.
Bis dahin bin ich weiterhin sehr happy mit der RX6800, die hier im Rating immer noch die fünft-effizienteste GPU ist ;)

Ich arbeite auch viel an meinem Hauptrechner, daher ist ein geringer Niedrig-Last-Verbrauch für mich sehr wichtig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Uncreative, Benji18, Zenx_ und eine weitere Person
Krautmaster schrieb:
@Bengart
das MCM Layout kostet in der Größe wesentlich mehr als das es bringt. Das wäre was anderes wenn Nvidia hier mit einem 800mm² Die und schlechter Yield unterwegs wäre. Ziemlich viele Quellen sprechen davon dass AMD hier eher draufzahlt.
Allein die X MC Chips die hier bei AMD drauf sind brauchen schon brutal Fläche.
Dann her mit den Quellen. Chiplet mache ich nur, wenn ich mir einen Vorteil erhoffe. Bessere Ausbeute etc. Wäre cool, wenn du mal was teilen könntest.
 
  • Gefällt mir
Reaktionen: Benji18
Zurück
Oben