Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Malaclypse17 schrieb:
Und hier sitze ich und wünsche mir nur eine performante 400€ Mittelklasse Grafikkarte ...
Der Grafikkarten-Markt ist echt keine Freude mehr, so werde ich auch in zwei Jahren noch auf meiner RTX 2070 hocken.
Der 400 Euro Bereich existiert nicht mehr. Du kannst auch auf dir RTX 5000 Serie warten. Für 400 Euro wirst du höchstens auf dem Gebrauchtmarkt ne RTX 3070 bekommen. Oder mit viel Glück eine RX 6800. Mehr ist da nicht drinnen. Von Nvidia wird es nicht mal einen 400 Euro Bereich bei Ada geben. Da wird man auf die günstigeren Ampere Karten verweisen. Entweder du zahlst mehr oder bleibst eben bei den alten Schinken. Ne XSX oder PS5 sind auch ne Alternative.
 
Malaclypse17 schrieb:
Der Grafikkarten-Markt ist echt keine Freude mehr, so werde ich auch in zwei Jahren noch auf meiner RTX 2070 hocken.

Wobei das ja nun keine so üble Karte ist. Letztens saß ich an einem PC, in dem eine Asus HD 7770 zum Spielen
genutzt wurde. Okay, relativierend muss man dazu sagen, dass der PC einem neun Jahre jungen Mädchen
gehört und aus allerlei Alt-Hardware gezimmert wurde.
 
Für mich alles wie erwartet, etwas schneller (je nach dem wo man schaut) in Raster als die 4080 dabei günstiger. In paar Games wird auch die 4090 gekillt oO. Das habe ich nicht erwartet. Mit RTX immer langsamer als die RTX4080, aber die meisten (laut Umfrage inkl. mir selbst juckt RTX nicht). Daher voll gut, und für Linux User ist AMD eh immer die erste Wahl. Da gibt man sich keine Nvidia freiwillig.
 
Lars_SHG schrieb:

Es war zum Einen noch nicht einmal der Day-One Treiber, welcher wohl einige Spiele fixen und die 2D-Last/Verbauch deutlich reduzieren wird. Wir als Endkunden bekommen von diesen Szenarien kaum etwas mit. Die Reviews basieren auf unfertigen Treibern! Der erste funktionierende Treiber wird für Endkunden der 22.12.1 sein!
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Legalev, Bassmensch und Benji18
Mr_Cenk schrieb:
Entweder du zahlst mehr oder bleibst eben bei den alten Schinken.
Ich habe da keinerlei Probleme standhaft zu bleiben, die RTX 2070 mag zwar ein "alter Schinken" sein, aber sie liefert mir für 1440p immer noch ausreichend Leistung.
Für mich ist Gaming gelegentlich ein netter Zeitvertreib, aber es definitiv nicht wert für ein paar FPS mehr so viel Geld rein zu buttern.
 
  • Gefällt mir
Reaktionen: Javeran
@Wolfgang Wird Decodieren von VP9 wirkling nicht unterstützt?

CB_AMD_RX_7900_ENC_DEC.png


Wäre ja sehr verwunderlich, würde aber wahrscheinlich die Leistungsaufnahme bei der Wiedergabe von Youtube-Videos erklären. :evillol:

Und so aus Neugier, woher habt ihr eigentlich die Angaben? Die Angaben auf der Produktseite der 7900 XTX gehen nicht so sehr ins Detail und VP9 wird da überhaupt nicht erwähnt:

OFFICIAL_AMD_RX_7900_ENC_DEC.png


Nvidia hat eine schicke Übersichtstabelle (https://developer.nvidia.com/video-encode-and-decode-gpu-support-matrix-new), von AMD hab ich leider nix vergleichbares gefunden. :(
 
Rockstar85 schrieb:
GPU Chiplets brauchen noch ein gehörig Maß Feinschliff, hat was von Zen1 Vibes.
Du bringst es auf den Punkt.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Benji18
gedi schrieb:
Sorry, aber von welchem AM5-Desaster sprichst du eigentlich? Ich habe einen 7900x auf einem Asus 650e-e verbaut, incl. 32 GB Gskill 6000 cl30 und das Ding rennt wie Hölle, obwohl ich die PPT ... auf 142/110/130 reduziert habe! Die CPU ist der Hammer und das Mainboard darf die nächsten Jahre gerne bleiben. Kostenpunkt: 996€!
Nun denn, Glückwunsch! Es kommt am Ende auf den Use Case und Dringlichkeit der Aufrüstung an. Für Leute, die hauptsächlich ihre Kiste zum Zocken nutzen, ist AM5 wegen der hohen MB-Preise verglichen mit der Intel-Konkurrenz in dieser Generation im Hintertreffen, da Intel trotz EOL-Plattform ein preislich überzeugenderes Paket liefern kann, mit dem 13700er. Für Einmal-Aufrüster, die nicht iterativ jedes Jahr ihre Rechner upgraden wollen, ein besseres Argument. AM5 wäre für mich nur mit der nächsten Ryzen-Generation ein Thema, da man wieder mit einem neuen Chipsatz rechnen kann, ergo die Vorgängerversionen im Preis fallen werden und wohl mit hoher Wahrscheinlichkeit die neuen CPUs unterstützen würden. Ganz so wie mein MSI Tomahawk B450 auch meinen 3950X unterstützte, der übrigens selbst mit einem späteren X570er-Brett noch billiger war als ein 7950X samt Anhang. Das Desaster liegt nun mal leider darin, dass AMD davon ausging, dass die Leistung allein den Preis wert sein wird, alldieweil sie hauptsächlich mit Spielleistung warben. Dann schlug Intel in die Bresche und deren Preissteigerung blieb aus. Dumm gelaufen, auch wenn AMD ohne Frage das technisch bessere Produkt hat.
 
Lars_SHG schrieb:
keine Ahnung warum man jedes mal hofft, es würde eine positive Überraschung geben, aber es ist wieder alles beim alten.

Das ist jetzt aber auch keine neue Erkenntnis.
Hab schon vor langer Zeit aufgehört auf einen Heilsbringer zu hoffen. Wenn es ein passendes Angebot für den Bedarf gibt, wirds gekauft.
Nur so habe ich zu Release eine 3070 FE für 499 Euro bekommen, statt dann die Preisexplosion als Kaufinteressent mitzuerleben.
Es gab mal Zeiten wo sich warten lohnte, aber ich glaube die sind vorbei.
 
Kenjiii schrieb:
Naja, von "außergewöhnlich gut" war ja nie die Rede.
Und ja, deshalb habe ich ja meinen Vergleich zu den anderen Karten auf dem Markt bezogen.
Das Ergebnis ist, dass es eben kein "Fehlkauf" war, was derjenige zuvor ja anscheinend behauptet hat und was viele auch vor diesem Release meinten.
Den Kauf einer High-End-GPU als "Fehlkauf" zu bezeichnen, sollte man sich im Allgemeinen sowieso nicht anmaßen, dafür ist eine Kaufentscheidung schlicht von zu vielen individuellen Faktoren geprägt.
Dennoch ist das Preisleistungsverhältnis der RTX 4090 auch im Marktkontext eher schlecht, weshalb die Beobachtung, ihr Pricing passe zum Markt, eben nicht korrekt ist.
Rein objektiv betrachtet ist die Karte zu teuer. Ja, es gibt keine vergleichbare Konkurrenz. Das macht aber das Preisleistungsverhältnis nicht besser, der Umstand, dass es ansonsten kein vergleichbares Produkt gibt, bahnt dieser neuen Preisstufe nur den Weg.

Kenjiii schrieb:
Naja, es finden sich immer Leute die am Meckern sind.
Ich finde Nvidia hat dieses Mal einen richtigen Wurf gelandet.
Ada ist technisch beeindruckend, kein Zweifel. Sehe ich auch so. Und ich habe oben ja auch selbst gesagt, dass ich im Zweifel nur eine RTX 4090 kaufen würde, da mir die restliche Produktstruktur weder bei AMD noch bei Nvidia zusagt. Das wäre aber definitiv eher eine emotionale Entscheidung. Legt man ein finanzielles Argument an, will also nicht die maximale Leistung um jeden Preis, gibt es nichts, was die Mehrausgabe rechtfertigen würde.
Kenjiii schrieb:
Normalerweise hieß es ja immer in der Vergangenheit, Nvidia liefert nur das nötigste an Leistung um gerade so über der Konkurrenz zu stehen und den Markt abzugreifen, also eigtl. könnten sie viel mehr Leistung bringen, sie bremsen sich aber absichtlich aus um stufenweise den Markt abzuschöpfen.
Ich habe dieses Argument nie bewusst vernommen, interessanterweise lässt es sich aber problemlos auf die aktuelle Marktsituation anwenden ...
Kenjiii schrieb:
Boom, da ist die 4090 mit 35%-40% mehr Leistung und der Preis ist so gesehen auch nicht um ein vieles höher als der Leistungsanstieg, wobei die letzten Prozente ja eigtl. immer exponentiell mehr kosten.
... sobald man die absolute Speerspitze ausblendet. Ja, wie gesagt, genau diese Speerspitze beeindruckt und ja, am oberen Ende steigen die Kosten nicht mehr linear zur Leistung an, das ist normal. Wahr ist aber auch, dass Nvidia seine Produktpolitik völlig umgestellt hat. Die neue Generation orientiert sich beim Pricing an ihrem Vorgänger, überlässt diesem komplett alle Bereiche unter 1000 Euro und setzt selbst nur darüber an. Das gab es so noch nie. Unternehmensseitig wird das mit dem "Moore's Law is dead"-Argument gerechtfertigt, von jetzt an werde mehr Leistung auch mehr Geld kosten.

Nur war es bis jetzt eben immer anders. Beispiele:

1. Eine RTX 3070 lieferte RTX 2080 Ti-Leistung zur UVP von 500 €.
2. Eine RTX 3080 lieferte Leistung jenseits einer RTX 2080 Ti zum ebenfalls geringeren Kurs von 700 €.

Du kannst Generation nach Generation durcharbeiten und findest ähnliche Konstellationen.

Das ist der Grund, warum die Preise der Ada-Generation so stark kritisiert werden. Dass Nvidia ein einzigartiges Produkt bieten kann, spielt dabei eine untergeordnete Rolle. Sie zwingen dem Markt ihre Vorstellungen auf, um die eigenen Margen zu steigern. Und ja, die alten Argumente für Topgrafikkarten und deren Pricing (wie eben von dir, Topleistung kostet ja "immer exponentiell mehr") werden nach wie vor angeführt, treffen aber auf einen anderen Kontext.
IBISXI schrieb:
Naja, ein Top Modell hat schon immer mehr gekostet.
(Titan, ..90Ti)
Natürlich, das ist klar. Deswegen ist das Preisleistungsverhältnis weiter oben ja auch immer schlechter. Und so ist es eben (gerechnet in fps/€) auch jetzt noch.
IBISXI schrieb:
Darunter gab es früher wesentlich mehr FPS/€.
Auch das ist jetzt noch der Fall. Die dennoch extrem hohen Preise verschleiern das aber. Die Preisstruktur hat sich nach oben verschoben und so hat sich das Ganze aus einem Bereich bewegt, den viele als realistisch empfinden würden.
IBISXI schrieb:
Das mit mehr FPS/€ ist aber seit einigen Generationen Geschichte.
Die neuen Modelle werden nur noch onTop draufgesetzt.
Die Vorgängergenerationen kosten immer noch ca. die UVP zum Erscheinungszeitpunkt.
Genau genommen ist dieses Konzept erst seit dieser Generation Geschichte (siehe oben). Hätte es den zweiten Mining-Hype und die parallele Chipkrise nicht gegeben, hätte Ampere in der Tradition einer deutlichen Leistungsverbesserung an jeweils vergleichbaren Preispunkten gestanden (konnte man früh genug eine Karte ergattern, also direkt nach Launch, traf das auch in der Realität zu). Die UVPs jedenfalls wahren diesbezüglich konsequent. Erst Ada hat dieses Muster nun massiv gerissen - und leider schließt sich AMD dem von Nvidia vorgegebenen Schema mehr oder minder an.
 
Uskok1530 schrieb:
Irgendwo scheint im Design was ziemlich schief gelaufen zu sein bei AMD.
Du spekulierst also auf Preisentwicklungen in der Zukunft nicht aber auf Treiberverbesserungen in der Zukunft... ja das ist das Problem... angeblich gehts ja nur um den Release-stand aber nun machen Leute schon Zukunftsplanungen auf Spekulationen wie sich die Preise entwickeln könnten, das der Compiler aber theoretisch massive Performance Verbesserungen bringen könnten sollten sie die Shader oder was auch immer die kompilieren so anders kompilieren das mehr parallel läuft... wird nicht spekuliert, also zu Gunsten Nvidia kann man spekulieren (die werden sicher noch im Preis ein bisschen sinken) aber zu Gunsten AMD (die Treiber werden sicher noch besser) darf man nicht spekulieren...

Naja kauft alle eure Nvidia Karten... die paar Leser von Nvidiabase werden den Gesamtmarkt schon nicht ändern, besonders außerhalb des deutschen Sprachraums, da hat sowas wie Linus Tech Tipps höhere Reichweite. Zugegeben er hat gemeint das wegen den selbstgemachten Strompreisen in der EU er dort bisschen mehr vorsichtig wäre und sich den Kauf dort mehr überlegen, aber das ist ja nen EU Problem kein Problem das AMD verursacht hat, btw auch schon vor der aktuellen Krise speziell in Deutschland mit Wuchersteuern auf Strom, btw hoer ich gleichzeitig das 200 Dollar oder hier 200 Euro aufpreis fuer Leute die eh schon so viel zahlen kein grossen Unterschied macht, aber wenn die leute 10h in der Woche spielen machen da ein paar % mehr Stromverbrauch viel aus Leuten mit dem Geld, halte ich auch für abwegig, die wo sich wegen Stromverbrauch gedanken machen werden eher weiter nach unten schauen 4060 und 7080 als da zu teureren Nvidias greifen.

Mir gefällt das LTT besser er gibt wenigstens zu einen halb-volles-glas Bewertung gemacht zu haben, würde das hier CB auch zugeben das sie ein halb-leeres-glas Fazit gemacht hätten, könnte ich damit gut leben. (und btw ist ja nicht nur LTT der anders einordnet)
 
  • Gefällt mir
Reaktionen: thom_cat
Also das Referenzdesign hängt im Power- und Heat-Limit.
Ich denke da werden die Custom-Designs eine Lösung sein, man braucht sich nur die Red Devil angucken, die mit 3x 8-Pin (aka 450W Leistung) aufwarten kann. Aber insgesamt Schade das sie an der Performance/Watt schrauben mussten.

Persönlich interessiert mich die Leistungsaufnahme nur in Zusammenhang mit der erzeugten Wärme. Die paar Spiele die ich spiele reißen da nichts raus.
 
derbe schrieb:
Für mich alles wie erwartet, etwas schneller (je nach dem wo man schaut) in Raster als die 4080 dabei günstiger. In paar Games wird auch die 4090 gekillt oO. Das habe ich nicht erwartet. Mit RTX immer langsamer als die RTX4080, aber die meisten (laut Umfrage inkl. mir selbst juckt RTX nicht). Daher voll gut, und für Linux User ist AMD eh immer die erste Wahl. Da gibt man sich keine Nvidia freiwillig.
Ich hab mit der 1080 TI unter Linux 0 Probleme.
 
Bei mir wird es definitiv entweder eine RX 7900XTX oder RTX 4080 werden, da ich letzten Monat meine RX 6800XT verkauft habe. Allerdings brauche ich die neue Karte nicht vor Februar. Bis dahin kann sich preislich und Treiber-technisch noch einiges ändern. Zu Weihnachten wird ohnehin noch von den Ungeduldigen kräftig abkassiert. Im neuen Jahr sollten sich die Preise der Realität anpassen.
 
Sollte der Preis der xtx auf 900 fallen werde ich mir eine holen und unter Wasser setzen. Bis dahin reicht meine 3080 allemal.
 
Termy schrieb:
Dass teilweise die NV-Karten im RT geschlagen werden hätte wohl keiner erwartet :D

Die Rasterizerleistung ist auf jeden Fall unter dem, was ich erwartet hätte - da wird es noch spannend ob das evtl nur dem frühen Stadium der Treiber geschuldet ist...da hatte AMD ja direkt nach Release nicht immer alles so richtig im Griff.
Daher bin ich dann auch richtig gespannt, wie die Linux-Benchmarks aussehen und wie es sich unter Windows und Linux in den kommenden Wochen/Monaten entwickelt.
Dass bei neueren und leistungshungrigeren Spielen AMD besser da steht als im Schnitt spricht in meinen Augen auch für fehlende Treiberoptimierung.

Insgesamt aber doch so ziemlich wie erwartet, einzig bei der Effizienz hätte ich einen Vorsprung erwartet/erhofft.

Edit: https://www.phoronix.com/review/rx7900xt-rx7900xtx-linux da sind auch schon die ersten Linux-Benchmarks. Zwar sind da noch keine Adas dabei, aber an vielen Stellen setzt sich die xtx n gutes Stück mehr von der 3090 ab als hier im Schnitt - das spricht in meinen Augen auch für Defizite im Treiber.

Edit2: Interessant finde ich auch, dass die XTX bei der GameStar knapp gegen die 4080 gewinnt.
Danke für den Link, auf der Ebene "Kernel Driver Included" wird sich NVIDIA mit ihrer Treiber Politik niemals bewegen.
 
  • Gefällt mir
Reaktionen: Termy
Taxxor schrieb:
Also erst mal sind dort Dying Light +84% und nicht ~70% und wie soll das mit den hier getesteten 52% hinkommen?
Ja .. mehr oder weniger, zumal hier mit High RT und nicht Ultra RT, wie in diversen Tests, gebencht wurde. Und am Ende kochen alle mit bisschen heißem Wasser. Nvidias Folien sind auch nicht 1:1 sauber. Und wie gesagt ... TREIBER
Taxxor schrieb:
Und die +70% für Cyberpunk wurden für 4K ohne RT genannt
Komm, jetzt stell dich nicht doof. Du weißt genau wie ich, dass dieser schöne Balken nicht bedeutet, dass du durchgehend 1.7x mehr hast. Auf Folie 1 beantwortest du dir deine Frage selber. Dort sind 61% angegeben. In anderen Situationen kann es mehr sein.
 
Zurück
Oben