Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

opoderoso schrieb:
Wenn man sich jetzt den Vorsprung einer 4090 zur XTX ansieht wie soll das bei der nächsten Generation werden? Entweder ruht sich Nvidia aus oder der Abstand ist nicht mehr einzuholen und wird noch größer bis AMD keine Rolle mehr spielt.
Das war doch lange so: 2080ti, 1080ti, 980ti... Alle ohne Konkurrenz, da braucht man nicht mal zu den Titanen schauen.

Da braucht man sich auf AMD-Seite nicht wundern, dass die Kunden das kaufen, wovon sie über Jahre lesen "schnellste Karte kommt von..."

Die 6xxxer waren ein lustiger Schluckauf in der Geschichte der GPUs, weil NV sich komplett verzockt hat mit der billigen aber schlechten Samsungfertigung. Dafür konnten sie liefern und haben die höchsten Gewinne der Unternehmensgeschichte eingefahren - kann man so oder so sehen.
Die NVs hätten in TSMC 7 statt Samsung 8 auch sowas von den Boden gewischt mit den AMD-Karten. So fehlte NV einfach mal 500mhz Takt und bei der Effizienz waren die Nachteile prozentual noch grösser.

Jetzt, wo beide Hersteller die gleichen Möglichkeiten in der Fertigung haben, sieht man, wo sie wirklich stehen vom Chipdesign her. Man sollte bei AMD dringend den Finger aus dem Allerwertesten ziehen.

Bei CPUs ist es ja auch nicht anders - erst mit TSMC 7 hat AMD Intel abgehängt. Das löst sich langsam auf, und mit der nächsten Nodegeneration bei Intel (wenn sie denn funktioniert und nicht wieder 7 Jahre zu spät kommt) kann AMD auch da wieder nur zuschauen, wie früher.
 
  • Gefällt mir
Reaktionen: Uncreative, Ragnarök88, PHuV und eine weitere Person
Bengart schrieb:
Laut Test 300mm² (TSMC N5) + 37mm² (TSMC N6)
ADA nutzt ja TSMC N4, denke schon, das der erheblich teurer ist pro Wafer mm²?
Zumindest wäre das meine Erwartung.
ich denke nicht dass sich N4 hier viel gibt, einfach optimierter, auch eher in der Planung zusammen mit dem Kunden. Bei AMD sind es 6x37mm² die on Top kommen und zusammengepflanzt werden wollen.

Wie gesagt, ich denke AMD will hier die Technik erproben, funktioniert aber auch nur zum Teil weil Nvidia / TSMCs Ausbeute von N5 / N4 schon sehr hoch ist. Ich erwarte wie die Seiten auch keine wirklich gute Verfügbarkeit.
https://www.notebookcheck.net/RX-79...ware-issues-and-shipment-delays.673125.0.html

Denke damit sich das wirklich auszahlt mit dem Multi Chip Design hier muss man mit wenig Einbußen was Performance / Gesamtfläche angeht deutlich mehr leisten als die Konkurrenz, bei weniger kosten.
Wenn man von einem Konstrukt ausgeht bei der AMD 2x300mm² als Haupt Die kombiniert, und dabei dann durch die hohe Fläche, niedrigerem Takt, ggf deutlich mehr leistet als eine 380mm² RTX 4080 -> dann ist es ein Success.
 
Bengart schrieb:
Dann her mit den Quellen. Chiplet mache ich nur, wenn ich mir einen Vorteil erhoffe. Bessere Ausbeute etc. Wäre cool, wenn du mal was teilen könntest.

Man könnte es auch umdrehen mit der Beweislast.

Da keiner die Verträge mit TSMC kennt ist es eben nur Spekulation.

Es ist doch wirklich einfach:

N31 bei der 7900XTX -> 350mm² GCD auf 5nm + 6 x 37,5 auf 7nm + Packing (und nein...das ist nicht unerheblich)

AD 103 -> 370mm² auf 5nm

Ich wette drauf, dass nVidia günstiger pro Chip ist.

Chiplet -> nach wie vor glaube ich, dass AMD das "Prinzip" Hoffnung hat ein Prinzipielles Problem beim MCM mit GPUs zu lösen -> wie kriege ich zwischen den GCD einen ausreichend schnellen Interconnect hin, der bezahlbar ist und mir nicht andere elektrische oder thermische Probleme einhandelt. Das Problem hier ist auch fundamental anders als bei CPUs. Kann ich gerne ausführen.

Bei den MI2xx ist es ja nicht so schlimm, da man dort eher individuelle Software laufen lässt mit bestimmten Charakteristiken wie eben, dass z. B. abhängige Operationen auf einen GCD bündelt. Das kann man bei Computerspielen oder eben KI - Anwendungen vergessen. Dazu ist es eben bei der MI2XX nicht schlimm wenn sich die GCD einzeln verhalten gegenüber dem OS. Das kann man aber eben bei Spielen etc. vergessen.
 
  • Gefällt mir
Reaktionen: rwp und Ernie75
schM0ggi schrieb:
Und nein, 20-30 Prozentpunkte sind es nicht, das sind haarsträubende und falsche Werte sonst woher.
Es sind die offiziellen Folien von AMD, die ich dir gepostet habe und die eine 50-60%ige Steigerung ggü der 6950XT besagen.

Wieviele Prozentpunkte liegen nun zwischen AMDs 50-60% und CBs 35% oder meinetwegen auch PCGHs 38%?

Das gleiche für die spezifischen Beispiele: Dying Light 2 4K Nativ mit RT kommt mit einer 6950XT laut AMD auf 12FPS, mit einer 7900XTX auf 24FPS -> +100%

Im Test von CB sind es +52%, 48 Prozentpunkte Unterschied, bei PCGH immerhin 70%, immer noch 30 Prozentpunkte Unterschied.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88
pipip schrieb:
Die Memory Chips werden mindestens für zwei GPU Varianten gefertigt. Navi 31 und 32. All dass drückt die Preise.
macht natürlich Sinn wenn die Konkurrenz gar keinen Memory Chip braucht ;)
Der Ansatz wird in diese Richtung gehen, keine Frage, aber noch geht es weder kosten noch leistungstechnisch auf. Das kann ich dir garantieren. Ich denke auch nicht dass AMD bei noch kleineren Die auf MCM setzen wird, es wird auch da einen Single Chip geben. Wieso? Weil wirtschaftlicher.

Wer weiß, vielleicht sehen wir ja noch eine 7950 XTX mit irgend einem unbekannten 600mm² Chip und denselben Memory Modulen oder eben den 2x300mm² - dann kommen wir eher in den interessanten Bereich.
 
Die Entscheidung für Chiplet hat trotz aller Befürchtungen zu einer passablen Grafikkarte geführt.
Hätten sie Team Grün mit einem Monolithen dichter auf die Pelle rücken können? Sicher!
Aber ähnlich wie die RT-Leistung erst vernachlässigt wurde - was jetzt weh tut - könnte sich das neue Chiplet- Design in Gen 2 oder 3 soweit bewährt haben, dass es dank der dem Design innewohnenden Skalierbarkeit zu einen Kronwechsel kommt.
 
  • Gefällt mir
Reaktionen: Tr0nism und Benji18
Ragnarök88 schrieb:
8K Monitore, wenn Raytracing gerade mal mit 60 FPS in 4 K flüssig läuft?
Erstens Strawmannest du mich extrem, wenn du irgendwie ne kleine Randbemerkung hier als mein Hauptargument auf spielst, aber stell dir vor es soll Leute geben die spielen 4k ohne RT und wuerden auch 8k ohne RT 4k mit RT bevorzugen. Genauso wie Heute Leute 4k ohne RT lieber spielen als 1440p mit RT.

Ragnarök88 schrieb:
Ich glaube du greifst hier nach irgendwelchen Strohhalmen, wie Wundertreiber, 8K (4xUHD) weil AMD das als einzigen Vorteil hinsichtlich der Anschlüsse bietet.
Strawman hoch 10, nur weil ich dein absurdes Argument das in 5 Jahren der Ram noch reichen wuerde, der ungefaehr genauso bescheuert ist wie 8kb ram oder was war das zu dos zeiten wuerde ewig reichen... mich darueber ein wenig lustig gemacht hab, es ist natuerlich voellig egal wie gut die Karten in 5 Jahren sind, du hast gemeint sie 16gb waere in 5 jahren noch super toll... jetzt willst du mir deine absurde Aussage in den Mund legen.

Ragnarök88 schrieb:
Richtig und mit 16GB hat man noch ein Recht fettes Polster. Das entspricht etwa 18 GB bei AMD Karten.
Fuer gemoddetes Skyrim reichts heute schon nicht mehr und was heute bei Skyrim mit Modding gemacht wird ist in 2 Jahren spätestens in AAA Games Standard auf Ultra Settings vermutlich deutlich früher.

Wenn viele Leute >20gb haben wieso sollten dann die Spielehersteller nicht fuer PC Ultra Texturen anbieten die mehr wie 16gb voll machen? Wenn das Modder für Skyrim machen können? Dazu kommt noch VR da bist schnell über 4k. Und das ganze ganz ohne VR, denk dir noch nur leichtes RT dazu kein Extremes wo die AMD schnell genug ist aber der Nvidia der VRAM dann aus geht... ich brauch da nicht viel fantasie bzw selbst im Test zieht die Radeon ja schon vereinzelt an der 4080 vorbei MIT rt.

Btw wenn dieses Nvidia Speicher-kompression so super toll läuft (du glaubst wohl auch alles der Nvidia Marketingabteilung völlig unkritisch) wieso ging dann dem RT 4080 Mensch der Speicher mit gemoddetem Skyrim aus, und es fing an zu ruckeln?

https://www.reddit.com/r/skyrimmods/comments/zjh0cs/skyrim_modsvram/
 
HAse_ONE schrieb:
Stimme ich absolut zu.
Von günstig zu sprechen bei Preisen jenseits der 1000€ ist absolut unverschämt.
500-600€ dürfte meiner Meinung in der heutigen Zeit eine spitzen Graka kosten, mehr nicht !

Wenn das so weiter geht, habe ich mit meiner 3080 noch locker 3-5 Jahre Spass ( ich habe sie bereits 2 Jahre ) und kaufe mir dann eine "Einsteiger Graka für 300€
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: cbmik
Legalev schrieb:
bei dem Preis bestimmt alles richtig gemacht....
Ja, da bin ich mir sogar ziemlich sicher, das ist nur eine Frage des Blickpunktes... (Ironie Off)
 
Krautmaster schrieb:
macht natürlich Sinn wenn die Konkurrenz gar keinen Memory Chip braucht ;)
Verstehe ich nicht, weil der L2 Cache und und das Si ca 30% der Chipfläche ausmacht plus GDDRX6 verwendet, der bei "nicht" brauchen wieso verwendet wird ? 😜

@Krautmaster
 
blackiwid schrieb:
Hier z.B. ende 2018 war die gtx 1060 noch ungefähr gleich auf mit der rx590:
Die 590 ist 10% schneller, das ist dann nicht mehr "ungefähr gleich auf".
blackiwid schrieb:
Ein Jahr später liegt die Karte dann selbst bei Fullhd 30% hinter der 590:
Da steht dann genau wo das es am RAM liegt? Wobei du hoffentlich deinen Fehler selbst siehst: Dein erster Benchmark ist ein overall Benchmark, so wie es sein soll. Dein zweiter Benchmark handelt um EIN Spiel, nichts mit overall.

Ich mache das jetzt auch mal wie du, nur mit der aktuellen 7900XTX:
"Der RAM einer 4080 ist viel zu wenig, denn um 15 Uhr war die 4080 noch gleich auf mit einer 7900XTX https://www.computerbase.de/artikel...nitt_benchmarks_mit_und_ohne_rt_in_3840__2160
Scroll mal runter und guck dir Call of Duty Vanguard an, da ist die 7900XTX dann 19% schneller! Muss am RAM liegen!"

Ich hoffe du erkennst jetzt das dein Vergleich völliger Schwachsinn war.

Im übrigen sieht man schon in deinem erstem Link das AMD Karten in Call of Duty generell besser laufen.

Den Post hättest du dir sparen können, denn das was du da gemacht hast ergibt keinen Sinn.

Sinn hätte es ergeben wenn du deinen ersten Link gebracht hättest und dann den hier: https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/#abschnitt_empfehlungen_fuer_full_hd
 
Tja, ich würde sagen ganz Nett die neuen AMD Grafikkarten, aber das komplett Paket der RTX 4080 gegenüber der RX 7900XTX ist dann doch besser und wegen 100 oder 150 Euro günstiger bei AMD und wir reden hier noch nicht von den Custom Modellen, wird man keine Nvidia Käuferschicht in dem Segment gewinnen oder überzeugen können, ins rote Lager zu wechseln.

Für mich persönlich sind auch die neuen AMD Grafikkarten viel zu teuer, das wird auch AMD schon recht bald merken und wie schon bei den neuen Ryzen CPU's den Preis nach unten korrigieren, will man überhaupt etwas verkaufen.
 
  • Gefällt mir
Reaktionen: Eidgenosse und Nefcairon
Legalev schrieb:
mit welchen Treiber für die 7900x ?
der Mehrpreis einer 4080 sind ungefähr 500 Std Youtube.
Muss auch in Relation sehen

Es geht nicht um Kosten, sondern um vernunftbegabtes Handeln. Was zählt ist der erste Eindruck, denn der bleibt in den Köpfen hängen. Wie kann ein Hersteller nur wissentlich (alles andere wäre eine Überraschung) seinen Produkten einen fehlerbehafteten Treiber zum Release zur Seite stellen, die seine Produkte direkt ins Aus katapultieren? Das können die AMD Fritzen doch niemandem erzählen, dass das bei internen Test nie aufgefallen ist.
 
  • Gefällt mir
Reaktionen: ComputerJunge und Uncreative
schM0ggi schrieb:
Amds neue Karten als unfertig zu bezeichnen ist einfach nicht ernst zu nehmen.
Als was soll man sie denn sonst bezeichen?
Die Dual-Issue CUs kommen überhaupt nicht in Fahrt, da werden noch Monate/Jahre an Arbeit drin stecken, diese Architektur so zu optimieren, damit das ordentlich funktioniert.
Das gleiche Problem hatte damals Vega, mit ihren ganzen neuen Features, die nie angekommen sind.

Man sieht es ja hier im IPC Test, bei gleichem Takt ist RDNA3 gerade mal 9% schneller als RDNA2.
Ja, das ist unfertig, weil einfach 90% der theoretischen Mehrleistung hauptsächlich aufgrund fehlender Softwareunterstützung brach liegt.
 
  • Gefällt mir
Reaktionen: Innocience, Uncreative, Benji18 und 2 andere
Bengart schrieb:
Wir haben aber auch einen anderen Preis. Um das nochmal klar zu stellen. Keiner, außer ein paar Fans, braucht mehr Leistung zu noch mehr Geld. Wir, der ganz ganz große Kundenanteil, braucht einfach ein besseres P/L Verhältnis. Da ist es total egal, ob eine Grafikkarte 10% mehr oder weniger Leistung hat. Es ist auch total unerheblich ob die 7900 jetzt schneller oder langsamer ist. Es gibt kein verdammtes Gesetz, in dem von Konkurrenten immer jeweils gleich schnelle Karten heraus gegeben werden muss. Das Zeug muss einfach günstiger und verfügbarer werden. Ich häng hier immer noch auf einer RX580 rum, da ich nicht nur mehr Leistung sondern auch mehr Leistung zu einem besseren P/L Verhältnis haben möchte. Das will jeder, außer halt die paar Fans von ultrageilen Karten. Die sollen doch die 4090 kaufen und glücklich sein. Mir wurscht. Aber wenn das heißt, das nichts aber auch gar nichts mit einem gescheiten P/L nachkommt ist das für mich kacke.
Kann ich irgendwo verstehen, dann auch wieder nicht....

Wenn Du noch auf so einer uralten Karte rumgeierst, warum hast Du Dir nicht längst über den 2nd Hand Markt eine 6800XT für 450€ geholt? Die ist fast 3x so schnell wie Deine Karte..
 
Gemessen an den aktuellen Preisen nach Geizhals und den angegebenen UVP für die neuen AMD Karten entsteht gemäß CB Rasterizer Benchmark (UHD, AVG FPS) folgender Performance / € Diagramm:

1670874063089.png



Die 6800 XT hat hier nach wie vor die Krone. Die 4090 war zum Release stets letzter Platz, hat jetzt allerdings etwas aufgeholt. Rein auf den Anschaffungspreis bezogen bedeutet das Diagramm:

Mit der 6800 XT bekommt man das meiste für das Geld, die 7900 XTX käme, sofern nicht über UVP, dann als nächster dran. Bezieht sich allerdings nur auf das Performancerating ohne RT und in UHD.
 
  • Gefällt mir
Reaktionen: martin176, _Cassini_, Ragnarök88 und 3 andere
blackiwid schrieb:
Das find ich immer witzig ich bring einen Beleg
Du hast KEINEN Beleg gebracht. Overall Benchmark vs. Cherry Picking Benchmark. Du bist seit 2006 dabei und weißt immer noch nicht wie man GPUs gegenüberstellt?
 
Gerithos schrieb:
Do vergeigt ist es ja nicht, bis auf CB sind alle sehr angetan, sogar Igor.
Igor sieht die 4080 um 0,1% in 4K vorne, reine Rasterleistung. Die AMD Karte ist einfach nicht schneller, das wird man spätestens dann in der 3DC Metaanalyse sehen.
 
Schade, nichts, was Nvidia dazu bewegen könnte, den Preis für die 4080 zu senken.
 
  • Gefällt mir
Reaktionen: Lübke82 und scheru
Zurück
Oben