Test Radeon RX 7900 XTX Customs im Test: Asus, PowerColor, Sapphire & XFX mit Navi 31 im Vergleich

JohnWickzer schrieb:
ganz bestimmt mit Ray Tracing xD eher so 100% langsamer
oc-cyberpunk.png
 
@Loach RT off, steht doch oben^^
Ergänzung ()

Garrus schrieb:
UE5 würde ich hier nicht als Beispiel anführen, denn Epic setzt hier ganz auf Lumen anstatt Raytracing.
Und Lumen nutzt die Raytracing Hardware der Karten, nur wenn die Karten keine haben, wird der langsamere bzw qualitativ schlechtere Software Fallback verwendet.
 
  • Gefällt mir
Reaktionen: Maine und JohnWickzer
Taxxor schrieb:
Das stimmt aber durch RT(unter anderem ) ist ein 7 Jahre älteres Spiel eben doch recht nah ran gekommen und wurde noch mal deutlich aufgewertet im Vergleich zum Original.
Und von dieser Aufwertung hat man mit ner AMD Karte halt fast nichts.

und die ultra+ Settings sind also völlig unerheblich ja?
Und warum sollte man mit einer amd Karte nichts von dieser Aufwertung haben.
Nach dieser Logik hat ja auch jeder mit ner 3090/ti nichts davon. Denn so schnell ist ja eine 7900xtx in RT etwa.
Jeder last gen high end Nvidia Käufer hat also auch nicht das Privileg the Witcher 3 mit rt zu genießen. Denn dieses Leistungsniveau ist halt fundamental nicht mehr zu gebrauchen da es jetzt 2000€ Grakas gibt, die es stemmen können für weniger als 1% der pc Besitzer.
Es stimmt ja auch rt in the Witcher 3 ist auch auf meiner 3080 unbrauchbar.
 
  • Gefällt mir
Reaktionen: Shadow86, Solavidos, Volvo480 und eine weitere Person
Dittsche schrieb:
und die ultra+ Settings sind also völlig unerheblich ja?
Die gab es größtenteils auch vorher schon durch die Mods, die jetzt Bestandteil des Patches waren.
RT ist aber, was die Version wirklich vom Original abgrenzt.

Dittsche schrieb:
Und warum sollte man mit einer amd Karte nichts von dieser Aufwertung haben.
Nach dieser Logik hat ja auch jeder mit ner 3090/ti nichts davon. Denn so schnell ist ja eine 7900xtx in RT etwa.
Jeder last gen high end Nvidia Käufer hat also auch nicht das Privileg the Witcher 3 mit rt zu genießen.
Korrekt, die RT Aufwertung bekommt man höchstens wenn man unterhalb von 1440p(bzw in nativer Auflösung sogar unterhalb von 1080p) bleibt oder auch mit unter 60FPS zufrieden ist.

Eine 3090Ti kommt im Community Bench aber zumindest über die 60FPS in 1440p mit DLSS Q, also gibt es aktuell schon mal mindestens 3 Nvidia Modelle die das schaffen, auf AMD Seite schaffte das bisher keine Karte.
Aber egal wie viele Nvidia Karten der Last Gen es auch nicht können, das ändert ja nichts daran, dass es eben gar keine AMD Karte kann.
 
  • Gefällt mir
Reaktionen: JohnWickzer
TigerherzLXXXVI schrieb:
Aber ich bin der klaren Meinung, wenn Nvidia nicht gerade wieder einmal einen Exklusivdeal abschließt, um seine RTX-Produkte aggressiv zu vermarkten, würde bei vielen Spieleentwicklern nichts gegen eine vergleichbare Technik auf Open-Source-Basis sprechen. Denn jeder Gamer hätte dann etwas davon.
"Vergleichbar" muss dann aber nicht nur das Ergebnis sein, sondern auch der Support, die Dokumentation und sie generelle Nutzbarkeit.
 
Zuletzt bearbeitet:
Miuwa schrieb:
"Vergleichbar" muss dann aber nicht nur das Ergebnis sein, sondern auch der Support, die Dokumentation und sie generelle Nutzbarkeit.
Ich bin kein Programmierer, aber AMD macht auf mich den Eindruck, als ob sie mit Einsatz und Leidenschaft hinter ihrer Technik stehen. Und FSR 2 hat eben auch bei den neusten Spielekonsolen enormes Potenzial, die sie bekanntlich alle auf RDNA2-GPUs setzen. Warum sollte denn allein Nvidia so etwas "Vergleichbares" anbieten können? AMD hat in den letzten Jahren für mich bewiesen, dass sie sowohl Hardware als auch Software sehr gut beherrschen.
 
Taxxor schrieb:
Das stimmt aber durch RT(unter anderem ) ist ein 7 Jahre älteres Spiel eben doch recht nah ran gekommen und wurde noch mal deutlich aufgewertet im Vergleich zum Original.
Und von dieser Aufwertung hat man mit ner AMD Karte halt fast nichts.
Speziell wenn man mal gegen Abend durch Velen reitet, macht das schon was her.

Na das stimmt ja schonmal nicht. Zwischen "Fast nichts" und RT-Ultra (also alle RT Effekte an) mit 40-60FPS UWQHD (Abhängig von RSR/FSR Stufen und Region im Spiel) ist ziemlich viel Platz. Zumal die Frametimes mit Anti-Lag noch ziemlich smooth sind. Ich weiss, es dürfen nur noch >60FPS sein, damit manche ein Spiel überhaupt anrühren. Das ist subjektiv. Aber "fast nichts" ist doch etwas sehr übertrieben.

@TigerherzLXXXVI Du hast schon Recht. Mich stört vor Allem, dass es mit Sicherheit möglich wäre auch aus RT noch ein Stückweit mehr Performance rauszuholen, nur mit der Anpassung von ein paar Reglern.

Hier nur mal als Beispiel:

https://www.computerbase.de/forum/t...ommunity-zum-patch-4-02.2119499/post-27689653

Ich habe das gerade getestet und sehe erstmal keinen Unterschied. Aber sogar wenn es einen geben sollte, die 5-10 FPS ist das immerhin wert. Ich verstehe nicht weshalb Entwickler es nicht schaffen hier noch einen Regler einzubauen.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
TigerherzLXXXVI schrieb:
Ich bin kein Programmierer, aber AMD macht auf mich den Eindruck, als ob sie mit Einsatz und Leidenschaft hinter ihrer Technik stehen. Und FSR 2 hat eben auch bei den neusten Spielekonsolen enormes Potenzial, die sie bekanntlich alle auf RDNA2-GPUs setzen. Warum sollte denn allein Nvidia so etwas "Vergleichbares" anbieten können?
Ich sag ja nicht, dass sie das nicht können - sorry falls das so rüber kam - nur, dass sie es auch machen müssen. Von dem was ich gehört habe ist halt z.B. OpenCL nicht mal ansatzweise eine Alternative zu CUDA obwohl es rein theoretisch vielleicht die gleichen/ähnliche Funktionen bereithält. Ist jetzt natürlich für Spiele eher weniger relevant, aber es ist eben ein Beispiel, dass für Entwickler akzeptanz wesentlich mehr als dass reine Featureset zählt.
 
  • Gefällt mir
Reaktionen: Dittsche
Ich will ja den Entwicklern nicht direkt etwas unterstellen. Aber ist immer wieder erstaunlich wie scheinbar einfache Dinge vergessen werden. Zugunsten einer Firma. (Gibt ja auch Beispiele für das Gegenteil)

In A Plague Tale Requiem (und anderen Titeln auch) durften Modder FSR2.1 einbauen, nachdem es die Entwickler scheinbar nicht konnten. War wohl zu kompliziert.
Jetzt in the Witcher 3 4.0 schafft es ein "modder" mit ini Anpassungen einfach mal 10-20% mehr Leistung rauszuholen. Ja es gibt ganz bestimmt irgendwo einen Qualitätsverlust aber das ist es dann allemal wert. Die Entwickler schaffen es aber nicht einen Regler einzubauen und die User entscheiden zu lassen. Das war dann wieder zu kompliziert oder was? Also ich kanns nicht nachvollziehen.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI und Dittsche
Taxxor schrieb:
@Loach RT off, steht doch oben^^
Ergänzung ()


Und Lumen nutzt die Raytracing Hardware der Karten, nur wenn die Karten keine haben, wird der langsamere bzw qualitativ schlechtere Software Fallback verwendet.
https://www.hardwaretimes.com/unreal-engine-5-lumen-vs-ray-tracing-which-one-is-better/

Nein software rt und multiplatform somit sind Konsolen AMD mitversichert dem die haben kein Hardware RT.

Denke wird ziemlich performant sein auf xtx

Uberlege von der 4090 auf ne xtx zu wechseln... reicht och, so schick erkenne ich RT nicht jedenfalls jetziger game Umsetzung und umfang
 
oldestvisitor schrieb:
Nein software rt und multiplatform somit sind Konsolen AMD mitversichert dem die haben kein Hardware RT.
Natürlich haben die Konsolen Hardware RT.

Aus deinem Link
By default, Lumen uses software ray-tracing (doesn’t utilize RT cores/accelerators)
"RT accelerators" ist das, was RDNA2+3 und somit auch die Konsolen besitzen.

Nur werden diese nicht stark genug sein, um die HW Raytracing Methode von Lumen zu benutzen, aktuelle PCs hingegen schon
 
Sun-Berg schrieb:
Du hast schon Recht. Mich stört vor Allem, dass es mit Sicherheit möglich wäre auch aus RT noch ein Stückweit mehr Performance rauszuholen, nur mit der Anpassung von ein paar Reglern.

Hier nur mal als Beispiel:

https://www.computerbase.de/forum/t...ommunity-zum-patch-4-02.2119499/post-27689653

Ich habe das gerade getestet und sehe erstmal keinen Unterschied. Aber sogar wenn es einen geben sollte, die 5-10 FPS ist das immerhin wert. Ich verstehe nicht weshalb Entwickler es nicht schaffen hier noch einen Regler einzubauen.
So traurig es ist, aber CD Project Red wird es im Falle von Witcher 3 wohl wie bei Cyberpunk 2077 handhaben: Raytracing wird allein für Nvidias RTX-Grafikkarten ins Spiel integriert und es wird überhaupt nicht auf AMD-Hardware Acht gegeben. Solange Spielefirmen sich von einem finanzstarken "Sponsor" (Nvidia) negativ beeinflussen lassen, solange wird es diese Ungerechtigkeit weiterhin geben. Leider.
Ergänzung ()

Im Grunde genommen bräuchte es für alle Radeon-Besitzer genau diesen einen Regler im Grafikmenü, wo sich die RT-Qualität über die ganze Breite von "Niedrig" bis "Ultra" anpassen lässt. Aber wenn wie bereits erwähnt Nvidia seine Finger im Spiel hat, wird diese Möglichkeit in den allermeisten Fällen fehlen. Die einzige Ausnahme ist bisher, wie ebenfalls bereits von mir erwähnt, Metro Exodus EE. Anscheinend hat sich 4A Games hier nicht komplett in ihre Arbeit hineinreden lassen, wofür ich ihnen sehr dankbar bin. Denn sie geben den eindeutigen Beweis, dass bereits RDNA2 über eine grundsolide RT-Performance verfügt.

Übrigens: mit meiner RX 6900 XT erhalte ich im Benchmark von MEEE folgendes Ergebnis:
UWQHD (3440×1440), Grafikpreset Ultra mit Raytracing auf "Normal" + Reflexionen auf "Raytraced" --> 60+ FPS
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Drahminedum, Sun-Berg und Terminator-800
metoer schrieb:
Warum gibt es eigentlich dieses schöne Preis/Leistungs-Diagramm nicht mehr in den aktuellen Tests, weder bei Rdna 3 noch bei Ada Lovelace?
Das fand ich immer sehr nützlich um zu vergleichen zwischen den Klassen.

Ich habe dazu mal was gebastelt, vielleicht nicht so schön wie das Diagramm, aber besser als nix:

WQHD
GPUUVPMarktpreisRasterleistung (%)Raytracingleistung (%)P/L Raster UVPP/L Raytracing UVPP/L Raster MarktpreisP/L Raytracing Marktpreis
40901859195999,799,20,0540,0530,0510,051
40801399134985,582,20,0610,0590,0630,061
7900 XTX1149129982,866,10,0720,0580,0640,051
7900 XT1050101973,958,90,0700,0560,0730,058
3090 Ti1329139270,568,50,0530,0520,0510,049
30901549119967,965,90,0440,0430,0570,055
3080 Ti1089122963,361,70,0580,0570,0520,050
3080 10 GB71983057,956,10,0810,0780,0700,068
6800 XT65063955,841,50,0860,0640,0870,065

Erklärungen und Limitationen:
  • Stand: 27.12.2022, 11:45 Uhr. Wir ihr alle wisst, kann sich das alles immer schnell ändern.
  • das sind Leistungsprozent / Euro
  • Sonderangebote oder Direktverkauf bei AMD habe ich aufgrund der (sehr) eingeschränkten Verfügbarkeit nicht gewertet
  • Grundlage sind die Daten hier von CB aus dem Test der 7900 XT(X)
  • Bei der 3090 ist es daher die TUF OC von Asus, die FE liegt halt 2-3 % darunter
  • bei den Raytracingspielen sind viele dabei, deren RT nicht so anspruchsvoll ist. Nimmt man z.B. nur CP2077 als Grundlage, verschiebt sich das Ganze nochmal massiv in Richtung nVidia
  • kein Anspruch auf Richtigkeit und Vollständigkeit, wenn Fehler auffallen, bitte mitteilen :)

Fazit:
  • Bei Raster ist (von den neuen Karten) die 7900 XT Sieger, 7900 XTX und 4080 liegen gleichauf
  • kommt Raytracing ins Spiel, ist die 4080 deutlich in Führung
  • nimmt man die Vorgängergenerationen mit rein, sind 6800 XT und 3080 10 GB ungeschlagen, vor allem die 6800 XT in Rasterleistung
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: t3chn0, Loach, Chismon und 3 andere
@Maine

Wow danke für die Mühe!

Echt interessant wie gut die alte Generation abschneidet, selbst mit Raytracing. Noch mehr Gründe erstmal nicht aufzurüsten.
 
@Maine

Also so wie ich das interpretiere siehst du bzw. zeigt die Tabelle ,dass die 6800xt P/L all in all (P/L Markpreis Raster und RT zusammen) gemessen am Marktpreis der absolute Burner ist.
Da steht die 4090 mit 49% schlechterem P/L eigentlich gar nicht schlecht da und ich hätte eher mehr erwartet.

Nimmt man als weiteren Faktor den späteren Wiederverkaufswert in 2 Jahren mit in die Rechnung was natürlich extrem schwer ist weil wir nicht in die Zukunft sehen können , dürfte es unterm Strich noch ein wenig besser aussehen, da ich mal davon ausgehen würde ,dass eine 6800xt prozentual mehr einbüssen dürfte in 2 Jahren wenn ich die letzten 3 Gen als Grundlage nehme und noch weitere Karten neuester Gen nachrücken.

Wenn man dann unterm Strich bei 25-30% schlechterem P/L rauskäme finde ich das m.E. eigentlich recht ok dafür dass man in der Zeit ein Topprodukt statt der Langsamsten in der Tabelle aufgeführten Karten nutzen konnte. Für jemanden der in 4k zockt dürfte sich das Ganze nochmals anders darstellen abseits von reinen Zahlen und den Mehrwert in RL schwer widerspiegeln. Aber das ist nur meine Einschätzung und Meinung.

Edit: Zudem berücksichtigt die Tabelle nicht das CPU Limit unter WQHD.

Kurzum: Wie ich schon mehrmals anmerkte finde ich eine Kostenbetrachtung über die Nutzungszeit deutlich sinnvoller. Und da schneiden NV Karten nicht schlechter ab i.d.R. und bieten dabei das bessere Package. Letztendlich sind das genau diese Punkte, die mich als Endverbraucher interessieren und schwierig in so einem Diagramm oder einer Tabelle darstellbar sind und noch schwieriger als Grundlage für eine Diskussion herangezogen werden können, die zwangsläufig daraus entstehen können.
 
Zuletzt bearbeitet:
Tornavida schrieb:
@Maine

Also so wie ich das interpretiere siehst du bzw. zeigt die Tabelle ,dass die 6800xt P/L all in all (P/L Markpreis Raster und RT zusammen) gemessen am Marktpreis der absolute Burner ist.
Da steht die 4090 mit 49% schlechterem P/L eigentlich gar nicht schlecht da und ich hätte eher mehr erwartet.

Nimmt man als weiteren Faktor den späteren Wiederverkaufswert in 2 Jahren mit in die Rechnung was natürlich extrem schwer ist weil wir nicht in die Zukunft sehen können , dürfte es unterm Strich noch ein wenig besser aussehen, da ich mal davon ausgehen würde ,dass eine 6800xt prozentual mehr einbüssen dürfte in 2 Jahren wenn ich die letzten 3 Gen als Grundlage nehme und noch weitere Karten neuester Gen nachrücken.
4K mache ich, wenn ich mal bisschen Zeit habe ;-) Die Grundtabelle ist ja jetzt da (bzw. bei mir in Excel), da ist anpassen dann etwas einfacher. Und ja, die 6800 XT ist P/L-technisch bei Raster nach wie vor absoluter Spitzenreiter, wenn man bei Highendkarten unterwegs ist. Zukunftssicher ist natürlich was anderes, aber mit 16 GB RAM wird die noch ne ganze Weile gut mitspielen, wenn RT keine Rolle spielt.
 
  • Gefällt mir
Reaktionen: metoer
@Tornavida
Ich glaube du ziehst die falschen Schlüsse aus dieser Tabelle, es geht ja eher darum aufzuzeigen wie unverschämt teuer die ganzen neuen Karten sind und das obwohl die letzte Gen von der P/L her schon nicht der Burner war.

Selbst wenn die Leistung/€ gleich bleibt ist das schon grenzwertig meiner Meinung nach, weil du für jeden Frame mehr 1:1 mehr Geld hinlegen musst.
Die Leistung/€ ist aber sogar schlechter geworden, und das deutlich, bei allen bis jetzt erschienen Karten.

Für jemanden der das Beste will und Geld keine Rolle spielt macht eine 6800xt oder 3080 jetzt natürlich wenig Sinn, das ist klar.
 
  • Gefällt mir
Reaktionen: Shadow86
Zurück
Oben