Test Grafikkarten 2022 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

Syrato schrieb:
Wir sind für jeden Test dankbar!

Trotzdem muß man aber auch im Auge behalten, daß der Raytracing Vergleich nicht die Leistungsfähigkeit der Karten widerspiegelt....es ist ein Vergleich von den Spielen die CB zusamengestellt hat.

Hier hat die RTX 3070 5% Vorsprung vor der RX 6800.
Nimmt man Spiele die ein wenig mehr RT nutzen (willkürlich zusammengestellt) sind es plötzlich 44% die eine RTX 3070 im Schnitt schneller ist.

Das erinnert mich ein wenig an Linus Tech Tips, als er die Leistungsfähigkeit von RDNA2 mit Blender gezeigt hat. Mit dem Resümee...RDNA2 ist bei längeren Renderings schneller.....Ampere bei den kurzen Renderaufgaben. Wahrscheinlich hat er aus Versehen Optix nicht aktiviert.....also ähnlich wie hier.....wenn ich einer Karte nicht zeigen lasse was sie wirklich kann, sieht man natürlich nur das was einen der Tester sehen lassen will.

Schon meine RTX 2070 super ist schneller als alles was Linus da zeigt und die RTX 3070 legt da nochmal zu
 

Anhänge

  • CB.jpg
    CB.jpg
    110,8 KB · Aufrufe: 204
  • RTX vs RX.jpg
    RTX vs RX.jpg
    1 MB · Aufrufe: 220
  • Blender Linus Tech Tips.PNG
    Blender Linus Tech Tips.PNG
    339 KB · Aufrufe: 205
  • RTX 2070 super.PNG
    RTX 2070 super.PNG
    167,6 KB · Aufrufe: 207
  • RTX 3070.PNG
    RTX 3070.PNG
    165,4 KB · Aufrufe: 214
Zuletzt bearbeitet:
Die RX 580 ist eh Schrott. 512 Bit Speicheranbindung auf der R9 290X hat noch genug Bumms für Full HD. Die paar Freaks die mehr als FullHD spielen, kann man eh vernachlässigen. die prahlen doch eh nur in Foren. In der freien Wildbahn dominiert eh FullHD. :heilig:
 
PegasusHunter schrieb:
In der freien Wildbahn dominiert eh FullHD. :heilig:
Dominieren zwar nicht, ist aber in Verbindung mit der alten GTX 980 ein gleich großer Teil in meiner Spielewelt.
Spaßfaktor ist der selbe.....momentan God of War auf Orginal.

Edit:
Um noch einmal auf den hiesigen Grafikkarten Test zurückzukommen.
Wenn es um die Spielbarkeit geht, sehe ich die Tests von Computerbase als realistischer an. Da werden auch mal unsinnige maxed out Einstellungen zurückgenommen wenn ein Spiel dadurch praktisch unspielbar wird 👍.
So wie es jeder daheim eben auch machen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lamaan
Ziemlich geil wie im Text steht, Nvidia wäre leicht vorne aber in fast allen Graphen AMD besser ist 😁 6900XT 4 win 👌✌🏼️🤪
 
Shoryuken94 schrieb:
Treiberbugs bei den 6000ern
Hab ich was verpasst?
Ergänzung ()

RushSyks schrieb:
@Wolfgang Gibt es einen Grund, warum CP2077 nicht mir RT gestestet wird? Man kann von dem Titel halten, was man will, aber es ist eine der Referenzimplementierungen von Raytracing. Ist so weit ich das beurteilen kann der einzige RT-fähige Titel im Parkour, bei dem RT dann ignoriert wird. Gerade mit Blick auf kommende Karten wäre das ein guter Referenzpunkt, was sich denn so tut.
In Cyberpunk ist RT so implementiert das es auf Nvidia einigermaßen läuft und für AMD quasi nicht zu gebrauchen ist.
Deshalb würde es hier vermutlich.
rausgelassen.
Das wird auch der Grund sein warum es immer noch kein FSR für das Spiel gibt.
Nvidia hat da sein Finger mit drin garantiert.
 
@Fighter1993
Es gibt zumindest Fidelity FX CAS seit Release.

Ansonsten muss gesagt sein, dass Cyberpunk wohl bisher das mit abstand fordernste RT Game ist. (abgesehen von Pathtracing Spielen)

Die RTX 3080 verliert in 1440p mit Full RT in Dying Light 2 41% an performance, während die Karte in Cyberpunk 55% einbüßt.

Die 6800XT verliert in Dying Light 2 64% an Performance und in Cyberpunk 76% an Performance.


In Cyberpunk kostet RT also sowohl auf einer Geforce als auch einer Radeon mehr Leistung, weil einfach mehr bzw. aufwändigere RT Effekte genutzt werden. Ich sehe da jetzt nichts, was sonderlich Nvidia optimiert wäre oder ein Indiz dafür wäre.

Zudem ist nunmal bekannt, dass RDNA2 einzelne RT Effekte ganz gut beschleunigen kann, jedoch eine hohe Bandbreite an Effekten dazu führt, dass die Performance drastisch einbricht, eben stärker als bei Nvidia.

Man kann also für RDNA2 primär dahingehend optimieren, dass man weniger Effekte einsetzt bzw. sehr sparsam mit RT umgeht. Dann ist RDNA2 auch im Vergleich zu Geforce ganz okay. Wenns aber in die "Breite" geht ist RDNA2 massiv im Nachteil.

Das ist doch seit Anfang an bekannt gewesen.
Man sieht ja in DL2 auch auf den Konsolen, dass der RT Mode nur in 1080p mit 30 FPS läuft und dazu noch ohne Global Illumination. Ich denke die Entwickler hätten schon dafür gesorgt, dass RT auf den Konsolen besser läuft, wenn das machbar gewesen wäre, haben sie aber nicht. Ich hoffe, dass qualitätsstufen für die einzelnen Effekte reingepatcht werden und die könnte man dann natürlich auch auf den Konsolen nutzen. Aber das wäre ja auch wieder ein Indiz dafür, dass nicht die Programmierung oder Optimierung für Nvidia schuld an der schlechten Performance ist, sondern einfach nur die hohe RT Last.


Letztendlich wird Cyberpunk in seiner Next-Gen Version ein interessanter Fall, denn dann wird wahrscheinlich Raytracing auf die Konsolen gebracht. Da wird sich dann ja zeigen, ob die Effekte plötzlich nur auf RDNA2 viel besser laufen, weil sie zuvor so stark Nvidia optimiert waren, ob die Konsolen genauso performen, wie das aktuell zu erwarten wäre aufgrund der RDNA2 performance auf dem Desktop oder ob die Effekte generell entschlackt wurden und auf allen Karten schneller laufen werden, weil man z.B. allgemein weniger Rays nutzt.

Was auch immer getan wird, es wird aufschlussreich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife und Fighter1993
Legalev schrieb:
Bin von einer 3080ti auf RX 6900XT gewechselt und äußerst Zufrieden.
RT und DLSS ist bei meinen Spielen eine Randerscheinung und Leistung der 6900XT reicht bei UWQHD aus ohne das ich DLSS benötige.
Dazu der geringere Stromverbrauch und der Treiberaufbau ist wesentlich besser als der Altbackene von Grün.
Gibt Leute die genau das Gegenteil gemacht haben (6900XT zu 3080Ti), die Effizienz und den besseren Treiber aufgaben um für Spiele mit Kinder/Comic Grafik (Kena) in QHD/WQHD (!) DLSS bisschen mehr FPS zu haben. Für mich unverständlich und beknackt. AMDs FSR schreitet auch gut voran und ich sehe keinerlei Gründe solche Wechsel zu machen, zumal meine Nerven und meine Zeit zu schade wären, unverständlich diese Art Downgrade in meinen Augen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lamaan
MegaDriver schrieb:
AMDs FSR schreitet auch gut voran und ich sehe keinerlei Gründe solche Wechsel zu machen, zumal mein Geldbeutel und meine Zeit zu schade wären.

Wurde FSR denn seit Release aktualisiert und verbessert?

Ich frag nur, weil du schreitet gut voran erwähnst.
Meinst du Verbreitung oder Qualität?
Bei DLSS kommt halt etwa jeden Monat ne neue Version raus, aktuell v2.3.7
 
Sowohl als auch.. Ich nutze die Techniken aber nur ungerne, weil ich es nativ in bester Quali will, aber gelegentlich nutze ich dann das im Vanguard integrierte FidelityFX/FSR weil ich im Multiplayer in den oberen Plätzen lande und somit jeden FPS Drop vermeiden will bzw. an der FPS Obergrenze verweilen möchte
 
Fighter1993 schrieb:
Hab ich was verpasst?

Das Problem, dass sich der Vram bei bestimmten Monitorkombinationen nicht heruntertaktet besteht seit Release. Wurde angeblich mal behoben, tritt aber noch immer bei sehr vielen auf. Kann ich auch mit diversen Monitorkombinationen nachvollziehbar nachstellen.

Gleiches gilt für das Enhanced Sync Blackscreen Problem. Und leider gibt es immer wieder mal Spiele, die mit RDNA2 ihre Probleme haben. Aktuell God of War. Das hat man ständig ziemliche Performanceeinbrüche. Wird sogar im aktuellen Treiber bei den bekannten Problemen aufgeführt. Auch Forza Horizon 5 hatte da zumindest am Anfang Probleme mit einer inkonsistenten Performance, Nioh 2 hat das teilweise auch. In so einer Häufigkeit hatte ich das bisher bei keiner anderen GPU Generation erlebt. Wie schwerwiegend man die Probleme sieht, muss jeder selbst wissen. Vieles hängt halt auch mit der Systemkonfiguration zusammen.
 
  • Gefällt mir
Reaktionen: Asghan
Shoryuken94 schrieb:
Das Problem, dass sich der Vram bei bestimmten Monitorkombinationen nicht heruntertaktet besteht seit Release. Wurde angeblich mal behoben, tritt aber noch immer bei sehr vielen auf. Kann ich auch mit diversen Monitorkombinationen nachvollziehbar nachstellen.
Ja ich kannte das Problem seit Vega 56.
Hatte vorher ne GTX 780.
Ich war auch sehr erstaunt als meine 6900XT @144Hz plötzlich auf 8mhz Speichertskt runter getaktet hat.

Ist das im Multi Monitor Betrieb immer noch so das der volle Takt anliegt?
 
@Fighter1993 Ja leider. Zumindest wenn die Monitore eine unterschiedliche Auflösung und Refreshrate haben. Dann liegt der volle 3D Takt beim Speicher. Das Problem hatte ich bei meiner Vega 64 auch, wurde dann irgendwann per Treiber gelöst. War daher umso enttäuschter, dass es mit der neueren 6800XT dann wieder aufgetaucht ist. Ist schon etwas lästig, denn damit verbraucht die Karte im Idle über 40 Watt und der Speicher wird ziemlich warm, wenn man den Standardmäßigen Semi Passiven Mode aktiv hat. Denn der liest nur die GPU Temperatur aus.
 
DaHell63 schrieb:
Trotzdem muß man aber auch im Auge behalten, daß der Raytracing Vergleich nicht die Leistungsfähigkeit der Karten widerspiegelt....es ist ein Vergleich von den Spielen die CB zusamengestellt hat.
Da hast du natürlich recht, aber das gilt ja für jeden Testparcours der Welt - mehr als die Ergebnisse der selbst ausgewählten Spiele und Einstellungen kann dir ja kein anderer Parcours geben :)

Ich weiß zwar worauf du hinaus möchtest und das ist auch nicht von der Hand zu weisen, zeigt schlussendlich dann aber nur die Hälfte der Wahrheit. Du darfst nicht vergessen, dass von den 9 RT-Spielen 5 Spiele mit den maximalen RT-Details getestet werden - mehr geht da nicht. Die Ergebnisse kannst du ja schlecht ignorieren.

Und willkürlich sind die RT-Einstellungen bei den anderen Spielen auch nicht gesetzt. In manchen dieser würden die maximalen RT-Details auch auf einer GeForce keinen Spaß mehr machen, solange man nicht gleich eine 3080 Ti hat. Und in anderen würde die Performance auch auf einer GeForce deutlich sinken, ohne das die Grafik großartig besser aussehen würde.

Ich verstehe völlig, wenn das einen interessiert. Das zeigt der neue Testparcours dann nicht auf. Nur ist das imo derzeit (!) auch nicht sinnvoll bei einem Parcours, der noch mit den Grafikkarten Stand Anfang 2022 und alles was so Mitte 2022 kommen wird befeuert wird. Für Lovelace und RDNA 3 sieht das wie gesagt anders auf. Da ist es dann das Ziel, einen High-End-Parcours auf die Beine zu stellen. Da gibts dann auch deutlich aggressivere RT-Einstellungen.


Kurze Info: Im Laufe der Woche holen wir auch die Benchmarks mit der RTX 3050 nach, da machen wir dann ein Update :)
 
  • Gefällt mir
Reaktionen: Lamaan und Drahminedum
Fresh-D schrieb:
Verkaufe die Vega doch jetzt und hol dir eine 6700/3070. Die Vegas gehen wegen Mining noch für relativ viel Geld weg und verfügbar sind eigentlich alle Karten.

Das bringt garnichts. Die Vega64 geht für 500-600€ weg. Die 6700 ist 30% schneller. Das entspricht dem Aufpreis, denn die günstigste kostet 780€. Dazu brauche ich noch eine Wakü. Ne das lohnt nicht.
 
G3cko schrieb:
Das bringt garnichts. Die Vega64 geht für 500-600€ weg. Die 6700 ist 30% schneller. Das entspricht dem Aufpreis, denn die günstigste kostet 780€. Dazu brauche ich noch eine Wakü. Ne das lohnt nicht.
Gefühlt sind die Preise aber gerade am sinken. Eventuell ist jetzt noch gut verkaufen und den etwas sinkenden Preis mitnehmen die beste Alternative. Wenn die Preise sich normalisieren ist die Vega ja kaum was wert.
 
Wolfgang schrieb:
Da hast du natürlich recht, aber das gilt ja für jeden Testparcours der Welt - mehr als die Ergebnisse der selbst ausgewählten Spiele und Einstellungen kann dir ja kein anderer Parcours geben :)
Das soll jetzt keine generelle Kritik an eurer Spieleauswahl sein. Jeder Tester hat nun mal seinen eigenen Parkour.
Vielmehr stört mich das Fazit das der geneigte User aus Bench XY zieht und stur so weiterberbreitet.
Sollte aber nicht euer Problem sein :D
 
Fighter1993 schrieb:
Ist das im Multi Monitor Betrieb immer noch so das der volle Takt anliegt?
Ja. Ich hab am Displayport nen UWQHD Monitor und am HDMI meinen 4k OLED TV hängen. Nach wie vor taktet der VRAM bei 2000 MHz.
 
Fühlt sich irgendwie gut an :D

Richtige Entscheidung getroffen.:king:

Mein Ergebnis:

1645040496646.png


5950X mit RTX3090:

IMG_2254 (002).png
 
  • Gefällt mir
Reaktionen: MegaDriver und Lamaan
Die 3090 lief auch nicht so wirklich prall. :D Dennoch geiler Score der 6900XT. 👍

dsf435gv5bhvg.jpg
 
  • Gefällt mir
Reaktionen: Aljonator
Danke! Deiner ist aber auch beachtlich! 😁

Scheint, als würde das ganze System bei demjenigen nicht so ganz rund laufen. 😂

Aber ja, ich bin vollstens zufrieden mit der Karte. 😊
 
Zurück
Oben