Guardians of the Galaxy im Test: Benchmarks mit und ohne RT in Full HD, WQHD & UHD sowie Frametimes

 3/4
Wolfgang Andermahr (+1)
231 Kommentare

Das Testsystem und die Benchmark-Szene

Alle Benchmarks wurden auf einem AMD Ryzen 9 5950X (Test) durchgeführt, der mit den Standardeinstellungen betrieben wurde. Als Mainboard war das Asus ROG Strix B550-E Gaming (BIOS 1801) mit dem B550-Chipsatz verbaut, Grafikkarten konnten entsprechend mit PCIe 4.0 angesteuert werden. Die CPU wurde von einem Noctua NH-D15S mit zentral installiertem 140-mm-Lüfter gekühlt. 32 GB Speicher (4 × 8 GB, Single-Rank, DDR4-3600, 16-16-16-32, optimierte Sekundär-Timings für die GPU-Benchmarks, Hersteller-Empfehlung für die CPU-Benchmarks) standen dem Prozessor zur Verfügung. Windows 10 21H1 mit sämtlichen Updates war auf einer NVMe-M.2-SSD mit PCIe 4.0 installiert. Dasselbe galt für das Spiel. Resizable BAR wurde auf unterstützten Grafikkarten sowohl bei AMD als auch bei Nvidia genutzt.

Als Treiber kam der Adrenalin 21.10.3 bzw. der GeForce 496.13 zum Einsatz. Der Treiber von AMD war für das Spiel optimiert, der Treiber von Nvidia nicht.

Die 25 Sekunden lange Testsequenz findet im dritten Abschnitt der Kampagne statt und zeigt einen Fußmarsch bei schlechtem Wetter über eine dicht mit Vegetation bewachsene Welt. Auch wenn die Testsequenz im Vergleich zu anderen Abschnitten des Spiels optisch eher öde wirkt, belastet sie die Grafikkarte intensiv. Meistens läuft GotG sowohl ohne als auch mit Raytracing schneller.

Für die Auflösungen 1.920 × 1.080, 2.560 × 1.440 und 3.840 × 2.160 werden mit dem Ultra-Preset die maximalen Grafikdetails genutzt. Raytracing und DLSS sind nur in entsprechend gekennzeichneten Benchmarks aktiviert. Für den Leistungsvergleich mit aktiviertem Raytracing sind die Raytracing-Reflexionen auf „Hoch“ gestellt und die transparenten RT-Reflexionen eingeschaltet.

Auflösung Grafikdetails
1.920 × 1.080 Ultra-Preset, bei RT-Benchmarks zusätzlich RT Hoch + Transparent-RT
2.560 × 1.440 Ultra-Preset, bei RT-Benchmarks zusätzlich RT Hoch + Transparent-RT
3.840 × 2.160 Ultra-Preset, bei RT-Benchmarks zusätzlich RT Hoch + Transparent-RT

Benchmarks in Full HD, WQHD und Ultra HD

60 FPS und mehr sind in Marvel's Guardians of the Galaxy selbst bei vollen Grafikdetails in 1.920 × 1.080 kein Hexenwerk, solange auf Raytracing verzichtet wird. Die alten Einsteiger-Modelle wie Radeon RX 580 und GeForce GTX 1060 erreichen die Marke zwar nicht, schon mit einer Radeon RX Vega 56, Radeon RX 5600 XT, GeForce GTX 1080 oder GeForce RTX 2060 sind aber wiederum teils nochmals deutlich höhere Frameraten möglich. Für 2.560 × 1.440 muss es dann eine Radeon RX 5700, Radeon RX 6600, GeForce RTX 2060 Super oder GeForce RTX 3060 sein. Erst ab 3.840 × 2.160 steigen die Anforderungen deutlich an. Dann gibt es mindestens 60 Bilder pro Sekunde ab einer Radeon RX 6800 oder GeForce RTX 3080.

Auffällig bei den Benchmarks ist neben dem störenden 144-FPS-Limit des Spiels das deutlich schlechtere Abschneiden der Radeon-Grafikkarten bei den Perzentil-FPS in Full HD. Ab 105 FPS rennen die Radeons in ein Limit, das auf den GeForce-Grafikkarten offenbar erst bei 127 FPS auftritt. Dort haben die GeForce-Vertreter einen Vorteil. Ab WQHD verschwindet das Problem dann, wobei Nvidia-GPUs bei den Perzentil-FPS besser als bei den Durchschnitts-FPS abschneidet.

Denn bei den AVG-FPS haben Radeon-Grafikkarten die Nase teils deutlich vor den Konkurrenzmodellen in Guardians of the Galaxy. Die Radeon RX 6800 XT ist in Ultra HD 9 Prozent schneller als die GeForce RTX 3080 und legt sich gleich mit der GeForce RTX 3080 Ti an. Die Radeon RX 6700 XT liegt in WQHD derweil nicht nur 16 Prozent vor der GeForce RTX 3060 Ti, sondern auch 5 Prozent vor der GeForce RTX 3070, während die GeForce RX 6600 XT in Full HD 10 Prozent mehr FPS als die GeForce RTX 3060 liefert. Abgesehen vom kleinsten Duell schneiden die anderen Radeon-Grafikkarten damit durchweg besser als im AAA-Spieleschnitt ab.

Marvel's Guardians of the Galaxy
Marvel's Guardians of the Galaxy – 1.920 × 1.080
  • FPS, Durchschnitt:
    • AMD Radeon RX 6900 XT
      144,0
    • AMD Radeon RX 6800 XT
      144,0
    • Nvidia GeForce RTX 3080 Ti FE
      144,0
    • Nvidia GeForce RTX 3080 FE
      144,0
    • AMD Radeon RX 6800
      141,6
    • Nvidia GeForce RTX 3070 FE
      129,4
    • AMD Radeon RX 6700 XT
      124,7
    • Nvidia GeForce RTX 3060 Ti FE
      116,9
    • Nvidia RTX 2070 Super FE
      101,2
    • AMD Radeon RX 6600 XT
      98,4
    • AMD Radeon RX 5700 XT
      91,4
    • Nvidia GeForce RTX 3060
      89,5
    • AMD Radeon RX 6600
      86,6
    • AMD Radeon RX Vega 64
      77,6
    • Nvidia GeForce RTX 2060 FE
      76,2
    • AMD Radeon RX 5600 XT
      75,5
    • Nvidia GeForce GTX 1080 FE
      66,7
    • AMD Radeon RX 580
      45,2
    • Nvidia GeForce GTX 1060 FE
      39,9
  • FPS, 0,2% Perzentil:
    • Nvidia GeForce RTX 3080 Ti FE
      127,2
    • Nvidia GeForce RTX 3080 FE
      127,0
    • Nvidia GeForce RTX 3070 FE
      106,4
    • AMD Radeon RX 6900 XT
      105,6
    • AMD Radeon RX 6800 XT
      105,0
    • Nvidia GeForce RTX 3060 Ti FE
      98,2
    • AMD Radeon RX 6800
      92,3
    • AMD Radeon RX 6700 XT
      85,6
    • Nvidia RTX 2070 Super FE
      83,5
    • Nvidia GeForce RTX 3060
      75,7
    • AMD Radeon RX 6600 XT
      74,1
    • AMD Radeon RX 5700 XT
      66,2
    • AMD Radeon RX 6600
      64,9
    • Nvidia GeForce RTX 2060 FE
      64,7
    • AMD Radeon RX Vega 64
      60,2
    • AMD Radeon RX 5600 XT
      58,0
    • Nvidia GeForce GTX 1080 FE
      57,5
    • AMD Radeon RX 580
      37,7
    • Nvidia GeForce GTX 1060 FE
      34,5
Einheit: Bilder pro Sekunde (FPS)

RDNA 2, GCN und Turing sind die Gewinner

Im Generationenvergleich zeigt sich, dass RDNA 2 gut in dem Superhelden-Spiel unterwegs ist. Die Radeon RX 6800 XT ist in WQHD 94 Prozent schneller als die Radeon RX 5700 XT, gewöhnlich sind es etwas geringere 87 Prozent. Das originale RDNA-Design schneidet dagegen nicht so gut ab. Die Radeon RX 5700 XT kann sich nur um 19 Prozent von der Radeon RX Vega 64 absetzen, 27 Prozent sind es normalerweise. Das liegt aber weniger an einem schwachen RDNA, sondern vielmehr an einem starken Abschneiden der gesamten GCN-Riege. So liegen Radeon RX 580 und Radeon RX Vega 64 auch klar vor GeForce GTX 1060 und GeForce GTX 1080.

Im Hause Nvidia kommen die Ampere-Produkte nicht ganz so gut in Fahrt wie die aktuellen Konkurrenzmodelle bei AMD. Die GeForce RTX 3080 ist nur 66 Prozent schneller als die GeForce RTX 2070 Super, in AAA-Spielen sind es sonst 74 Prozent. Einen deutlichen Sieg kann dagegen die Turing- gegenüber der Pascal-Generation einfahren, denn letztere kommt mit dem Spiel nicht gut zurecht. Die GeForce RTX 2070 Super ist 49 Prozent flotter als die GeForce GTX 1080, in anderen Spielen sind es sonst nur 34 Prozent.

Benchmarks in Full HD, WQHD und Ultra HD mit Raytracing

Wird Raytracing aktiviert, ist es deutlich schwieriger, die 60-FPS-Marke zu erreichen, wobei dies in Full HD noch den meisten Kandidaten gelingt. Ab einer Radeon RX 6600 XT, GeForce RTX 2060 Super oder GeForce RTX 3060 wird das Ziel erreicht, damit fallen nur die Radeon RX 6600 und die GeForce RTX 2060 unten durch. In WQHD gibt es dann deutlich mehr Ausschuss, dafür sollte es eine Radeon RX 6800, GeForce RTX 2080 Super oder GeForce RTX 3060 Ti sein. In Ultra HD ist die GeForce RTX 3080 Ti die einzige Grafikkarte, die das Ziel erfüllt. In der hohen Auflösung ist es ratsam, schlicht die Renderauflösung auf 80 bis 90 Prozent zu reduzieren. Dann ist „Ultra HD“ auch mit einer Radeon RX 6800 XT und GeForce RTX 3080 gut spielbar und sieht deutlich besser als mit WQHD aus.

Mit Raytracing sind Nvidia-Grafikkarten durchgängig ein gutes Stück schneller als die AMD-Pendants. In WQHD liegt die GeForce RTX 3080 22 Prozent vor der Radeon RX 6800 XT, in Ultra HD sind es 25 Prozent. Dabei ist das eigentlich ein gutes Ergebnis für AMD, denn die GeForce RTX 3080 ist bei aktivierten Strahlen im Langzeitschnitt 47 Prozent schneller unterwegs. Bei höheren Raytracing-Stufen wird der Abstand auch entsprechend größer, doch ist der hohe Leistungsverlust in Anbetracht der geringen Verbesserungen der Reflexionen einfach nicht lohnenswert – auch auf einer GeForce nicht.

Marvel's Guardians of the Galaxy
Marvel's Guardians of the Galaxy – 1.920 × 1.080, Raytracing Hoch + Transparenz
  • FPS, Durchschnitt:
    • Nvidia GeForce RTX 3080 Ti FE
      142,2
    • Nvidia GeForce RTX 3080 FE
      135,8
    • AMD Radeon RX 6900 XT
      113,7
    • Nvidia GeForce RTX 3070 FE
      106,1
    • AMD Radeon RX 6800 XT
      105,6
    • Nvidia GeForce RTX 3060 Ti FE
      94,2
    • AMD Radeon RX 6800
      91,7
    • AMD Radeon RX 6700 XT
      78,5
    • Nvidia RTX 2070 Super FE
      76,5
    • Nvidia GeForce RTX 3060
      71,7
    • AMD Radeon RX 6600 XT
      61,5
    • Nvidia GeForce RTX 2060 FE
      56,7
    • AMD Radeon RX 6600
      54,3
  • FPS, 0,2% Perzentil:
    • Nvidia GeForce RTX 3080 Ti FE
      117,8
    • Nvidia GeForce RTX 3080 FE
      113,1
    • Nvidia GeForce RTX 3070 FE
      90,9
    • AMD Radeon RX 6900 XT
      87,7
    • AMD Radeon RX 6800 XT
      84,5
    • Nvidia GeForce RTX 3060 Ti FE
      80,5
    • AMD Radeon RX 6800
      74,8
    • Nvidia RTX 2070 Super FE
      66,5
    • Nvidia GeForce RTX 3060
      63,2
    • AMD Radeon RX 6700 XT
      59,6
    • AMD Radeon RX 6600 XT
      50,9
    • Nvidia GeForce RTX 2060 FE
      50,0
    • AMD Radeon RX 6600
      44,0
Einheit: Bilder pro Sekunde (FPS)

Bei aktiviertem Raytracing haben GeForce-Grafikkarten im Vergleich zu den Durchschnitts-FPS ebenfalls die besseren Perzentil-FPS als die Radeon-Beschleuniger. Dabei handelt es sich um ein Problem bei den Radeon-Grafikkarten, da der Abstand immer geringer wird, je höher die Auflösung geschraubt wird. Eigentlich müsste der Abstand aber immer größer werden, sodass hier von einem Problem auszugehen ist.

Gute, aber unterschiedliche Frameraten

Marvel's Guardians of the Galaxy zeigt im Test auf jeder Grafikkarte gute Frametimes, die bei einer ausreichend hohen Framerate ein gutes Spielgefühl vermitteln. Dennoch schneiden AMD- und Nvidia-Grafikkarten in dieser Messreihe nicht gleich ab. So zeigt die GeForce RTX 3080 in WQHD nur richtig kleine Abweichungen bei der Bildausgabe – man kann fast schon von einer geraden Linie reden.

Die Radeon RX 6800 XT hat dagegen mit einem deutlich größeren Auf und Ab zu kämpfen. Das Verhalten stellt kein Problem dar, da es selbst keinen einzigen mittelgroßen Ausreißer gibt und sie allesamt klein sind. Dennoch ist die Bildausgabe unruhiger als auf einer Nvidia-GPU, das sollte entsprechend mittels Treiber oder Patch verbessert werden. Praktische Auswirkungen hat das Verhalten nur bei niedrigen Frameraten, dann fühlt sich GotG aber generell nicht mehr gut an.

Marvel's Guardians of the Galaxy – Frametimes, 2.560 × 1.440
048121620Millisekunden 012345678910111213141516171819202122232425Sekunden

Ob Raytracing ein- oder ausgeschaltet ist, hat auf die Frametimes in dem Superhelden-Spiel absolut keine Auswirkungen. Die Abstände zwischen den Bildern bleiben auf demselben Niveau, es brauchen schlicht nur alle Frames generell länger. Die Unterschiede zwischen einer Radeon und einer GeForce bleiben bestehen.