Test Rainbow Six Siege: 29 Grafikkarten & 5 iGPUs von AMD, Nvidia und Intel im Test

Technisch gesehen sind das wertvolle Informationen die man beim GPU-Kauf benötigt, aber realistisch gesehen interessiert es niemanden, der FPS-Shooter halbwegs kompetitiv spielt, ob seine GPU (+CPU-Kombination) die 60 FPS halten kann oder nicht. Ebenso unnötig sind Details in höchster Stufe.
Mich würde in diesem Test (gerne an Stelle der "Klassen" Benchmarks, also die in denen Ihr nach Auflösung und GPU-Klasse unterscheidet) viel mehr interessieren wie die Karten bei realistischen Bedingungen abschneiden.
Zum Beispiel 1920x1080 + niedrige Detailstufe.
 
  • Gefällt mir
Reaktionen: v_ossi
Eine Frage an die Redaktion: Wie viele Testläufe macht ihr eigentlich pro spezifischer Auflösung- und Grafikqualitäts-Einstellung?

(Frage aus dem Grund, weil ich selbst bei mir durch RAM- und GPU-OC etwas mit integrierten Benchmarks von GTA5 und AC:Odyssey durchtesten will und mein Gedanke war, dass ich pro Game drei Durchgänge mache).
 
  • Gefällt mir
Reaktionen: s0UL1, Esenel und Baal Netbeck
En3rg1eR1egel schrieb:
und auch hier fehlt wieder komplett ein abschnitt zum vram verbrauch...

in den letzen test hat sich gerade noch so ein einzelner satz im text dazu verirrt,
hier fehlt das thema gänzlich und vollkommen.
und hier auch essentiel, gerade wenn man das HD Texture Pack aktivert, reichen 6GB nicht mehr aus
 
danyundsahne schrieb:
Was ich richtig krass finde...die V56 vs 1070. Der alte Konkurrent 1070 liegt ja mehr als nur spürbar hinten.

JJJT schrieb:
Erstaunlich, wie die Vega 56 fast mit der 1080 auf einer Höhe liegt.


Die Vega 56 reift eben wie Wein :D
Bin mit meiner Vega 56 ziemlich zufrieden
 
  • Gefällt mir
Reaktionen: Casillas, stolperstein, JJJT und 3 andere
Danke für den Test.
Wollte mir eh mal Siege genauer ansehen.
Die Benchmark Reihe finde ich Top.
 
Porky Pig schrieb:
60 FPS sind eindeutig viel zu wenig

Wenn gleich ich dir generell zustimme (selber endlich 144Hz), finde ich das bei einem solchen Test Quatsch. Der ist für die breite Masse und die spielt mit 60Hz. Auch da sind mehr FPS vermutlich hilfreich, aber das ist eben nicht das, was die meisten Leute interessiert.
 
  • Gefällt mir
Reaktionen: adAstra, Beteigeuze. und v_ossi
OliverL87 schrieb:
Spielt sich dies so viel besser als mit 60 Hz?

JAA
Ergänzung ()

Infect007 schrieb:
Die Vega 56 reift eben wie Wein :D
Bin mit meiner Vega 56 ziemlich zufrieden

geht so. man sieht auch öfters titel wo selbst ne 1660 super die aussticht. Gcn reift momentan eher so medium. man merkt das navi und turing aktuell die zukunft sind
 
  • Gefällt mir
Reaktionen: Der Paule
Auch dieser Test zeigt, dass der 3400G um 34 % schneller ist als die kleine APU (weil gestern einige meinten, der Große würde nicht mehr leisten).
 
Porky Pig schrieb:
mMn viel zu wenig bei einem Competitive Shooter dieser Art.
Sollte man dMn in UHD mit minimalen Settings benchen? Das würde imho ein falsches Bild vermitteln, weil mancher liest ja nicht mal die verwendeten Einstellungen durch und ist dann enttäuscht wenn seine Mittelklasse-Karte eben doch nicht für UHD und moderate Grafik- Settigs ausreicht. Zudem: Wer spielt bitte so? - also in UHD mit minimalen Settings? Benchmarks sollten schon ungefähr die breite Masse abdecken und ich glaube auch kompetitive Shooter werden da, wenn die in UHD gespielt werden, auch eher mit Preset Hoch gespielt. Wer mehr FPS will, verzichtet i.d.R. auf die Auflösung, weil da ist eben viel herauszuholen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Geckoo
pilzsammler2002 schrieb:
Liegt aber auch zum Teil daran weil Siege echt gut 8 Kerne auslastet (sogar beim integrierten Benchmark) :)
Es gibt noch mehr solcher Fälle: z. B. Fortnite +52 %, PUBG und Assasins Creed +30 % für den 3400G. Und es wird weiter zunehmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stolperstein und Iscaran
OliverL87 schrieb:
Mal eine Frage an die 144Hz Monitor Nutzer.
Spielt sich dies so viel besser als mit 60 Hz?
Ich habe am Desktop einen 4K mit 60 Hz und überlege vllt auf WQHD mit 144Hz umzusteigen. Jedoch hätte ich am liebsten 4K mit 144Hz, aber ist mir Momentan zu teuer.
Für mich persönlich befinden sich Welten zwischen einem 60hz und einem 144hz Monitor.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus, Pisaro, DJKno und 2 andere
Patata schrieb:
edit: der integrierte Benchmark ist Müll, der hat bei mir einfach richtig krasse Schwankungen bei den Ergebnissen ausgespuckt, der ist nur dafür zu gebrauchen ob das Spiel 60fps+ auf dem System schafft, aber um Tabellen zu erstellen ist der sinnlos.
Der integrierte Benchmark ist in der Tat Müll.
Die Art wie hier getestet wurde ist allerdings auch nicht die Beste, da das Spiel zu 99% im Inneren der Gebäude mit deutlich höhren Polygoncounts stattfindet. Die CPU wird im Spiel mit all der Zerstörung, den Sound Propagation Berechnungen und all dem Zeug ebenfalls deutlich stärker belastet als zu Spielbeginn in dem Außenareal.
Ich weiß natürlich, dass es in einem Multiplayerspiel verdammt schwer ist konsistente Messläufe durchzuziehen, die sich anschließend auch vergleichen lassen, aber realistisch sind diese hier getesteten Messläufe leider auch nicht.
Es wäre wahrscheinlich besser gewesen mehrere Minuten allein in einem lokalen Spiel zu spielen und dabei einen Testparkur durchzuspielen, der auch Zerstörung und andere Spielaktionen enthält.
Dann hätte der Test bei all den Grafikkarten aber auch deutlich länger gedauert, wenn ein einzelner Lauf immer mehrere Minuten in Anspruch genommen hätte.


OliverL87 schrieb:
Mal eine Frage an die 144Hz Monitor Nutzer.
Spielt sich dies so viel besser als mit 60 Hz?
Ich kann mich noch an die Zeiten erinnern in denen es üblich war Spiele mit 30 fps zu spielen. Da war ich schon immer verwöhnt und konnte Spiele nur in 60 fps ertragen.
Mittlerweile hat sich das bei mir geändert. 60 fps ist bei mir mittlerweile so wie damals die 30 fps. Konstante 100 fps sind bei mir mittlerweile das Minimum. In R6S komme ich mit meiner 1070 GTX auf konstante 110 fps und das ist in Zusammenarbeit mit einem GSync Monitor für mich OK. Viel weniger darf es aber echt nicht mehr sein.

Auflösung ist bei weitem nicht so wichtig wie Bildwiederholfrequenz in meinen Augen. Pro-Gamer zocken sogar oft noch in FullHD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1 und Unnu
pilzsammler2002 schrieb:
Liegt aber auch zum Teil daran weil Siege echt gut 8 Kerne auslastet (sogar beim integrierten Benchmark) :)
Das skaliert ziemlich gut mit der Graka Leistung, sofern du ne Potente CPU hast.
Sieht man gut bei SLI und 9900K@ OC

Hier mal mit 2x2080 bei DX11 1080p@Ultra und Renderskaling auf 100% hochgezogen.

20200221_131521.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel und LuckyMagnum
@ComputerBase: Danke mal wieder für diesen sehr gelungenen Test !

Einzig wäre es schön gewesen hier mal die Unterschiedliche Vulkan/DX11 performance in Zahlen ausgedrückt zu sehen...vor allem für die Karten bei denen es eine UNTERSCHIEDLICHE Zuordnung gibt zu DX11 bzw. Vulkan je nach Test ! (z.B. Polaris-Karten)
 
Laut den Ergebnissen dieses Tests hat die 5600 XT /6GB nichts in der 4K Oberklasse verloren.
Auch im 5600 XT Review wurde 4K nicht getestet, das ist auch nicht AMDs Anspruch für die Karte:


->
1582286480028.png


Anandtech sieht die 1660 / 2060 / 5600XT in der gleichen Klasse (1080p bzw. WQHD):
https://www.anandtech.com/show/15422/the-amd-radeon-rx-5600-xt-review/5

Guru 3D testet alle Karten in allen Klassen. Da sieht für jedes Modell, wo der Anspruch liegt:
https://www.guru3d.com/articles_pages/sapphire_pulse_radeon_rx_5600_xt_6g_review,15.html
 
  • Gefällt mir
Reaktionen: bad_sign
@Wolfgang
Ich hätte noch zwei Ergänzungsvorschläge für die Artikelserie:

1. Da ihr euch eh schon Gedanken darüber macht optimale Einstellungen für die enstprechende Auflösung zu finden, wäre eine Aufschlüsselung weshalb ihr euch für welche Qualitätstufe bei welchem Grafikregler entschieden habt hilfreich.
Besonders interessant wäre also:
Welche Einstellung kostet unverhältnismäßig viel Leistung / wo lässt es sich am besten optimieren?

2. Etwas weniger wichtig, aber doch sicherlich für einige relevant:
Wie agieren denn die schwächsten Vertreter im Test wenn man die Einstellungen auf 720p + alle Qualitätseinstellungen niedrig/aus stellt?
Soll heisen -werden mindestens 30fps mit einer aktuellen Intel HD 630 erreicht, wenn man keinerlei Ansprüche an die Grafik stellt?

Ich kenne viele Leute aus meinem Umfeld die z.B. auf einer LAN bestimmt mal eine Runde mit ihrer Office-Möhre mitspielen würden, dafür aber nicht bereit sind Geld für eine neue Grafikkarte auszugeben. Oder z.B. Schüler die sich schlicht nichts neues leisten können und mit dem daddeln, was sie geschenkt bekommen haben.
Als 14 Jähriger waren mir Grafikeinstellungen damals auch egal. Hauptsache es hat nicht sichtbar geruckelt. (<25fps)
 
  • Gefällt mir
Reaktionen: Unnu und v_ossi
Steini1990 schrieb:
Braucht das Spiel massig Speicherbandbreite? Oder warum sind die Vega Modelle hier so stark?
Das deutet wohl auch auf das Verhalten der R390 ggü. der 580 hin, 512bit vs. 256bit.
 
Ihr macht euch echt nen Aufwand für ein so irrelevantes Spiel :D
 
  • Gefällt mir
Reaktionen: floTTes und zEedY93
Zurück
Oben