Test Red Dead Redemption 2 im Test: Opulentes PC-Spiel, dessen Technik begeistert und nervt

Status
Für weitere Antworten geschlossen.
@Laphonso
Das ist doch reflexartig bei jedem neuen Grafikkracher immer das gleiche.

Binnen Minuten kriechen die ersten aus den Löchern, die die Grafik zu Unrecht mit irgendwelchen ollen Kamellen vergleichen und meinen, dass es dies oder das in alter Form auch schon gab und so weiter und so fort.

Keine Ahnung, woher das kommt. Vielleicht eine "Verklärung" durch die ursprüngliche Faszination.
Macht man dann jedoch Screenshot vergleiche, so stellt man in 100% der Fälle fest, dass die Grafikqualität dann doch meilenweite Unterschiede zeigt.

Zum Ressourcenhunger: Letztenendes kriegt ja keiner so richtig mit, was berechnet wird und mit welchem Detail und welchem Aufwand.
Daran hängt es aber, ob man sagen kann, dass das Spiel zu viele Ressourcen verbraucht.

Wenn das Spiel so weit geht, dass man in einem KM Entfernung auch noch ein par Hasen auf dem Feld hoppeln sehen kann und auch andere Dinge "natürlich" simuliert werden, dann ist das einfach so Leistungshungrig.

Und auch wenn mans auf dem Ersten Blick nicht glauben mag. Es sind die vielen kleinen Dinge, die der Welt ein "Gefühl von Glaubwürdigkeit verleihen".
Es sind aber gerade auch die letzten 10% an Grafikqualität, die unverhältnismäßig Leistung schlucken.

Hier wurde das Spiel ja schon mit Skyrim/Witcher 3 verglichen. Leute- So sah das aus:
1573723517908.png


Witcher 3
1573723644827.png


Für damalige Zeiten top- aussehende Titel. Aber mal ehrlich...

Schaut Euch doch die Screenshots von Laphonso mal an.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwirbelkatz, FSKCypher, linuxxer und 5 andere
KuroSamurai117 schrieb:
Da gab es auch noch keine reinen Dx12/Vulkan Games. Pascal ist halt immer noch eher auf DX11 optimiert.
Gegensatz zu Maxwell verliert man nur halt keine Leistung aber profitiert außerhalb CPU Limits nicht von neuen API. Da legt nur AMD und Turing zu.

Warum sollte es jetzt groß wundern?
Wer Pascal gekauft hat musste sich im klaren sein dass er damit auf DX11 Performance setzt. Jetzt wo immer mehr Games rein auf DX12/Vulkan muss man halt Abstriche machen wie AMD bis Navi noch mit DX11 nicht volle Power bringen könnte.

Pascal hat in Low Level APIs deshalb nicht so stark profitiert, weil das CPU Limit nicht sonderlich hoch war, da die SPiele sehr gut auf DX11 und der Softwaresheduler von Nvidia ebenso optimiert waren. Low Level API haben keinen sondernlich großen Einfluss auf das Geschehen im GPU Limit um welches es sich hier handelt.
 
sulak251 schrieb:
Hallo CB Redaktion,
postet doch mal bitte je einen Screenshot eurer "Preset Settings", RTX2070 vs RX5700XT
Und zwar über alle Einstellungen hinweg.
Wir zweifeln echt an den Presets, die sind nicht gleich zwischen einer 2080 und einer 1070...

Das ganze hat mich nicht losgelassen und ich habe mir das ganze heute morgen nochmal genau angeschaut.
Die Situation ist ziemlich komplex und wieder verdammt merkwürdig - und 100 prozentig einfach nur wieder ein weiterer der tausend Bugs die das Spiel noch hat. Da passt es dann auch gleich, dass RDR2 auf dem Testsystem seit heute morgen mit jeglicher AMD-Karte nicht mehr starten will. Schöne PC-Version ist das!

Die gute Nachricht: Sämtliche Benchmarks in 1.920x1.080 und 2.560x1.440 sind völlig korrekt! Ich habe mir die Presets und die Einstellungen der einzelnen Optionen auf einer GTX 1070, RTX 2070, RTX 2080 Ti, RX 580 und RX 5700 XT angesehen. Wenn man die Presets gleich setzt, sind wie es sein soll auch alle Einstellungen identisch. Wer mir das nicht glaubt: Ich habe hier eine Ladung Screenshots, die ich hochladen kann wer möchte.

In 3.840x2.160 wird es dagegen kompliziert (und total bescheuert). Denn dort unterscheiden sich die Einstellungen von Grafikkarte zu Grafikkarte tatsächlich. Je nach Methode, wie man die Presets setzt, mal nur minimal und mal deutlicher. Setzt man zum Beispiel immer einfach auf dasselbe Preset (also zum Beispiel Ausgewogen Stufe 1) gibt es teilweise recht deutliche Unterschiede in den Einstellungen.

So haben wir die Presets in dem Spiel allerdings nicht gesetzt. Aufgrund der 21 Presets war es einfacher, in UHD einfach so lange die Presets herunterzuschalten, bis die anisotrope Filterung von 4x auf 2x gewechselt hat. Auch bei der Methode unterscheiden sich die Einstellungen, aber interessanterweise deutlich weniger als wenn man immer die gleiche Preset-Stufe nimmt. Die Unterschiede im Detail, so wie sie im Test unbemerkt genutzt worden sind, waren folgende:

RX 5700 XTRTX 2070RTX 2080 Ti
LichtqualitätNiedrigMittelMittel
GrasschattenMittelNiedrigMittel

Weitere Unterschiede gab es nicht, sodass die Ergebnisse nicht gänzlich vergleichbar waren, aber auch nicht völlig verkehrt. Deswegen ist dies beim Testen auch nicht aufgefallen, da steckte der Teufel im Detail - zumal so ein Verhalten mir bis jetzt noch nie begegnet ist...Trotzdem bitte ich aber natürlich den Fehler zu entschuldigen.

Da wir hier auf CB aber natürlich nur vergleichbare Benchmarks haben wollen, haben wir die Ergebnisse aus dem Artikel herausgenommen und einen entsprechenden Hinweis geschrieben. Aktuell arbeiten wir an neuen UHD-Benchmarks, die mit komplett denselben Detaileinstellungen erstellt worden sind. Ich weiß aber noch nicht, wie lange das dauern wird. Denn seit eben verweigert wie gesagt das Spiel den Start auf jeder AMD-Grafikkarte.
 
  • Gefällt mir
Reaktionen: loser, fahr_rad, Lemiiker und 23 andere
ghecko schrieb:
Vielleicht hab ich einen Knicks in der Optik, aber Crysis war so das letzte AAA-Spiel das ich wirklich aktiv gezockt habe. Und die Grafik auf den Bildern sieht gegen die von Crysis nicht wirklich besser aus.
Anhang anzeigen 841049

Anhang anzeigen 841051


Du bekommst für die Pics sehr viele likes wie ich sehe, verständlich !

Man muss aber fairerweise sagen das Crysis auf deinen screenies "modded" ist ! Das sieht mir nach "BlackFire" aus, wiegt im übrigen 60MB und frisst kaum leistung.

BlackFire und ein paar andere !

Screenshot_2019-11-14 ahBNuVHAxlWNxulZtM_UnnDgKvojUAOH-EvnzguToww jpg (JPEG-Grafik, 1680 × 128...jpg
 
  • Gefällt mir
Reaktionen: v_ossi
Na gut, dass ich auf eine RX 5700 geupgraded habe. Die RX 480 hätte kein Land mehr gesehen.

Und wieder einmal zeigt sich, dass jene, welche sich 2016/17 einen i5 7600 oÄ gekauft haben, mittlerweile ziemlich angesch... sind. Damals gab es ja noch einige Leute, welche der felsenfesten Überzeugung waren, mehr als 4c/4t wäre unnötig.
 
Zuletzt bearbeitet:
@sialickiz Hatte auch den Natural Mod damals. Lief auf der 8800GT aber dennoch spielbar auf 1680x1050 und die Leistung der 8800GT ist gegen heutige High-End Modelle ein Scherz. Das ist mein Punkt an dieser Geschichte. Für einen vielfachen Leistungsbedarf von Crysis finde ich die Optik dieses Spiels ziemlich bescheiden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra und sialickiz
@Wolfgang das zeigt mal wieder das ihr einfach mit die besten seid was hardwarejournalismus angeht.
Bei pcgh wurde der Hinweis auf das Problem durch die Redaktion einfach als Blödsinn abgetan.
Finde es super das ihr euch sowas dann auch nochmal anschaut und analysiert, das ist nicht selbstverständlich und viele andere hätten sich die Arbeit nicht gemacht!
Danke dafür!
 
  • Gefällt mir
Reaktionen: loser, PS828, Raycrate und 9 andere
Interessant.

Presse 94%
User 35%

Krass, wie so die Meinungen auseinander gehen. :D
Ich gehöre leider auch zu den Leute, die es sich nicht kaufen werden. So ein schlechter Port und dann noch 150GB herunterladen? Ne, da verzichte ich gerne darauf.
Andere jubeln es zwar in den Himmel, aber Rockstar-Games haben mich noch nie gereizt.
 
In die Userwertungen fließen ein: Die, bei denen das Spiel nicht startet oder abstürzt. Und die, die sich ärgern, weil sie Ultra @8K @144FPS nicht mit ihrer GTX 1060 spielen können.

Presse: Bewertet das Spiel.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, EMkaEL, Marflowah und 2 andere
Das neue Update hat übrigens einige Performance Verbesserungen gebracht.
Meine Vega64 schafft im spielinternen benchmark auf maximalen Settings (ohne msaa) und Wqhd durchschnittliche 35fps.
 
Das mit den I5-Prozessoren finde ich besonders schlimm ! :( Es ist praktisch unspielbar und ich bin froh das es seiten gibt die offen und ehrlich über solche massiven probleme berichten.

Diashow :

...hoffentlich fixt es Rockstar bald, sollte höchste Priorität haben.
Ich werde mir das Spiel in ca. sechs Monaten kaufen. Im moment steckt einfach noch zu viel "Alpha/Beta" in dem titel und ich bin nicht so der grösste "Wild West" fan.

Die langen Videos die ich mir bis dato angesehen habe, machten mich ziemlich müde. A Matter Of Taste.
 
squadric schrieb:
Wenn man weiß wie man die Regler bedienen muss läuft das Game erstaunlich gut. Bei mir @ 3440x1440 mit 85-100 fps (Vulkan) auf Hoch, ein Paar Settings auf Mittel und ein paar wenige auf Ultra.

Na, das wundert mich jetzt bei Deinem alten Mittelklasse Rechner... ;)

Laphonso schrieb:
Anbei mal ein paar Screens. Wer da keine (zum Teil deutliche!) Unterschiede sieht, sollte dringend mal zum Augendoc

Ich habe nicht einmal behauptet, dass es auf dem PC nicht besser aussieht. Es sieht fantastisch aus, keine Frage. Wäre wie gesagt ja auch ein Armutszeugnis, wenn es das nicht würde... ;)

Aber wie auch schon bei @squadric läuft das Spiel bei Dir auf dem momentanen Maximum an Hardware (Nvidia 2080Ti ZOTAC AMP • Intel i9-9900K • 32 GB DDR4-3600MHz Corsair Vengeance) was es auf dem Markt zu kaufen gibt und entspricht damit ganz sicher nicht dem, was der großen Masse an PC Spielern zur Verfügung steht. Wenn ich mal kurz überschlage, was alleine GPU, Board und CPU bei Euch gekostet haben, dann liege ich bei ~2.000€? Wenn ein One X für 360€ jetzt 80-90% der Grafik schafft, und man die restlichen 20% hauptsächlich in 1:1 Vergleichsscreens sieht, halte ich das trotzdem für einen sehr fairen Deal.

Und dann jetzt aus deiner Position zu verallgemeinern, dass das Spiel auf (allen) PCs einfach besser aussieht - DAS halte ich für etwas weit hergeholt.

PS5 und Scarlett werden dass dann in 1 Jahr auch in 60fps rendern, und das ist ja auch eines der Hauptargumente gegen die Konsolen.

Wie auch immer, ich freue mich für Euch, dass es so gut aussieht, bin aber auch froh dass ich es für wesentlich weniger Investment mit nur geringen Abstrichen auf einer billigen Konsole genießen kann. Die Zeiten, als ich noch tausende Euro in PC und WaKü investiert habe, sind Gott sei Dank vorbei. :D
 
  • Gefällt mir
Reaktionen: Angiesan, linuxxer und Sennox
Artikel-Update: Es hat sich gezeigt, dass das maximale Grafik-Preset (Bildqualität Bevorzugen auf Stufe 7) unabhängig von der Grafikkarte und Auflösung immer die identischen Grafikoptionen setzt und daher vergleichbar ist. Das überfordert in der Testsequenz zwar quasi durchweg jede Grafikkarte, doch wäre es andernfalls nötig, jede einzelne Option manuell korrekt zu setzen – was alleine schon sehr fehleranfällig wäre.

Fünf verschiedene Grafikkarten mussten entsprechend Benchmarks in 3.840 × 2.160 über sich ergehen lassen und zeigen die zu erwartenden niedrigen Frameraten. Die Abstände sind im Vergleich zu Full HD mit denselben Einstellungen größer geworden, die Reihenfolge der Modelle ist mit einer Ausnahme gleich geblieben.
 
  • Gefällt mir
Reaktionen: usb2_2, Stuxi, Pyrodactil und eine weitere Person
ZeroZerp schrieb:
@Laphonso
Vielleicht eine "verklärung" durch die ursprüngliche Faszination.
Das könnte passen! Ich habe auch noch so "vor meinen geistigen Augen", wie famos Quantum Break aussah (und noch aussieht!), aber dem Grunde nach nutzen alle state of the art games auf einer der relevanten lizensierten (oder modifizierten) gfx engines und devkits das, was möglich bei den Effekten der aktuellen GPU Technologie und Schnittstellen (DX, Open GL/ Vulkan).
Ein neue Vulkan und DX13 Iteration und neue AMD und Nvidia Karten werden im Jahre 2023 auch RDR2 dann wieder etwas älter - nicht alt! - aussehen lassen. Ein GTA VI mag vielleicht wieder die Meßlatte ein paar Advanced Settings weit höher setzen, aber das wünschen wir uns doch alle! :)

Die Immersion in Games ist NICHT abhängig von der Grafik. Tetris oder Pong sind ja nun Evergreens, technisch rudimentär.

Aber: Gute, detaillierte und skalierbare (!) Grafikeffekte tragen sehr , und wenn ich das Sounddesign noch dazunehme, zur audiovisuellen Wirkung bei, gerade bei storydriven games, in denen die Atmosphäre durch auch Licht und Schatteneefkte hergestellt wird, durch Animationen, die Details der Umgebung.

Wer RDR2 auf Ultra Settings spielen kann, "can not unsee it". Die Reflexionen, St. Denis bei Nacht, die Wassereffekte, das LOD in der Weitsicht, scharf und nicht so "milchig" wie auf den Konsolen, all das hebt die visuelle Rezeption nochmal auf eine andere Ebene.

Wem das egal ist, geht dann mehr auf fps als auf Qualität, denn RDR2 auf Medium ist bereits grafisch in der Spitzengruppe der Games der letzten 2 Jahre, und hat Metro Exodus (als best looking game imo) abgelöst, das bis vor kurzem auf Ultra und Raytracing wirklich top notch war.

Ich finde: Silent Hill 2 war ein Meisterwerk, aber es verliert dennoch einige Federn, wenn man nun die Kontraste im Sinne von Unterschiede kennt. Diese Grafik "wirkt" halt nicht mehr so in der Gesamtatmosphäre.


Und aus diesem Grunde hat die Grafik, haben die Settings eine Relevanz.

Und jede und jeder hier kann sich das bis ins Detail so konfigurieren, dass es optisch passt und zur Rechenpower.

Alle, die derzeit RDR2 nicht auf Ultra spielen können, weil die GPU das nicht packt: RDR2 bleibt trotzdem ein Meisterwerk und sieht auch unterhalb von Hoch Settings (Texturen immer auf Ultra lassen!) top aus.
Und falls Ihr Euch demnächst oder in 1 oder 2 Jahren eine neue GPU kauft, und dann im erneuten Durchgang alles auf Ultra stellt, mögt Ihr dann bitte mal berichten, ob man da - wie einige ernsthaft behaupten - keine deutlichen Unterschiede sehen kann. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und v_ossi
@Jan @Wolfgang Es ist wichtig für den Community Benchmark mit RDR2, dass die neuste Version 1.2.5 von CX installiert wird, da wir einen Bug fixen mussten. Ich bitte die Umstände zu entschuldigen, aber der Fehler lag nicht in unserer Verantwortung.
 
  • Gefällt mir
Reaktionen: EMkaEL und Laphonso
DeMeP schrieb:
Das neue Update hat übrigens einige Performance Verbesserungen gebracht.
Meine Vega64 schafft im spielinternen benchmark auf maximalen Settings (ohne msaa) und Wqhd durchschnittliche 35fps.

Dx12 oder Vulkan?
 
ghecko schrieb:
@sialickiz Hatte auch den Natural Mod damals. Lief auf der 8800GT aber dennoch spielbar auf 1680x1050 und die Leistung der 8800GT ist gegen heutige High-End Modelle ein Scherz. Das ist mein Punkt an dieser Geschichte. Für einen vielfachen Leistungsbedarf von Crysis finde ich die Optik dieses Spiels ziemlich bescheiden.
...muss dir da leider zustimmen, sehe ich ähnlich.
 
Wolfgang schrieb:
Da dadurch die Benchmarks aber nicht komplett vergleichbar gewesen sind, wurden die entsprechenden Diagramme und Textpassagen entfernt. Die Redaktion bittet den Fehler zu entschuldigen. Korrigierte Benchmarks werden so schnell wie möglich nachgereicht
[

Auch wenn es die Höflichkeit gebührt, brauchst du bzw. die ComputerBase Redaktion sich nicht für diesen Software Müll bei euren Lesern zu entschuldigen. Ihr macht tolle Arbeit und ich bin gerne euer Mitglied und Leser !
 
  • Gefällt mir
Reaktionen: Hells_Bells und Laphonso
DarkerThanBlack schrieb:
Presse 94%
User 35%

Krass, wie so die Meinungen auseinander gehen. :D

Nunja. Die Leute, bei denen das Spiel nicht starten wollte, haben es berechtigterweise mit 0% bewertet. Das zieht den Schnitt dann natürlich etwas runter. 😉

sialickiz schrieb:
Das mit den I5-Prozessoren finde ich besonders schlimm ! :( Es ist praktisch unspielbar und ich bin froh das es seiten gibt die offen und ehrlich über solche massiven probleme berichten.

Bei der GN-Analyse der Ursachen frage ich mich, ob Leute mit den betroffenen CPUs nicht einfach die Framerate limitieren könnten (z.B. auf 100 oder 120FPS) und so das Problem umgehen?
 
  • Gefällt mir
Reaktionen: v_ossi
M@tze schrieb:
Aber wie auch schon bei @squadric läuft das Spiel bei Dir auf dem momentanen Maximum an Hardware (Nvidia 2080Ti ZOTAC AMP • Intel i9-9900K • 32 GB DDR4-3600MHz Corsair Vengeance) was es auf dem Markt zu kaufen gibt und entspricht damit ganz sicher nicht dem, was der großen Masse an PC Spielern zur Verfügung steht.

Völlige Zustimmung!
Ich wollte damit auch nicht andeuten, dass doch wohl "klar" ist, dass RDR2 bei jedem ja normal nur ein Ultraerlebnis sein kann!
Natürlich braucht das schon den Unterbau und soll auch nicht repräsentativ sein!

Meine Erwiderung war nur:
1.) Mittelklasse GPUs, die bereits 3,5 Jahre alt sind, packen die Referenz 4K Konsolensetting (einer via Hardware auf 4K designte Konsole aus 2018 wie die XBox One X) mit knapp 30 fps.
2.) Mittelklasse GPUs, wie bereits 3,5 Jahre alt sind, packen die Referenz 4K Konsolensetting deutlich über 30 fps auf ihrer Monitorauflösung Full HD oder 1440p. Das ist dann kein 4K, aber in der nativen Resolution in den Details und Effekten 1:1 gleich.
3.) Aktuelle Top End GPUs wie die 5700X und die 2700 aufwärts packen packen die Referenz 4K Konsolensetting mit mehr und besseren Effekten bei gleichzeitig mehr fps in 4K oder viel mehr fps mit mehr und besseren Effekten in ihrer nativen Monitorauflösung Full HD oder 1440p
4.) Die Geldscheine adé #1 GPU 2080Ti packt die Referenz 4K Konsolensettings mit mehr als doppelt so vielen fps oder auf 4K Ulta, also einem Dutzend gfx Effekte um 1 bis 3 erhört plus Zusatzfeatures solide über 30-40 fps.


Wir sind da gar nicht auseinander, ich wollte nur differenzieren!
Es braucht keine 2080Ti für mehr fps und mehr Grafikfeatures als es die Konsolen haben, das packen auch midrangekarten ohne Probleme, dafür nicht auf 4K! Ist der tradeoff :)
 
  • Gefällt mir
Reaktionen: M@tze
Status
Für weitere Antworten geschlossen.
Zurück
Oben