Test Spider-Man: Miles Morales im Test: Noch spektakulärer und GPU-fressender als das Original

Thepunisher2403 schrieb:
Das sagen dann die wo die Karte zu schwach ist für rt aber wehe es wäre bei amd besser dann is rt das über Feature....
Mir ist tatsächlich relativ egal, welcher Hersteller die beste RT-Performance hat. Liegt schlicht daran, dass ich genau 2 Spiele in meiner Sammlung haben, die RT anbieten (Cyberpunk 2077 und Metro Exodus). Da kann auch auch gut damit leben, wenn ich die ohne RT spiele. Wegen 2 Spielen mache ich meine Kaufentscheidung jetzt nicht von der RT-Performance ab.
 
  • Gefällt mir
Reaktionen: da_exe, Schinken42, Shaddix22 und 2 andere
Tornavida schrieb:
Die Zielgruppe des Spiels würde mich ja brennend interessieren. Der 12 jährige mit der 2000 Euro Grafikkarte im System ? 😅

Geistliche Reife bei so einem Kommentar:
5-9 Jahre.
 
  • Gefällt mir
Reaktionen: Cr4ck3r, alan_Shore, Coeckchen und 5 andere
@Wolfgang

Im Artikel schreibst du "Daher lautet die Empfehlung für eine 10-GB-Grafikkarte, bei Raytracing die Texturdetails um eine Stufe zu reduzieren."

Gilt das jetzt für UHD oder auch schon für WQHD ?
 
CrustiCroc schrieb:
Naja, die Antwort liegt sicher dazwischen. Es macht aber keinen Unterschied, am Ende des Tages ist AMD mal wieder hinterher. Und das ändert sich seit Jahren einfach nicht.

Das ist aber auch ein Teufelskreis. Durch die Marktmacht Nvidias können sie sich leisten den Entwicklern unter die Arme zu greifen (ihnen Geld zu zustecken), dann denken Leute wie du, tja muss ich halt Nvidia kaufen. Dadurch wird sich halt dann auch nix ändern. Kann ich irgendwo auch verstehen.
Allerdings steht amd im Schnitt der Spiele jetzt auch nicht so schlecht da. Bei RT ja, aber dass ist ja nicht alles.
 
  • Gefällt mir
Reaktionen: Coeckchen und Knutengore
Czk666 schrieb:
Durch die Marktmacht Nvidias können sie sich leisten den Entwicklern unter die Arme zu greifen (ihnen Geld zu zustecken), dann denken Leute wie du, tja muss ich halt Nvidia kaufen. Dadurch wird sich halt dann auch nix ändern. Kann ich irgendwo auch verstehen.
Spider-Man kommt aber von den Konsolen und damit AMD-Hardware. Insofern spielt Nvidia in solchen Fällen dann nun wirklich keine Rolle, für die kann man nämlich schlecht auf einer PS4/5 entwickeln. ;)

Die Frage sollte bei solchen Spielen eher lauten, warum es trotz AMD-Hardwarebasis auf/mit AMD-GPUs auf dem PC trotzdem so schlecht läuft. Spider-Man ist da ja nicht das erste Spiel mit solch einem Phänomen, das von den Konsolen kommt.
 
  • Gefällt mir
Reaktionen: ben12345, fox40phil, Coeckchen und 6 andere
Man braucht also für 4K in einem im Kern 2 Jahre altes Spiel eine 3080 Ti.
Keine Ahnung ob das Normal ist, oder ob das Spiel so gut aus sieht das das Gerechtfertigt ist, für mich sieht es aber nicht so aus.
Es ist aus meiner Sicht wieder gruselig optimiert, damit es nicht so auffällt hat aber AMD wieder einen "Totalausfall" (siehe percentil fps).
 
anappleaday schrieb:
Kaufe seit Jahren Nvidia aus zwei Gründen:

1. Treiber sind besser.
2. Nvidia hat mehr Geld und Einfluss und besticht dadurch mehr Spiele-Entwickler für sie zu optimieren.
1. Würde ich nicht unterschreiben
2. Hast du wahrscheinlich Recht. Wie kommt es sonst bei der Rohleistung zu solchen Unterschieden.
 
  • Gefällt mir
Reaktionen: Traumsucher und Czk666
Linmoum schrieb:
Spider-Man kommt aber von den Konsolen und damit AMD-Hardware. Insofern spielt Nvidia in solchen Fällen dann nun wirklich keine Rolle, für die kann man nämlich schlecht auf einer PS4/5 entwickeln. ;)

Die Frage sollte bei solchen Spielen eher lauten, warum es trotz AMD-Hardwarebasis auf/mit AMD-GPUs auf dem PC trotzdem so schlecht läuft. Spider-Man ist da ja nicht das erste Spiel mit solch einem Phänomen, das von den Konsolen kommt.
So ! ☝️
 
  • Gefällt mir
Reaktionen: Sirhaubinger und V_182
Wenn ich auf Details achte, finde ich RT ja schon echt schick. Aber ich gucke mir die Screenshots hier gerade auf dem Handy an und sehe keinen Unterschied nach kurzem Blick. Dafür geht mir dann doch zu viel Performance verloren.

Finde die Annäherung der Rasterisierung schon echt gut. Klar, fehlen die Dynamik und Details, aber für den ersten Blick beim Erfassen einer Szene und bei schnellen Bewegungen gibt's dann doch eher ein abnehmenden Mehrwert. Außerdem ist realistischer nicht immer auch besser oder hübscher.
 
  • Gefällt mir
Reaktionen: aid0nex, fox40phil, magabarai und 4 andere
Ist das Spiel einfach nur noch mega schlecht optimiert? Oder relativiert sich gerade die über Performance der 4090 auf den Boden der Tatsachen?
 
rony12 schrieb:
Könntet ihr ggf. eine Funktion in die Diagramme einbauen, dass man auswählen kann, ob man [nativ], [DLSS], [FSR] einblenden möchte.
So könnte jeder entscheiden ob nur die nativen Auflösungen angezeigt werden oder DLSS - es würde die Übersicht in den Diagrammen deutlich verbessern.
Vor allem wenn bald die Technik von Intel dazu kommt - oder ggf. noch eine andere :)
Das würde gar keinen Sinn ergeben. Dazu müssten wir dann ja auch alle Tests mit eben allen Einstellungen machen und zwar bei jeder Grafikkarte.
dampflokfreund schrieb:
Schade, dass ihr keine älteren Grafikkarten mehr testet. Turing und RDNA1 solltet ihr wieder aufnehmen, da wird es spannend, Unterschiede zu sehen sobald Spiele das DX12 Ultimate featureset nutzen und Raytracing Standard wird, das auf RDNA1 nicht verfügbar ist. Zumindest eine 2070 Super, 5700XT, 5600XT und 2060 sollten doch nicht zu viel verlangt sein. Eure Benchmarks sind leider so unbrauchbar für mich.
Turing und RDNA waren noch geplant, doch irgendwann muss der Arbeitstag auch einmal zu Ende sein :)
Das ist einfach das Problem davon, dass es so viele verschiedene Grafikkarten gibt. Für Spiele- und Grafikkartentests ist das einfach nicht mehr gut zu handhaben...

Es ist aber noch ein Update nächste Woche geplant, wenn auch ohne Garantie :)
McFly76 schrieb:
Es wäre noch besser gewesen wenn man auch die INTEL Arc A750/A770 getestet hätte.
@Wolfgang
Warum ist diese GPU nicht im Test vorhanden ? Ok, hab einen wichtigen Satz übersehen, hat sich aufgeklärt :D
Siehe oben :)
Piak schrieb:
Ganz ehrlich, für mich liest sich der Test sehr klar:

Die ganzen Bildverfuscher sollte man wieder weglassen.

Entwickelt lieber bessere Hardware und performantere Engines.
DLSS 2.x und FSR 2.x sind vieles, aber schon lange keine Bildverfuscher mehr. Nicht gerade selten ist das Gegenteil der Fall. Die gehen nicht mehr weg (im Gegenteil) und das ist auch gut so. Ich weiß, viele wollen es nicht hören. Aber natives Rendern wird es nicht mehr lange geben.
schkai schrieb:
@Wolfgang

Im Artikel schreibst du "Daher lautet die Empfehlung für eine 10-GB-Grafikkarte, bei Raytracing die Texturdetails um eine Stufe zu reduzieren."

Gilt das jetzt für UHD oder auch schon für WQHD ?
Puh, da fragst du mich jetzt was...könnte knapp in WQHD werden (ich meine mit WHD jetzt aber nicht UHD mit DLSS Q, das ist nicht so gut.
ThreepQuest64 schrieb:
Wenn ich auf Details achte, finde ich RT ja schon echt schick. Aber ich gucke mir die Screenshots hier gerade auf dem Handy an und sehe keinen Unterschied nach kurzem Blick. Dafür geht mir dann doch zu viel Performance verloren.

Finde die Annäherung der Rasterisierung schon echt gut. Klar, fehlen die Dynamik und Details, aber für den ersten Blick beim Erfassen einer Szene und bei schnellen Bewegungen gibt's dann doch eher ein abnehmenden Mehrwert. Außerdem ist realistischer nicht immer auch besser oder hübscher.
Nunja, auf dem Handy würde ich auch keine Unterschiede erkennen, aber zum Glück spielt man Miles Morales auch nicht auf dem Handy :)
 
  • Gefällt mir
Reaktionen: fox40phil, Vitche, Schokolade und 7 andere
Matthias80 schrieb:
Ist das Spiel einfach nur noch mega schlecht optimiert? Oder relativiert sich gerade die über Performance der 4090 auf den Boden der Tatsachen?
Die RTX 4090 kann in den Benchmarks ihre Rechenleistung nie richtig ausspielen, die wird quasi dauernd von der CPU ausgebremst. Nur die Rasterizer-Benchmarks in UHD zeigen so ziemlich, was die 4090 kann.
 
  • Gefällt mir
Reaktionen: fox40phil, BorstiNumberOne und Lübke82
Metaxa1987 schrieb:
Puh… in 4K ohne RT ist die 4090 bereits mehr als doppelt so schnell wie eine 6900xt…
Kostet auch ähm dreimal so viel :D 700€ vs 2100€
 
  • Gefällt mir
Reaktionen: fox40phil, WhiteRabbit123, Traumsucher und 6 andere
Kollo schrieb:
Ist daran AMD schuld oder der Spiele-Entwickler?
Wie könnte AMD daran Schuld haben?
Der Spieleentwickler legt sich wohl auf einen Hersteller fest bzw hat sowas wie ein Kooperationsvertrag.
Ich finds nich schlimm..gibt auch genug Spiele wo AMD querschnittlich betrachtet besser läuft.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
wtfNow schrieb:
lol Fanboykrieg hier wieder, wo ist denn das Problem wenn eine teurere Karte schneller ist als dir günstigere?:confused_alt:

Dann mache ich mal mit:
RX 6900 XT zersäbelt RTX 3070
Meine nächste Karte wird von AMD :hammer_alt:
Ahh na wenn du sagst das alle gleich wieder fanboys sind...
mibbio schrieb:
Mir ist tatsächlich relativ egal, welcher Hersteller die beste RT-Performance hat. Liegt schlicht daran, dass ich genau 2 Spiele in meiner Sammlung haben, die RT anbieten (Cyberpunk 2077 und Metro Exodus). Da kann auch auch gut damit leben, wenn ich die ohne RT spiele. Wegen 2 Spielen mache ich meine Kaufentscheidung jetzt nicht von der RT-Performance ab.
Naja the witcher 3 kommt ja auch bald
Und die neuen Spiele werden dann auf rt setzen

Aber ich kann nachvollziehen wenn man wegen 2 Spiele jetzt nicht auf rt setzen will

Ich finds grandios in den Spielen
 
  • Gefällt mir
Reaktionen: ben12345 und Lübke82
Das Game gibt es seit einem Jahr auf PS, über sowas sollte man nicht mal mehr berichten, sowas hat aus meiner Sicht 0 Aufmerksamkeit verdient. Wenn sich ein publisher heute sowas noch leisten kann ist es echt weit.
 
  • Gefällt mir
Reaktionen: Illithide, Daggy820, McTheRipper und eine weitere Person
Ach Kinder. Ja in der Regel performt eine Nvidia bisschen besser. Aber hier sollte man alles in Relation betrachten.
Dazu gibts reichlich Tests im Internet. Raw Performance ist die 6900xt irgendwo zwischen 3080 12gb und 3080ti. Dazu muss aber schon mehr als 1 Spiel zum Vergleich ziehen. Am besten so um 30-50.
Hier performen die Nvidias besser, Fakt. Aber
Eine 6900xt kostet gerade 699€. 54 fps in 4k.
Eine 3080 780€ 58 Fps
Eine 3080 ti 1100€. 64 Fps
Also wer Knete locker hat und wem PreisLeistung unwichtig sind nur zu. :)
 
  • Gefällt mir
Reaktionen: fox40phil, Traumsucher, hurcos und 3 andere
Berserkervmax schrieb:
und schon ist 10GB VRAM nicht mehr genung...
Hat nicht lange gedauert....
Wieso? Das ist doch individuell welche Spiele man spielt und welche Auflösung man spielt? Also ich bekomme es nicht mal ansatzweise voll.
 
  • Gefällt mir
Reaktionen: Lübke82
Zurück
Oben