Test Spider-Man: Miles Morales im Test: Noch spektakulärer und GPU-fressender als das Original

@Wolfgang Mit welchem Intel Treiber habt ihr gestestet? Finde dazu keine Angaben. Der neue .3802 Treiber wirbt mit Miles Morales Optimierung. Hätte mich auch über einen XeSS Test gefreut.
 
Wolfgang schrieb:
Artikel-Update: ComputerBase hat dem Test neue Benchmarks zu Spider-Man Miles Morales mit weiteren Grafikkarten hinzu gefügt. So muss sich nun auch zum Beispiel die Intel Arc A770 in dem Spiel mit den restlichen AMD- und Nvidia-Grafikkarten messen, wobei dies nicht gut für Intel ausgeht. Darüber hinaus haben es noch einige Turing- und RDNA-Grafikkarten wie die GeForce RTX 2060 in den Test geschafft und mit der Radeon RX 580 und der GeForce GTX 1060 sind auch zwei wirklich alte Modelle nun mit dabei. Die Benchmarks wurden sowohl ohne als auch mit Raytracing durchgeführt.

Diese Grafikkarten kamen dazu
  • Intel Arc A770 Limited Edition
  • Nvidia GeForce RTX 2070 Super
  • Nvidia GeForce RTX 2060
  • Nvidia GeForce GTX 1060
  • AMD Radeon RX 5700 XT
  • AMD Radeon RX 5600 XT
  • AMD Radeon RX 580
Super, das ist doch eine schöne Auswahl. Schön, dass ihr darauf eingegangen seid :)
 
  • Gefällt mir
Reaktionen: Vitche und Jan
Interessant, bei TH kommt die Arc Karte besser weg bei den Raytracing Benchmarks.

1669207327422.png
 
sethdiabolos schrieb:
Bei Spiderman würde ich dann aber die Brille checken. Das sind einfach zwei vollkommen unterschiedlichen Ligen an grafischer Qualität. Über die einzelnen Raytracing-Stufen kann man streiten, aber ob es an ist oder aus sieht in dem Fall selbst ein Blinder.

Ergänzung ()



Die RX 480 und GTX 1060 werden bald 7 Jahre alt und waren damals Mittelklasse. Irgendwo muss man als Entwickler einen Strich drunter machen und auf aktueller Mittelklasse-Hardware wie einer 3060Ti bzw. RX 6600XT läuft das Spiel ja auch gut. Mit abgesenkten Details kann man es aber auch mit einer RX 480/1060 noch spielen, nur eben nicht mehr in hübsch.
Ich wette meine R9 290X kann das Spiel auch noch einigermaßen wuppen, in FullHD. Und ... hübsch, liegt im Auge des Betrachters. Denn nicht Alle sehen, wass Andere sehen. :schaf:
 
HighPerf. Gamer schrieb:
@Wolfgang

Hat sich bei AMD die Performance gebessert mit dem neuen Treiber von gestern ?
Da der neue Treiber nur ein WHQL-Zertifikat bekommen hat, läuft dieser identisch zu dem im Test benutzten.
Corpus Delicti schrieb:
Damit bin ich raus.

AAA-Spiele scheinen nur noch auf neuer Oberklasse-Hardware gut zu laufen.

Für die breite Masse mit RX480/1060 und vergleichbarem zu optimieren scheint sich nicht zu lohnen. Dabei dachte ich Naivling immer, das mit diesen Leuten gut verdient wird.
Jaja, da muss man mittlerweile einfach ehrlich sagen, dass RX 480 und GTX 1060 mittlerweile halt einfach alt sind. Da nehmen die Entwickler seit diesem Jahr offenbar keine große Rücksicht mehr drauf und ich kann es ihnen auch nicht verübeln, irgendwann ist es halt mal vorbei. Natürlich ärgerlich, wenn man so eine Grafikkarte hat, aber ewig geht es halt auch bei Konsolen nicht weiter - und RX 480 sowie GTX 1060 haben ja nun wirklich lange und gut überlebt.
Terrordrome schrieb:
@Wolfgang Mit welchem Intel Treiber habt ihr gestestet? Finde dazu keine Angaben. Der neue .3802 Treiber wirbt mit Miles Morales Optimierung. Hätte mich auch über einen XeSS Test gefreut.
Mit dem 31.0.101.3802, also dem offiziell für das Spiel optimierten Treiber. Habe es mal im Artikel hinzugefügt :)
Zer0Strat schrieb:
Interessant, bei TH kommt die Arc Karte besser weg bei den Raytracing Benchmarks.
Ich kann die Benchmarks von THG ohnehin nicht nachvollziehen. Auch die AMD-Ergebnisse nicht. Die habe ich so weder in unserer Benchszene, noch in der Open World (die sich primär bei FPS-Rate und CPU-Limit unterscheiden, aber nicht großartig bei der Reihenfolge). Ich schätze, THG nutzt eine eher ungewöhnliche Szene, das ist aber nur geraten.
 
  • Gefällt mir
Reaktionen: HighPerf. Gamer, Celinna und Terrordrome
Wolfgang schrieb:
Artikel-Update: ComputerBase hat dem Test neue Benchmarks zu Spider-Man Miles Morales mit weiteren Grafikkarten hinzu gefügt. So muss sich nun auch zum Beispiel die Intel Arc A770 in dem Spiel mit den restlichen AMD- und Nvidia-Grafikkarten messen, wobei dies nicht gut für Intel ausgeht. Darüber hinaus haben es noch einige Turing- und RDNA-Grafikkarten wie die GeForce RTX 2060 in den Test geschafft und mit der Radeon RX 580 und der GeForce GTX 1060 sind auch zwei wirklich alte Modelle nun mit dabei. Die Benchmarks wurden sowohl ohne als auch mit Raytracing durchgeführt.

Diese Grafikkarten kamen dazu
  • Intel Arc A770 Limited Edition
  • Nvidia GeForce RTX 2070 Super
  • Nvidia GeForce RTX 2060
  • Nvidia GeForce GTX 1060
  • AMD Radeon RX 5700 XT
  • AMD Radeon RX 5600 XT
  • AMD Radeon RX 580
cool, ! bin nur etwas ratlos jetzt, mir kommt fast vor hier stimmt irgendwo was nicht,

und zwar bei der Performance der a770 im vgl. zu amd & nvidia.
bei euch ist spider man morales eins der Spiele in denen intel scheinbar besonders schlecht abschneidet, beim weiter oben verlinkten test auf Toms hardware ist es exakt umgekehrt...?

getestet wurde dort in 'very high', und in 1440p sowie 4k liegt intel nicht nur vor der rx 6700 xt so dern quasi gleichauf mit einer rtx 3070 ...

€: nvm, das meiste wurde ja schon direkt oben drüber beantwortet, hat sich wohl überschnitten als mein Telefon mal wieder rumgezickt hatte :)

danke nochmals an CB für das Update..
 
Zuletzt bearbeitet:
CrustiCroc schrieb:
Es macht aber keinen Unterschied, am Ende des Tages ist AMD mal wieder hinterher
Hinterher mit 10 fps und 500€ 😉
 
  • Gefällt mir
Reaktionen: msv
Wolfgang schrieb:
Ich kann die Benchmarks von THG ohnehin nicht nachvollziehen. Auch die AMD-Ergebnisse nicht. Die habe ich so weder in unserer Benchszene, noch in der Open World (die sich primär bei FPS-Rate und CPU-Limit unterscheiden, aber nicht großartig bei der Reihenfolge). Ich schätze, THG nutzt eine eher ungewöhnliche Szene, das ist aber nur geraten.
Ja, sieht komisch aus. Vielleicht haben sie irgendeine indoor Szene genommen. Leider kann man nicht vergleichen, gibt sonst noch keine anderen vernünftigen Reviews. Selbst HUB haben nichts veröffentlicht bisher.
 
  • Gefällt mir
Reaktionen: Jan
@Wolfgang
In der Überschrift vom Absatz "Spider-Man: Miles Morales (PC) im Technik-Test"
fehlt noch ein e

Vielen Dank für die Auflistung der zusätzlichen Grafikkarten!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan
Zer0Strat schrieb:
Ja, sieht komisch aus. Vielleicht haben sie irgendeine indoor Szene genommen. Leider kann man nicht vergleichen, gibt sonst noch keine anderen vernünftigen Reviews. Selbst HUB haben nichts veröffentlicht bisher.
Die Benchmarks von THG widersprechen halt auch völlig den Ergebnissen von Spider-Man Remastered, ganz gleich, welche man sich da anschaut. Und die Spiele sind ja technisch nunmal sehr ähnlich. Deswegen kann ich denen auch nicht so ganz trauen. Ich sage nicht, dass diese falsch sind. Aber mit Sicherheit sind diese sehr speziell.

Cerebral_Amoebe schrieb:
@Wolfgang
In der Überschrift vom Absatz "Spider-Man: Miles Morales (PC) im Technik-Test"
fehlt noch ein e

Vielen Dank für die Auflistung der zusätzlichen Grafikkarten!
Hat das mittlerweile einer behoben? Denn ich finde es nicht. Oder bin ich einfach blind?^^
 
  • Gefällt mir
Reaktionen: lynxx83 und Jan
Wolfgang schrieb:
Die Benchmarks von THG widersprechen halt auch völlig den Ergebnissen von Spider-Man Remastered, ganz gleich, welche man sich da anschaut. Und die Spiele sind ja technisch nunmal sehr ähnlich.
Zumindest, was die Arc Karte betrifft, könnte der positive Eindruck passen, in Eurem Spider-Man Remastered Review war die A770 nicht dabei.
 
Danke für die zusätzlichen Tests. Die Arc 770 wird in meinen Augen immer besser je schwieriger es wird (Raytracing und mehr Auflösung)

Auch die GTX 1060 kann das Spiel noch. Wenn dann wohl mit reduzierten Details in Full hd. Alles in Butter.
 
bondki schrieb:
Ich bleib dabei, der Test taugt nix
Ich sehe es auch so wie Wolfgang. was nützt es mir als potentieller Spieler zu wissen das bei meiner Karte alles auf max. grad mal 15FPS rumkommen? Ich möchte doch eher sehen ob dieses Spiel auf meiner Hardware überhaupt lauffähig ist, und ich denke mal dass es vielen anderen Nutzern auf ComputerBase genauso geht. ;)

Dann könnte man ja bei jedem Spiele Test Supersampling und Auflösungsskalierung nutzen und die Grakas auf 5-20FPS drücken, nutzt nur niemanden etwas.

Oder geht es hier nur darum dass du deine 4090 als einzige nutzbare Karte in dem Test sehen möchtest damit du dich besser fühlst und mit erhobenen Haupt vor´m PC sitzen kannst?
(Bitte nicht als Angriff verstehen, ist eine ernst gemeinte Frage)

MFG Piet
 
  • Gefällt mir
Reaktionen: Vitche
Zer0Strat schrieb:
Zumindest, was die Arc Karte betrifft, könnte der positive Eindruck passen, in Eurem Spider-Man Remastered Review war die A770 nicht dabei.
Ich bezog mich rein auf die Verhältnisse von GeForce zu Radeon. Wenn die dann schon ungewohnt sind, werden es die mit Arc wahrscheinlich ja auch sein. Wie Arc bei uns in Spiderman performt, weiß ich selber nicht.
 
Chesterfield schrieb:
Würde mich ja nicht ärgern dass die GPU Last steigt aber das Verhältnis Verbesserung und benötigte Hardware wird immer unverschämter. Wenn ich jetzt Crysis als Referenz nehme und die Grafik Steigerung z.b jetzt bei spidermann, ganz klar keine Verhältnismäßigkeit da

Sehr guter Punkt. Früher habe ich von GPU Generation zu GPU Generation auch wirklich richtige Fortschritte gesehen - die Spiele wurden leistungshungriger, dafür aber auch viel schöner. Irgendwann wurde dieser Prozess langsamer, aber blieb im Grunde genommen noch intakt. Seit ca. 2015/16 habe ich jedoch das Gefühl, dass Spiele einfach nur noch hungriger werden, aber nicht wirklich mehr auftischen. Klar, es gibt jetzt hardwarebeschleunigtes Raytracing usw. Aber wenn ich mir z.B. Spiele wie Star Wars Battlefront mit seiner Photogrammetrie anschaue - das ist selbst 7 Jahre später einfach nur wunderschön. Wenn man mir jetzt einfach mir unbekannte AAA Spiele aus 2015, 2017, 2019 und 2022 hinlegen würde und diese der Grafik nach einem Jahr zuweisen lassen würde - ich würde vermutlich scheitern. Steigerung der "Schönheit" der Spiele und Steigerung des "Leistungshungers" stehen in keinem Verhältnis mehr.
 
  • Gefällt mir
Reaktionen: Corpus Delicti, lynxx83 und Chesterfield
PietVanOwl schrieb:
Oder geht es hier nur darum dass du deine 4090 als einzige nutzbare Karte in dem Test sehen möchtest damit du dich besser fühlst und mit erhobenen Haupt vor´m PC sitzen kannst?
(Bitte nicht als Angriff verstehen, ist eine ernst gemeinte Frage)
Nein, bei einem Benchmark geht es darum, dass man das Spiel auf max Settings einmal mit allen Karten laufen lässt. Ist schließlich das, was man normalerweise anstrebt.
Mit Karte XY, obs nun meine 4090 ist oder die 970GTX, ist vollkommen egal.

Ein Test hat mit max Settings zu erfolgen, sonst ist die Vergleichbarkeit dahin.
 
@bondki Naja wie gesagt, ich (und bestimmt auch andere) finde es gut das vernünftige spielbare Settings ausgelotet werden und man dann mit diesen testet.
Ansonsten: hast du schonmal bei Tom´s Hardware vorbei geschaut, die haben das Spiel unter anderem ohne DLSS/FSR in 4k getestet. ;)
Screenshot 2022-11-23 181259.png

MFG Piet
 
  • Gefällt mir
Reaktionen: Vitche
Zurück
Oben