Test Spider-Man: Miles Morales im Test: Noch spektakulärer und GPU-fressender als das Original

Ragnarök88 schrieb:
In dem Spiel braucht man mit einer aktuellen AMD Karte nicht mal an RT denken. Und das ist auch der Grund warum Nvidia die Preise ansetzt wir sie sind.
Für die 10 Spiele die es derzeit gibt, wo man tatsächlich sagen kann RT bringt deutlich was, bezahlst du einen dicken Aufpreis. Kannst du ruhig machen, viele sehen das aber nicht ein.
 
  • Gefällt mir
Reaktionen: juwa, woldofoldo und Eller
W0dan schrieb:
Es gab schon vor 5 Jahren Spiele, die die 10 GB gesprengt haben und die Texturen waren trotzdem Mist.

Moderne Engines nutzen z.B. Virtual Texturing und können den Speicher damit sehr viel Effizienter nutzen und so trotz stark limitiertem VRAM Budget in der Nähe der Kamera immer die bestmöglichen Texturen anzeigen.

Spätestens mit Direct Storage und SFS soll das alles nochmal sehr viel effizienter werden.

Die Engine von Spider-Man scheint beides nicht zu nutzen, denn sobald man die Texturstufe wechselt, werden auch sofort die Texturen ausgetauscht.
Gut, zwischen Hoch und Sehr hoch ist nur an sehr wenigen Stellen ein größerer Unterschied sichtbar (gefühlt 95% der Texturen ändern sich nur auf Subpixel ebene) aber das unterscheidet sich halt deutlich von z.B. Doom Eternal welches stark auf Virtual Textures setzt und wo man eben erst mit den niedrigsten Einstellungen überhaupt eine Veränderung der Texturqualität sehen kann.

Auch allgemein scheint sich beim Memory Management viel optimieren zu lassen. Dying Light 2 hat den VRAM Bedarf mit Raytracing zuletzt auch nochmal deutlich reduzieren können...


Nvidia hat wohl darauf gesetzt, dass sich Virtual Textures und Direct Storage viel schneller duchsetzen.
So hat man eben fröhlich kostenoptimierung betrieben und sich gedacht "der VRAM wird in zukunft eh locker reichen" - non issue.

Aber man sieht ja was daraus geworden ist. Es gibt auch aufgrund der Situation in den letzten zwei Jahren immernoch überweigend CrossGen Spiele, die auf konventionelle Streaming Techniken setzen und so läuft halt der VRAM mit 8-10 GB hin und wieder mal über, wenn man versucht, ältere Engines nochmal mit verbesserter Grafik zu pushen.


Wie man das bewertet muss am Ende jeder selbst entscheiden. Ich bin mir ziemlich sicher, dass sich das Problem entspannen wird, je moderner die Engines werden. Bis dahin wird man aber auch immer wieder Spiele sehen, wo der Speicher nicht reicht. Wer also heute auf der sicheren Seite sein will, für den sind 8-10 GB aktuell einfach zu knapp und man muss den ein oder anderen Regler bedienen.
Sehr guter Beitrag. Das ist richtig. Es ist sicherlich nicht schlecht, eine GPU mit mehr VRAM zu kaufen, da es noch viele Cross Gen Spiele gibt, die neue Streaming Methoden nicht nutzen. Aber der Trend geht ganz klar zu effizienteren Streaming Techniken. Plague Tale verbraucht irre wenig VRAM trotz sehr scharfer Texturen und hohem Detailgrad. Und das nutzt nicht mal SFS, es nutzt lediglich aus, dass Konsolen und PCs über SSDs verfügen.
 
Wolfgang schrieb:
Das Problem in Spider-Man ist, dass bei aggressiveren RT-Einstellungen alles außer RTX 4090 in UHD zu langsam wird.
Das ist kein Problem, dafür gibt es die Werte in WQHD. Eine 4090 und 4080 die in 4K DLSS Quality immernoch im partiellen CPU Limit liegt nicht voll auszufahren, ist schon harter Tobak für einen GPU Test.
 
Ragnarök88 schrieb:
In dem Spiel braucht man mit einer aktuellen AMD Karte nicht mal an RT denken. Und das ist auch der Grund warum Nvidia die Preise ansetzt wir sie sind.
Ne so schlimm ist es nicht. Gerade mit Raytracing sind die Unterschiede hier doch eher im erwartbaren Rahmen. Dass AMD ohne Raytracing so sehr das Nachsehen hat, ist aber absolut ungewöhnlich.

In 4k mit Raytracing fehlen der 6900 30% zur 3090. Aus eigener Erfahrung kann ich sagen, dass mit dieser 4k mit DLSS/FSR Performance maxed out gut spielbar ist. Mit etwas optimierten Settings auch DLSS/FSR Quality.

Klar die fehlenden 30% wären sicher spürbar, aber RT Schatten auf "Mittel" und Reflexionen auf "Hoch" laufen mit FSR Performance sicher auch auf ner 6900 XT noch anständig. Und wenn man RT Schatten deaktiviert erstrecht.

Können wir diese ganzen grün-roten Diskussionen nicht mal (außen vor) lassen?

Edit: Okay nochmal zum Spiel ansich:
Der Port wirkt sehr rund und ist optisch nochmal ein klein bisschen über dem Vorgänger angesiedelt.

Die Aussagen aus dem Test zu DLSS und FSR würde ich so aber nicht komplett unterschreiben. Beide Verfahren funktionieren für mich genauso gut wie im Vorgänger. Und wenn XeSS nicht so zum Flackern neigen würde, wäre es eine tolle Alternative zu FSR. Rein bzgl. der Rekonstruktion feiner Details ist es FSR nämlich sichtlich überlegen.
 
Zuletzt bearbeitet:
Ragnarök88 schrieb:
In dem Spiel braucht man mit einer aktuellen AMD Karte nicht mal an RT denken. Und das ist auch der Grund warum Nvidia die Preise ansetzt wir sie sind.
Das glaub ich nicht. Die "kostenlose Marktstudie" zu Corona Zeiten hat Nvidia klar gezeigt was die Leute bereit sind zu bezahlen. Und man wäre doch schlecht beraten wenn man nicht das Maximum an Gewinn anstrebt.

AMD wird auch auf den gleichen Zug aufspringen, die habe ja auch nichts zu verschenken.
 
  • Gefällt mir
Reaktionen: Mcr-King
Bestätigt meinen Eindruck, dass der neue Teil insgesamt besser performt als der Vorgänger:

 
  • Gefällt mir
Reaktionen: Mimir und rumpeLson
Vielen Dank an die Readktion, ich finde das ist eine richtig gute Arbeit.
Die Vergleichsvideos sind Klasse!!
 
KingZero schrieb:
Das Spiel kriegst du auf cdkeys.com für 34€.
Das weiss ich. Dennoch danke.
Mir ging es um den Preis generell. Für ein Addon von 6-12h ist das viel. 35 € als regulären Preis fände ich angemessen.

@juwa
Da hast du durchaus recht.
Aber auf manche Spiele freue ich mich so sehr, dass ich sie dann gleich spielen möchte. 😊
Ich muss mich echt zusammenreißen um Hogwarts Legacy nicht vorzubestllen. 🙈
 
  • Gefällt mir
Reaktionen: juwa
Ich finde es wirklich sehr bemerkenswert wie seit knapp 2 Wochen immer mehr Meldungen erscheinen die 10GB RAM der 3080 wären nicht genug.

Ich hab nicht ein Spiel in 3440x1440 mit dem ich bisher Probleme hatte oder habe.

Das gleiche mit Darktide, die Spiele die gerade erscheinen sind ne reine DLSS 3 Werbung. Man nutzt steinalte Engines oder miese Konsolenports um hier Ängste zu schüren, zumindest scheint das mir so der Fall zu sein.

Aber ich verstehe in diesem Fall hier die Diskussion generell nicht, wir reden von Hardware die 2 Jahre alt ist. Man sollte nicht mehr erwarten alles in Ultra spielen zu können. Aber das Entwickler jetzt vermehrt Murks abliefern weil man ja DLSS 3 usw hat ist auch ein Armutszeugnis.
 
  • Gefällt mir
Reaktionen: ThreepQuest64 und Mcr-King
Also, habs mir gestern gegönnt, allerdings bei nem Key Reseller für 33 Euro, weil mir Vollpreis für ein 7-9 Stunden Spiel als unverschämt erscheint, sorry. (Und bevor sich wieder jemand darüber echauffiert... ich hab den Vorgänger schon zu Konsolen Vollpreis auf der PS4 Pro gespielt und imo Sony genügend Geld an exclusives in den Rachen geschmissen...!)

Eben fertig installiert und mal kurz angespielt so 15 Minuten...
Performance mit nem 5800x (65 Watt) und ner 3080 10GB (stark undervolted) mit 32 GB Ram super. 4K, Hoch, DLSS Performance und Raytracing hoch (darunter gibts ja gar nix?!) und wirklich sehr smooth zu spielen, fast immer 60 FPS. Grafik ist Hammer. DLSS merke ich in keiner Sekunde, alles wirkt sehr "crisp". Bei Treppen merkt man paar Artefakte, aber gefühlt war das ja schon sehr oft problematisch, auch in anderen Spielen / Engines.

Kampsystem wirkt sehr spassig, pew pew pew *G

Nur mal meine paar Cent dazu.

Freu mich auf ein entspanntes WE zum zocken.

Edit: Der Vollständigkeit halber, also die 10 GB VRam nutzt das Spiel schon gut. Mal schauen wie es in längeren Sessions wird. Zur Not mal Neustart, auch nix schlimmes für mich.

1668883343350.png


vg Chris
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nick.Bo und LBB
Wolfgang schrieb:
Danke für den Test, aber könnt ihr euch erklären wieso THG mit der gleichen CPU keinen so krassen Unterschied zwischen
den RX und den RTX sieht? Da sind die AMD-Karten entweder gleichauf, kurz dahinter und hier und da sogar vor ihren
"Pendants", also 6800XT vs 3080 zB. Auf CB gibt es aber 20-30% Unterschied? Und gemeint ist hier nichtmal mit RT on.
 
  • Gefällt mir
Reaktionen: KingZero und Eller
Gesualdo schrieb:
Da hast du durchaus recht.
Aber auf manche Spiele freue ich mich so sehr, dass ich sie dann gleich spielen möchte. 😊
Ich muss mich echt zusammenreißen um Hogwarts Legacy nicht vorzubestllen. 🙈
Kenne ich nur zu gut, bin da genauso drauf... gewesen.

Tief durchatmen und an andere Dinge denken, die haben mich von dieser Zero-Day-Kaufmanie befreit. Auch das ein oder andere Katzenvideo auf TikTok hat uns bei unserer Selbsthilfegruppe geholfen [/ironie]. ;)
 
  • Gefällt mir
Reaktionen: Gesualdo
Studien über Grafikeinstellungen abhängig von Hardware, Treibern und weiteren Randbedingungen um ein Spiel zu spielen. Auch hier werden Albträume wahr und der aktuelle Einbruch des PC-Marktes wird immer besser nachvollziehbar.
 
  • Gefällt mir
Reaktionen: Viper2000
Lan_Party94 schrieb:
Was hat das Spiel mit dem Alter zu tun? Animal Crossing ist kein FSK16/18 Titel und wird von vielen erwachsenen gespielt. Ich will gar nicht erst mit Pokemon anfangen!
Die Spiderman spiele sind super, dafür muss man keine 12 sein, man kann sogar mit 40+(bin ich zum Glück noch etwas von entfernt) Spaß dran haben - stell dir vor!
Ich bin 50+ und schwinge mich noch durch die Stadt....einfach weil ich es kann😄
 
  • Gefällt mir
Reaktionen: rumpeLson, Lan_Party94 und Czk666
Legalev schrieb:
und stört mich mit meiner 6800xt überhaupt nicht.
Demnächst ne 7900XTX
Darf ruhig langsamer sein und RT ist mir eh egal

Mir persönlich ist Raytracing auch völlig egal, sicher, daß Auge spielt mit, aber vor Allem geht es doch um Spielspaß, oder?
Und wenn ich spiele, dann stehe ich auch manchmal in der Gegend rum und schaue mir die schöne Umwelt an, wie zB. in Shadow of the Tomb Raider, aber ich suche nicht explizit nach flimmernden Ecken und Kanten, dafür sind meine Augen eh nicht mehr gut genug.
Mag jetzt sein, daß Nvidia mal wieder besser abschneidet als AMD, ja und, dann ist dem halt so.
Ich kaufe mir wenn eine Grafikkarte, die zu meinem Paket paaßt, und nicht nur für ein Spiel.
Und zur Zeit wären für mich die AMD- Karten die Wahl, wenn ich eine neue GPU bräuchte.
Aber Essig, brauch ich eben nicht, so werkelt weiterhin meine olle 1070ti weiter, bis zu ihrem Ableben.

Und es wäre mal wieder bewiesen: mit allen möglichen Reglern auf mehr als voll Rechts bekommt man jede Grafikkarte klein.
 
  • Gefällt mir
Reaktionen: Legalev
ben12345 schrieb:
Optisch gefällt mir AMD treibermäßig auch besser also was das Overlay der Software angeht. Da ist Nvidia ne Katastrophe. Aber das ist eher unwichtig, was den Treibersupport der Spiele angeht wischt Nvidia leider immer noch den Boden mit AMD.
Das ist doch im Endeffekt egal. Die meisten kaufen die Spiele sowieso nicht zum Release. Schau lieber die Performance nach 1 - 3 Jahren mal an.

Ich habe leider zu oft schon gesehen das die Nvidia Karten Anfangs sehr Stark sind, aber dann Fallen sie gegenüber AMD zu sehr ab. Gibt genug Beispiele.

Ansonsten wer mit Raytracings zocken will sollte zu Nvidia greifen. Aber der nötige Vram sollte auch vorhanden sein. Unter einer RTX 3080 10 - 12 GB lohnt es sich einfach nicht.

Ansonsten sind die Hardware Anforderungen echt hoch.
 
Nick.Bo schrieb:
Aber das Entwickler jetzt vermehrt Murks abliefern weil man ja DLSS 3 usw hat ist auch ein Armutszeugnis
Tun sie ja nicht alle. Gibt ja welche, die das vorbildlich integriert haben und weiter dabei sind das zu optimieren.

Bright Memory Infinite- Update vom 16.11.
Hello everyone! We've released a new update just in time for the release of the NVIDIA RTX4080.
The input lag after turning on DLSS3 has been reduced from 38ms to 27ms.
Somit wird die beste Integration von DLSS3+FG bisher also noch besser. Wir sehen also- Es geht, wenn man will.
Und das für einen kleinen Mini- Entwickler.
https://www.keyfuchs.de/firma/fyqd-studio

Nicht alle treiben Schindluder mit den neuen Techniken.
 
  • Gefällt mir
Reaktionen: Zer0Strat und Laphonso
Ragnarök88 schrieb:
Wo sind die 4K RT Benchmarks???
Absolut mäßiger Test, die 4090 kann sich ja gar nicht von der 4080 absetzen, da CPU Limit!

Schwach und albern!
Wieso testet ihr mit DLSS in 4K???
Albern und Schwachsinn wäre es, bei einem Spiele-Test in Einstellungen zu testen, wo einzig und alleine die RTX 4090 gerade einmal so (und wirklich nur ganz knapp) 60 FPS erreicht und selbst die RTX 4080 bei 4x FPS rumkrebst. Das wäre schwach und albern. Das Miles Morales echt schnell in ein CPU-Limit gerät, wenn man die GPU-Last leicht reduziert, ist nicht unser fehler.
daivdon schrieb:
Danke für den Test, aber könnt ihr euch erklären wieso THG mit der gleichen CPU keinen so krassen Unterschied zwischen
den RX und den RTX sieht? Da sind die AMD-Karten entweder gleichauf, kurz dahinter und hier und da sogar vor ihren
"Pendants", also 6800XT vs 3080 zB. Auf CB gibt es aber 20-30% Unterschied? Und gemeint ist hier nichtmal mit RT on.
Die Benchmark-Ergebnisse zwischen uns und THG sind sogar ziemlich ähnlich, wenn du mal genau hinschaust (ist nicht ganz einfach das richtige Diagramm zu finden).
THG hat in Ultra HD Nativ ohne RT die RX 6950 XT auf dem Niveau der RX 6800 XT. Bei uns ist die RTX 3080 8 Prozent schneller als die RX 6900 XT. Jetzt ist die RX 6950 XT etwa 6 Prozent schneller als die RX 6900 XT - und schon haben THG und wir quasi dieselben Ergebnisse.
 
  • Gefällt mir
Reaktionen: Zer0Strat, KingZero und rumpeLson
anappleaday schrieb:
1. Treiber sind besser.
Das ist leider nicht mehr aktuell.
Auch nVidia hat sich in letzter Zeit einige Böcke im Treiber geleistet. Dazu kommt noch immer diese Zweigleisigkeit zwischen GeForce Experience und der eigentlichen Treibersoftware, die dann auch noch aussieht wie aus XP Zeiten.
Da ist AMD mit der Software deutlich weiter. Taktrate und Spannungen kann AMD direkt im Treiber. Nv braucht dafür Drittanbieter.
 
  • Gefällt mir
Reaktionen: Legalev
Zurück
Oben