Test The Last of Us Part I (PC) im Test: Grafisch Referenz, technisch (noch) nicht

Crifty schrieb:
Hardware unboxed hat sich auch der VRAM Thematik angenommen:
Anhang anzeigen 1341843
Sieht man doch schön, dass das Spiel komplett kaputt. Ultra-Texturen machen keinen Unterschied zu High, brauchen aber angeblich 3GB mehr - selbst in 1080p. Dagegen ist der Unterschied High und Medium riesig, aber der Unterschied läge nur bei einem 1,5GB. Lächerlich. Und darauf werden dann irgendwelche Sachen wegen VRAM geschrieben.
 
  • Gefällt mir
Reaktionen: Kay B. und Gortha
Mimir schrieb:
Gibt hier zwei Probleme.

a) auf AMD GPUs wird meist mehr VRAM belegt und auch benötigt als auf Nvidia GPUs
b) da man nicht weiß, wie viel das Spiel wirklich benötigt und wie viel nur allokiert wird, kann man daraus nicht ableiten, ob es denn auf ner 8 GB Karte in 1440p mit dem High Preset nun doch spielbar wäre.
Ja das sind keine Probleme, da reicht es schon sich einfach mal ein paar Vergleichsvideos sich von verschiedenen Spielen anzusehen und wird sehr schnell feststellen das der VRAM Verbrauch im Schnitt bei AMD ca 10% höher ausfällt. Selbst mit den 10% Abzug ist man immer noch über den 8gb
 
Dann bleibt immernoch die Frage, wie viel tatsächlich benötigt wird und wie viel nur belegt wird, weil der Speicher vorhanden ist.
Aus der Vergangenheit weiß man, dass es hier oft große Abweichungen gab.

Ich kann aus den Angaben jedenfalls keine Rückschlüsse ziehen, wie das Spiel mit 8 oder 10 GB auf ner Nvidia läuft.

So einfach ist es halt leider nicht…
 
  • Gefällt mir
Reaktionen: Wan900, Mcr-King, Gortha und eine weitere Person
Tronx schrieb:
Ich habe mit meiner 4090 absolut keine Probleme mit diesem Game. Hatte erst Bedenken wegen den ganzen Berichten, diese waren aber unnötig.
Wer hätte denn das für möglich gehalten? O_ô
 
  • Gefällt mir
Reaktionen: Legalev, Mcr-King, Coeckchen und 2 andere
Mimir schrieb:
Ich kann aus den Angaben jedenfalls keine Rückschlüsse ziehen, wie das Spiel mit 8 oder 10 GB auf ner Nvidia läuft.

So einfach ist es halt leider nicht…
Dann einfach mal das Video von Hardware unboxed ansehen. Die testen auch auf 1440p mit high Settings und gehen auch auf die Nvidia Karten ein. Dann sollte alles geklärt sein.
 
  • Gefällt mir
Reaktionen: Mcr-King
Kann jemand sagen, ob/wie das Spiel mit einer 3080 10 GB in UHD und hohen Texturen VRAM-mäßig läuft?
 
Gortha schrieb:
Ich sehe allerdings auch bei mittleren Texturen auf euren Bildern keine großen Unterschiede oder wirkliche Mängel die die VRAM Menge der hohen oder ultra Texturen rechtfertigen würden.
Es ist wie immer mit den High/Ultra Settings:
Wer nur stumpf alles auf max. stellt darf (oder muss) sich am besten eine RTX 4090 kaufen um noch dreistellige Frameraten zu erhalten, die der PCMR Gott als spielbar bezeichnet.

Alle anderen schauen sich 5min die Settings an, stellen einzelne Optionen die unverhältnismäßig viel Leistung kosten ein, zwei Stufen herunter und erfreuen sich auch an gut spielbaren Frameraten und guter Optik.
Oft genug lassen sich die optischen Unterschiede selbst auf statischen Screenshots kaum ausmachen, in der Action geht es dann idr. vollkommen unter ob man nun absolut alles auf Ultra oder einem guten Mix aus Ultra, High & Medium spielt.
 
  • Gefällt mir
Reaktionen: scuba2k3, Lasyx, Gortha und 2 andere
Wolfgang schrieb:
Man kann TLoU mit der RTX 3080 ganz gut in höheren Auflösungen spielen, aber eben nicht "Haker Frei". Das geht dann zum beispiel mit er 6800 XT, nicht aber mit der RTX 3080. Es sei, man dreht die Texturqualität herunter.

Muss man aufgrund der Performance, falls man die 60+ erreichen möchte, nicht ohnehin mind. FSC Balanced oder gar Performance nehmen?
Dann sollte es ja auf beiden gleich gut ohne Hacker laufen und man hätte 60+ FPS?
 
  • Gefällt mir
Reaktionen: Mcr-King
troyan schrieb:
Sieht man doch schön, dass das Spiel komplett kaputt. Ultra-Texturen machen keinen Unterschied zu High, brauchen aber angeblich 3GB mehr - selbst in 1080p. Dagegen ist der Unterschied High und Medium riesig, aber der Unterschied läge nur bei einem 1,5GB. Lächerlich. Und darauf werden dann irgendwelche Sachen wegen VRAM geschrieben.
So sehe ich das auch. Absolute Fehlleistung und Fehlentwicklung der Entwickler und Sony.
Besonders wenn der Ottonormalo eben FullHD spielt und 8 GB VRAM hat.
 
juwa schrieb:
Vielleicht hätte ich den inneren Schweinehund überwinden sollen und doch die 4090FE mitnehmen sollen
ja oder Warten aber ich kenne das auch ist halt das Haben wollen :)

aber was es zur Zeit gibt ist Preislich eh nicht meine Region. warte noch bis zum Herbst und hoffe bis dann gibt es die RX7800 oder eine RTX4070ti-Super-16GB für max. 600 wenn nicht dann wenigstens eine 8GB Karte der Aktuellen gen für unter 300€ wenn nicht bleibt meine RX590 noch bis die Preise wieder Passen
 
  • Gefällt mir
Reaktionen: Mcr-King
Gortha schrieb:
Stabile 60 FPS hat er auf jeden^^
Reicht für das meiste auch völlig aus.

60 Hz-Monitore haben ein zusätzliches Problem: kein vernünftig funktionierendes G-Sync/Freesync.

Das ist gleich doppelte Ressourcenverschwendung: man braucht die fette GPU, weil jeder kleinste Drop unter 60 fps ohne Adaptive Sync sofort störend auffällt, verschenkt deren Leistung aber für 99% der Spielzeit, weil höhere Frameraten gekappt werden.
 
  • Gefällt mir
Reaktionen: Vendetta192, Pro_Bro, MehlstaubtheCat und eine weitere Person
juwa schrieb:
Du damit ein Dokument scannen oder kopieren, bist so gesehen ein Sofaopfer
😂 Nee die steht auf dem Schreibtisch neben meinem PC am Monitor dran. 😉
 
ShowOff schrieb:
Comment des Tages Award haste sicher :hammer_alt:
Wieso? Ich war am Anfang verunsichert, gebe nur meine Erfahrung wieder. Manchmal denkt man, manche wollen oder können es nicht verstehen.
Ergänzung ()

HardcoreGaymer schrieb:
Wer hätte denn das für möglich gehalten? O_ô
Es gibt auch Berichte das es auf 4090 mies laufen sollte, will damit nur sagen, dass dem nicht unbedingt so ist.

Weder Crash, noch Blackscreen etc, davon wird ja auch berichtet.
 
Zuletzt bearbeitet:
nailos schrieb:
Wozu dann überhaupt Spieletests?
Weil man damit die eigentlichen Hardwaretest zu einem Zeitpunkt X um neue Daten erweitern kann und man damit in spätere Kaufempfehlungen auch auf diese neue Datenbasis verweisen kann?

Computerbase bestimmt zu einem Zeitpunkt N das aktuelle Testsystem und den Katalog an Spielen, der für den GPU-Test benutzt wird. Damit deckt Computerbase die Leistung zu einem Zeitpunkt Y ab, alles was danach kommt, ist ert mal nicht mehr relevant.

Die Spieletests hier helfen Computerbase dabei die Datenbasis für Kaufempfehlungen und Co um neue Titel zu erweitern und auch vielleicht sogar die eigenen Empfehlungen anzupassen.
nailos schrieb:
Da will ich doch den Spieler beraten, ob dieser das Spiel überhaupt kaufen soll.
Willst du das? Ich habe bei den Spieletests von Computerbase bisher nie den Eindruck gehabt, dass hier wirklich das Spiel mit all seinen möglichen Facetten bewertet wird, sondern der Schwerpunkt auf die Technik der Spiele gelegt wird und wie "aktuelle" Grafikkarte damit umgehen können.

Hier wird in der Regel die Technik der Spiele bewertet und die Leistung aktueller Grafikkarten, die man im Handel findet/noch findet. Der Schwerpunkt wird hier sehr eindeutig auf die grafische Qualität der Spiele gelegt und wie die Grafikkarten auf dem akuellen Referenzsystem laufen.

Eine inhatliche Auseinandersetzung mit dem Spiel findet hier sehr rudimentär statt - hier sind es 5 Absätze und das war es schon. Wenn man Spieler beraten will, ob sie ein Spiel kaufen oder nicht kaufen sollen, müsste CB den inhaltlichen Schwerpunkt massiv ausbauen. Ich verstehe das hier dann schon eher als eine Beratung für Spieler, wie gut ein Spiel bei ihnen läuft.

Wenn man sich die Fazits von CB zu den Spielen ansieht, dann wird auch hier immer primär der technische Stand des Spieles bewertet und wie sich die Grafikkarten bei den festgelegten Einstellungen verhalten und wie das Spiel allgemein im Kontext von Hardware zu sehen ist. Hier wird keine Kaufempfehlung für das Spiel ausgesprochen.

Und warum Computerbase so testet, wie sie testen, kann man hier auch im letzten Absatz sehr gut nachvollziehen: "The Last of Us gehört wie zuletzt so einige andere Titel einer neuen Generation an Spielen an. Für alte Hardware ist das Spiel nichts, das muss klar sein. Und mit Mittelklasse-PCs gibt es eben nicht immer volle Grafikdetails: Das Spiel benötigt für hohe FPS einen schnellen Rechner. Aufgrund der Grafikqualität sind die Anforderungen aber definitiv nicht zu hoch."

JMP $FCE2 schrieb:
Ausdrückliche Kaufwarnung, und Nachbesserung verlangen.
Das wäre in dem Fall für mich dann aber eher etwas, was GameStar, Giga, PCGames (nicht Hardware) und Co machen müssten, nicht unbedingt Computerbase, die eine technische Analyse anbieten.

Mimir schrieb:
Aber ist es denn wirklich so sinnvoll, bei fast jedem Spiel das erscheint 10-20 GPUs in allen Auflösungen bei maximalen Settings durchzutesten, nur damit man die Rangordnung aufs neue bestätigt oder bestenfalls rausliest, dass sie sich leicht verschiebt?
Kommt halt auf den eigenen Schwerpunkt an, den man hier gewählt hat und was der Schwerpunkt des Artikels ist. Für Computerbase steht bei den "Tests" hier einmal die Vergleichbarkeit der Grafikkarten im Mittelpunkt - deswegen alle Grafikkarten mit den selben Settings durch die Auflösungen - sowie die technische Analyse des Spieles - mit einem immer stärkere Fokus auf DLSS und FSR.

Wenn ich ein Spiel technisch analyisiere, dann versuche ich auch nicht das Spiel irgendwie "spielbar" zu bekommen, sondern wähle meine Parameter fest aus und analysiere anhand dieser Parameter das Spiel und hier eben auch wie sich die Grafikkarte verhalten.

Ich kann auch einen anderen Schwerpunkt legen und auch sagen: Wie muss ich die Grafikkarten einstellen damit ich mindestens 30fps, 60fps und Co bekomme, oder ohne störende Ruckler usw. Das wäre dann aber wieder ein anderer Schwerpunkt.

Mimir schrieb:
Das ist ein Wahnsinns Aufwand der hier betrieben wird, für relativ wenig praxisbezogene Erkenntnis.
Ich empfinde die Erkenntnisse, die ich hier aus dem Artikel ziehen kann, für sehr praxisbezogen, weil ich anhand der Beschreibungen sehr wohl einordnen kann, wie ich das Spiel ggf. bei mir Einstellen muss, damit ich vor entsprechenden Problemen verschohnt bleibe.

Mir geht es an der Stelle genau anders: Wenn Computerbase die Tests so machen würde, wie du es erwartest, könnte ich kaum mehr einen Nutzen raus ziehen, weil ich dann zwar weiß, dass das Spiel mit den folgenden Einstellungen auf der Grafikkarte X läuft, ich könnte aber Freunden keine Empfehlungen mehr aussprechen, was sie ggf. kaufen sollen.

Genauso könnte ich an der Stelle auch nicht mehr zwischen den verschiedenen Generationen vergleichen, weil man zwar mit den Einstellungen alle "spielbar" bekommt, am Ende ich aber anfangen müsste zu interpolieren, wie sich ein 2070 S zu einer 4070 Ti verhält, weil die Einstellung so ist.

Alles eine Frage des Blickwinkels. Hier muss man halt den Schwerpunkt der Seite beachten und worum es genau geht. Ich finde es toll, dass die Seiten alle etwas andere Schwerpunkte legen und man am Ende aus verschiedenen Quellen viele Daten zusammen tragen kann.
 
  • Gefällt mir
Reaktionen: Coeckchen, Mcr-King, Mimir und eine weitere Person
Wolfgang schrieb:
Ich versuche mich hier mal schnell, aber ohne Garantie alles.

Bei 8 GB würde ich FHD Mittel gehen. WQHD...puh...Low? :D
Bei 10 GB Full HD Ultra, WQHD Hoch, Ultra HD Mittel
Bei 12 GB Full HD Ultra, WQHD Ultra, Ultra HD Hoch
Bei 16 GB immer Ultra
Danke Volker.

Meine fünf Jahre alte Palit GTX 1080 hatte 8GB (läuft immernoch), nun wollte ich im November aufrüsten, es endete in einen kompletten Neukauf. AMD kam wegen den Problemen beim Multimonitorbetrieb leider nicht in Frage, der Usertest hier hat mich dazu bewogen zur 4080FE zu greifen.

Damit läuft das Spiel sehr gut, danke für eure Arbeit und grüße mir unbekannterweise den Wolfgang!
 
  • Gefällt mir
Reaktionen: rumpeLson, PeacemakerAT, Gortha und 2 andere
Tronx schrieb:
Wieso? Ich war am Anfang verunsichert, gebe nur meine Erfahrung wieder. Manchmal denkt man, manche wollen oder können es nicht verstehen.
Ergänzung ()
welche Erfahrung, dass es mit einer 2000 Euro GPU läuft ? :D
 
  • Gefällt mir
Reaktionen: Dittsche und Mcr-King
Lors schrieb:
Ich liebe die Gewaltdarstellung in Last of Us. Wie hier das Blut bei Kopfschüssen an die Wände spritzt oder Körperteile weggesprengt werden sieht einfach mal richtig realistisch aus und passt perfekt zu dieser rauen postapokalyptischen Welt.

Ich hoffe GTA6 wird ein ähnliches Level bieten.
Jugendamt ist informiert
 
  • Gefällt mir
Reaktionen: Xler, SuperTuesday, NoNameNoHonor und 3 andere
ShowOff schrieb:
welche Erfahrung, dass es mit einer 2000 Euro GPU läuft ? :D
Weis nicht was die Frage soll, es kann auch genauso eine 4070, 4080 etc sein, je nachdem welche Auflösung man fährt, hat man dann entsprechend die Grafikkarte und in meinem Fall berichte ich über 4090, es geht auch um stabilität etc und nicht um dröfltausend FPS.
 
  • Gefällt mir
Reaktionen: SuperTuesday und juwa
wenns nicht auf der besten Karte im Portfolio läuft, dann könnte sich der Entwickler einbuddeln gehen. Das war übrigens nicht böse gemeint von mir. :schluck:
 
troyan schrieb:
Sieht man doch schön, dass das Spiel komplett kaputt. Ultra-Texturen machen keinen Unterschied zu High, brauchen aber angeblich 3GB mehr - selbst in 1080p.
Was in 1080p nicht mal so ungewöhnlich wäre, weil aus größeren Texturen auch Informationen verloren gehen können und nur sichtbar sind, wenn man quasi direkt davor steht.
troyan schrieb:
Dagegen ist der Unterschied High und Medium riesig, aber der Unterschied läge nur bei einem 1,5GB. Lächerlich. Und darauf werden dann irgendwelche Sachen wegen VRAM geschrieben.
Was auch nicht ungewönhlich ist und wenn man weiß wie Texturen aufgebaut sind und wie sich das vom Speicherplatz verhält.

Der Speicherbedarf steigt expotentiell an, nicht linear. Eine Textur mit 1024 * 1024 Pixeln belegt pro Pixel 3 Byte, macht also bei 1024 * 1024 3 MegaByte. Verdoppelt ich die Auflösung auf 2048 * 2048, steigt der Bedarf auf 12 MegaByte. Geht man dann auf 4096 * 4096 sind es dann 48 MegaByte. Entsprechend verhält es sich hier auch und die Abstände sind zwischen den Stufen größer.
 
  • Gefällt mir
Reaktionen: Windell und juwa
Zurück
Oben