• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Assassin's Creed Odyssey: Griechenland benötigt schnelle GPUs und CPUs

SKu schrieb:
Im Gegensatz zu einem Tomb Raider mit Schlauchleveln bzw. einem strikten Pfad, hat man hier je nach Standort komplett andere Anforderungen an die Hardware.
Das erklärt aber nicht, warum ein Wolken-Effekt, auf den ohnehin kein Mensch achtet, mal eben die Gesamtperformance des Spiels um 30% nach unten zieht.

Mich würde mal interessieren, ob das Spiel zumindest teilweise vom Command Processor der GPU limitiert wird. Die Engine dürfte ja der aus Origins sehr ähnlich sein, und Origins hat die Eigenheit, über 50k indirekte Draw Calls pro Frame an die GPU zu schicken, von denen die allermeisten aber letztenendes gar nichts rendern. Das ist zwar CPU-seitig kein Problem, kann aber möglicherweise die GPU aus dem Konzept bringen.

Ab davon ist SotTR auch alles andere als genügsam. Mit meinem 2700X klebe ich da teilweise mit 35 FPS im CPU-Limit, die GPU-Anforderungen sind zwar ncht ganz so absurd, aber dennoch hoch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran
Wolfgang schrieb:
Das sieht komisch aus, ist aber reproduzierbar so.
Du darfst nicht vergessen, dass in full HD die vollen Grafik_Details genutzt werden und in UHD das Hoch-Preset.
Wenn ein Prozessor nun Schwierigkeiten mit Extrem Hohen Details hat, die Last dann in UHD mit Hoch auf die Seite der GPU verlagert wird, dass die CPU entlastet wird und nicht mehr bzw. weniger bremst. Dann kann es sein, dass die Framerate in UHD plötzlich höher ist. Bei gleicher Detailstufe gäbe es das natürlich nicht.

Habt ihr überprüft ob Nvidia hier überhaupt alle Render/Details des Spiels nutzt und nicht, wie schon einmal geschehen, einfach ein paar "ausgelassen" hat um ganz oben auf dem Treppchen zu stehen?




Viele Grüße,
stolpi
 
  • Gefällt mir
Reaktionen: Denniss
SKu schrieb:
Na ja, das Spiel ist gigantisch groß, die Möglichkeiten scheinen unendlich zu sein. Im Gegensatz zu einem Tomb Raider mit Schlauchleveln bzw. einem strikten Pfad, hat man hier je nach Standort komplett andere Anforderungen an die Hardware.

Gut, das kann man von Witcher u.ä. auch behaupten, und rein von den Screenshots her sieht letzteres auch nicht schlechter aus. Frisst aber bestenfalls die Hälfte an CPU Resourcen.
 
Das irritierendste nach 35 Stunden im Spiel .... Der Pferdeschwanz sieht aus wie von 2000 an dem Gaul.... So oft wie man reiten muss stört mich das irgendwie. Witcher 3 habe ich um Welten besser in Erinnerung bei solchen Details
 
borizb schrieb:
Eine Skylake CPU im Benchmark wäre nett gewesen, wenn man schon den alten 8370 reinnimmt.

Die Benchmarkergebnisse erinnern irgendwie an Schatten des Krieges, wo auch die AMD Hardware
(da waren es die GPUs, hier sind es die CPUs) unverhältnismäßig besser als im Schnitt abschneidet.

Man würde zunächst annehmen, dass das was mit der AMD-Konsolen Herkunft zu tun hat, aber
wenn man dann zum Beispiel FF XV anschaut, und sieht wie Nvidia da vorne liegt, ist das kein
Argument mehr. Dem sollte man mal auf den Grund gehen, warum das so stark variiert pro Spiel.

Ich finde die Amd Karten schneiden überdurchschnittlich schlecht ab in diesem Spiel. Bei den Cpus ist es doch erklärt. Das Spiel skaliert gut mit Kernen.
Ergänzung ()

fdsonne schrieb:
Ich halte es für recht unwahrscheinlich dass das hier bei AC wirklich was mit Multithreadoptimierung zu tun hat.
Ganz ehrlich - ein i5-8400 kommt unter MT Volllast mit 3,8GHz daher - der 8700k mit 4,3GHz -> das sind poplige 13%. Da kommt dann noch SMT drauf - aber selbst das wären immernoch recht annähernd perfekte Skalierung bei im Schnitt um die 20% mehr, was da sonst so üblich ist.

Nimmt man nun dies als Basis müsste theoretisch ein 2600X zu einem 2700X mindestens um 33% schneller sein. Ist er aber nicht, es sind nichtmal 10%, was dieser zulegt. Interessanterweise ist der 2600X ggü. einem 2400G wieder fast 1:1 so viel schneller, wie er auch auf dem Papier sein müsste - dafür sieht der 2400G ggü. dem 7700k trotz "nur" ca. 20% weniger MT Power hier auf einmal um 43% kein Land.

-> das lässt sich eine Sache recht stark vermutet - es existiert irgend wo Code im Spiel, welcher scheinbar extrem schnell auf Intels SMT ausgeführt werden kann. Böse Zungen könnten von einer Optimierung auf Intel CPUs sprechen, vllt Compiler, vllt irgendwo was mit dem Kopierschutz.
Ist mit so von Außen die einzig plausible Erklärung, warum bei Intel SMT so reinhaut, obwohl die generelle Threadskalierung eher vergleichsweise gering ist. So bringt SMT beim 8400 zum 8700k fast 1,5x so viel wie 50% mehr echte Cores von 7700k zu 8700k.

Nichts desto trotz scheint es so, dass dem Spiel grundsätzlich Multithreading erstmal liegt. Ohne weitere Analysen kann man das aber mMn nicht als irgend einen Ansatz für die Zukunft sehen. Interessanterweise war auch Origins davor ähnlich von den Werten her. Allerdings waren diese zumindest eher erklärbar, da SMT bei Intel nicht so ultra viel gebracht hat. Seinerzeit hatte man den Kopierschutz in Verdacht...


PS: eine Redaktion könnte nun einfach mal den 8700k und den 2600X nehmen und das einfach mal bei fixem Takt ohne Turbo Gedöns wahlweise mit und ohne SMT gegen testen. Zusätzlich, je nachdem, was rauskommt wäre ggf. sogar ein Test mit nem alten 5820k/5930k oder 6850k/6800k interessant. 1600X natürlich auch.

Auch interessant könnte sein einfach mal zu prüfen, wie es denn sein kann dass der Bulldozer und der 8100 in UHD auf einmal über 20% schneller sind als in FHD... -> was völlig unlogisch ist.
Kann für die Wertermittlung auch was völlig anderes da rumfuschen. Mehr FPS bei mehr AA lässt eigentlich schon Hellhörig werden dass da was nicht so läuft, wie sonst üblich ;) Nicht dass da einfach dynamisch irgendwo Berechnungen drauf kommen...
Da spielt dann der UHD Spieler mit ner 1080TI auf nem 8100er Intel mit 55FPS und der FHD Spieler mit der 30% schnelleren 2080TI bei nur einem virtel der Bildpunkte mit 45 FPS. :daumen:

Das mit den besseren FPS in UHD wurde erklärt. In UHD wurde auf Hoch und nicht Sehr Hoch getestet. Weniger Sichtweite etc = weniger CPU last und mehr FPS.
 
die Ueberschrift ist echt verstörend. Auch wenn es passt.
 
Qarrr³ schrieb:
Ich wüsste immernoch gern, ob die Threadripper im NUMA oder UMA Modus laufen.

Schreib ihn doch einfach selbst direkt an. Seine Kontaktdaten stehen direkt unter dem Bericht.
 
Ist schön das die Spiele langsam mal anfangen mehr Threads zu nutzen - der Sprung auf nen 8-Kerrner ist bei Spielen dieser Art so langsam angeraten - ich denke aber der 9700K wird hier auch ohne HT glänzen weil 2 Cores mehr mit hohem Takt hier schon nen derben Unterschied machen wird.
 
Zuletzt bearbeitet:
@Wolfgang Schöner Test, eine Anmerkung habe ich.

Im Dauerduell AMD gegen Intel zeigt sich, dass die Intel-CPUs in dem Spiel teils an sich ein gutes Stück schneller arbeiten als die Konkurrenzprodukten. Aber nur bei gleich vielen CPU-Kernen. AMD kann dies durch die mehr Kerne teils kompensieren und teils dadurch auch Intel ausstechen.
Für mich ist das Konkurrenzprodukt eines, das in etwa gleich teuer ist, also treffen quasi nie gleiche Kernzahlen aufeinander. Für mich sieht das eher so aus, als wäre AMD immer gleich schnell/schneller als das Konkurrenzprodukt.
Ergänzung ()

Faust2011 schrieb:
Schreib ihn doch einfach selbst direkt an. Seine Kontaktdaten stehen direkt unter dem Bericht.

Hat Jan schon 2-3 Posts später beantwortet. Uma
 
Zuletzt bearbeitet: (Autokorrektur aus der Hölle)
  • Gefällt mir
Reaktionen: Jan
Mir ist der Verlust an Schärfe bei 1080P durch AA zu hoch. Ohne AA sehen die meisten Spiele besser aus.
 
acc schrieb:
man reduziert ganz einfach die rechenlast, indem man sachen vereinfacht oder gleich ganz rausschmeisst. was anderes bleibt denen nicht übrig.

Das würde dann ja heißen, dass es auf den Konsolen ein anderes Spiel ist. Grafik reduzieren ist eine Sache, aber um eine CPU zu entlasten, müsste man ja, wie gesagt vereinfachen (z.B. NPCs reduzieren), was dem Spiel sehr abträglich wäre.
 
@Wolfgang

Ist euch ein Unterschied in den Ladezeiten zw. den CPU aufgefallen?
Helfen hier ebenfalls viele Threads?
 
Cordesh schrieb:
Ich mache mir gar keine Gedanken mehr um die techn. Details bei Spielen.
Ob 30 oder 60 fps fällt mir alten Sack (53) wohl nicht mehr auf.
Früher hatte ich auch immer die neueste Graka im Rechner und wühlte mich durch die Einstellungen.
Konsolen waren bähhh und ein echter Zocker spielt am PC!

Dann kaufte ich mir wegen "The last of us" ne PS4 Pro und seit dem zocke ich immer mehr auf der Konsole.
Ich denke das hat bei mir auch etwas mit dem Alter zu tun, was einem wichtig ist verschiebt sich etwas.
Im Moment zocke ich das neue TR auf der PS4 Pro und bin begeistert. Es macht irre viel Spaß und ich wüsste für mich keinen Grund warum ich es am PC zocken sollte.

Danach kommt Creed dran. Freue mich schon drauf.

Aber jeder wie wer will, da hast du vollkommen recht.

Das last of us ist der Oberhammer. Bin es momentan am Spielen und hoffe, dass es lange weiter geht und nicht endet. Sehr fesselndes Game.
 
M1ximili1n schrieb:
Das würde dann ja heißen, dass es auf den Konsolen ein anderes Spiel ist. Grafik reduzieren ist eine Sache, aber um eine CPU zu entlasten, müsste man ja, wie gesagt vereinfachen (z.B. NPCs reduzieren), was dem Spiel sehr abträglich wäre.

npcs reduzieren kommt durchaus vor (ein negativbeispiel: watch dogs auf der ps3) aber normalerweise versucht man rechenleistung zu sparen, indem man allgemein gesprochen ebrechnungen vereinfacht und reduziert. wo wir gerade bei ac sind, die höchste wolkeneinstellung vom pc wirst du beispielsweise auf konsolen nicht sehen, weil sie zuviel leistung frisst. dasselbe passiert mit allen features des spiel auf den konsolen, frisst etwas zuviel leistung, wird die dafür aufgewendete leistung soweit reduziert, bis es passt.
 
@Cb: was für ein polemischer Titel, welcher mit Ressentiments spielt und euren Stil nicht würdig ist. Ich denke der Rest alleine würde auch genug clicks erzielen ohne auf einen Bild-zu - Titel bauen zu müssen.
 
keine Ahnung was an dem Titelin Relation zum Hardwarehunger schön aussehen soll

mit ner RX 570 auf hoch nicht anders als Origin, neue Map halt, moptisch nicht viel anders, 35-40 frames FullHD

dem gegenüber Shadow of the Tomb Raider, ebenso auf hoch, 40 frames FullHD, die aber bereits mit einer 1050ti

und Lara inklusive Welt sieht gegenüber geh mal hol mal bring mal Odyssee bombe aus

lieblos dahin geklatschter Reiseführer von Ubisoft, anders kennt man es ja nicht von denen

wenn mich die Charaktere im Spiel so anschauen denk ich die fragen mich..na, enttäuscht, kein Bock auf das Spiel?

ich so...hm

Charakter so...mach dir nix draus, wir auch nich )
 
Habe eine 1080ti mit Ryzen 1800x und 32 GB RAM. Im Benchmark bekomme ich mit Full HD auf 40 fps mit Grafikeinstellungen Ultra. Im Spiel merke ich schon wie es im Spiel manchmal etwas verzögert wirkt. Schon blöd wenn man eine 1200 Euro Grafikkarte braucht um das Spiel vernünftig zu spielen.
 
Zurück
Oben