• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Anno 117: Pax Romana: CPU-Benchmarks mit 10 AMD Ryzen und 8 Intel Core (Ultra)

Rhoxx schrieb:
nirgendswo bei der Diskussion um den 5800X3D wird die Tatsache berücksichtigt, dass diese CPU noch auf DDR4 läuft.
Möglicherweise wirkt sich der Wechsel von DDR4 auf DDR5 durchaus stärker aus als man denkt. Hier könnte man innerhalb der RAM Generation den Takt und die Timings (CAS, tRCD, tRP, tRAS, usw.) und ggf. Rank und Vollbestückung testen.
Genau dies wollte ich auch in den Ring werfen.

Am einfachsten wäre es einfach einen non-X3D auf AM5 mit nur Single-Channel laufen zu lassen um den Einfluss des RAM zu sehen. Ich bin mir nicht sicher ob @Wolfgang die Zeit hat, da auch noch RAM-Geschwindigkeit extra zu benchen aber interessant wäre es.
 
_b1nd schrieb:
Fast 30% schneller, bei 50% weniger Verbrauch (und geringerem Preis)
Nicht vergessen, das der 7800x3D ja sowenig verbrauacht, wiel man den Zusatzcache anders verbaute, und ihn daher weniger hoch taktete. Seit dieses Problem behoben ist beim Nachfolger, säuft auch der - bei selbstverständlich höherer Leistung=).
Ergänzung ()

ebmako schrieb:
Ja, ich bin nach wie vor unsicher was ich mache.
Doch wieder ein Gamingtauglicher PC anschaffen, den ich für weniger als ein anspruchsvolleres Game pro Jahr nutze, oder... naja, eben nicht.
Gibts keinen vernünftigern Aufrüstpfad bei deiner CPU / GPU den du dir leisten könntest? Wozu alles neu?
 
Zuletzt bearbeitet:
Die Frage nach Aufrüsten stellt sich mir momentan nicht. Die Speicherpreise sind Gottlos und auch die ganze AM5 Plattform ist noch nicht so rund, das sich mir ein Gefühl von „haben - wollen“ einstellt.

Aber ich muss auch zugeben, so gerne ich Anno 117 spielen würde, Arc Raiders und WoW lasten mich momentan zu sehr aus.
 
ErnstHaft99 schrieb:
Das wird nicht adressiert, weil es auch gar nicht stimmt. Dass der extra Cache bei wenig fps nichts bringt, ist halt nicht so. Warum sollte das auch so sein? Da werden Daten bereitgehalten, ob bei 10 fos oder 500 fps.
Moment, ich habe nie gesagt, dass es "nichts" bringt. Ich sagte, der Vorteil nimmt mit sinkender FPS ab, respektive der Vorteil steigt mit steigender FPS. Was auch technisch völlig logisch ist, wenn du mal etwas genauer darüber nachdenkst.

Es ist technisch so, dass der Weg von CCD zum IO Die und RAM immer gleich lang ist. Ein 5800X hat die effektiv selbe Straflatenz wenn er auf den RAM Zugreifen will/muss wie ein 5800X3D. Ein 7700X zu einem 7800X3D ebenso. Genau so wie von 9700X zu 9800X3D. Mal von winzigen Unterschieden durch vielleicht paar MHz Taktdifferenz abgesehen.

Nun ist es eben aber so, wenn die Latenz statisch hoch ist, dann ist auch der Gewinn statisch hoch, wenn man diese Latenz nicht mehr hat. Sprich ein Cache Hit ggü. dem Zugriff über den IO Die in den RAM bedeutet einen absolut gesehen fixen Wert an Zeiteinsparung.

Technisch wird bei Spielebenchmarks mit FPS Messungen aber die Anzahl der Bilder in einer Sekunde ermittelt (sagt ja der Name schon). Rechne es dir selbst aus. Wenn du deine Beispiel 10 FPS nimmst - dann sind das 100ms pro Bild die der Prozessor arbeitet (absolutes CPU Limit mal angenommen - wir sprechen ja von CPU Benchmarks). Wenn du 500 FPS hast, dann sind das 2ms pro Bild. Was passiert jetzt, wenn du die statisch gleich hohe Straflatenz durch mehr Cache auf einmal nicht mehr hast? Sagen wir angenommen 1ms gespart -> bei 100ms für ein Bild ergibt das 99ms - und auf die Sekunde betrachtet für die FPS Messung wären das 10,1 FPS. (1000ms / 99ms = 10,1 FPS). Bei 500 FPS Basis und 2ms pro Frame sind 1ms gesparte Latenz aber schon 50% der Dauer - das wären dann 1000ms / 1ms = 1000 FPS. Macht doppelte Geschwindigkeit.

Die 1ms in dieser Beispielrechnung ist btw. nur zur Illustration. Real pratisch reden wir da über Nano Sekundenbereiche.

Zur Veranschaulichung, wie der Cache auf die Latenz wirkt:
1763118714142.png
Das ist jetzt nicht das neueste Modell, aber spielt für das Verständnis keine Rolle. Man erkennt sehr schön, dass die größere Cache Größe des 5800X3D in diesem Bild deutlich länger die niedrigere Latenz aufzeigt beim Datenzugriff wie ein Modell mit niedrigerem Cache. Das Treppenmuster zeigt die Geschwindigkeit der Cache Größen zur jeweiligen Straflatenz. Alles größer dem L3 Cache geht dann in der Messung ungefähr Faktor 5 langsamer.


Wenn du jetzt diese kurze Zusammenfassung nochmal auf diese FPS Messungen drüber legst, müsstest du selbst auch feststellen, dass um so mehr FPS da im Benchmark anliegen, desto mehr wird ein Prozessor mit viel Cache davon auch profitieren ggü. dem quasi gleichen Modell mit weniger Cache. Einfach weil der Latenzvorteil durch den Cache statisch hoch ist und die FPS Messmethode auch immer statisch auf 1000ms betrachtet ist. Simple Mathematik sagt dir dann, dass FPS = Summe aus (Rechendauer + Straflatenz) / 1000ms ergibt. Wenn die Rechendauer fix ist (und das ist sie, ein Zen3/4/5 Core jeweils ist bis auf minimale Taktunterschiede jeweils gleich schnell zum X3D Modell) und die Straflatenz fix ist, dann MUSS am Ende der Vorteil im Verhältnis mehr steigen, wenn die FPS höher wird. Eine andere Komponente gibt es in der Gleichung nicht.


Nicht dass wir uns da falsch verstehen - für den Spieler sind die technischen Details am Ende nicht so wirklich relevant. Aber was der Nutzer am Ende halt sehen wird ist, dass die Modelle, die zu Lebzeiten in den CPU Benchmarks von Games durch Low Res Settings und High FPS sonst wie viel Vorsprung aufzeigen, dieser Vorsprung real praktisch mit steigender Anforderung an die Rechenwerke schwinden wird. Sprich wenn die Basis FPS niedriger wird, wird der Vorteil vom Cache zurück gehen. Exakt das kann man hier mit Anno schon für den AM4 X3D beobachten.
Sun_set_1 schrieb:
Die Hitrate sinkt, nicht aber der Vorsprung gegenüber non X3D. Ganz einfach weil immernoch 96MB primär über den Cache laufen und nicht wie bei Intel 32MB.
In einem reinen CPU Benchmark wäre das so, das stimmt - ihr vergesst hier aber, dass kein Rechenbenchmark bei einer FPS Messung stattfindet, sondern eine reine Durchsatzmessung.

FPS Messungen sind nichts anderes als das quasi immer gleiche Rechenergebnis möglichst oft in einer Sekunde zu erzeugen und zu messen, wie viele durchläufe man schafft.
Das ist ein Himmelweiter Unterschied zu einem regulären Rechenwerk-Benchmark, wo die Rechengeschwindigkeit bestimmt wie viel Leistung bei rum kommt. Bei Games bestimmt nicht primär das Rechenwerk, sondern viel viel Straflatenz in so einem Prozessor existiert, da diese Straflatenz von den fixen 1000ms einer auf eine Sekunde kumulierten Messungen eben dafür sorgt, dass von der Sekunde am Ende weniger Zeit über bleibt für die reine Berechnung.

Technisch kann der Prozessor durchgehend 1000ms lang rechnen und das mit so ziemlich nahezu Null Straflatenz. Simpelstes Numbercrushing mit kleinsten Datenmengen die im L1 Cache gehalten werden können bspw. Dann hat es nahezu keinen Leerlauf in den Rechenwerken. Bei FPS Messungen in Spielen existiert viel Leerlauf in den Rechenwerken, weil für das jeweilige Frame IMMER!! eine recht große Datenmenge verarbeitet werden muss. Um so mehr dieser Daten so nah wie möglich an die Rechenwerke ran kommt, desto weniger muss das Ding pro 1000ms Messzeitraum auch auf Daten warten.

Muss ich einmal am Tag in den Keller rennen, weil ich was holen soll, fällt das sicher nicht ins Gewicht. Wenn ich im Minutentakt aber in den Keller rennen muss, dann spielt es eine große Rolle, wie lange ich dafür brauche. Alle eine Minute in den Keller gehen bei einer Dauer von sagen wir 30 Sekunden bedeutet, dass der halbe Tag mit unnötigen Wegen verplempert wird. Spare ich mir das, dann gewinne ich sehr sehr viel Zeit für andere Dinge.

Starcraftfreak schrieb:
Genau dies wollte ich auch in den Ring werfen.

Am einfachsten wäre es einfach einen non-X3D auf AM5 mit nur Single-Channel laufen zu lassen um den Einfluss des RAM zu sehen.
Das ist nicht so das große Thema. RAM Speed selbst und allein bringt bei AM4 relativ wenig.
Was Punkte gibt ist die IF 1:1 dem RAM zu takten und bei Erhöhung des RAM Speeds diese quasi zu übertakten. Technisch gesehen (das haben nur die aller wenigsten Redaktionen getestet) kannst du aber auch mit arsch langsamen RAM und 3800-4000er IF Takt punkten, weil die IF das Latenzproblem erzeugt, nicht der RAM.

Ggü. DDR5 ist das zudem auch wieder eine andere Thematik - weil DDR4 zwar niedriger taktet und niedrigere Durchsätze schafft, aber viel schärfere Timings zulässt.
3600-4000 mit CL14 ist bei DDR5 schon ne ziemliche Hausnummer das zu toppen. Das wären im Schnitt dann 7200-8000 CL28 um überhaupt erstmal gleich zu ziehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rhoxx
Nick.Bo schrieb:
Die Frage nach Aufrüsten stellt sich mir momentan nicht. Die Speicherpreise sind Gottlos und auch die ganze AM5 Plattform ist noch nicht so rund, das sich mir ein Gefühl von „haben - wollen“ einstellt.

Aber ich muss auch zugeben, so gerne ich Anno 117 spielen würde, Arc Raiders und WoW lasten mich momentan zu sehr aus.
Ich hab mit meinem Rig die Demo gespielt und es lief überraschend gut. Das Game hat gar nicht so hohe Ansprüche, wenn man bereit ist ein paar Regler zu verschieben.
 
Ich habe zwar nur einen lahmen 285K, aber komme in Anno 117 super zurecht. Die fps hab ich auf max. 60 limitiert, und dort braucht meine CPU um die 25-35 Watt und selbst die 4090 läuft nur mit 50 % Leistung, und durchschnittlich ~ 200-235 Watt.

Aus dem Alter bin ich eh raus, dass ich hunderte von fps benötige. Auch möchte ich erwähnen, dass ich bis vor kurzem auch einen 9950X3D genutzt habe, aber die Einschränkungen der Plattform waren für mich zu gravierend.

Anno_117.jpg
 
fdsonne schrieb:
Ggü. DDR5 ist das zudem auch wieder eine andere Thematik - weil DDR4 zwar niedriger taktet und niedrigere Durchsätze schafft, aber viel schärfere Timings zulässt.
3600-4000 mit CL14 ist bei DDR5 schon ne ziemliche Hausnummer das zu toppen. Das wären im Schnitt dann 7200-8000 CL28 um überhaupt erstmal gleich zu ziehen.
Meinst du da (rot) vielleicht DDR4?
Alles andere in deinem Post finde ich höchst interessant und stimme dem, soweit mein Wissen reicht, völlig zu.
 
Schrotti schrieb:
Ich habe zwar nur einen lahmen 285K, aber komme in Anno 117 super zurecht. Die fps hab ich auf max. 60 limitiert, und dort braucht meine CPU um die 25-35 Watt und selbst die 4090 läuft nur mit 50 % Leistung, und durchschnittlich ~ 200-235 Watt.

Aus dem Alter bin ich eh raus, dass ich hunderte von fps benötige. Auch möchte ich erwähnen, dass ich bis vor kurzem auch einen 9950X3D genutzt habe, aber die Einschränkungen der Plattform waren für mich zu gravierend.

Anhang anzeigen 1675449
2160p? 5070Ti 45-60% verbraucht bei 59fps ~150-160W 45Grad ( unhörbar luftgekühlt), der 5900X verbraucht 90-100Watt. 700 einwohner.

ich frage mich schon, ob Intel in zukunft vllt doch die bessere wahl wäre...
 
Zuletzt bearbeitet:
Ist das überhaupt relevant, ob man jetzt 38 oder 58 fps hat, mit Frame Generation hat man eh immer mindestens 60 ? Das ist in so einem Aufbauspiel doch ein No-Brainer.
 
Miuwa schrieb:
Ich hab mir die Beiden Tests noch nicht im Detail durchgelesen, aber das wird mit an Sicherheit grenzender Wahrscheinlich an unterschiedlicher Komplexität der Gameszenen liegen.
Liegt es auch... CB und PCGH haben am Anfang beide ein Szenario mit mittelgroßer Stadt gehabt und CB hat die CPU-Tests jetzt wesentlich später noch mit einem Lategame gemacht. Da ich Anno nie bis zum letzten Einwohner gespielt habe, wäre der 5800X3D für mich immer noch eine gute Wahl. Wahrscheinlich spielt im Late-Game die Optimierung auf bestimmte Prozessorarchitekturen eine größere Rolle, weshalb Zen3 dann absinkt.
 
DerRico schrieb:
Ich rüste immer für Anno auf. Und da der Annospieler in der Regel nicht 9-15 Jahre alt ist sondern eher schon ein bisschen länger berufstätig, bin ich sicher nicht der Einzige. Kosten egal, Hauptsache Anno flutscht

Ich behaupte knallhart, dass der Annospieler im Schnitt deutlich mehr Rechenpower hat als der durchschnittliche Lego Games-spieler :). Wissen tue ich es aber natürlich nicht.

Mit dem Bauchgefühl liegste schon ganz richtig. Ich bin seit 1602 dabei.
1701, 1404, da war immer was neues nötig. 2070 und 2205 waren nicht mein Ding. Bei 1800 hat mich dann das Aufrüstfieber gepackt. Zuerst wurde die 1050TI durch eine RX 5700 ersetzt. Der Intel 2500k auf 4,5GHz geprügelt, dann durch einen Intel 2700K@4,9 GHz ersetzt. Ruhe kam dann durch Aufrüstung auf 32GB RAM ins Spiel. Jedenfalls bis 1 Mio. EW. Dann juckte es wieder, der 5600X musste ran. War aber nicht so Renner, erst der 5800X3D brachte die Erlösung.

Jetzt habe ich mir gesagt, wat soll der Geiz, wird eh wieder teuer. Bevor die Preise explodierten, Anfang Oktober, auf 9800X3D, 64GB RAM CL30 und SN850X aufgerüstet. Wegen Anno, scheint ja richtig gewesen zu sein. Das AM4 Gedöns hat noch gute Preise gebracht.

Mal schauen wie lange die 4070 Super noch mitspielt. Wenn nötig wird sie auch ersetzt.
Für mich war Anno immer DAS Spiel, seit 1998. :daumen:
 
Ich muss mir erst mal Gedanken machen, ob ich das Spiel auf einer:

RTX 5090
RTX 5080
oder auf ner RTX 4080 Super spiele.. also 500W-550W (5090) Dauerlast für ein Strategiespiel 🥵

Screenshot 2025-11-14 214703.png
 
Zuletzt bearbeitet:
Das ich das noch erleben darf. Ein Anno bei dem Intel kein Licht gegenüber AMD sieht...
 
Hä?
Ich habe die Demo ganz arglos in 4K gespielt, FPS unbekannt, geruckelt hat da nix.
265K, RTX 5700
In 4K natürlich ohne AA und den ganzen Krempel der das Bild nur verschlechtert.
 
stefan92x schrieb:
Hohe FPS erreicht so ein Spiel bei einer kleinen simulierten Welt. Wenn die praktisch komplett in den X3D-Cache passt, bringt der sehr viel. Wenn die Simulation so groß wird, dass die immer wieder aus dem RAM geladen werden muss, dann bringt der 3D-Cache halt weniger, die Hit-Rates sinken.

FG selbst braucht aber auch Rechenleistung. Ist gut möglich, dass mehr Kerne dafür Luft haben, während bei weniger Kernen der Treiber dann die Leistung vom eigentlichen Spiel wegnimmt und dieses ausbremst.
Könnte ich nachvollziehen wenn das CCD zu sagen wir 90% ausgelastet ist und FG hier exorbitante 10%+ braucht (was ich bisher in keinem Game so nachvollziehen kann - nichtmal im Ansatz).

Wenns aber nur bei 15% Load vom Game liegt wird danach durch FG wohl eher keine 90% Load on top kommen die zu massiven Einbrüchen führt.

Ist einfach kein besonders realistisches Szenario und sieht eher nach einem Bug und Software-Issue aus als überlasteter Hardware.
 
  • Gefällt mir
Reaktionen: stefan92x
Ein 9900x3D wäre auch noch schön gewesen als Testobjekt.
Mit 6 deaktivierten Kernen ohne 3D Cache, hätte man zusätzlich noch einen "9600x3D" simulieren können.
 
lWllMl schrieb:
2160p? 5070Ti 45-60% verbraucht bei 59fps ~150-160W 45Grad ( unhörbar luftgekühlt), der 5900X verbraucht 90-100Watt. 700 einwohner.

ich frage mich schon, ob Intel in zukunft vllt doch die bessere wahl wäre...
Ja in 3840x 2160.
 
  • Gefällt mir
Reaktionen: Boimler
Zurück
Oben