Test Gaming-Benchmarks: 12900K, 12700K & 12600K vs. 11900K und Ryzen 9 5950X

OPUS-AMP schrieb:
Schade, dass ARMA 3 YAAB nicht Teil des Testparcours ist, klar ist halt echt alt. Wird hier dann hoffentlich bald im Community Forum geschehen.
YAAB ist halt ein 1a RAM Bench, aber ein miserabler CPU bench
 
  • Gefällt mir
Reaktionen: OPUS-AMP und DonL_
@iceshield danke, der cpu-score ist ganz ordentlich
 
Was ich festgestellt habe ist:

Wenn er auf "default" läuft im Bios, dann hast Du sehr sehr schöne Frametimes.
Wenn Du "sync allcore" machst und den Wert einstellst @5.4 zum Beispiel, dann haste auch sehr schöne Frametimes.
---------------
Trennung!
---------------
Sobald Du anfängst im Bios, den Cores verschiedene Ghz zuzuweisen, dann werden die Spiele unruhig. Ganz komische Mikroruckler. Es ist zwar smooth, aber man merkt eine Art von Mikrorucklern. Ganz doof;)
---------------
Trennung 2!
---------------
Es ist zwar schön, ein paar dämliche Benches zu zeigen, aber ich habe festgestellt, dass da eine gewisse Grenze ab 5.400 Ghz bis. 5.600 Ghz herscht. Ab da ist der Nutzen nicht mehr so gut..

Hier bis@5.4 Das ist O.K.
5.4_die Zweite.jpg


Aber betrachten wir @5.6
Hier ist kaum ein Mehrwert. Es lohnt sich nicht.
5.6.jpg


Was ich sagen will: Meine persönliche Erfahrung, für das Spielen etc, einfach alles @ default/auto lassen, oder alle Cores synchronisieren. Den Cores verschiedene Ghz zuzuweisen, ist "doof".

Atm habe ich alles auf default/auto.
Spiele sind unglaublich smooth. Frametimes episch.
Nur XMP1 ist aktiviert. Rest auf "Auto".

Es reicht.
Default_Auto,_Balanced_Energyplan.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Garack
Sehe ich das richtig und 10+% des Überholmanövers gehen an DDR5?

Naja ich rechne sowieso erst 2023 mit einem "Upgrade" (lies kompletter Tausch von zumindest allen leistungsrelevanten Komponenten) und bis dahin ist DDR5 dann wohl auch ausgereift und ich spar mir eventuell zumindest das Tauschen der RAM-Riegel beim übernächsten Upgrade.
 
Wird es hier auch ein Test zum i5-12400(K)(F) geben, wenn der erschienen ist? Gerüchte besagen ja, dass der gut werden soll und den Vorgänger sowie den Ryzen 5 5600X schlagen soll.
 
Für alle die GTA V vermissen:

GTA V -> AVG: 189,2 FPS

CPU läuft stock, Ram siehe Bild.

Nachtrag zum D2:R:
E: Irgendwie kann ich den FPS Wert von D2:R nicht nachstellen schau bei mir ganz anders aus.
D2:R -> AVG: 447,8 FPS (sind ein Plus von 31%) vs CB Test

ka was CB getestet hat, bin im ersten Akt rumgelaufen und habe mit der Java alles gekillt mit Torch procs (das Feuer kostet viel FPS, daher voll die krassen drops).
 

Anhänge

  • stable_ram.png
    stable_ram.png
    87 KB · Aufrufe: 247
  • D2_R.png
    D2_R.png
    6,1 KB · Aufrufe: 239
  • GAT_V.png
    GAT_V.png
    6,6 KB · Aufrufe: 248
Zuletzt bearbeitet:
BrollyLSSJ schrieb:
Wird es hier auch ein Test zum i5-12400(K)(F) geben, wenn der erschienen ist? Gerüchte besagen ja, dass der gut werden soll und den Vorgänger sowie den Ryzen 5 5600X schlagen soll.
Voraussichtlich Q1 2022, den 12400 wird es nicht als K CPU geben.
Wenn er nicht den 11400 "schlagen" sollte, wäre es nur peinlich. Mit seinen voraussichtlich 6 P-Cores mit HT sollte er ebenfalls auf jeden Fall den 5600x bei Singlecore / als Zock CPU "schlagen" können, außer Intel will die CPU "vorsätzlich verhunzen", um nicht dem 12600(k) als "Gamer-CPU" zu nahe auf die Pelle zu rücken. Ob es beim 12400 aber auch reicht den 5600x bei Multithreaded zu "schlagen", würde mich mittlerweile doch tendenziell verwundern, da der 12400 keine E-Cores mitbringt. Ich tippe da eher auf einen Gleichstand, je nach Anwendung vermutlich mit leichten Vorteilen beim 5600x, was aber in Anbetracht der CPU Preise eher unwichtig ist, da der 12400 erheblich günstiger sein dürfte als der 5600x (Preisanpassung beim 5600x ist natürlich möglich, aber nicht notwendigerweise erforderlich, der Markt nimmt zur Zeit mehr auf, als geliefert werden kann), außerdem ist zumindest Anfangs noch offen, was die Intel B und H Boards kosten werden, sollten die den Kostenvorteil des 12400 gegenüber eines 5600x auffuttern, dann ...

und letztendlich ist das alles Spekulatius mit ungelegten Eiern erster Güte, da es noch locker 3+ Monate dauert, bis es "soweit" ist
 
@catch 22
Ich habe nur bei PCGH gelesen, dass er den 5600X sehr knapp schlagen soll. OK, das mit "es gibt kein K" wusste ich nicht. Mich interessiert da dann aber eh nur die normale Variante (ohne K und ohne F). Von dem her passt das aber.
 
ZeroStrat schrieb:
Scheint doch mit beidem gut zu skalieren?!
Yo, aber dominierend misst du eben die Performance des RAMs, genauer die Latenzen zum RAM wenn das Testfeld 10 verschieden CPUs beinhaltet.

Das ist in den Spieletests schon immer der extreme Außenseiter gewesen. Das und der Umstand, dass das Game jetzt glaube ich 14 Jahre auf dem Buckel hat sorgt halt dafür das das keiner mehr testet. Die Real Virtuality Engine war und ist da eine ganz eigene Sache.

Man muss aber auch dazu sagen das der YAAB als Benchmark Sequenz sowieso sehr eigen ist. In Game war die CPU nie der Flaschenhals den dieses Szenario suggeriert. Meine 1070Ti hab ich ingame auch bei 99% Auslastung mit einem 3300x gehabt.

Nur mal als Vergleich, mein 3300x damals vs ein aktueller Eintrag im Workshop

1636375832534.png


Das kannst halt ner breiten Leserschaft nicht anbieten ohne ausführlich zu erklären was da los ist.

Aber wenn du drann kommst, lass ruhig mal durchlaufen. Speziell DDR4 vs DDR5 wäre spannend.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: OPUS-AMP und ZeroStrat
Also wenn ich solche Tests hier sehe....unglaublich.....

Die ganze Zeit im GPU Limit, komplett unterschiedliche Szenarien und dann soll daran gezeigt werden ob DDR4 oder 5 besser ist....WTF...

 
  • Gefällt mir
Reaktionen: catch 22
Diese komischen vergleiche sind so oft im GPU-Limit. Sieht man bei CPU-Vergleichen immer wieder, es ist echt nicht mehr schön. Aber so viele Leute schauen ist und finden es toll...
 
t3chn0 schrieb:
...

mir fehlt derzeit die entsprechende Grafikkarte (da Nvidia bei älteren Prozessoren nicht so rennt, würde ich anstelle einer 3080ti eine 6900xt ansetzen)... aber ich behaupte mal, das ich die FPS mit meinem ollen 2700 mit 16GB ram@3200Mhz, CL16 auch hinbekommen sollte, zumindest annähernd :)
UHD Auflösung in Ultra um irgendwas zu Benchen, was nicht Grafikkarte heißt... lOl
 
t3chn0 schrieb:
Also wenn ich solche Tests hier sehe....unglaublich.....

Die ganze Zeit im GPU Limit, komplett unterschiedliche Szenarien und dann soll daran gezeigt werden ob DDR4 oder 5 besser ist....WTF...

Lol no offense, aber dann teste es doch selbst, anstatt rumzumeckern. Also willst du GTAV mit der Hardware lieber in Full HD mit 300FPS spielen? Würde niemand tun und der Tester bildet halt ein realistisches Szenario ab, was durchaus seinen Wert hat, für Leute die gerne mit dieser Hardware wissen wollen was Sie in 4K an FPS erwarten dürfen. Ich finde es interessant und erstaunlich, dass selbst im GPU-Limit in 4K Auflösung die DDR5 mal eben 10FPS oder mehr bringen.
 
t3chn0 schrieb:
Ach man, habs in den falschen Thread geposted.

Hier mit PL1 und PL2 @ 65W.

Anhang anzeigen 1143024

Finde ich eigentlich noch immer ganz beachtlich.
Mach mal bitte 88W und 35W... will sehen wo der 12700 non K landen wird.
Die Leistung ist beachtlich.. da kann man glatt schwach werden...
Ergänzung ()

MujamiVice schrieb:
Merkst du bei deinem 3600 dass der zu langsam ist mit 6C?

Ich muss sagen ich habe momentan einen 3800 und wenn ich wechseln würde, bin ich mir ziemlich sicher, dass ich als Gamer eher nicht so viel merke.
Ja Leider mittlerweile ja, das liegt aber eher an meinem Spielverhalten mit ST Powered Games wie Stellaris. Da würde der 12700K schon echt Sinn machen
Im Massiven Multithreading ist der 3600 noch völlig ausreichend.
 
randomdude87 schrieb:
Lol no offense, aber dann teste es doch selbst, anstatt rumzumeckern. Also willst du GTAV mit der Hardware lieber in Full HD mit 300FPS spielen? Würde niemand tun und der Tester bildet halt ein realistisches Szenario ab, was durchaus seinen Wert hat, für Leute die gerne mit dieser Hardware wissen wollen was Sie in 4K an FPS erwarten dürfen. Ich finde es interessant und erstaunlich, dass selbst im GPU-Limit in 4K Auflösung die DDR5 mal eben 10FPS oder mehr bringen.
Aber Du willst mich doch jetzt veräppeln oder? =D

Du bist scheinbar genau die Zielgruppe für diesen Schwachsinn, sorry.

Für Dich mag es alltagstauglicher sein. Defakto kann man so KEINE CPU testen, denn er ist im GPU Limit. Die 10 FPS Unterschied hier kommen NICHT vom DDR5 RAM, sondern von vollkommen unterschiedlichen Testszenarien. Deshalb wirkt es so als würde es am RAM liegen.

Im GPU Limit kann der RAM noch so schnell sein, es limitiert die GPU und nicht der RAM. Aber wie man sieht glauben dass die Leute und trällern das raus. Poah...ich bin immer relaxed aber nee.

Und rein zufällig zocke ich in 4K mit dieser Hardware....
Ergänzung ()

@Rockstar85

Wie soll ich das für Dich simulieren? Ich habe mehr E-Cores die ich nicht deaktiviert bekomme (glaube ich).
 
  • Gefällt mir
Reaktionen: catch 22 und Rockstar85
Zurück
Oben