Test Gaming-Benchmarks: 12900K, 12700K & 12600K vs. 11900K und Ryzen 9 5950X

KAOZNAKE schrieb:
Hier würde man sehen, dass die CPUs die hier getestet werden im Prinzip alle gleich schnell sind und das wäre eine ECHTE Hilfe für jemand um zu entscheiden ob er mehr Geld ausgeben muss.

Das ist leider völliger Humbug. In dem von dir geforderten Szenario mit Tests unter FHD oder WQHD würde folgendes passieren: Wenn dir zum Beispiel bei Anno 1800 heute schon die Puste ausgeht, dann muß vielleicht nach langer Zeit mal ein neuer Prozessor her. Hm, schauen wir einmal bei Cb vorbei, die haben da letzte Woche den neuen blabla gestestet. Du guckst dir die Balken an. Tja.., viel getan hat sich ja nicht die letzten Jahre. Fast gar nichts, selbst der neue blabla ist ja kein Fitzel schneller als die alten Schinken. Und das soll ich kaufen? Was erlaube Intel?

Das bringt's nicht. Für dich als User wäre überhaupt nicht mehr ersichtlich, warum a 169€ kostet, b 429€ und beide nehmen sich fast nichts. Das ist für einen CPU-Test völlig daneben. Es gibt einfach keine Möglichkeit, einen CPU-Test vernünftig abzubilden, außer man nimmt möglichst alle Last von der Grafikkarte. Bei synthetischen Test, die sich hier jeder vierte reindröhnt, fragt er doch nach dem Ergebnis auch nicht, ja, moment mal, welche Auflösung hatte der denn? Gar keine, that's it. 0x0, NICHTMALHD™.

Der umgekehrte Fall würde doch die Leute ebenso auf die Palme bringen. CB entschließt sich, Grafikkarten-Tests in Zukunft "praxisnäher" zu gestalten. Man nimmt ab sofort dazu nur noch Rechner, in denen maximal ein i5 8400 verbaut ist, was dem Durchschnitt des Leser-PCs entsprechen könnte. Ergo? Von vielleicht 25 getesteten Grafikkarten produzieren die schnellsten 13 alle die selben fps, vom 450€-Schinken bis zum 1500€-Brett. Ist doch blöde, würde man doch sofort ballaballa denken und woanders gucken gehen.
 
  • Gefällt mir
Reaktionen: sebish und Pisaro
Ein 720p Test in Battlefield bringt rein gar nichts um die Performance bspw. in Anno zu beurteilen. Wozu 10 Shooter mit (eigentlich) hohen Grakaanforderungen bei 720p testen? Da kommt eh immer (annähernd) das Gleiche raus. Außerdem bin ich nur der Meinung, daß man beides haben sollte, um sich ein Bild zu machen. 720p Tests und WQHD Test und vor allem eine andere Spieleauswahl. Diese hier ist komplett aussagefrei. Selbst wenn sich die Grafikkartenperformance verdoppelt, wird sich die vermeintlich höhere CPU Leistung trotzdem im Reallife nicht abbilden. Und niemand verwendet 10 Jahre alte CPUs mit einer so starken Graka.
 
  • Gefällt mir
Reaktionen: Vitec
und noch einer der den Sinn eines CPU-Tests nicht verstanden hat.........
 
  • Gefällt mir
Reaktionen: sebish und Pisaro
KAOZNAKE schrieb:
Ein 720p Test in Battlefield bringt rein gar nichts um die Performance bspw. in Anno zu beurteilen. Wozu 10 Shooter mit (eigentlich) hohen Grakaanforderungen bei 720p testen?
Weil man möglichst alle gängigen Engines testen möchte und bei hohen Grafikfsettings wird auch die CPU zusätzlich belastet. Stelle dir einfach mal die Sichtweite vor, die entscheidet wie viele Elemente berechnet werden müssen und zusätzliche Draw Calls lasten sowohl die GPU als auch die CPU aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro
KAOZNAKE schrieb:
Wozu 10 Shooter mit (eigentlich) hohen Grakaanforderungen bei 720p testen? Da kommt eh immer (annähernd) das Gleiche raus.
Ähm, wenn man diese Spiele bei 1440p testet, kommt immer annähernd das gleiche raus und zwar für fast alle CPUs, weil man im GPU Limit hängt.
Der Test soll aber die CPU Leistung aufzeigen, nicht ob sie eine bestimmte FPS Grenze erreichen können, die die GPU vorgibt.

KAOZNAKE schrieb:
Selbst wenn sich die Grafikkartenperformance verdoppelt, wird sich die vermeintlich höhere CPU Leistung trotzdem im Reallife nicht abbilden. Und niemand verwendet 10 Jahre alte CPUs mit einer so starken Graka.
Verdoppeln soll sie sich ja angeblich mit der nächsten Generation.
Jetzt schaut man sich z.B. mal ein Cyberpunk an, wo ja nächstes Jahr auch ein DLC kommen soll, den man evtl spielen möchte.
Unter Win11 kommt man hier auf knapp 125fps mit der stärksten CPU, mit dem stärksten Ryzen schon nur noch auf 110fps.

Meine 6800XT schafft hier ca 80fps in 1440p Ultra, mein 5800X ca 100-105 in 720p Ultra, ich habe also in 1440p noch ca 20-25fps Luft nach oben, bis die CPU zum Flaschenhals wird.

Mit einer 7800XT/4080 wird dann selbst der 12900K zu schwach sein, um sie (ohne RT) in 1440p voll auszulasten(DLSS noch gar nicht mitgerechnet, womit man dann näher an 1080p Renderauflösung ist), aber man wird trotzdem noch ~20% mehr FPS haben, als mit meinem 5800X.

120fps werden hier in 1440p Ultra nicht möglich sein mit meinem 5800X, obwohl die um den DLC herum erscheinenden GPUs sehr viel mehr FPS erreichen könnten, das weiß ich durch den 720p Test schon jetzt, genau so weiß ich, dass es mit einem 12900K möglich wäre.
Ein 1440p Test mit einer 6900XT hätte hier einfach nur irgendwas um die 85 FPS für alle oberen CPUs gezeigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gunmarine und Pisaro
https://www.computerbase.de/forum/t...yz-die-graka-abc.818979/page-81#post-26281584

Von einen 8700K mit 4,7GHz und 3600er-Speicher mit 100% Leistung bin ich so im Schnitt auf 125-130% gekommen mit dem 12700K auf Stock und mit dem gleichen Speicher. Da war der Test bei 78FPS und hinterher so 106FPS. CPU-relevant sind beide Sichtweiten und Gras. Sichtweiten waren beide aus und Gras auf Hoch, allgemein hatte ich meine Standardeinstellungen an.

Wenn ich das CPU-Limit noch verschärfe, indem ich die Sichtweiten und Gras auf Maximum stelle, bekomme ich dann sogar Zuwachs auf 135% und mehr. Soweit ich mich erinnere, habe ich die gleiche Stelle mal auf 35FPS runter bekommen mit 8700K und mit 12700K hatte ich dort 56FPS.

Transport Fever 2 läuft genauso schlecht wie vorher. Etwa +-0.

Minecraft 1.16.2 mit Optifine läuft ohne Shader auf durchschnittlich 150FPS (keine Ahnung, warum da dort jetzt ein Limiter ist) und das war vor paar Monaten/Jahren teilweise weniger auf Ressourcenhungringen Maps. Shader waren meistens auch im CPU-Limit. Hinterher waren die im Grafikkartenlimit.

Hier kann es sein, dass durch ein Java-Update die Leistung auch besser geworden ist und es auch mit dem 8700K evl. auch besser geworden wäre gegenüber Monate/Jahre früher. Ich habe Minecraft kurz vor CPU-Wechsel nicht getestet. -.-

Minecraft 1.18 läuft auch mit 150FPS im Schnitt auf den selben leistungsintensiven Maps. Da darf ich allerdings kein 64er-Texturpack verwenden, dann knickt die Minecraft-Krücke wieder ein. Da brauche ich wieder Optifine, dann geht auch das Texturpack und der Shader wieder.
 
  • Gefällt mir
Reaktionen: Pisaro
Fehlt da noch was? Hier ist der Spiele-Benchmark-Faden und dann mußt du in den anderen gucken, wo die Reihe außerhalb der Spiele ausprobiert wurde.

Wenn noch was folgen sollte, könnte man das ja beizeiten in einem Abwasch mit einem 12400 oder so machen.
 
Der Test wurde so versteckt, man muß es aufklappen und dann sieht man auch die entsprechenden Anwendungen, die getestet wurden. Ist nun eben anders als man es sonst hier gewohnt ist, deshalb habe ich es nicht gleich gesehen.
 
12100 soll auch ganz brauchbar werden und ganz gut gegen 10400 und 3600 abschneiden.
Mal schauen wo sich die Einstiegsboards preislich hinbewegen, wenn alles auf dem Markt ist.

So 75€ Board und 125€ CPU wäre schon ok, dazu einfach 3200 crucial standard und fertig ist der bürorechner für runde 450€ oder weniger. Vielleicht ist sogar der Stock Kühler mal stark genug um auch leise zu bleiben.

Irgendwie ist für mich Intel in 2022 cpu/gpu seitig sehr interessant. Mit AM5 rechne ich vor 2023 eigentlich nicht, wenn jetzt erst der Refresh kommt.
Es sei den AMD sieht den Refresh mehr als Forschungsprojekt für den 3d-Cache und will damit das eine Jahr Daten sammeln und der Gewinn ist nebensächlich.
 
Vitec schrieb:
So 75€ Board und 125€ CPU wäre schon ok, dazu einfach 3200 crucial standard und fertig ist der bürorechner für runde 450€ oder weniger. Vielleicht ist sogar der Stock Kühler mal stark genug um auch leise zu bleiben.

Das wäre dann womöglich ein I3 mit 4 Kernen und 8 Threads und 3,5-4GHz Boost? Das wäre doch schon sogar als Einstiegs-Spiele-PC brauchbar.

AM5 kommt doch eh erst 2. Halbjahr 2023 (kann auch 2. Quartal sein). Der 5800X-Refresh könnte dann besser als 12700K und 12900K sein, der dann vom 13700K und 13900K kassiert wird.

Von dieser Serie jetzt fehlt doch eigentlich ein 12650K, der dann 8-P-Kerne ohne E-Kerne hat.
 
  • Gefällt mir
Reaktionen: sebish
Banger schrieb:
AM5 kommt doch eh erst 2. Halbjahr 2023 (kann auch 2. Quartal sein). Der 5800X-Refresh könnte dann besser als 12700K und 12900K sein, der dann vom 13700K und 13900K kassiert wird.

AM5 kommt im 2. Halbjahr 2022.
 
Banger schrieb:
Stimmt, dann lohnt sich der Refresh vom 5800X fast nicht, genauso wie bei Intel die 11xxx-Serie.

Natürlich kann sich der Refresh für viele Leute lohnen. Vor allem, wenn sie bereits 400er/500er Boards besitzen und nur eine kleine CPU drin haben. So können sie ohne Plattform-Wechsel auf eine der schnellsten Gaming-CPUs aufrüsten, ohne gleich alles tauschen zu müssen.
 
  • Gefällt mir
Reaktionen: iron-man
@Wolfgang
Angesichts der Entwicklungen am Markt: Ist es geplant, den Vergleich anhand aktueller Module und CPUs upzudaten?

DDR4 ist günstig wie nie und daher stehen sicher viele User vor die Frage: Jetzt noch mal eindecken oder lieber doch in DDR5 investieren?
 
Zurück
Oben