Test Intel Core i9-12900KS im Test: Zweck heiligt Mittel

Rockstar85 schrieb:
Klar... war ja auch so viel schlechter als der heuitige Abstand. (Zu sehen beim @Onkel Föhn ) Tut es echt so weh, dass du nun postfaktisch werden musst?
84W (4 Cores) vs 220W (8 Cores) und die Leistung ist trotzdem niedriger. Der FX 9590 brauchte die doppelte Anzahl an Kernen, um Intel minimal schlagen zu können. Wüsste nicht, dass das heute auch der Stand ist, aber ok.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Dome87
Iguana Gaming schrieb:
Dir ist aber schon bewusst das ne CPU egal in welcher Auflösung die selben FPS immer liefert, in 720P wird nur getestet weil man vermeiden will ansatzweise ins GPU Limit zu rutschen. Wobei man das CPU Limit im Grunde auch in 1440P oder in 2160P testen könnte, solang man konstant unter 90% GPU Auslastung liegt.

Wenn eine CPU 120FPS in 720P in nem Spiel liefert, dann tut sie dies auch in 4 oder 8K. Man brauch dann nur ne entsprechende GPU die diese FPS dann au liefert.
Danke für fen Hinweis, genau das war der Witz. Ich spiele z.b. nur in 4k(mittlerweile habe ich eine rtx 3080) und habe einen ryzen 3600, der für 4k immer noch relativ stark ist. Klar min. Fps wären mit einem 5900x besser, aber alles weiterhin brauchbar. Oft laufen aber die diskussion bzw empfehlungen im gaming bereich auflösungsunabhängig. Und so lange in 4k keine verdreifachung der performance stattfindet, ist es im prinzip egal ob ich einen ryzen 3600 65watt einbau oder einen 12900k. Ich hab also nur was von dem cpu wenn ich max in 1080p spiele. Vermutlich ging die ironie aber unter. Interessant wird der cpu wettkampf in 4k in 2 bis 3 gpu generationen.
 
  • Gefällt mir
Reaktionen: _roman_ und Verak Drezzt
Gehirnzelle schrieb:
Und so lange in 4k keine verdreifachung der performance stattfindet, ist es im prinzip egal ob ich einen ryzen 3600 65watt einbau oder einen 12900k. Ich hab also nur was von dem cpu wenn ich max in 1080p spiele. Vermutlich ging die ironie aber unter. Interessant wird der cpu wettkampf in 4k in 2 bis 3 gpu generationen.
Das ist so pauschal aber auch nicht richtig, da das genauso spieleabhängig ist. In Anno 1800 hängst du auch in UHD heftigst im CPU-Limit, wenn du irgendwann eine größere Stadt hast. Dasselbe bei Cities: Skylines. Auch bei Total War profitierst du in UHD noch von einer schnelleren CPU, dasselbe - um mal aktuell zu bleiben - hast du auch bei Elden Ring.

Dann hast du auch noch Klassiker wie Civilization, wo es nicht auf die FPS selbst ankommt, sondern wo sich im weiteren Verlauf dann die Rundenzeiten schlicht verkürzen. Auch das spürst du in UHD.

Nur weil man in UHD spielt, ist die CPU nicht automatisch egal. Das gilt heute und das wird erst recht in einem halben Jahr gelten, wenn dann die nächsten GPU-Gens aufschlagen und sich die gerüchteweise umhergeisternden Performanceprognosen tatsächlich bewahrheiten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Bonanca, Gortha und 2 andere
Gehirnzelle schrieb:
Und so lange in 4k keine verdreifachung der performance stattfindet, ist es im prinzip egal ob ich einen ryzen 3600 65watt einbau oder einen 12900k.
Weil halt immer noch die Grafikkarten unter 4K limitieren und meist nicht über 100FPS hinaus kommen, wenn man denn net auf low Details spielt und da reicht halt noch nen Zen+/2 oder nen Kaby-/Coffe-Lake vollkommen für.

Aber sobald die Leistung künftig steigt und auch 4K 144Hz Monitor Modelle im bezahlbaren Bereich kommen, wird sich dies dann auch bei den CPU's unter 4K so wie bei WQHD ändern. Wenn man mit seinem 4K 144Hz Bildschirm, in bestimmten Games mehr als 100FPS raus haben möchte.
Ergänzung ()

Linmoum schrieb:
Auch bei Total War profitierst du in UHD noch von einer schnelleren CPU, dasselbe - um mal aktuell zu bleiben - hast du auch bei Elden Ring.
ja korrekt, sobald es in den Bereich um die 60FPS und drunter geht, dann limitieren ältere CPU's selbst unter 4K
 
  • Gefällt mir
Reaktionen: Tornavida
Ned Flanders schrieb:
Eindrucksvoller als beim 4.7GHz 5800x3d Zen3 vs. 5.5GHz 12900ks Golden Cove wahr das ja noch nie.
4.5 GHz Boost, oder?
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Ned Flanders
die 18 % sind tatsächlich das maximum laut Userbenchmark :D Dürfte mit meinem maximus XI und dem Ram tatsächlich nur 10% sein.Der 12900ks wäre ein nice to have gewesen ,aber bei dem Verbrauch usw ist es ein No Go
:D
 
@MR2
Korrekt. Wobei je nach Chipgüte wohl auch 4,65GHz möglich sind. Ist dann beim 5800X3D ebenso eine Lotterie wie beim 5950X.
 
Linmoum schrieb:
Das ist so pauschal aber auch nicht richtig, da das genauso spieleabhängig ist. In Anno 1800 hängst du auch in UHD heftigst im CPU-Limit, wenn du irgendwann eine größere Stadt hast. Dasselbe bei Cities: Skylines. Auch bei Total War profitierst du in UHD noch von einer schnelleren CPU, dasselbe - um mal aktuell zu bleiben - hast du auch bei Elden Ring.

Dann hast du auch noch Klassiker wie Civilization, wo es nicht auf die FPS selbst ankommt, sondern wo sich im weiteren Verlauf dann die Rundenzeiten schlicht verkürzen. Auch das spürst du in UHD.

Nur weil man in UHD spielt, ist die CPU nicht automatisch egal. Das gilt heute und das wird erst recht in einem halben Jahr gelten, wenn dann die nächsten GPU-Gens aufschlagen und sich die gerüchteweise umhergeisternden Performanceprognosen tatsächlich bewahrheiten.
Super beispiele, wo ich dir recht gebe. Die aussage bezieht sich natürlich auf 97% wo die graka limitiert om 4k (neu AAA gsmes). Elden rings zocke ich selber fleißig, bis auf wenige ausnahmen werden die 60fps gehalten. Meine Aussage könnten wir vermutlich mit dem m.e. ausbalancierten 5800x schon pauschal für 4k treffen bis auf wenige fälle. Dann hat man für 300 euro alles was man braucht. Vermutlich reicht auch der 5600x oder 11400f oder was es da analog von intel gibt. Seit jahren wird dann im cpu bereich dann als argument "die zukunft" gebracht, die ja mit den 720p auch empirisch dargelegt werden kann,zumindest in der therorie. In der Praxis war es jedoch so dass die alten cpus ab 4 kerner im gamingbereich sehr lange nutzbar waren auch schon die mittelklassen, weil jede graka generation "nur" 15 bis 25% prozent gebracht haben. Man konnte also seine super cpu in hohen auflösung ausspielen. Man fährt derzeit bzw rückblickend m.e. sowohl p/l als auch ökölogisch/ temp mit einem mittelklasse cpu zum zocken in hohen auflösungen besser. Wenn in zukunft dann wirklich mal ein grosser gpu schub kommt, hat man wenig geld ausgegen für die cpu und kauft dann, wenn man die performance braucht. Aber auf vorrat cpu speed zu kaufen machte nicht wirklich sinn. Naja, mir gings im prinzip auch nur um diese cpu hier, wo einem der usecase wirklich schleierhaft ist
 
  • Gefällt mir
Reaktionen: CableGuy82, Onkel Föhn und Verak Drezzt
Gehirnzelle schrieb:
Aber auf vorrat cpu speed zu kaufen machte nicht wirklich sinn.
Als Beispiel hatte ich mir 2014 nen i5 4590 geholt, weil ich ebenso dachte, ja wird schon mit seinen 60+ FPS die er liefert passen. Keine zwei Jahre später kam Total War: Warhammer raus und die CPU limitierte bei gerade mal 30FPS und hatte mir dann nen Xeon 1246v3 geholt gehabt. Wo mit ich dann aufgrund von den weiteren 4-HT Threads dann vernünftig zwischen 50-60FPS zocken konnte.

Klar muss es heute nicht mehr das Topmodell sein und mit nem i3/i5 oder r5 die mittlerweile auch SMT/HT haben, kannsde selbst mit diesen ohne Probleme mit 60-100FPS und sogar mehr, vernünftig zocken. Aber man sollte halt schon vorausschauend ne CPU kaufen die dann auch mal mehr als 2-3 Jahre im System verweilt. Bei nem begrenzten Budget kann man Heute aber mittlerweile selbst zu nem i3 für 100€ greifen und damit eine ganze Zeitlang Spass haben.

Ergänzung ()

Mit schnellem Speicher geht da dann sogar noch einiges mehr.
 
3090TI zusammen mit dieser CPU. Dann hast alles richtig gemacht würde ich sagen 🤣😂
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Moment.
30-40% mehr Leistungsaufnahme für 1-2% mehr Perfomance im Gaming für (aktuell) 39% Aufpreis gegenüber dem 12900K?
Das kann man eigentlich kommentarlos so stehen lasssen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, CableGuy82 und Gelbsucht
Na, jetzt hat Intel wieder das was Sie nicht mehr hatten: In Benchmarks oben in der Liste. Aber zu welchem Preis: Max 300W!
Das ist eindeutig zu viel.
 
DJKno schrieb:
Wenn man diese Entwicklung so sieht, kommt bei mir automatisch die Frage, wann denn hier mal jemand regulierend eingreift und Grenzwerte festlegt.
...
Es gibt doch gar kein zu regulierendes Problem, eines der wenigen Felder in denen es der Markt tatsächlich selbst regelt.
Es wird kein Massenprozessor werden, selbst hier in einem Technikforum lehnt es die große Mehrheit ab. Im Komplettrechner wird man ihn auch nicht finden.
 
.Sentinel. schrieb:
Bei spielen wird der 12900KS nicht über die 5.2GHz gehen...
und der 5800x3D nicht auf die vollen 4.5 GHz boosten.

Insgesamt ist das ja auch egal. Der 12900ks hat grob 40% mehr ST im Cinebench R23 als 5800x3D.

Das verpufft eben vollständig, weil die Recheneinheiten nur Däumchen drehen. Was möglicherweise wohl auch dazu beiträgt, dass der Verbrauch beim Gaming einigermaßen passabel ist, und der Grund, warum der 3D überraschend mehr braucht als der 5800x, trotz niedrigerem Takt und Spannung.

Ich glaube nicht, dass der 3D Cache den Mehrverbrauch ausmacht, sondern das Ding ist jetzt einfach einigermaßen ausgelastet, aber halt auch sehr effizient.

Aber wie Volker schon angesprochen hat. AMD könnte jetzt bis Intel etwas Ähnliches hat, in jeder Generation ein Model mit 3D Cache auskoppeln, dass alleine den Gaming CPU Markt dominiert.

Schon ziemlich abgefahren.
 
  • Gefällt mir
Reaktionen: Gortha, Onkel Föhn und random12345
random12345 schrieb:
Ich hab mir das Video jetzt angeschaut und das kommt dabei raus:
Screenshot 2022-04-13 at 19-14-26 VFX Artist testet das neue MacBook Pro - So gut ist der M1 M...png

Ganz große klasse, der Max gewinnt gerade so gegen einen Laptop mit 3060 wenn der nicht am Netzteil hängt.

Die Anwendung wo der M1 besser dastand war After Effects, und da schlicht nur deshalb weil Adobe macht was Adobe am besten kann: Abstürzen.

Fazit: Der M1 Max kommt in keinem mir bekannten Szenario auch nur in die Nähe der Performance einer 3090, wie das Werbematerial verspricht. Die Fälle wo er gewinnt beziehen sich allein auf die Media Engine des M1. Wenn die vom Programm unterstützt wird, ist das in diesem speziellen Szenario meist schneller.
Von der Leistung her ist er Desktopkarten allerdings hoffnungslos unterlegen.
 
  • Gefällt mir
Reaktionen: Ned Flanders und Onkel Föhn
Ned Flanders schrieb:
und der 5800x3D nicht auf die vollen 4.5 GHz boosten.

Insgesamt ist das ja auch egal. Der 12900ks hat grob 40% mehr ST im Cinebench R23 als 5800x3D.

Das verpufft eben vollständig, weil die Recheneinheiten nur Däumchen drehen.
Was ich an dem Prinzip wirklich gut finde ist, dass inzwischen ein Clock- Setting per Core möglich ist.

Sprich- Ich kann die besten Kerne grundsätzlich auf einen festgelegten Max- Boost setzen, unabhängig der Anzhal an genutzten Cores.
So habe ich mal einen 12900er hier mal die zwei favored Cores auf 5.4GHz gesetzt und den Rest auf 5.2GHz.

Das bringt leistungstechnisch den höchsten Effekt, da der Scheduler brav alles kritische auf die 5.4GHz Kerne legt und der rest mit relativ entspannten 5.2 GHz alles andere abarbeitet.

Die kritischen Kerne haben die höchste Güte, so dass sich der zusätzliche VCore- Bedarf dieser zusätzlich in Grenzen hält.

Somit kann man auch ohne gleich die Leistungsaufnahme explodieren zu lassen gute Werte erreichen, anstatt stur auf Allcore takten zu müssen und dort immer alle Cores auf den Parametern des schlechtesten laufen lassen zu müssen.

Im Cinebench stehen dann mit obigen Einstellungen auf allen Kernen die effektiv maximalen Taktraten brav an.
Also
5.4
5.4
5.2
5.2
usw. usf.
 
Zuletzt bearbeitet:
ghecko schrieb:
Ich hab mir das Video jetzt angeschaut und das kommt dabei raus:
Anhang anzeigen 1207810
Ganz große klasse, der Max gewinnt gerade so gegen einen Laptop mit 3060 wenn der nicht am Netzteil hängt.

Die Anwendung wo der M1 besser dastand war After Effects, und da schlicht nur deshalb weil Adobe macht was Adobe am besten kann: Abstürzen.

Fazit: Der M1 Max kommt in keinem mir bekannten Szenario auch nur in die Nähe der Performance einer 3090, wie das Werbematerial verspricht. Die Fälle wo er gewinnt beziehen sich allein auf die Media Engine des M1. Wenn die vom Programm unterstützt wird, ist das in diesem speziellen Szenario meist schneller.
Von der Leistung her ist er Desktopkarten allerdings hoffnungslos unterlegen.
Auf den Stromverbrauch bezogen schon beachtlich. Software Unterstützung nimmt auch zu und es war die erste Apple Silicon Generation. Wie gesagt der WEG den Apple eingeschlagen hat ist der richtige mMn. Wir stehen noch am Anfang.
 
Fazit= Der 12900KS paßt perfekt zur 3090ti. Und dann tut einem der Preis für ein 1200er Netzteil auch nich mehr weh.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und CableGuy82
Zurück
Oben