News Special Edition mit 5,5 GHz: Beim Intel Core i9-12900KS kostet ein Kern 50 Dollar

user_zero schrieb:
Genauso sehe ich das auch. Ab WQHD Auflösung tut es auch ein 6-Core mit SMT. Sieht man ja an den Benchmarks. Der 12400F ist die perfekte Gaming CPU und wird es auch noch ein Weilchen bleiben, natürlich auf den Preis bezogen. Wenn man zusätzlich noch in G-Sync oder FreeSync investiert, dann braucht man man nicht mal die stärkste Grafikkarte für flüssige Frames.
Das mag für euch auch stimmen, aber ihr seid nicht alle.

Aufbau- und Globalstrategie profitiert auch in 4k oft stark von mehr CPU Leistung.
 
ArrakisSand schrieb:
Ich bin wirklich beeindruckt 5.5 GHz vs. 5.2 GHz Turbotakt bzw. 5.8% mehr dürfte sich in Games am Ende in ca. 3% ummünzen lassen.

Es sind nicht 5,5 gegen 5,2 GHz, Turbo 3.0 und TVB gilt nur für 1 oder maximal 2 Kerne! Und so ist es in games ja nicht, da liegt die Last auf mehrere Kernen. Und dann ist da kein Turbo und TVB mehr, dann hast du nur noch deine 100 MHz Unterschied.

Wenn du es nach exakten Specs betreibst bringt die die TDP-Erhöhung von 125 auf 150 Watt da mehr. Denn wenn der normale 12900K hier und da abgefangen und dann bei 125 Watt betrieben wird, kann der 12900KS dann noch einige Watt mehr ausspielen. Aber das alles hägt eben extrem von Szemario ab und ist primär bei Anwendungen so, bei Games nicht so - aber da erreichen beide vermutlich keine 125 Watt anyway, sodass du wieder nur bei 100 MHz Unterschied bist^^

Also was ich bisher sehe ist die CPU sowas von krass ernüchternd aka Totaler Flop. Diesen TVB für so etwas wieder herauszukramen ist so ziemlich der größte Witz. Das wurde mal fürs Notebook erfunden, wo es echt sinnvolle Einsatzgebiete gibt. Aber nun für alle zu streichen und dann für die Über-Brutzel-Maschine wieder herauszuholen .. japp .. so muss das ..
 
  • Gefällt mir
Reaktionen: yummycandy, Wintermute, guzzisti und 6 andere
latiose88 schrieb:
Kennst du einen der 13 Jahre den selben PC verwendet hat oder nicht.
Jup. Meinen Onkel der nach wie vor nen Pentium 4 benutzt.
 
  • Gefällt mir
Reaktionen: Tiara G.
mkbftw schrieb:
solange die grakas bei 4k limitieren lohnen sich solche cpus doch fast garnicht.
auf 2k bringts ein paar fps mehr aber auch zu wenig und für 1080p kaufen das nur freaks.
für anwendungen kauft man mehr kerne...also was bringt das teil?
Für die wenigsten Anwendungen bezogen auf den Markt braucht man viele Kerne.
Und auch in 4K befördert eine schnelle CPU die min. FPS und bügelt oftmals die Frametimes glatt.

Die Aussage ist also so pauschal nicht sinnvoll.
 
Zuletzt bearbeitet:
Volker schrieb:
Also was ich bisher sehe ist die CPU sowas von krass ernüchternd aka Totaler Flop.
Der 12900K ist ja schon relativ gut gebinnt bzw. schon (weit) aus der guten Skalierung raus. Das beim KS nicht mehr viel kommen kann war damit abzusehen.

War bei AMD damals mit Zen2 und den XT Cpus ja nicht anders. Bissel schneller waren die, aber keine Welten.
 
@Volker
Aufm Apex konnte man auch auf All Core TVB +2 geben.
Hat ohne RAM OC ganz gut funktioniert.

Dann hat man da per Core OC und TVB+2 gut und gern 5.3-5.4GHz in BF2042 gehabt.

Leider hat sichs mitm RAM OC nicht wirklich vertragen.

Da nehm ich dann lieber den RAM mit ;-)

Aber wie du sagst.
Die CPU isn Witz.
 
  • Gefällt mir
Reaktionen: Hydrogenium, Wintermute, t3chn0 und 2 andere
Cronos83 schrieb:
Eins verstehe ich ja nicht ganz...

Die 800€ fü die CPU stören dich nicht, aber 32Gb 6400CL32, was so mit das schnellste momentan sein dürfte, für 560€ sind zu teuer?
Obwohl man RAM in der Regel länger nutzt als die CPU?

https://geizhals.de/g-skill-trident...00j3239g16gx2-tz5rk-a2669242.html?hloc=de&v=e

Man könnte ja auch sagen: Hey, geiler Ram, wenn nur die CPU nicht so teuer wäre...

Du kannst das natürlich sehen, wie es dir beliebt, das ist dein gutes Recht. Es erschließ sich mir nur nicht, dass dir der RAM dann zu teuer ist, wenn es eh um ein Enthusiastensystem geht.

Und leicht langsamerer RAM wie 32GB 6000CL36 liegt dann schon "nur" noch bei ~420€.

Das "nur" bezieht sich auf die Relation zum CPU Preis.
Wenn schon dann das Maximum oder nicht?

Habe ich beim 9900K schon so gemacht....

und nein es stört mich nicht.
PC ist eben auch so ein bischen Hobby
 

Anhänge

  • 5ghz 4100 cl16 scharf.png
    5ghz 4100 cl16 scharf.png
    95,4 KB · Aufrufe: 193
Berserkervmax schrieb:
und nein es stört mich nicht.
Las sich für mich anders, da du den Rampreis ja erwähnst... und als "so hoch" bezeichnest.

Wenn's nicht stört: Kaufen und freuen.
 
Kasjo schrieb:
Jup. Meinen Onkel der nach wie vor nen Pentium 4 benutzt.
OK und was macht er damit so aktuell weil ich meine viel kann man damit ja nicht anstellen mehr.

@Esenel
Das ist allerdings nur bei denen so der Fall wenn die Anwendung und spiele sehr stark von ramtakt profitieren. Ab einen gewissen Zeitpunkt scheint es aber nicht mehr so zu sein. Dann macht ram oc und höher Takt eben keinen Sinn mehr. Wie viel bringt denn ausgehend von ddr4 3600 MHz noch an nennenswerten mehrleistung bei noch mehr ramtakt oder schärfere Latenzen noch was.
 
Zer0Strat schrieb:
Hab ich, mit DDR5 holt man halt 1% mehr raus im Bestfall. Nicht der Rede Wert.
DDR5 steht noch am Anfang.
Und in den meisten Fällen ist Latenz trumpf.

Selbst der 6600MHz DDR5 CL30 Speicher in dem System, welches ich zum Testen benutze, lässt nur das Ergebnis zu, dass das zu DDR4 Zeiten einem 3300MHz Cl15 Speicher in Sachen Latenz entspricht. Klar wird nach der Adressierung das folgende Dataset mit steigender Größer übertragen. Oftmals sind die Anfragen aber eher klein, so dass das Penalty auf den Fetch oft größer ausfällt als dass die kürzere Übertragungszeit das an sich wieder rausholen kann.

Kriegst aber heute schon 4000 MHz Cl14 DDR4.....

Klar, dass der DDR5 in Spielen mit diesen Werten (noch) nicht den Nachbrenner zünden kann bzw. nur bei den Applikationen, die eher Bandbreitengebunden sind (sind z.B. Spiele eher weniger).
 
Zuletzt bearbeitet:
latiose88 schrieb:
@Esenel
Das ist allerdings nur bei denen so der Fall wenn die Anwendung und spiele sehr stark von ramtakt profitieren. Ab einen gewissen Zeitpunkt scheint es aber nicht mehr so zu sein. Dann macht ram oc und höher Takt eben keinen Sinn mehr. Wie viel bringt denn ausgehend von ddr4 3600 MHz noch an nennenswerten mehrleistung bei noch mehr ramtakt oder schärfere Latenzen noch was.

Gibt genug Artikel auf CB die das für DDR4 und DDR5 aufzeigen ;-)

3600MHz XMP ist ia Kindergeburtstag.
 
latiose88 schrieb:
OK und was macht er damit so aktuell weil ich meine viel kann man damit ja nicht anstellen mehr.

@Esenel
Wie viel bringt denn ausgehend von ddr4 3600 MHz noch an nennenswerten mehrleistung bei noch mehr ramtakt oder schärfere Latenzen noch was.
Das skaliert lange sauber weiter. Wichtig ist, dass mit steigendem Takt die Timings nicht leiden dürfen, um eine saubere Skalierung zu erreichen.

Hatte da mal vor langer Zeit einen Test gemacht mit einem sehr CPU gebundenen Spiel:
https://www.computerbase.de/forum/threads/arma3-performance-of-ryzen.1672767/post-19992440
 
  • Gefällt mir
Reaktionen: Esenel
Tiara G. schrieb:
Der 10400f, 5600X und 8700K sind effizienter, aber der 12400f ist natürlich auch sehr gut.
Hast du da Tests im Gaming dazu? Ein 8700K dürfte nicht effizienter als ein 12400F sein, zumal man ihn ja sowieso nicht mehr kaufen kann, außer teuer gebraucht. PCGH sieht ihn im Efifzienz Index knapp hinter dem 12400.
Screenshot 2022-03-26 183857.png


Der 5600X ist zwar effizienter, allerdings auch noch mal etwas teuer. Sind zwar aktuell nur noch ~30-40€, aber beim Verbrauch sprechen wir im Gaming hier auch von Unterschieden von 5-10W, das dauert ne Zeit, bis man damit 40€ rausgeholt hat^^

Den 10400F kann man aber noch kaufen und er ist auch deutlich günstiger als alle anderen genannten CPUs. Man ist zwar ~20% langsamer ggü. einem 12400F und ~25% ggü einem 5600X, aber das macht dann in WQHD+ auch nicht mehr viel aus.

Zu dem Effizienzindex von PCGH muss man auch dazu sagen, dass hier natürlich 720p getestet wurde. Wenn man nun im GPU Limit spielt, kann sich diese Reihenfolge auch komplett verändern, vor allem der 5600X dürfte dann weiter zurückfallen, da Intel außerhalb des CPU Limits generell im Verbrauch stärker abfällt.


Tiara G. schrieb:
Das einzige was Sync Technologien können ist Tearing zu verhindern, sonst nichts, das ist ihr Einsatzzweck, nichts anderes.
Wobei du an einem 144Hz Monitor mit VRR und z.B. 40fps schon ein flüssigeres Bild wahrnehmen kannst, als ohne, da der Monitor keine ungleichmäßig doppelten Bilder rausgibt, sondern in dem Fall dann immer auf 80Hz laufen würde und du jedes Bild genau 2mal siehst.
 
Zuletzt bearbeitet:
Tiara G. schrieb:
Die Sync Technologien können nichts ausrichten gegen Mikroruckler, nichts ausrichten gegen niedrige FPS, sie machen aus einer schwachen Graka keine bessere.

Das einzige was Sync Technologien können ist Tearing zu verhindern, sonst nichts, das ist ihr Einsatzzweck, nichts anderes.
Das ist halt wirklich subjektiv. Mich persönlich stören zum Beispiel niedrige FPS nicht die Bohne, das flüssige Bild sorgt für die Immersion. Ich treibe das mittlerweile auf die Spitze. Meine Grafikkarte ist eigentlich zu schwach für den Monitor in der Signatur. Aber da ich nirgends unter 40 FPS komme oder wie bei CP 2077 DLSS nutze, genügt sie mir.

Ich erinnere mich dran, als ich das erste Mal G-Sync auf einem Notebook-Display gesehen habe. Das muss der erste oder zweite Batman Teil gewesen sein. War damals sehr fordernd und gleiten ohne Tearing war quasi nicht drin, egal welche Grafikkarte. Mit G-Sync auf einmal: butterweiches Bild. Möchte ich ich beim Zocken nicht mehr missen.
Ergänzung ()

Schinken42 schrieb:
Aufbau- und Globalstrategie profitiert auch in 4k oft stark von mehr CPU Leistung.
Damit hast Du Recht! Ich würde da aber auch entgegnen, dass die meisten Engines schlecht optimiert sind. Wenn ich höre, dass Creative Assembly für Warhammer 3 wieder die selbe "hauptsache-ein-Kern-mit-hohem-Takt" Engine verwendet, habe ich schon keinen Bock mehr auf das Spiel. Und nein, da skaliert nix. Bei Troy treibst Du einen 5950X in die Knie, wenn Du das Gras auf Maximum stellst. Ohne Worte. Endless Space 2 ist ein ähnlicher Murks.

Und bei den gut optimierten wie Anno rennt man eigentlich auch eher ins Grafiklimit, wenn man alle Regler nach rechts dreht.
 
Zuletzt bearbeitet:
user_zero schrieb:
Das ist halt wirklich subjektiv.
Nein. Das ist die Funktionsweise der Technologien. Bildwiederholrate syncen sorgt nicht für mehr FPS. Punkt.
user_zero schrieb:
Mich persönlich stören zum Beispiel niedrige FPS nicht die Bohne, das flüssige Bild sorgt für die Immersion.
Ein flüssiges Bild wird, auch wenn es nicht definiert ist, eigentlich immer mit hohen (was hoch ist, ist dann wirklich subjektiv) FPS gleichgesetzt.
Da die Sync-Technologien die FPS nicht erhöhen, haben sie auch nichts mit einem flüssigen Bild zu tun.
user_zero schrieb:
Ich treibe das mittlerweile auf die Spitze. Meine Grafikkarte ist eigentlich zu schwach für den Monitor in der Signatur. Aber da ich nirgends unter 40 FPS komme oder wie bei CP 2077 DLSS nutze, genügt sie mir.
Das halte ich auch ohne eine synchronisiert Bildrate so.
Übrigens auch ganz ohne Tearing, dank Enhanced Sync. Allerdings gibt es Spiele, wo es nicht klappt. Insofern hätte ich es schon gern.
user_zero schrieb:
Ich erinnere mich dran, als ich das erste Mal G-Sync auf einem Notebook-Display gesehen habe. Das muss der erste oder zweite Batman Teil gewesen sein. War damals sehr fordernd und gleiten ohne Tearing war quasi nicht drin, egal welche Grafikkarte. Mit G-Sync auf einmal: butterweiches Bild. Möchte ich ich beim Zocken nicht mehr missen.
Natürlich, gegen Tearing helfen sie ja auch, dafür und nur dafür sind diese Techniken ja da.
 
Schinken42 schrieb:
Ein flüssiges Bild wird, auch wenn es nicht definiert ist, eigentlich immer mit hohen (was hoch ist, ist dann wirklich subjektiv) FPS gleichgesetzt.
Da die Sync-Technologien die FPS nicht erhöhen, haben sie auch nichts mit einem flüssigen Bild zu tun.
Die Sync Technologien beeinflussen aber die Art und Weise, wie der Monitor dir das Bild ausgibt und genau an dem Punkt entscheidet sich ja, ob du etwas flüssig wahrnimmst oder nicht.

Wie viele FPS vom PC berechnet werden, ist da nicht der einzige Faktor, genau so wichtig ist, wie der Monitor es dann ausgibt.

Beim Steam Deck gibt es aktuell z.B. auch nur einen 30FPS und einen 60FPS Modus, weil das Teiler der Bildwiederholrate des Displays sind. 30FPS auf einem 60Hz Display ohne VRR können sich, wenn die Frametimes stabil sind, flüssiger anfühlen als 40FPS, da du bei 40FPS manche Bilder doppelt siehst und manche nur einmal, während bei 30fps gleichmäßig jedes Bild doppelt ist
 
  • Gefällt mir
Reaktionen: 4nanai
user_zero schrieb:
(...)


Damit hast Du Recht! Ich würde da aber auch entgegnen, dass die meisten Engines schlecht optimiert sind.
Ist zwar ärgerlich, aber am Ende egal, ich spiele die Games die existieren, nicht die die ich gern hätte.
user_zero schrieb:
Und bei den gut optimierten wie Anno rennt man eigentlich auch eher ins Grafiklimit, wenn man alle Regler nach rechts dreht.
Nope, nicht im Lategame. Normalerweise skaliert Aufbaustrategie ja gen unendlich. Soll heißen, mit Citys Skylines oder Anno landet man immer im CPU Limit, wenn man gross genug baut. Und gross bauen, das tue ich.

Zudem: Nehmen wir an, mit allen Garfikeinstellungen gemaxt komme ich auf 20 FPS im GPU Limit. Die CPU schafft aber 30 FPS. In diesem Szenario hast du zwar recht (alle Regler rechts = GPU Limit) aaber:
Ich will nicht mit 20 FPS spielen, ebensowenig aber mit 30.
Also schraube ich die Regler runter, bis ich sagen wir 40fps im Grafillimit erreiche. Nun bremst aber immernoch die CPU. Eine bessere CPU würde also helfen, selbst wenn ich anfangs, bei allen Reglern rechts, im Grafiklimit war.
Ergänzung ()

Taxxor schrieb:
Die Sync Technologien beeinflussen aber die Art und Weise, wie der Monitor dir das Bild ausgibt und genau an dem Punkt entscheidet sich ja, ob du etwas flüssig wahrnimmst oder nicht.

Wie viele FPS vom PC berechnet werden, ist da nicht der einzige Faktor, genau so wichtig ist, wie der Monitor es dann ausgibt.

Beim Steam Deck gibt es aktuell z.B. auch nur einen 30FPS und einen 60FPS Modus, weil das Teiler der Bildwiederholrate des Displays sind. 30FPS auf einem 60Hz Display ohne VRR können sich flüssiger anfühlen als 45FPS, da du bei 45FPS jedes zweite Bild doppelt siehst, während bei 30fps gleichmäßig jedes Bild doppelt ist
Stimmt. Nur kann man dann nicht bei beiden Eindrücken von "flüssig" sprechen.
Es sind unterschiedliche Phänomene, also muss man auch unabhängige Terminologie nutzen. Ob man dabei gesynctes Bild oder hohe FPS flüssig nennt ist natürlich relativ egal, solange man nicht beides gleich nennt. Für hohe FPS hat es sich nur schon eingebürgert.

Du sagst ja selbst, sie "können sich (...) anfühlen".
Hohe FPS fühlen sich immer flüssig an.
Ergo unterschiedliche Phänomene die unterschiedliche Namen brauchen.
 
Zuletzt bearbeitet:
Schinken42 schrieb:
Stimmt. Nur kann man dann nicht bei beiden Eindrücken von "flüssig" sprechen.
Es sind unterschiedliche Phänomene, also muss man auch unabhängige Terminologie nutzen.
Warum sollte man dafür eine andere Definition nehmen?
Flüssig ist das was ich als Nutzer am Bildschirm wahrnehme.
Ob etwas flüssig ist, weil ich weit höhere FPS habe, als mein Monitor ausgeben kann oder weil mein Monitor niedrigere FPS mit einer gleichmäígen Bildausgabe ausgleicht, sind einfach nur zwei verschiedene Gründe, warum etwas als flüssig wahrgenommen werden kann.
Deshalb führt aber nicht der eine Grund zu "flüssig" und der andere zu "neues Wort".

Schinken42 schrieb:
Für hohe FPS hat es sich nur schon eingebürgert.
Eingebürgert hat es sich auch nicht für hohe FPS, sondern für gleichmäßige Frametimes, deswegen gibt es ja die Frametime Diagramme um zu beurteilen ob etwas flüssig läuft.

60fps können auch flüssiger sein als 100fps, wenn die Frametimes bei den 100fps zwischen 7ms und 14ms hin und her schwanken während sie bei 60fps stabil zwischen 16ms und 17ms bleiben
 
  • Gefällt mir
Reaktionen: Wintermute und 4nanai
Taxxor schrieb:
Warum sollte man dafür eine andere Definition nehmen?
Flüssig ist das was ich als Nutzer am Bildschirm wahrnehme.
Ich verstehe deinen Punkt.
Aber hohe FPS sind objektiv flüssig. Ein gesynctes Bild subjektiv.
Was ich damit meine?
Du sagst selbst, eine gesynctes Bild könne flüssiger aussehen.
Könne!
Diese Einschränkung würde man bei hohen FPS nicht machen. Mehr FPS sind flüssiger fürs Auge, ohne Diskussion.

Das eine ist also objektiv belegt, das andere ein subjektiver Eindruck. Ich persönlich würde da ungern denselben Begriff verwenden, das führt zu Missverständnissen.
Aber es ist auch ein wenig Korinthenkackerei, das ist auch richtig. Aber begründete Korinthenkackerei :D.

Die siehst ja wie schwierig es ist, diesen Unterschied herauszuarbeiten, ein und derselbe Begriff hilft dabei nicht.
 
  • Gefällt mir
Reaktionen: Wintermute
Zurück
Oben