News Core i9-14900KS: 6,2 GHz Spitzentakt gehen bei Intel wohl bald in Serie

aluis schrieb:
Wenn ich jedem AMD-Fanboy hier im Thread 3500 Euro geben würde, womit ein High-End-PC gekauft werden muss, würden die meisten trotzdem nen 14900KS mit 4090 kaufen.
4090 - ja, ist eben die beste Gaming-Karte. 14900KS - nein, warum? Die X3D-Prozessoren sind in Spielen vielfach trotzdem besser und effizienter sowieso.

Aber wir können diese These gerne testen, kriegst meine IBAN per PM, die anderen reichen ihre gerne nach xD

@topic:

Die Prestige-Prozessoren der KS kommen also weiterhin. Es lohnt sich ja offenbar, diese immer wieder aufzulegen. Interessant.
Ich bin auf Arrow-Lake weiterhin gespannt, diese RL-Neuauflage ist und bleibt aber ein schlechter Witz. Nach zwei wirklich guten Generationen enttäuscht mich das nach wie vor :/
 
  • Gefällt mir
Reaktionen: MP42 und LamaMitHut
  • Gefällt mir
Reaktionen: MP42
heroesgaming schrieb:
Das Mittel aus 12 Reviews gegen 3. Naja, ich sehe da keinen Unterschied.
Für die Bemerkung vielfach besser reicht das einfach nicht. Wie wäre es mit gleich schnell?
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Er sagte Vielfach besser, nicht immer.
 
Quidproquo77 schrieb:
Soviel ich weiß haben die E Cores immer noch eine anständige IPC auf Rocket Lake Niveau.
Skylake Niveau. Definitiv nicht Rocket Lake.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und Quidproquo77
Joa, die Core Architektur skaliert nicht mehr. Die IPC Zugewinne bei Intel beschränken sich seit Jahren auf den einstelligen Prozentbereich pro Jahr (Sandy Bridge vs Alderlake, in 11 Jahren ca. 80% IPC Zuwachs in Spielen, macht 5,5% pro Jahr, Zen vs. Zen 4 ca. 80% IPC Zuwachs in 5 Jahren oder 12% pro Jahr; Zahlen von PCGH).
Wenn man die Architekturen, die man mit Jim Keller und Konsorten vor ein paar Jahren aufgesetzt hat nicht bald gebaut bekommt ist man hart auf Bruchlandungskurs. Über die jahrelange Quadcore-Orgie hat man AMD ein Fenster in den Markt angeboten, jetzt hat man die schlechtere Kernarchitektur und kommt auch was Single-Core angeht nicht mehr nach.

Ein Jahrzehnt lang hat Intel von Powerpointspezialisten und BWLern getrieben den gleichen Kram mit jährlich ansteigenden Produktnummern verkauft, schon kommt der Hammer. Schön zu sehen, dass nicht technologiegetriebenes Firmenmanagement auch einen quasi-Monopolisten schneller vom Himmel holt als man bis Zen 5 zählen kann. Aber die Hoffnung lebt. Zukünftig lässt man das i in den Produktnamen weg...
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Quidproquo77 schrieb:
Das Mittel aus 12 Reviews gegen 3. Naja, ich sehe da keinen Unterschied.
Für die Bemerkung vielfach besser reicht das einfach nicht. Wie wäre es mit gleich schnell?
Zum einen: Das eine schließt das andere nicht aus. Ein 7800X3D ist einem 14900K in Spielen oft leicht überlegen bis (wie du sagst) gleich schnell, gleichzeitig aber deutlich günstiger, deutlich effizienter und daher zu diesem Zweck schlicht besser. Geschwindigkeit ist ja schließlich nicht das einzige Kriterium, das man anlegen kann.

Aber damit keine Missverständnisse aufkommen: Mit "vielfach besser" meine ich nicht "um ein Vielfaches besser", sondern schlicht, dass es viele Benchmarks und auch abseits davon viele Messungen gibt, wo Ryzen X3D besser aussieht als die Konkurrenz.

IV52 schrieb:
Verbieten tun die Grünen sowieso nichts, das ist Quark.
Es ist sehr interessant, wie sich das Verbotsnarrativ in vielen Köpfen festgesetzt hat. Ja, die politische Linke neigt gerade in Sachen Umweltschutz etwas zur Überregulierung. Diese Tendenz in vielen Bereichen zu haben, ist aber ein grundsätzlich deutsches Problem, das auch bürgerliche und rechte Parteien haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DevPandi
G3cko schrieb:
Intel hängt keine 10 Jahre hinterher. Sie müssten nur eine CPU mit extra Cache bringen.
Intel zeigt ja auch bereits erste "Demos" mit entsprechenden Chiplets. Es wird bei Intel sicher noch etwas dauern, aber 10 Jahre ist AMD hier nicht voraus.
ArrakisSand schrieb:
So ein billig in 2D angebundener L4 Cache, kann es nicht mit dem 3D V-Cache von AMD aufnehmen.
… Wenn man keine Ahnung, sollte man lieber nichts schreiben, statt allen zu zeigen, dass man keine Ahnung hat.

Ein gut angebundener L4-Cache an der richtigen Stelle, muss einem aufgesetzten L3-Cache nicht wirklich unterlegen sein, wenn die Cache-Stufen vorher auch entsprechend ausgelegt wurden. Der primäre Nachteil eines L4-Caches gegenüber dem aufgesetzten L3-Cache wäre eine gewisse Latenzsteigerung. Die Latenz wäre in dem Fall aber IMMER noch weit niedriger als zum RAM und würde auch wesentlich weniger Energie benötigen.

Dazu bietet ein L4-Cache in diesem Zusammenhang einen Vorteil, den AMD aktuell mit ihrer Art des 3D-Caches nicht hat: Der L4 steht allen "CPU"-Tiles zur Verfügung und kann so ggf. den Umweg über den RAM minimieren/eliminieren.

AMD muss bei den "Consumer-CPUs" aktuell zwischen CCD 0 und CCD 1 unterscheiden, nur ein CCD hat bei den "oberen" Prozessoren die entsprechenden Boost des 3D-Cache. Ein L4 im IOD würde allen CCDs den Cache zur Verfügung stellen.

Dazu kommt, dass Intel mit Meteor-Lake und bereits bei Saphire-Rapids entsprechend am Die-to-Die-Interconnect gearbeitet hat und die Prozessoren sehr nah zusammen kommen - ähnlich dem M1 Ultra/M2 Ultra und damit die Latenzen noch mal ein Stück anders sind, als bei AMD von CCD zu IOD zu CCD.

Was du also als "billig" angebundender L4 bezeichnest, hat Vorzüge, die der 3D-Cache nicht hat und umgekehrt. Am Ende - und das hat Broadwell gezeigt - es aber entscheinder, dass man sich den Weg aus der CPU zum RAM spart, weil hier die meiste Energie benötigt wird und auch die meiste Zeit draufgeht. Wenn Intel den L2-Cache - was sich ja andeutet - noch mal erhöht, den L3-Cache auch noch mal etwas und dann 64 MiB bis 128 MiB als L4 davor schaltet, dann kann das eine verdammt gute Sache werden.
t3chn0 schrieb:
Intel ist AMD im Hybrid Ansatz deutlich voraus und hat einen deutlich besseren Hardware Scheduler.
Ja und Nein. Der Hardware-Scheduler bei Intel ist zwar tolles Marketing, aber im weiten nicht so gut, wie hier einige tun und auch getan wird.

Der Hardware-Scheduler bei Intel arbeitet in Win 10 und Win 11 aktuell auch erst mal nach der Regel: 1. P-Kerne, dann E-Kerne, dann SMT auf den P-Kernen. Natürlich wird dann der Code "überwacht" und dann Empfehlungen gegeben, aber von einem wirklich guten und vorausschauenden Thread-Director kann man hier nicht sprechen. Man analysiert Speicherzugriffe und versucht daraus dann auch zu schließen, wo der Thread am besten ist.

Bei Meteor-Lake dreht Intel die Regel erst mal um, damit erst die E-Kerne im IOD und dann die anderen dran kommen. Aktuell ist es nämlich so, dass die e-Kerne meistens raus fallen, selbst wenn der Prozess dafür geeignet wäre.

Hier ist auch nicht wirklich Intel oder AMD gefragt, sondern MS und Linux, die entsprechend auch die Möglichkeiten bieten, dass man bestimmte Prozesse alleine anhand einfacher Daten auf die P und E-Kerne schieben könnten.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, ComputerJunge, Quidproquo77 und 5 andere
ArrakisSand schrieb:
Ach ja Gott bewahre ohne Effizienz-Kerne würden sie wohl bereits an der 1000W Grenze kratzen um mit einem 150W 7950X3D halbwegs mithalten zu können.
Oha, Hochfrequenz Gamer Performance incomming?

Atma schrieb:
Weil der typische K- und KS Käufer dafür bekannt ist PL1 und 2 zu verwenden :freak:
Genau meine Gedanken!
Das Intel es besser kann zeigt die von ARM kopierte Idee von Big/Little.
Warum nicht schon vor 10 Jahren?

Energiekrise? Fehlanzeige.
roaddog1337 schrieb:
E-Bikes, stomfressende Hardware und E-Autos für alle!
Der Strombaum im Garten hat immer einen tollen Ertrag :freak:
Naja, besser erstmal nen Anstriebsstrangwechsel als noch mehr Feinstaub = Lungenkrebs und abgesetzter Feinstaub Pm2,5 im Hirn jeder Stadtbevölkerung.
Sinnvolle Hinterfragungen haben es schwer. Schau dir mal das Buch #Autokorrektur an.

iSight2TheBlind schrieb:
@eRacoon Die CPU existiert allein deshalb, damit bloß kein Review/Benchmark
Glaube ich auch so langsam…

Simanova schrieb:
Cities Skylines 2 frisst 12 Kerne + Hyperthreading ohne Probleme :)
Das ist jetzt nicht grade eine Referenz. Schlechter Code bzw. ausbleibenden Optimierungen sind eine Lachnummer für jede Codingbude.
Evtl sollten die sich mal Hilfe bei ID Software oder Blizz besorgen.

FatalFury schrieb:
Die Frage ist: Wie lange und wie oft? 😉
Jasmin83 schrieb:
Die gute alte maximaltakt Brechstange, kennen wir ja schon von Intel, seit P4 zeiten.
Oder um es hier erneut zu zitieren von @Blutschlumpf : P4 = „der Bruzzler“
Atma schrieb:
Alles regulieren und verbieten ... 🤦‍♂️
Oh, ein Beitrag von Team #Technologieoffen

r3gnum schrieb:
Ich faende es netter, wenn das Personal bei Intel seine Zeit nicht fuer solchen Marketing-Unsinn verschwenden, sondern stattdessen daran arbeiten wuerde die Chips mal wieder takteffizienter, kuehler und fehlerfreier zu machen.
Also ich fände es nett, wenn die Marketingfreggel schön weiter ihre Cherry-Picking Suppe kochen und die Chipentwicklung die Profis machen lassen.
 
Intel centur(i)on 9

Core i9-14900K(F) AVX: max 428W und CB23 max 319W

Was gönnt sich wohl der ... 🙈
 
GERmaximus schrieb:
So wie viele die 4090 Kunden nicht verstehen (für mich noch immer die beste, "günstigste" und effizienteste 4000er Karte) so kann ich die Intel Kunden nicht verstehen. Erst recht nicht die KS Kunden...
Allerdings ist der Performanceabstand zwischen einer 4090 und dem Rest der GPUs (auch der 4080) derart hoch, dass das für mich eine andere Bewertung ist als ein 14900K vs 13900K z.B. Oder ich habe Dich falsch verstanden ^^
 
  • Gefällt mir
Reaktionen: GERmaximus
Am besten wäre ein Vergleich wo man die CPUs mit der gleichen Powereinstellung betreibt.

Also wie bei AMD für die 105W CPUs:

PPT: 142W
TDC: 95A
EDC: 140A

In einem anderen Forum hat mal einer TDC mit PL1 bei Intel und EDC mit PL2 verglichen.
Bei TAU ist das bei AMD vergleichbar mit dem Scalar, bei x1 normaler Takt und auch normale VCore.
Geht man auf x10 dann hält die CPU langer den Takt und die VCore wird leicht erhöht.

Mal sehen wie die CPUs dann im Vergleich abschneiden.
 
ToaStarr schrieb:
Nein du Experte, aber ich game auch nicht 24/7. Im Übrigen kann ich mir die paar Extra-Euro Strom in Zeiten von eAutos udn Wärmepumpen gerade noch leisten.

Btw: Schön das du dich angesprochen gefühlt hast... ;-)
Ob du oder wir es uns leisten können steht nicht zur Debatte.

Der 14900KS, wenn es gewünscht wird, ist das halt so, brauchen tun wir den nicht.
 
  • Gefällt mir
Reaktionen: Mr. Vega
drunkeNNN schrieb:
Joa, die Core Architektur skaliert nicht mehr. Die IPC Zugewinne bei Intel beschränken sich seit Jahren auf den einstelligen Prozentbereich pro Jahr (Sandy Bridge vs Alderlake, in 11 Jahren ca. 80% IPC Zuwachs in Spielen, macht 5,5% pro Jahr, Zen vs. Zen 4 ca. 80% IPC Zuwachs in 5 Jahren oder 12% pro Jahr; Zahlen von PCGH).
Viel davon kommt auch vom Speicher, oder hatte PCGH den bereits rausgerechnet?
Irgendwo hatte ich speicherbereinigte Zahlen gesehen, glaube es war bei Hardware Unboxed. Ka.

Aber ja ich denke Intel hat ein Problem mit der Architektur und Fertigung.
 
Da sind sie wieder die Hochleistungshochfrequenzkerne. 🤣
 
  • Gefällt mir
Reaktionen: C4rp3di3m, Quidproquo77, Drakrochma und 2 andere
Der Chip ist ja nicht für Leute gemacht wo schon den 6 ghz haben sondern die wo neu Kaufen von einem älteren Chip die haben den 200 mehr👍😁😉
Ich warte bis Intel Chips in Magdeburg herstellen den will ich den in meinem PC. 🤣 Standort unterstützung👍😁
Vielleicht ist er den ja schon bei 10.2ghz der Intel. 🤣
 
Zuletzt bearbeitet:
Syrato schrieb:
Der 14900KS, wenn es gewünscht wird, ist das halt so, brauchen tun wir den nicht.
Ach, wenn es nach dem geht, was wir brauchen, reicht Wasser, Luft und Essen. Der ganze Rest ist Bonus. ;)
Draco Nobilis schrieb:
Aber ja ich denke Intel hat ein Problem mit der Architektur und Fertigung.
Bei der Architektur hat Intel kein wirkliches Problem. Ja, es gab einen gewissen Stillstand bei Intel zwischen SandyBridge und den SkyLake Iterationen. AMD fehlte damals als Konkurrenz weitgehend und ein gutes Pferd springt nur so hoch, wie es muss.

Erst mit Zen hatte AMD wieder eine wirklich konkurrenzfähige Architektur und hat da auch eingeschlagen. Intel hat aber relativ schnell auch Sunny Cove am Start, kam hier aber wegen der Fertigung nicht weiter. AMD hat mit Zen+ auf Zen ca. 3 % IPC zugelegt, mit Zen2 auf Zen+ ca. 20 % und mit Zen 3 auf Zen 2 noch mal 20 % bei der IPC. Mit Zen 4 sind wir bei 10 %. Die Steigerung seit 2017 bei der IPC sind damit bei ca. 63 %. Mit Zen 2 konnte AMD damals die Lücke von ca. 10 % IPC zu Sky Lake "schließen" und mit Zen 3 dann damals überholen. Gleichzeitig hat aber Intel mit Cypress Cove (Sunny Cove für 14nm) den damaligen Rückstand aufgeholt und mit Golden Cove Zen 3 deutlich überholt und lag im Schnitt 10 - 15 % in der IPC vorne. Zen 4 ist jetzt auf dem Leistungslevel von Golden Cove, Intel hat mit Raptor-Cove je nach Szenario alleine mit dem besseren Prefetcher ca. 3 - 5 % IPC gebracht. Raptor Cove ist Takt bereinigt aktuell in der IPC ca. 5 - 7 % voraus.

AMD hat mit dem 3D-Cache eine sehr gute Technologie und kann damit gerade bei Spielen und in speziellen Anwendungen auch sehr gut zu legen, sowohl bei der Leistung als auch Effizienz, weil Speicherzugriffe minimiert werden. Und das muss man so anerkennen.

Nur ist hier genau der Knackpunkt: Intel schläft nicht und hat auch bereits Erfahrungen mit einem "L4-Cache" - Broadwell "5xxxc" und bereits der hat damals gezeigt, dass das, was AMD aktuell hilft bei Spielen, auch als L4-Cache funktioniert.

Es ist daher auch nicht angebracht, hier abfällig über einen eventuellen "2D-L4-Cache" zu schreiben. Der L3-Cache geht durchaus mit thermalen Nachteilen einher, ebenso wird der "Takt" beschränkt. Würde man den L3 vom CCD als L4 in den IOD ziehen, wäre der Zugewinn vermutlich etwas geringer bei Spielen und Co, könnte gleichzeitig aber das thermale Verhalten verbessern und den Takt.

Und wenn ich ehrlich bin: Ich glaube nicht, dass Keller bei Intel eine neue µArch entworfen hat oder vorbereitet hat. Auch wenn das jetzt einige nicht gerne lesen werden: Wenn man sich K7 und K8 ansieht - und gerade letztere µArch wird mit Keller in Verbindung gebracht - dann sind beide µArch stark miteinander verwandt und K7 wurde nicht von Keller entworfen. Intel hat bereits verdammt gute Architekten für eine µArch. Dazu kommt auch, dass Keller selbst angibt, dass er bei AMD an der µArch von Zen und Co nicht so stark beteiligt war, wie hier angenommen wird.

Keller ist für mich viel mehr ein verdammt genialer "Stratege" der auf den Ebenen vor der eigentlich µArch glänzt und da auch die richtigen Entscheidungen treffen kann. Keller hat bei AMD die AMD64/x64-Architektur entworfen - ISA-Ebene - dazu geht auf ihn zum Teil HyperTransport zurück und ebenso wurde angedeutet, dass nun der Infinty-Fabric und da das drumherum stark auf seine Arbeit zurückgeht. Bei den Infos, die ich bereits jetzt zu AVX10 und APX gesehen habe, glaube ich viel eher, dass Jim Keller bei Intel auf dieser Ebene tätig war und hier erneut einmal die ISA aufgeräumt hat, um hier die Weichen für die Zukunft zu stellen. Nach dem Keller hier fertig war mit AVX10 und APX, ist er wieder gegangen, widmet sich wieder anderen Aufgaben.

Wenn man sich seine Papers und Interviews auch ansieht: Schnödes µArch-Design ist dem vermutlich viel zu langweilig. Dem geht es viel eher um die Grundlagen, auf denen man dann aufbaut und da ist der Herr ein absolutes Genie.
 
  • Gefällt mir
Reaktionen: darth_mickrig, danyundsahne, C4rp3di3m und 4 andere
Das wäre ja ne Meldung wert, wenn die Spitzen Hz nicht nur ein paar Sekunden gehalten werden könnte, wie bei allen anderen Modellen von Intel.
Es reicht halt immer nur für einen Benchmark, dann ist SCHLUSS.
Erbärmlich!
 
pseudopseudonym schrieb:
Dass ich inzwischen überwiegend meinen Laptops statt PC nutze, gelegentlich auch mal ohne externe Monitore, scheint sich ziemlich krass auf meine Stromrechnung auszuwirken. Anders kann ich mir den Niedergang meines Verbrauchs nicht erklären.
Dann solltest du mal nachrechnen, anstatt einfach davon auszugehen ;)

Die 30W die zwischen einem aktuellen Desktop und Notebook bei identischer Leistung liegen machen 0,0081€ aus … bei Office entsprechend noch weniger.
Bei wie schon geschrieben 4-5 Stunden Last die Woche sind das gerade einmal 14,6 Cent im Monat - den „Niedergang deines Verbrauchs“ musst du dir also wohl anders erklären, sofern du nicht von den paar Cent sprichst …
Ergänzung ()

AYAlf schrieb:
Das wäre ja ne Meldung wert, wenn die Spitzen Hz nicht nur ein paar Sekunden gehalten werden könnte, wie bei allen anderen Modellen von Intel.
Das ist doch bei nahezu jedem Mainboard standardmäßig deaktiviert - auch bei deinem :rolleyes:
AYAlf schrieb:
Es reicht halt immer nur für einen Benchmark, dann ist SCHLUSS.
Eben nicht. In Spielen liegen bei mir oft 6 Ghz an - eben weil die CPU dabei nicht viel braucht und somit auch nicht gedrosselt werden müsste, sofern man bewusst im BIOS limitiert.
AYAlf schrieb:
Warum zieht sich dieses kindische Gehabe bei einem dämlichen Chip der in Spielen und Anwendungen gleichauf mit der Konkurrenz liegt eigentlich durch den ganzen Thread?
Sind doch beides nur dämliche Chips die man eben nach Preis-/Leistung kauft - nicht danach welcher 14 Cent weniger im Monat verbraucht :rolleyes:

Wäre der 7900X3D nicht technisch ein Reinfall und anständig bepreist gewesen, würde vermutlich der in meinem PC stecken - so ist es ein 13700K geworden, 200€ günstiger bei selber Leistung in Anwendungen. Der 7800X3D war 50€ teurer und hat gleich 50% weniger Leistung in Anwendungen laut CB bzw. 8 vs 16 Kerne, jedoch nur 3% mehr in Spielen, was schon fast unter Messtoleranz fallen könnte - die 14 Cent im Monat auf der Stromrechnung waren mir da völlig egal, da müsste ich 1.428 Stunden Last haben bis ich die 200€ Differenz zum 7900X3D wieder drin hätte …
 
Zuletzt bearbeitet:
Zurück
Oben