Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Nova Lake: Ein Quartett mit großem Cache als Core Ultra 400K erwartet
Intel gab heute bekannt, dass seine führenden Produkte auf Intel 18A, Panther Lake (AI-PC-Client-Prozessor) und Clearwater Forest (Server-Prozessor), die Fertigung verlassen haben und mit Betriebssystemen hochgefahren wurden. Diese Meilensteine wurden weniger als zwei Quartale nach dem Tape-out erreicht, wobei beide Produkte planmäßig 2025 in Produktion gehen sollen. Das Unternehmen gab außerdem bekannt, dass der erste externe Kunde voraussichtlich in der ersten Hälfte des nächsten Jahres mit Intel 18A in Produktion gehen wird.
Da das Tape-out war "weniger als 2 Quartale" vor Anfang August war, würde ich auf Mitte bis Ende Q1 2024 tippen
Die Launch Party von Panther ist auf der CES 2026.
Noch im Sommer hieß es Panther Lake kommt noch 2025.
Meldungen zum Tape out von Nova Lake in N2 datieren vom Juli 2025. Scheint also in Q2 2025 gewesen sein. Für diese Variante von Nova Lake wird IMO 2026 eng.
Könnte eine Preisfrage werden. AMD dürfte Zen 5 als günstig zu produzierende Familie weiter liefern. Den 9800X3D werden wir auch dann noch aktuell ab Werk kaufen können.
Was ich (vor laengerer Zeit) ueber diverse Prozessoren gelesen habe, ist, dass sie immer groesser entworfen wurden, und dann wurden sie fuer die Produktion abgespeckt ("silicon diet" habe ich mal gelesen). Dass man den Lion Cove abspecken kann, und dabei noch nennenswert IPC dazugewinnen kann, halte ich allerdings fuer unwahrscheinlich.
Andererseits, einen fuer geringeren Takt entworfenen Core auf hoeheren Takt zu bringen, stelle ich mir auch schwierig vor. Ok, theoretisch macht man mehr Pipelinestufen, damit jede Stufe weniger zu tun hat, aber praktisch kann das sehr viel mehr kosten (wenn eine neue Stufengrenze an eine Stelle faellt, wo es sehr viele Signale gibt; fuer alle Signale muessen an einer Stufengrenze Flipflops gemacht werden), und jede Stufe verursacht einen Overhead, sodass man die Anzahl der Stufen um einen hoeheren Faktor vergroessern muesste als das Verhaeltnis der Taktfrequenzen.
Meine unfundierte Meinung ist, dass E-Cores ein Auslaufmodell sind. Was natürlich nicht bedeutet, dass Hybrid CPUs ein Auslaufmodell sind. Es ist sinnvoller einen All Round Core aka Performance Core für verschiedene Frequenzen zu designen. Darüber kann man durch aus noch einen High Performance Core ansiedeln, wie es bei Arm inzwischen üblich ist.
Zunaechst einmal gibt es AVX10.2/256 (maximal 256-bit-Register und -Operationen) und AVX10.2/512, also eigentlich muesste man bei den aktuellen E-Cores nicht viel dazufuegen, um AVX10.2/256 zu unterstuetzen.
Weiters ist keine fette FPU noetig, um AVX10.2/512 zu unterstuetzen, das geht auch mit 128-bit-FPUs. Was man braucht, sind genug (also >128) physische 128-bit-Register, um die 32 ZMM-Register zu implementieren, und noch ein paar mehr fuer register renaming. Oder man macht stattdessen 512-bit-Register wie Zen4, und die schmaleren FPUs brauchen dann mehrere Zyklen pro Operation. Eigentlich wundert es mich, dass das nicht schon bei Gracemont (Alder Lake E-Core) gemacht wurde, und ich vermute da ein Managementschlamassel bei Intel. Wofuer AFAIK breitere Einheiten sinnvoll sind, sind die Shuffle-Befehle, aber zur Not geht das auch mit schmaleren.
AMD macht's ja bei Zen5 auch so: Da haben sie Varianten mit 512-bit-FPUs, und Varianten mit 256-bit-FPUs.
Was den schmalen Core mit fetter FPU angeht, schau Dir einmal die ersten AVX-512-Implementierungen (in Xeon Phi) an.
Und was machen die ganzen Anwender, die kein Cinebench verwenden? --- Kleiner Scherz.
Es gibt daneben noch andere Anwendungen, die von viel Parallelismus profitieren, aber die meisten Leute brauchen das nur selten bis nie. In diesem Thread wird genau eine andere Anwendung genannt, das ist Shader-Compilierung.
Abgesehen von Fläche die auf hohe Taktraten getrimmte Performance Cores benötigen, kann man bei Prozessoren mit vielen Kernen gar nicht die notwendige Power herbei- und wegschaffen, damit alle Kerne gleichzeitig die Spitzenfrequenzen erreichen können. D. h. wenn man alle Cores auf hohe Frequezen auslegt, verschwendet man Fläche.
Bei Prozessoren mit vielen Kernen ergibt es keinen Sinn alle Kerne auf die höchsten Frequenzen auszulegen. Wenn man viele Kerne verbauen will, dann führt das auch im Desktop zu Hybrid-CPUs.
Ja, Intel's Hybrid-Ansatz ist grundsaetzlich schon sinnvoll: Ein paar schnelle Cores fuer Anwendungen mit wenigen kritischen Threads, und viele Cores fuer Anwendungen, die sich gut parallelisieren lassen.
Dass nicht alle Kerne gleichzeitig ihre Spitzenfrequenzen gleichzeitig erreichen koennen, ist kein Problem, dann faehrt man sie eben mit niedrigerem Takt. Klar kannst Du jetzt jeden Kern extra fuer die Taktfrequenz entwickeln, die noch geht, wenn er dazugeschalten wird, aber da waere der Enwicklungsaufwand gewaltig, da sind die zwei Stufen (P-Cores und E-Cores) schon eine gute Annaeherung. Schauen wir einmal, was mein auf Eco-Mode (~61W power limit) laufender Ryzen 8700G (Zen4) macht, wenn ich ihn auf n Kernen 2000x2000-Matrizen multiplizieren lasse:
n ist die Anzahl der Kerne, die Matrixmultiplikation machen. SMT ist auf diesem Prozessor abgeschaltet.
Fuer alle belasteten Kerne wurde im Normalfall die gleiche Taktfrequenz angezeigt.
Interessanterweise fiel bei 2-4 Kernen die Taktfrequenz, obwohl weder das Powerlimit noch das Thermal Limit erreicht wurden. Das Power Limit wird bei n=4 knapp verfehlt und ab n=5 haengt der Prozessor im Power Limit (~61W). Das thermal limit wird auf diesem Prozessor nie erreicht, dazu ist das Power Limit zu niedrig und die Kuehlung zu gut.
Die doch recht starken Schwankungen bei >4 Kernen deuten darauf hin, dass der Power-Limit-Regelkreis nicht sehr stabil ist (hat vielleich auch mit der Last zu tun).
Bei n=3 ist auch im Eco-Mode die Taktfrequenz weit ueber dem, was Zen4c zu leisten imstande ist, also ist Phoenix2 mit Zen4+Zen4c im Desktop schwaecher, als es Phoenix mit nur Zen4 ist (vorausgesetzt, man hat Last fuer mehr als 2 Kerne, die von hohem Takt auf den Kernen profitiert). Sogar bei n=8 ist die Taktfrequenz noch deutlich ueber der mit Zen4c erreichbaren Taktfrequenz. Ich erwarte, dass Krackan und Strix Point auch vom Taktlimit staerker als vom Power Limit begrenzt werden, wenn sie einmal in den Desktop kommen.
Ergänzung ()
'Xander schrieb:
Zählen die 52- Kerner dann als HEDT?
Oder wird in dem Bereich mal wieder separat auf anderer Plattform noch was größeres aufgelegt?
Das ist natuerlich eine Frage des Intel-Marketings. Traditionell was HEDT immer auf einer eigenen Platform mit mehr RAM-Kanaelen und mehr PCI-Lanes. Die Nova-Lake-Variante, ueber die hier berichtet wird, ist fuer die normale Desktop-Platform, also wuerde das traditionell nicht als HEDT gelten.
Es kann aber natuerlich sein, dass Intel das trotzdem so vermarktet, insbesondere wenn sie nicht vorhaben, eine eigene HEDT-Platform aufzulegenl; und ich bezweifle, dass sie so eine Platform auflegen, weil der Markt eben sehr klein ist: traditionell alle, die mehr Kerne, mehr RAM-Kanaele, oder mehr PCIe-Lanes gebraucht haben. Der HEDT-Markt fuer mehr Kerne ist durch die Viel-Kern-Desktop-CPUs schon sehr geschrumpft, und der Rest ist offenbar nicht genug, um so eine Platform aufzulegen. Entsprechend ist, soweit ich das sehen kann, HEDT bei Intel mit LGA-2066 ausgelaufen, also kurz nachdem AMD mit dem 3950X Intels HEDT die Vielkern-Kunden abgegraben hat.
Was ich (vor laengerer Zeit) ueber diverse Prozessoren gelesen habe, ist, dass sie immer groesser entworfen wurden, und dann wurden sie fuer die Produktion abgespeckt ("silicon diet" habe ich mal gelesen).
Was ja genau der Ansatz von Zen c ist - alles rauswerfen, was nur für hohe Taktraten nötig ist.
mae schrieb:
Ja, Intel's Hybrid-Ansatz ist grundsaetzlich schon sinnvoll: Ein paar schnelle Cores fuer Anwendungen mit wenigen kritischen Threads, und viele Cores fuer Anwendungen, die sich gut parallelisieren lassen.
Ist halt die Frage, ob es sich langfristig für Intel auszahlen wird, zwei verschiedene Architekturen zu entwickeln. Aktuell klingen die Gerüchte ja danach, dass Intel diesen Ansatz wieder aufgeben wird.
Es zahlt sich auf jeden Fall aus, wenn man sich das Bulldozer-Fiasko ansieht: Man baut eine neue Architektur auf einem neuen Prozess und sie performt nicht so gut wie die alte.
Die E-Cores sind das Ziel, sie sind eben noch nicht ganz auf dem Level der P-Cores. Deshalb gibt es bei Desktops dann einfach beides. Bei Servern wählt man, welche Architektur zum eigenen Workload passt.
ZenXc hat exakt die gleiche Mikroarchitektur wie ZenX, nur mit automatischen Werkzeugen auf wenig Platz optimiert, und dabei kommt dann eine niedrigere maximale Taktfrequenz heraus, aber gleiche IPC.
Bei dem, was ich ueber die Entwicklung diverser Prozessoren gelesen habe, lief das anders: Da haben sie am Anfang eine Mikroarchitektur mit mehr Resourcen geplant (groessere Caches, mehr Functional Units, u.ae.), und dann wurde ihnen gesagt, dass sie abspecken muessen, und haben die Resourcen zusammengestrichen. Die Taktfrequenz wurde dabei nicht reduziert, die IPC aber schon.
Es zahlt sich auf jeden Fall aus, wenn man sich das Bulldozer-Fiasko ansieht: Man baut eine neue Architektur auf einem neuen Prozess und sie performt nicht so gut wie die alte.
Zur gleichen Zeit hatte AMD aber eben eine zweite Architektur (die vor allem für Konsolenchips verwendet wurde). Wirklich besser wurde die Lage für AMD erst wieder mit Zen, als man sich also auf eine Architektur fokussiert hat.
Jaguar war doch der Atom-Irrweg, auf dem auch Intel seinerzeit unterwegs war. Die Bulldozer-Module sollte AMDs P-Core werden, lieferten anders als Sandy Bridge mit SMT bloß nicht ab. Und zurück zu K10 konnte AMD nicht mehr.
Wenn AMD Bulldozer- und K10-Chiplets im selben Prozess mischen hätte können, hätten sie viel besser ausgesehen. So hat bis Zen niemand mehr AMD gekauft.
Sie sind der Pentium-M aus dem später die Core-Reihe wurde, die Basis der heutigen Pcores. Stammen auch aus derselbem Entwicklungslabor. Und natürlich werden die Ecores die heutigen Pcores irgendwann ablösen.
Schön und gut, aber wozu die vielen Kerne in einem Consumer-Produkt? Das frage ich mich ein wenig. Finde den Ansatz von AMD, von 8 auf 12-Core-CCDs zu gehen, in dem Segment sinnvoller und durchdachter im Sinne einer Evolution. Aber vielleicht täusche ich mich und große Compute-Aufgaben stehen Anwendern und Gamern bevor.
Und warum zum Geier sollte AMD dafür kritisieren, wenn man trotzdem liefert? Von mir aus können die auch gerne auf 4 Kerne zurück, wenn das Resultat stimmt. Juckt mich nicht die Bohne.
Eben wie bei allem was Leute kaufen - aber persönlich (!) keinen geeigneten Verwendungszweck dafür haben … was genau willst du uns damit sagen? Ist ja nicht so, als ob es pauschal keine sinnvollen Einsatzzwecke für CPUs mit hoher Kernanzahl geben würde
Ergänzung ()
Ned Flanders schrieb:
Einschätzung teile ich, aber was daran vorteilhafter wäre weiss ich nicht. AMD hat die Dominanz von Intel gebrochen. Das war super! Jetzt drehts möglicherweise wieder in die andere Richtung... ich halte das nicht für gut, denn was uns da erwartet wissen wir.
Das wissen wir auf beiden Seiten - siehe aktuell HEDT-Bereich … im besten Fall schließt Intel eben nur auf oder ist minimal vorne, dass es zu einem Schlagabtausch kommt.
Ein zu großer Vorsprung für Intel oder eben aktuell AMD ist nicht gut für den Endverbraucher, da werden gerne mal Ende 2024 600€ für einen reinen 8-Kerner verlangt - mit entsprechender Marge …
IdR. sind es doch 2-3 Generationen, keine Ahnung was Übertreibungen da bringen sollen - für die meisten (selbst hier) scheint das ja nicht wirklich relevant zu sein und das obwohl die Masse hier laut der aktuellen Umfrage mit AM4 unterwegs ist - der Plattform, wo durch das Aufholen zu Intel und den Preiskampf zur Gewinnung von Marktanteilen CPU-Upgrades am sinnvollsten waren:
Nichtsdestotrotz hat die Masse nur eine einzige CPU in dieser Zeit eingebaut - und das bald 10 Jahre nach Erscheinen von AM4:
Nur 10% (und das hier unter „Enthusiasten“) haben in knapp 10 Jahren mehr als 2 CPUs verbaut
Eine CPU wechselt man eben idR. ja nicht jährlich …
Ergänzung ()
Nassweiß schrieb:
Schön und gut, aber wozu die vielen Kerne in einem Consumer-Produkt? Das frage ich mich ein wenig. Finde den Ansatz von AMD, von 8 auf 12-Core-CCDs zu gehen, in dem Segment sinnvoller und durchdachter im Sinne einer Evolution. Aber vielleicht täusche ich mich und große Compute-Aufgaben stehen Anwendern und Gamern bevor.
Aktuell kostet ein 265KF mit 8P+12E-Kernen bei Intel im Preisvergleich bspw. 264€ - der in Spielen und Anwendungen ebenbürtige 9900X von AMD liegt bei 370€.
Der Ansatz ist relativ egal - die Leistung ist dieselbe in Spielen und Anwendungen. Relevanter für die Kaufentscheidung dürfte für die Masse das P/L-Verhältnis sein …
Aktuell kostet ein 265KF mit 8P+12E-Kernen bei Intel im Preisvergleich bspw. 264€ - der in Spielen und Anwendungen ebenbürtige 9900X von AMD liegt bei 370€.
Der Ansatz ist relativ egal - die Leistung ist dieselbe in Spielen und Anwendungen. Relevanter für die Kaufentscheidung dürfte für die Masse das P/L-Verhältnis sein …
Ob die derzeitigen Preise für die 265er sich für Intel so rentieren, ist eine Frage. Ob sie ihre 400er Ultra 9 dann auch loswerden, noch einmal eine andere. "Weil man es kann" wird immer weniger als Kaufargument taugen in Zukunft, glaube ich.
Also ich hoffe so sehr, dass Q4 2026 Nova Lake erscheint. Es ist mittlerweile das vierte Weihnachten wo ich kurz davor war einen neuen PC zu kaufen und meinen 4790K zu ersetzen. Es gab aber die letzten 3 Jahre immer etwas was leider was mich davon abgehalten hat.
2022 Q4 ->Kurz vor Release des hervorragenden AMD Ryzen 7 7800X3D Prozessors.
2023 Q4 -> Kurz vor Release der RTX 4000 SUPER Generation.
2024 Q4 -> Kurz vor Release der RTX 5000 Gen.
2025 Q4 -> Sehr hohe RAM Preise.
In-Order Execution ist fuer die ersten Atoms (Bonnell/Saltwell) richtig. Das ist auch das einzige, was an dem Satz richtig ist. Bonnell (2008) wurde fuer "ultra-mobile PCs (UMPCs), mobile internet devices (MID), and other embedded devices" entworfen (als die damit angefangen haben, gab's noch keine Smartphones, aber es gab das Projekt "One Laptop per Child", fuer das AMD die Prozessoren lieferte, und das auch die Netbooks und Nettops inspirierte (fuer die Intel dann die Atoms anbot). Der 32nm-Shrink Saltwell (2011) hatte dann explizit auch Smartphones als Ziel.
Bonnell verarbeitet die Befehle zwar in-order, aber kann zwei Befehle/Zyklus verarbeiten wie der Pentium, nicht einen wie der 486. Weiters hat die Pipeline des Bonnell 16-19 Stufen, waehrend die des Pentium nur 5 Stufen hat.
AMDs Jaguar (2013) ist eine Weiterentwicklung von Bobcat (2011). Bobcat und seine Nachfolger haben alle out-of-order execution mit maximal 2 Befehlen pro Zyklus ("2 breit"). Aufgrund von OoO ist die Performance wesentlich besser als die des Bonnell.
Intel erkannte dann auch, dass in-order execution ein Irrweg war, und entwickelte eine voellig neue Mikroarchitektur namens Silvermont (2013) mit OoO und maximal 2 Befehlen pro Zyklus. Aufgrund der neuen Mikroarchitektur halte ich die Bezeichnung Atom dafuer fuer irrefuehrend, und fuer Desktops und Laptops wurden sie auch nicht als Atom verkauft, sondern als Celeron/Pentium N/J. Es gab aber Prozessoren damit, die unter dem Namen Atom verkauft wurden, und die von Intel-Ingenieuren geschriebenen Teile von perf nennen die E-Cores "atom" und die P-cores "core".
Im LaTeX Benchmark sieht man schoen, wie die Performance von Bonnell (1), Bobcat (2), und Silvermont (3) sind, und zum Vergleich ein Ivy Bridge (4), der von Lenovo in sehr aehnliche Laptops eingebaut wurde wie der Bobcat (Zahlen sind Zeiten in Sekunden, kleiner ist besser):
Bobcat und Silvermont sind also mehr als doppelt so schnell wie Bonnell und etwas mehr als halb so schnell wie ein Laptop-Ivy Bridge.
Silvermont wurde dann weiterentwickelt zu Airmont (2015, 2 breit), Goldmont (2016, 3 breit), Goldmont+ (2017, 3 breit), Tremont (2019, 4 breit), Gracemont (Alder Lake E-core, 2021, 5 breit), Chrestmont (Meteor Lake E-Core, 2023, 6 breit), und Skymont (Lunar/Arrow Lake E-Core, 2024, 8 breit). Und weil ich schon dabei bin, noch ein paar Benchmark-Resultate fuer Gracemont (5) und den zugehoerigen P-core Golden Cove (6):
Intel E-Cores sind nicht "der Pentium M". Intel hat von 2003 bis 2009 Prozessoren, die Weiterentwicklungen des Pentium III waren, als Pentium M verkauft, danach die Weiterentwicklungen davon als Core (und daraus wurden dann irgendwann die aktuellen P-Cores). Bonnell war eine Neuentwicklung, die sich in praktisch allem vom Pentium M unterschieden hat. Silvermont war auch eine Neuentwicklung, die auch wenig mit den Pentium Ms gemein hat [edit] und die aktuellen E-Cores sind Weiterentwicklungen des Silvermont, siehe oben[/edit].
AMD musste zwangsläufig die Kerne erhöhen weil Intel mehr hat und in Multicore benchmarks die eben was bringen. Auch wenn wohl 90% der Nutzer mehr von dem Generationssprüngen merkt wie von zusätzlichen Kernen.
MalWiederIch schrieb:
Nur 10% (und das hier unter „Enthusiasten“) haben in knapp 10 Jahren mehr als 2 CPUs verbaut
Eine CPU wechselt man eben idR. ja nicht jährlich …
Ja Du darfst aber auch nicht vergessen, das Zen/Zen+ noch keine Leistungshelden waren und die Intel Fanbase weit grösser, viele sind erst bei Zen2 eingestiegen danach kam nur noch 1Gen. Und gerade wenn die Ram Preise länger teuer bleiben sollten kann ich mir vorstellen daß AMD wieder Zen3 x3d auf den Markt werfen würde und AM4 ein Comeback feiern denn viele haben eben noch eine DDR4 Plattform sei es Intel oder auch AMD aber eben noch keinen x3d, dem auch langsamer Ram nicht soviel einbremst wie den normalen.
Beim ende von AM5 werden denke ich deutlich mehr 2&3 mal gewechselt haben, denn Zen4 ist deutlich konkurenzfähiger gewesen wie die Zen&Zen+ zu Ihre Zeit. Und es gab Dank der 3d Option auch viele die
Wegen DDR5 mal was neues gekauft haben, denke mal 99% der Zen4 Selbstbauer werden Minimum 1x wechseln und wenn Zen7 auch noch auf dem AM5 kommt werden auch die meisten Zen5 käufer nochmal aufrüsten und warten dann bis DDR6 anständige Timings und Preise haben.
Du denkst an den Desktop. AMD priorisiert Server, und da scheint zu gelten: Advanced Packaging erlaubt keine zweite/dritte Reihe CCDs mehr, alle müssen direkt an den IOD grenzen bei Zen 6.
Damit AMD die Zahl der Kerne pro CPU nicht senken muss, muss die Zahl der Kerne pro CCD steigen (von 8/16 auf 12/32).
Das hat zwar auch den Nebeneffekt auf den Desktop, aber da wäre ein IOD kombiniert mit 3 CCD und Advanced Packaging wohl auch kein Problem
Schön und gut, aber wozu die vielen Kerne in einem Consumer-Produkt? Das frage ich mich ein wenig. Finde den Ansatz von AMD, von 8 auf 12-Core-CCDs zu gehen, in dem Segment sinnvoller und durchdachter im Sinne einer Evolution..
Du must bedenken, das intel kein HT mehr hat und somit eder Kern 1thread darstellt. AMD benutzt noch Smt und somit steht jeder Kern für 2threads. Somit benötigt Intel mehr kerne als AMD für die gleiche anzahl an threads. Wobei 1kern mehr leistung hat als 1SMT/ht thread. Wobei mir dr sin der Lpe kerne noch nicht so richtig einleuchted bei einer desktop plattform