News Intel Nova Lake: Ein Quartett mit großem Cache als Core Ultra 400K erwartet

Warum sprich eigentlich keiner über Software-Unterstützung? Wenn es so kommt haben die CPUs Gruppen von Kernen aus 3 Leistungsstufen. Das muss der Scheduler des Betriebssystems wissen, um Prozesse sinnvoll auf die Kerne zu verteilen. Das Konzept mit 2 Leistungsstufen ist beginnend mit der ARM-Welt als bigLITTLE lange bekannt und etabliert. 3 Stufen ist jetzt völlig neu und da bedarf es für eine optimale Nutzung erhebliche Änderungen an den Schedulern der Betriebssysteme.
 
Hektor26 schrieb:
Holt Intel sich also das Gaming Krönchen zurück sehr schön
davon würde ich jetzt noch nicht ausgehen.
Intel kämpft dann mit "Zen 6" und 3D Cache.
Es ist noch nicht klar wie gut die Intels mit Cache skalieren
Taktraten sind nicht klar
beide haben denselben Prozess
usw usf.

Was aber schon sein wird: der 52 Kerner wird im MT Bereich ein ziemliches Biest.
Wenn ich dran denke ich hab' im Moment 8...
Ergänzung ()

nazgul77 schrieb:
Warum sprich eigentlich keiner über Software-Unterstützung? Wenn es so kommt haben die CPUs Gruppen von Kernen aus 3 Leistungsstufen. Das muss der Scheduler des Betriebssystems wissen, um Prozesse sinnvoll auf die Kerne zu verteilen. Das Konzept mit 2 Leistungsstufen ist beginnend mit der ARM-Welt als bigLITTLE lange bekannt und etabliert. 3 Stufen ist jetzt völlig neu und da bedarf es für eine optimale Nutzung erhebliche Änderungen an den Schedulern der Betriebssysteme.
IIRC macht Panther Lake das schon mit 4+4+4 also wird man schon 1 Jahr lang Zeit haben zu optimieren bevor Nova aufschlägt
 
Zuletzt bearbeitet:
Cookie4u schrieb:
Woher sollen die Kapazitäten kommen wenn ALLES in LPDDRx und HBM wandert?
Man stellt einfach schleichend darauf um, DDR5 RAM wird auch immer noch weiter produziert und es gab für Alder Lake damals auch Boards sowohl für DDR4 als auch schon für DDR5, analog könnte man das für DDR5 und DDR6 übergangsweise einführen, zumal der DDR RAM Konsum bei dauerhaft hohen Preisen sowieso nachlassen dürfte.

Es erst schleichend in 2029 und danach einzuführen halte ich für einen sehr guten Grund bis dahin gar keine neue PC Hardware/Systeme mehr zu kaufen (die mehr und mehr Luxus für private Käufer werden wegen eines Nischenmarkt und der Nachfrage der KI Industrie) und wenn das nicht passiert, sind die ganzen Server und Rechenzentren für KI auch ziemlich unnütz für die meisten, weil das dortige nicht mehr auf modernen PCs von Privatpersonen ankommt.

Im Endeffekt liegt es bei den Konzernen eine allumfassende Produktpolitik zu betreiben und nicht den Verbrauchern. Der Kunde ist m.E. nach wie vor König bzw. sitzt auf dem Fahrersitz und nicht Bittsteller bei den Konzernen, so daß Verbraucher dann zu Höchstpreisen kaufen sollen und deren KI Angebote mit bisher wenig bis gar keinem Merhwert mitfinanzieren sollen, wenn es den Konzernen passt.

So einfach ist das, zumal noch nicht jede/r Verbraucher ein gehirnloser Konsum-Lemming ist, der auch die Märchen von Huang, Su, usw. glaubt, dass die korrupte KI Kreiswirtschaft zwischen den davon profitierenden, gierigen KI Konzernen nachhaltig ist und keine KI Blase geschaffen hat.
 
  • Gefällt mir
Reaktionen: Wanderwisser
Ich bin gespannt auf die Novas. Leistung, Leistungsaufnahme und der Preis werden entscheiden ob sie sich lohnen werden gegenüber dem was AMD zu der Zeit im Angebot haben wird.
 
stefan92x schrieb:
Es gibt noch nichtmal den Standard für DDR6.
Wieso wohl nicht(?), scheinbar haben die Speicher-Konzerne entschieden, die Standardisierung künstlich weiter hinaus zu zögern, zumal die (Google) KI darüber Aufschluß gibt, dass die 1.0 Standardisierung für DDR6 RAM eigentlich/ursprünglich noch 2025 stattfinden sollte.

... offiziell finalisierten DDR6-Standard gibt es noch nicht, aber er ist in der Entwicklung und wird für 2026/2027 erwartet, mit ersten Spezifikationen, die 2025 erscheinen sollen [...] Der Standard wird durch das JEDEC standardisiert, mit ersten Anwendungen in Servern um 2027 und später in Verbrauchergeräten.
Wichtige Fakten zu DDR6:
  • Standardisierung: Der JEDEC-Standard 1.0 wird für 2025 erwartet, die Validierung von Plattformen beginnt 2026.
  • Verfügbarkeit: Erste Module könnten 2026 auf den Markt kommen, breitere Verfügbarkeit in Endgeräten folgt 2027.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Außerdem war DDR5 gerade erst dabei DDR4 abzulösen.
Nicht wirklich, mit Einführung von Intels Alder Lake gibt es DDR5 RAM auf dem Markt und ein Jahr danach gab es auch keine neuen DDR4 RAM Mainboards mehr bzw. liefen diese mit Alder Lake/600er Serie LGA 1700 Boards aus. Das ist jetzt wie lange her?

Die Restposten an DDR4 (denn viel davon wird schon längere Zeit nicht mehr gefertigt) werden mit Sicherheit nicht jetzt erst abgelöst - auch wenn wegen der Speicherpreiskrise bei DDR5 RAM der DDR4 RAM als noch existente Alternative aktuell wieder mehr in Rampenlicht gerückt ist - da der DDR4 Speicher nur auf alten 600er (Restposten) Boards bis zu Raptor Lake (Refresh) und noch älteren AM4 Boards für AMD CPUs läuft.
Ergänzung ()

RKCPU schrieb:
da meist die Caches der CPU liefern.
Bei angepeilt doppelter Übertragungsgeschwindigkeit und dafür ausgelegten Sockeln sowie deutlich höheren Takt-/Übertragunsratenraten (denn man startet voraussichtlich bei 8800 Megatransfers pro Sekunde), halte ich das für ein Gerücht, zumal künftige Prozessoren eben auch darauf ausgelegt sein werden.

Allein schon der Wechsel auf von Dual 32bit (DDR5) Quad 24 bit (DDR6) Subkanaldesign sollte einiges bewirken, schnellere Datenübertragung/bessere Parallelität neben höherer Effizienz.
 
Zuletzt bearbeitet:
@Chismon
bei jeder Einführung neuer DRAM war der Anfangseffekt mässig.
Zudem, der Markt für Thin Clients bis Notebooks geht in Richtung LPDDR5x was CAMM* ermöglicht. Quasi eine Zwischengeneration DRAM, die dann 2-3 Jahre dominieren könnte.

Dann die Aufgabe LPDDR5x auf DDR6 zu wechseln, da wird 192 Bit bei viel AI und etwas iGPU incl. AI Upscaling wohl relevant.
Das klingt wie 2nm und darunter im Mainsream.
 
Schrotti schrieb:
Sorry, wenn ich hier mal reingrätsche....
Hast du überhaupt mal mit der aktuellen Intel Generation zu tun gehabt (Sockel 1851) oder beruht dein "Wissen" auf Hörensagen? Du hast so überhaupt keine Ahnung, das es schon weh tut.
Lässt man den X3D Cache weg, dann ist Intel mit dem Core Ultra 5/7/9 bei der Musik bei erheblich weniger Stromverbrauch im Vergleich zu Raptor Lake.
jo, totalsuper arrow lake - zen 4 niveau - aber mit 8200Mhz RAM :daumen: wer glaubt, intel könnten zen6 schlagen, der glaubt auch noch an den osterhasen und das christkind.


1766298037058.png
 
nazgul77 schrieb:
. 3 Stufen ist jetzt völlig neu
Nö!
1766300222452.png

1766300242469.png

https://www.hardwareluxx.de/index.p...ntel-nennt-erste-details-zu-panther-lake.html

Was das Scheduling angeht hat Intel von Beginn an viel Aufwand betrieben und die Kinderkrankheiten aus der Vergangenheit längst behoben. Technisch gesehen stellt sich die Frage, ob im Desktop diese Kerne überhaupt eine große Bedeutung bekommen oder ob man ihnen nur spezielle Aufgaben überlässt wie für Teams, wie auf dem Bildern zu sehen.
Ergänzung ()

Calid schrieb:
jo, totalsuper arrow lake - zen 4 niveau - aber mit 8200Mhz RAM
Wenn man so auf die Kacke hauen will, dann sollte man Bilder mit entsprechenden Links reinstellen. Sowohl bei AMD als auch bei Intel hat sich so einiges bewegt, seit dem die CPUs auf den Markt kamen.
1766300726893.png

https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-5-225f-235-test.92075/

Insofern ist die Aussage richtig, AMD kann mit dem 3D Cache punkten ohne den Cache würden sich beide Hersteller hier wenig geben. Jetzt wird man halt sehen müssen inwiefern Intel ebenfalls ähnlich von dem riesigen Cache profitieren kann, bei der Kernzahl, der Architektur und dem Scheduler liegen die Vorteile eh bei Intel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bensen und jabberwalky
Gnodab schrieb:
Ich bin gespannt auf die Novas. Leistung, Leistungsaufnahme und der Preis werden entscheiden ob sie sich lohnen werden gegenüber dem was AMD zu der Zeit im Angebot haben wird.
Nun, für Zen 6 sind (bis zu 2) gestapelt L3 was um 200 MByte ermöglichen soll.

Bei nativ 48 MByte L3 auf dem Zen 6 Chiplet wären z.B. 1x und 2x 96 MByte Zusatz denkbar.

Ich denke, AMD könnte so 8- und 10- Core ohne X3D, dazu 10-fach Core mit 1x oder 2x X3D darunter und 12-fach Core mit 2x X3D bringen.

Es fehlt aber eine Antwort auf die viele E-Cores bei Intel.

-----
Samsung und Hynix haben die Fertigung DDR4 bis 2026 (irgendwann) verlängert.

Was auch die Einführung DDR6 weiter schieben wird.
 
Zuletzt bearbeitet:
Calid schrieb:
Die Grafik ist schon interessant, ALLE gelisteten CPUs liefern im Schnitt mindestens 100 1% min fps und mehr, wenn man annimmt, dass der 5800X3D ca. 20% schneller als ein 5800X ist, dann liefert auch der noch 100 1% min fps. Bei CPUs ist im Gaming irgendwie die Luft raus, wenn wir beschissen optimierte Spiele mal außen vor lassen.
 
RealMax123 schrieb:
Das kann man aber nicht vergleichen.

Bei Smartphones und Tablets geht es um niedrigen Energieverbrauch für möglichst lange Akkulaufzeit und wenig Abwärme.

Das ist schon bei Notebooks deutlich unwichtiger, und bei PCs komplett unwichtig.

Und wenn dan höchstens im Bezug auf die GPU. Denn da macht es schon einen gewissen Unterschied ob man "nur" 150W oder 225W oder satte 375W MGCP hat.

Aber bei der CPU ist es doch wirklich egal ob die nur 35W oder 65W oder 105W TDP hat.
Um den Stromverbrauch geht's mir eher nicht (Desktop) bzw weniger (Laptop). Die Argumente gegen einen oder zwei wirklich große und starke Kerne in Desktop- und PC Laptop CPUs (auch nur indirekt gehört bzw in Foren gelesen) waren, daß a. die Leistungsgewinne durch weitere Vergrößerungen von L1 und L2 Caches, mehr Kapazität für out-of-order Execution usw vis-a-vis existierender Performance Kernen nicht proportional zu dem Aufwand (Fläche/Transistorenzahl) wachsen, und daß b. dann gleich viele Leute gelaufen kommen, die sich beschweren, warum nicht alle P Kerne so groß gemacht wurden.

Würde mich deshalb interessieren, ob dann zB ARM hier auf dem Holzweg ist?
Abschließend: die CPUs von Flaggschiff SoCs (Snapdragon Elites, Dimensity 9500, Apples A) im Mobilen Bereich sind sowohl von der Compute Leistung als auch dem Stromverbrauch bei maximaler Leistung durchaus nahe an den Leistungen und TdPs der CPUs von leichten Subnotebooks dran.

Die Idee von sehr vielen Kernen in CPUs für PCs (Desktop und Laptop) scheint IMHO irgendwie die Szenarien zu ignorieren, in denen es v.a. auf hohe Single Core/Thread Leistung ankommt. Natürlich sind 8 oder mehr Kerne mit guter Leistung in einer neuen CPU sehr wichtig ( will ich ja auch), aber um von 32 und mehr Kernen wirklich zu profitieren, müssen die Aufgaben und die Software entsprechend ausgelegt sein. In Servern und in bestimmten Workstations ist das ja auch so; andererseits ist ein 96 Kern Threadripper in vielen Spielen langsamer als ein 9800 X3D oder 9950 X3D, weil die eine höhere Single Core Leistung haben.
 
Zuletzt bearbeitet:
Cameron schrieb:
EDIT: jep, ich spiele ausschließlich in 4K. Das wird der Grund wohl sein.
Ich auch. Aber vermutlich andere Spiele. 3700X auf 5800X3D auf 9800X3D hat jeweils einen enormen Sprung gebracht in max, average und 1% lows sowie frame times für VR. Flugsimulationen, Space Sims und Strategie. Da walzen X3D Prozessoren problemlos davon, auch in 5k pro Auge.
 
Chismon schrieb:
Wieso wohl nicht(?), scheinbar haben die Speicher-Konzerne entschieden, die Standardisierung künstlich weiter hinaus zu zögern
Nicht künstlich. Statt DDR6 als Standard zu definieren, wurden eben MRDIMM und CUDIMM spezifiziert. Das bedeutet, dass der JEDEC-Standard von 6400 auf 12800 verdoppelt wurde, ohne einen neuen DDR-Typ spezifizieren zu müssen.

Ursprünglich hätte die Norm für DDR6 nur DDR5-6400 verbessern müssen, jetzt aber DDR5-12800. Das erklärt ganz zwanglos und ohne Verschwörung, wieso das noch dauert.
 
  • Gefällt mir
Reaktionen: ETI1120
@ETI1120 und @stefan92x Vielen Dank für eure Beiträge. Das heißt wenn Zen 6 und Nova Lake erscheinen wird es dementsprechend neue Mainboards geben die MRDIMM und CUDIMM unterstützen, sodass ich mit DDR5 Ram eine neue Technologie habe. Das wäre doch ein sehr guter Zeitpunkt um einen alten PC zu ersetzen, da hier auch voraussichtlich RTX 6000 Gen oder RDNA 5 alias UDNA nicht mehr weit entfernt wären und die Kiste somit zukunftssicher wäre.
 
zeedy schrieb:
was will man bitte mit 32 oder noch mehr Kernen, wenn man nicht die entsprechende Software nutzt?

Angeben. Das sind Halo-Produkte. Die werden eine Top-Cinebench-Multicore-Leistung abliefern, und dann werden viele hier auf CB und wohl auch anderswo von der "Anwendungsleistung" schwaermen und Intel-CPUs fuer diesen Zweck empfehlen, wobei man dann angesichts des Budgets natuerlich nicht den 52-Kerner fuer EUR1500 empfiehlt, sondern etwas Kleineres. Genauso lief es beim Alder Lake und Raptor Lake: Konkurrenzfaehig, wenn man es mit uebertaktetem DDR5-RAM koppelte, deswegen wurden die Intel-Prozessoren empfohlen, aber wegen des Budgets doch lieber mit DDR4.

Die 2-CCD-Ryzens sind uebrigens genauso Halo-Produkte. Wenn ich mir z.B. die Ryzen 9xxxX3D boxed anschaue, hat Mindfactory folgende Mengen verkauft:

Code:
37590 9800X3D
 2390 9950X3D
  450 9950X3D

Wenn man von den 2390 noch die abzieht, die den gekauft haben, weil sie das Beste (also Teuerste) wollten, dann bleiben offenbar nicht so viele uebrig, die mehr als 8 Kerne brauchen. Und dann gibt's hier Leute, die sich drueber beschweren, dass sie bei AMD zu einem Threadripper greifen muessen, wenn sie mehr als 16 Kerne haben wollen. Und dass die Threadripper so teuer waeren. Ist halt eine Nische. Vom 32-Kern-Threadripper 9970X hat Mindfactory "ueber 10 verkauft", vom 24-Kerner 9960X auch. Und dabei bieten die nicht nur mehr Kerne, sondern auch mehr Speicherkanaele und PCIe-Lanes. Immerhin gibt's in einiger Zeit dann bei Intel und wohl auch bei AMD mehr Kerne fuer Desktop-Prozessoren.
 
  • Gefällt mir
Reaktionen: ETI1120 und guggi4
xexex schrieb:
Was das Scheduling angeht hat Intel von Beginn an viel Aufwand betrieben und die Kinderkrankheiten aus der Vergangenheit längst behoben.
Bei Star Citizen haben Intel CPU,s immernoch Probleme P und E Cores zu erkennen.
Hier sieht man, das das Spiel 100% weniger Leistung hat wenn man E Cores Aktiv hat.
Je nach Patch im Jahr 2025 lief es mal wieder besser oder schlechter mit den E Cores. Also ist völlig Glücks abhängig und alles andere als ausgereift und sicher.
Klar kann man jetzt mit Fanboy Argumenten ankommen und sagen, "SC ist eine Alpha, kein fertiges Spiel".
Aber mit AMD CPU,s hat man eben nicht solche Probleme in einer "Alpha".
Oder um mal ein Filmzitat zu verwenden: "Das muss das Boot abkönnen"
 
Zurück
Oben