News Intel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß

Nette Geschichten aber ohne Bilddarstellung verstehe ich nur Bahnhof
Ergänzung ()

BDR529 schrieb:
Dazu passend ein 32 GB RAM Kit für dann 999 Euro.
Ach ich hab für 64 GB Z5 Neo 237 € bezahlt 🔔
 
Also mich interessiert der 14-Kerner mit diesem großen Cache....
 
  • Gefällt mir
Reaktionen: scryed und imperialvicar
Kadett_Pirx schrieb:
Das kann wirtschaftlich nicht gesund sein, eine große eigene Fertigung zu haben, aber dennoch teuerste Komponenten extern zu beziehen.
Genau, Intel hätte zumindest sich auf kleine P-Core Dies begrenzen sollen um die externen Kosten gering zu halten.

Intel lagert nun aus, was eigentlich für die eigene, geplant kostengünstigere Fertigung geplant war.
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
Kleiner P-only Die mit bLLC? Was soll das ganze denn wenn man nicht sinnvoll variieren kann?!

Ich brauche keine 16+16 E-Cores und noch dazu sind ja die 12 P-Core dann in 6+6 gesplittet :/
 
foofoobar schrieb:
Das ist ein Thema der Anwendungen, die ganze Spiele müssen einfach mal zur Kenntnis nehmen wie heutige CPUs aussehen.
Spielelogik besteht im Kern typisch aus ein paar komplexen Systemen mit unzähligen Abhängigkeiten dazwischen. Die lassen sich nicht so einfach in unzählige Threads aufteilen, da aufgrund der Abhängigkeiten diese sich mit zunehmender Threadanzahl gegenseitig mehr und mehr ausbremsen, wenn man auf andere Threads warten muss.
Entwickler könnten lediglich neue Funktionen realisieren, die sich gut parallelisieren lassen, wie z.B. Physik, NPC KI oder andere Weltsimulation, die da Objektbasiert sich viel besser dafür eignen als die Kernlogik.
 
  • Gefällt mir
Reaktionen: Perdakles
Jetzt weiß man auch, warum AMD direkt auf 2nm gegangen ist. Weil es Intel auch macht und man nicht ins hinter treffen geraten wollte...

Diesmal muss AMD sich aber mit X3D beeilen, den Intels big LLC Chips kommen als erstes auf den Markt. Da kann sich AMD nicht mehr leisten die X3D-CPUs so viel später zu bringen... Vorausgesetzt die big LLC-Chips von Intel taugen was und verhungern nicht an den hohen Latenzen des big LLC.
 
Rickmer schrieb:
Für Gaming reicht noch immer 6-8 Kerne... das wird sich so schnell auch nicht ändern weil die Konsolen weiterhin nur 8 Kerne haben, von denen nur 7 für die Spiele verfügbar sind, weil der letzte fürs System reserviert ist.
Läuft das OS dann allgemein stets nur auf einem einzigen Kern?
 
Volker schrieb:
Exakt, bei Panther Lake ist total viel im Compute Die noch. Aber für ein Dual Compute Die bei Nova Lake müsste die NPU dann wohl da auch raus, wahrscheinlich zum MC, den LPE Cores usw. Der ganze Die würde dann aber auch immer größer und den in was Altem zu fertigen wie bisher (N6) auch nicht mehr drin. Also unter N3 seh ich den SOC, oder wie immer er dann heißt, auch nicht.
Ist schon richtig. Im Panther Lake Compute Die ist die NPU, ISP und die Media Controller. Das braucht man alles nicht doppelt.
Wobei das bei den highend Modellen auch nicht schlimm wäre. Die werden eh entsprechend bepreist. Und doppelte Anzahl an Encoder/Decoder schadet auch nicht.

Aber das passt auch nicht von der Fläche her. Panther Lake Compute Die ist etwa 114 mm². Wenn da jetzt noch weitere 4 P und, je nach dem wo letztendlich die LPE cores verbleiben, noch 4-8 E cores zusätzlich verbaut werden plus dazugehörigem L3, dann passt das nicht wirklich in 110 mm². Chip Density steigt bei N2 nur 15%.

Irgendwas fliegt da sicherlich raus.
 
Rickmer schrieb:
Für Gaming reicht noch immer 6-8 Kerne... das wird sich so schnell auch nicht ändern weil die Konsolen weiterhin nur 8 Kerne

Nein , ich halt dagegen , Konsolen machen nur eines spiele spielen keine Hintergrundprogramme am laufen , weiter sind spiele auf Konsole meist abgeschwächt was Details und Auflösung angeht

Am PC will ein größeres os mit betrieben werden hinzu kommen diverse Programme im Hintergrund ... Auch gibt es Leute die streamen oder ihre Sachen aufzeichnen

Reine 8 Kerne waren mir Zuwenig und wenn man dann doch ein Spiel kauft das von mehr lernen profitiert ist man gekniffen

PS

Mehr Kerne kann dazu führen daß die CPU Kühler bleibt , selbst wenn ein Spiel nur 6kerne benutzt springen die Tasks von einem Kern zum anderen und laufen nicht durchgängig auf dem selben in hoher Last
Ergänzung ()

Simanova schrieb:
Spielt alles keine Rolle solange die RAM Preise nicht fallen. Es ist nichtmal wert über das Produkt zu diskutieren
Wiso nicht hast du keinen RAM im aktuellen system zum übernehmen ?
Ergänzung ()

WebBeat84 schrieb:
Intel ist tot... sorry
 
Zuletzt bearbeitet:
stefan92x schrieb:
Das klappt ja im allgemeinen, die Haupt-Threads landen auf den P-Cores. Darum frage ich mich, was du jetzt von den E-Cores eigentlich erwartest? Die meisten Spiele haben einfach nicht so viele Threads, die Leistung brauchen.
Das Spiel könnte das auch selbst sicherstellen anstatt das "es im allgemeinen klappt".
IO wie Sound, Knöpfe abfragen und Netzwerk kann man sicherlich auf die Gammel-Cores legen.
Piktogramm schrieb:
Das ist und sollte Aufgabe vom Betriebssystem bleiben. Anwendungen altern schlicht und ergreifend nicht gut, wenn sie die Anpassung von spezifischer Hardware selber implementieren.
Der Scheduler weiß noch noch mal ob das ein Prozess vom Typ Spiel ist was er gerade behandelt.
Piktogramm schrieb:
Ich hatte gehofft, du meinst Scheduler hints und nicht gleich, dass Spiele ihr Scheduling quasi selber übernehmen und das Betriebssystem überrumpeln sollen.
Es gibt ein Programmiermodell (CSP/green Threads) wo Anwendungen ihre Sachen selbst shedulen anstatt für jeden Furz einen Thread vom OS zu holen.

Was sind Scheduler hints?
ragnarok666 schrieb:
Spielelogik besteht im Kern typisch aus ein paar komplexen Systemen mit unzähligen Abhängigkeiten dazwischen. Die lassen sich nicht so einfach in unzählige Threads aufteilen, da aufgrund der Abhängigkeiten diese sich mit zunehmender Threadanzahl gegenseitig mehr und mehr ausbremsen, wenn man auf andere Threads warten muss.
Dann kann ja das Spiel dafür sorgen das dies auf den Cores mit Bumms landet.
scryed schrieb:
Nein , ich halt dagegen , Konsolen machen nur eines spiele spielen keine Hintergrundprogramme am laufen , weiter sind spiele auf Konsole meist abgeschwächt was Details und Auflösung angeht
Konsolen haben keine Filesysteme und können keine Netzwerkpakete verarbeiten wenn ein Spiel läuft?
 
Zuletzt bearbeitet:
Könnte was werden (auch für mich). TDP soll so 175 Watt sein, geht gerad noch. Tippe mal auf 900 Euro für den 2.grössten...
 
Coenzym schrieb:
Könnte was werden (auch für mich). TDP soll so 175 Watt sein, geht gerad noch
Schaut auf deine Signatur und sieht einen 14900K & RTX 5090
Fragt sich ob du im Sommer überhaupt Zocken kannst ohne Klima Anlage


Mit einem AMD bliebe dein Heim Definitiv Kühler im Sommer :D
Der 13900K hat gestern mitten im Weltraum wo nichts los war, stolze 157W gezogen.
Also das 3 Fache von meinem 5800X3D der die gleiche FPS erzielt.
Sein "Minimum" Watt verbrauch (69W) war höher als mein "Maximum" welches meine CPU bei 100% Last hat.
Ich glaube diese Hitzefetische sind so ein Intel User ding :D Die wollen einfach schwitzen im Sommer :D
Und Wakü ist mit Raptor & Nova natürlich auch Pflicht wenn man keinen Hörschaden riskieren will :D
Dabei hatte ich echt die Hoffnung, Intel geht jetzt in Richtung AMD mit dem Stromverbrauch, als der Stromverbrauch mit Core Ultra 285k & 265K das erste mal seit Jahren niedriger war.
 

Anhänge

  • 139000K 200W Star Citizen.jpg
    139000K 200W Star Citizen.jpg
    139,5 KB · Aufrufe: 10
  • Star Citizen 5800X3D 100% CPU Load.png
    Star Citizen 5800X3D 100% CPU Load.png
    621,9 KB · Aufrufe: 10
  • 5800X3D 100% Load 59W 600rpm.png
    5800X3D 100% Load 59W 600rpm.png
    1,2 MB · Aufrufe: 10
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Coenzym
foofoobar schrieb:
Die Anwendung muss sich vorher die CPU-Topologie und Eigenschaften der Cores anschauen und entsprechend ihre Threads pinnen.
foofoobar schrieb:
Das Spiel könnte das auch selbst sicherstellen anstatt das "es im allgemeinen klappt".
IO wie Sound, Knöpfe abfragen und Netzwerk kann man sicherlich auf die Gammel-Cores legen.
Lass uns bitte nicht dazu übergehen, dass Anwendungen sich selbst schedulen. Ein Fehler in einer Anwendung kann dann ganz schnell den ganzen Rechner lahmlegen. Das würde ohnehin nur funktionieren solange nur sehr wenige Anwendungen laufen.

Beispiel:
Du hast zwei Anwendungen die beide meinen, sie müssten unbedingt ausschließlich auf den P-Cores laufen und auch alle P-Cores in Beschlag nehmen. Die blockieren sich dann gegenseitig während die E-Cores komplett brach liegen und Däumchen drehen.

Da fehlt eine Instanz die von ganz oben drauf guckt und dann feststellt:
"Hey es wäre besser jetzt die E-Cores zu benutzen, obwohl die Anwendung idealerweise auf den P-Cores laufen sollte." Genau deshalb gibt es ein OS basiertes Scheduling.

Es spricht nichts dagegen, dass die Anwendung dem OS durch "Scheduler Hints" mitteilt auf welchen Core-Typen sie einen Thread gerne laufen lassen möchte, die abschließende Kontrolle muss aber dem OS überlassen werden!
Ansonsten wäre es vergleichbar mit dem Verkehrschaos einer Großstadt, bei der alle Ampeln ausgefallen sind. Jeder macht was er für richtig hält. Das führt am Ende dazu, dass gar nichts mehr geht.

Brrr schrieb:
Warum man bei TSMC fertigt wäre noch interessant. Zu wenig 18A Kapazität, oder ist 18A zu schlecht für den Chip?
In erster Linie hat das wohl Kapazitätsgründe. Aber es ist sicher auch nicht auszuschließen, dass der 18A Yield momentan einfach zu schlecht ist, um große Tiles (bis zu 150mm²) wirtschaftlich zu fertigen.

Außerdem steht ja schon im Artikel: "Die High-End-Chips für den Desktop mit maximal möglichem Takt (und Verbrauch) kommen aus der Ende 2026 wohl besten Fertigung: TSMC N2P"

Es wird wohl einfach die in vielerlei Hinsicht "beste" Fertigung sein zu dem Zeitpunkt. Was nicht heißen muss, dass 18A überall hintendran ist.
 
@Nighteye
Und mit einer 5060 wäre sein Raum noch kühler. Sich über 150W vs. 60W echauffieren, dabei aber die 600W der GPU außen vor lassen - genau mein Humor.
Nighteye schrieb:
2.) Weil der Raptor Lake von meinem Kumpel in dem Spiel über 210W frisst.
Gestern waren es doch noch 210W beim Kollegen?
 
Innocience schrieb:
dabei aber die 600W der GPU außen vor lassen - genau mein Humor.
Die 600W GPU ist doch genau so geisteskrank wenn wir ehrlich sind :D
Ich hab keine Klima Anlage in der Wohnung, lange Zocksessions in Heißen Sommernächten stell ich mir damit unglaublich ungemütlich vor, wenn ich schon bei den 150W meiner GPU merke wie der Raum sich im Sommer erwärmt nach 60 Minuten :D
Innocience schrieb:
Gestern waren es doch noch 210W beim Kollegen?
Ist das jetzt eine frage :D ?
Jedenfalls hatte ich gestern noch den 14900K von nem Kollegen gepostet.
Die CPU Zog fast so viel wie seine RTX 4090, was einfach nur ein Alptraum im Sommer ist.
Daher sag ich ja, Intel User müssen einen Hitze-fetisch haben :D
Mein gesamter PC zieht bei 100% CPU & 100% GPU Last gleichzeitig, mit Strommessgerät an der Steckdose (Also inklusive Effizienzverluste des Netzteils) nur 350W. Da ist bei mir Ram, alle Lüfter, Mainboard, Festplatten etc alles schon mit drin.
Innocience schrieb:
Sich über 157W vs. 59W echauffieren
Das war 157W ohne große Belastung im Weltraum, vs meine 59W bei 100% Last.
Im Weltraum hat meine CPU nur so 43~W verbrauch und bringt dabei sogar mehr FPS.
 

Anhänge

  • 14900k 275W Star Citizen.jpg
    14900k 275W Star Citizen.jpg
    2,5 MB · Aufrufe: 1
  • 5800X3D 40W Inspace.jpg
    5800X3D 40W Inspace.jpg
    353,9 KB · Aufrufe: 1
  • sc 451 fps arc corp.jpg
    sc 451 fps arc corp.jpg
    253,4 KB · Aufrufe: 1
Zuletzt bearbeitet:
foofoobar schrieb:
Der Scheduler weiß noch noch mal ob das ein Prozess vom Typ Spiel ist was er gerade behandelt.
Mir ist kein Scheduler bekannt, der irgendwelche Typisierung für Prozesse nutzt.

foofoobar schrieb:
Es gibt ein Programmiermodell (CSP/green Threads) wo Anwendungen ihre Sachen selbst shedulen anstatt für jeden Furz einen Thread vom OS zu holen.
Schon, nur haben diese virtuellen Threads innerhalb ihrer Laufzeitumgebungen meines Wissens nach bei keiner Implementierung eine Steuerung, die sich auch nur an der zugrundeliegenden Hardware orientiert. Der Umstand, dass diese Threads virtuell sind, führt dann auch dazu, diese vThreads aller nur im Kontext eines (Betriebssystem)Threads und damit Prozessorthreads laufen. Wobei diese Thread und alle abgeleitetem vThreads dem Scheduling vom Betriebssystem unterliegen.


foofoobar schrieb:
Was sind Scheduler hints?
Man kann Prozesse ans Betriebssystem und dessen Scheduler Wünsche kommunizieren lassen. Daran wird bei Linux seit Ende 2022 experimentiert.
https://lwn.net/Articles/907680/

Das ist Imho schon so mittelprächtig, bedingt dass sich jede Anwendung gescheit verhalten muss und nicht einfach mal fett Ressourcenbedarf anmeldet bzw. impleziert, obwohl es nicht nötig ist.
 
  • Gefällt mir
Reaktionen: Perdakles
foofoobar schrieb:
in der Form das wenn längere Zeit wirklich nichts oder sehr wenig passiert ist das dann bis weiteres nur noch auf die LPE-Cores gesheduled wird.
Die Frage ist halt: Lohnt der Aufwand? Bin nicht im Thema, aber eine Daumenregel ist, dass mehr technische Komplexität neue Probleme schafft. Man hat HT rausgeworfen, aber mit LPE-Cores wieder eine weitere Scheduling-Option geschaffen, nur am unteren Ende der Leistungsskala.
Ich glaube, dass LPE-Cores im Desktop überflüssig sind. Ob der Rechner beim Idlen oder Musikspielen nun 3, 6, 12 oder 20 Watt verbraucht, dürfte für die meisten nicht kaufentscheident sein. Und dass man bei so vielen Cores niedere Arbeit an die LPEs auslagert, sodass die dicken E- und P-Cores freier rechnen können... weiß nicht, ob das einen Effekt haben kann. Aber mal sehen, was die Tests sagen. Bis auf weiteres lassen mich meine Vorurteile das Lineup so aussehen:
  • Core Ultra 9 4xxK, 48 Kerne (16P+32E+4LPE), 288 MB bLLC
  • Core Ultra 9 4xxK, 38 Kerne (14P+24E+4LPE), 288 MB bLLC
  • Core Ultra 7 4xxK, 24 Kerne (8P+16E+4LPE(?)), 144 MB bLLC
  • Core Ultra 7 4xxK, 20 Kerne (8P+12E+4LPE(?)), 144 MB bLLC
Kurzgesagt: LPE-Kerne = Marketing-Kerne.
 
  • Gefällt mir
Reaktionen: Nighteye
foofoobar schrieb:
Dann kann ja das Spiel dafür sorgen das dies auf den Cores mit Bumms landet.
Was gut funktioniert, bis irgend ein anderer Thread mal Bumms braucht, der aber nicht im Kontext vom Spiel läuft. Dann hängt zum Beispiel der Compiler vom Grafikstack auf irgend einem kleinem Kern bzw. kleinem CPU-Thread und der ganze Bumms stottert weil es zu lang dauert.
Ergänzung ()

@Cr4y
Der ganze I/O-Kram ist auch mit den flottesten PCIe5 SSDs mit viel Warten verbunden. Das können LPE-Kerne wunderbar erledigen. Oder so Dinge wie Voicechat, Mails abrufen, Updates ausführen. Damit kann man theoretisch ordentlich Kontextwechsel auf den großen Kernen sparen, was ab einem gewissen Maße durchaus für bessere Latenzen sorgen kann.
 
Convert schrieb:
Jetzt weiß man auch, warum AMD direkt auf 2nm gegangen ist. Weil es Intel auch macht und man nicht ins hinter treffen geraten wollte...
AMD ist erster N2-Kunde, nicht Intel. AMD zieht auch seit Jahren seine Zen-Roadmap ziemlich stabil durch, da wirkt nichts wie eine Reaktion auf Intel. Intel hingegen hat viel Prozess-Chaos hinter sich.
Convert schrieb:
Diesmal muss AMD sich aber mit X3D beeilen, den Intels big LLC Chips kommen als erstes auf den Markt
Du kennst also schon Veröffentlichungstermine der beiden Architekturen, dass du das so absolut sagen kannst?
Convert schrieb:
Vorausgesetzt die big LLC-Chips von Intel taugen was und verhungern nicht an den hohen Latenzen des big LLC.
Die Sorge teile ich... ich fürchte bei Intel wird das ganze Konstrukt weniger bringen.
Ergänzung ()

Piktogramm schrieb:
Der ganze I/O-Kram ist auch mit den flottesten PCIe5 SSDs mit viel Warten verbunden. Das können LPE-Kerne wunderbar erledigen.
Klar will man sowas nicht unbedingt auf den P-Cores haben, aber warum LPE statt E-Cores dafür nutzen?
 
Cr4y schrieb:
Die Frage ist halt: Lohnt der Aufwand? Bin nicht im Thema, aber eine Daumenregel ist, dass mehr technische Komplexität neue Probleme schafft. Man hat HT rausgeworfen, aber mit LPE-Cores wieder eine weitere Scheduling-Option geschaffen, nur am unteren Ende der Leistungsskala.
Ich glaube, dass LPE-Cores im Desktop überflüssig sind.
Sogar Intels Aktueller Ceo Lip-Bu Tan, glaubt nicht an die Technik von Nova Lake.
Dies lies er mehrfach verlauten. Er sagte es sei eine Falsche Entscheidung gewesen.
Er müsse den leider noch Releasen, weil als er Intel übernahm, war das Design quasi schon fertig gewesen.
Aber er will von allem abkehren was mit Nova Lake zu tun hat.
Quasi alles über Board werfen. Wieder Zurück zu Klassischen Intel CPU,s ohne überforderten Ringbus der 3 Verschiedene Kerne Managen muss, und zurück zu Hyperthreading für alle Kerne etc.
Lip-Bu Tan glaubt nicht an eigenen Erfolg.jpg

Tan nannte die Nova Lake auch mal unwirtschaftlich für Intel.
Also alles in allem versucht der Intel Ceo, diese Generation von CPU,s so schnell wie möglich hinter sich zu lassen.
Intel wird sich so schnell wie möglich auf CPU,s & Scheduler konzentrieren, die weniger komplex sind.
Daher denke ich, wird es 4 Jahre nach Nova Lake Release mit Sicherheit auch Kernzuweisungsprobleme geben, wenn man dann noch auf den alten Novas unterwegs ist, weil Intel da kaum mehr hinter sein wird.

Lib-Bu Tan sagte:
Ich weiß, dass die letzten Monate nicht einfach waren. Wir treffen schwierige, aber notwendige Entscheidungen, um die Organisation zu straffen und die Effizienz zu steigern.
Wir reflektieren die Nachfrage und die Umsetzung im gesamten Unternehmen.
Außerdem müssen wir die kontinuierliche Weiterentwicklung von Nova Lake im Desktop-Bereich vorantreiben.
Wir werden uns darauf konzentrieren, unseren Marktanteil in unseren Kernsegmenten Client und Server auszubauen. Zu diesem Zweck arbeite ich eng mit unseren Produkt- und Entwicklungsteams zusammen.
Um dies zu unterstützen, führen wir Simultaneous Multi-Threading (SMT) wieder ein. Die Abkehr von SMT hat uns einen Wettbewerbsnachteil verschafft. Die Wiedereinführung wird uns helfen, Leistungslücken zu schließen.
Ich habe unsere Teams angewiesen, für den Client- und Rechenzentrumsbereich Produktfamilien der nächsten Generation mit klaren und einfachen Architekturen, besseren Kostenstrukturen und vereinfachten SKU-Stacks zu definieren. Darüber hinaus habe ich eine Richtlinie eingeführt, wonach jedes größere Chipdesign vor dem Tape-out von mir geprüft und genehmigt werden muss. Diese Disziplin wird unsere Umsetzung verbessern und die Entwicklungskosten senken.
-

Fazit: Nova Lake ist eine Last die Intel noch tragen muss. Eine Last die schnell verschwinden wird, und der Langzeit Support damit fraglich. Tan freut sich viel mehr auf die Architekturen nach Nova Lake.
 
Zuletzt bearbeitet:
Zurück
Oben