News Intel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß

Volker schrieb:
Jeder mm² gesparte Fläche in N2P und Intel 18A ist Geld, kleinere Chips haben dazu bessere Yield.
Ist natürlich richtig. Gleichzeitig bedeuten so viele verschiedene Varianten halt auch, dass es schwieriger wird, Produktionszahlen flexibel anzupassen. In der Hinsicht ist und bleibt AMD mit den viel vielseitiger genutzten Chiplets in besserer Position.

Bei dem was Intel da treibt, seh ich schon die nächste Meldung der Art "Intel hat x Milliarden Inventar und gleichzeitig Lieferengpässe" vor mir, wie es sie ja auch gerade gab.
 
  • Gefällt mir
Reaktionen: nyster
Volker schrieb:
Jeder mm² gesparte Fläche in N2P und Intel 18A ist bares Geld, kleinere Chips haben dazu bessere Yield.
Mit den Yields ist das eine Sache der Auslegung... je größer der Anteil vom Chip den man teildeaktivieren kann bei einem Defekt, desto näher kommt der Yield an die 100%.
Sonst wäre ja auch die Wafer Scale Engine völlig unmöglich. Die musste spezifisch so designed werden, dass egal wo Defekte auftreten, es immer eine Möglichkeit gibt, das zu kompensieren.

Aber klar, dann kommen wir auf Punkt 1 zurück, jeder mm² der investiert wird um Yields zu erhöhen macht das Produkt teurer.
Andererseits - je mehr Chiplets, desto mehr Interconnects. Die sind auch nicht kostenlos.

Das ist ein Abwägen und der sweet spot ist sicherlich näher an den 75mm² von AMD als den 150mm² von Intel.
 
  • Gefällt mir
Reaktionen: nyster
wagga schrieb:
Ohje bitte nicht. Wobei ich mich damals für den i7 13700KF entschied weil der i9 zu teuer war.
Wenn man sieht was Threadripper oder Xeon-W so kosten mit ähnlich vielen Kernen ist die 1000er Schallmauer definitiv geknackt, vielleicht sinds sogar näher an 2000 beim Topmodell.
 
  • Gefällt mir
Reaktionen: wagga
wagga schrieb:
Wie viel Kerne benötigt man den 2027/2028
Nicht das man eine zu kleine CPU kauft dann früher aufrüsten muss und am Ende mehr bezahlt als wenn man gleich die größere CPU genommen hätte.
Die meisten wohl weiterhin nicht mehr als 8 (mit SMT). 12 oder 16 werden auch 2028 von vielen Anwendungen nicht genutzt werden, weil sich nicht alles bleibig parallelisieren lässt.
Der Kern-Wahn ist daher immer ein Stück weit Cornercase-Bullshit: Toll für Benchmarks und sehr spezielle Anwendungen.

Selbst unsere "großen" Server haben nur 16 Kerne. Ohne VDI oder komplexe mathematischen Berechnungen... sind mehr weitgehend nutzlos - und darüber hinaus wird es softwareseitig auch oft deutlich teurer.
Lieber weniger Kerne, dafür höherer Takt.
Ergänzung ()

Kadett_Pirx schrieb:
Das kann wirtschaftlich nicht gesund sein, eine große eigene Fertigung zu haben, aber dennoch teuerste Komponenten extern zu beziehen.
Sagst du mit welcher wirtschaftlichen Expertise?
 
  • Gefällt mir
Reaktionen: Deinorius, wagga und Rickmer
Spielt alles keine Rolle solange die RAM Preise nicht fallen. Es ist nichtmal wert über das Produkt zu diskutieren.
Das Produkt kann von mir aus auch so groß wie eine Bratpfanne sein und muss mit Flüssigstickstoff gekühlt werden.
 
  • Gefällt mir
Reaktionen: NoNameNoHonor, wagga und GT200b
Für mich stellt sich die Frage, ob das Flaggschiff mit zwei dieser gigantischen Core-Tiles tatsächlich für denselben Desktop-Sockel kommen oder man dafür einen neuen Sockel als Erbe der damaligen HEDT-Ableger (Stichwort X99 etc.) einführen wird. 2*(8+16)+4 Kerne klingt schon etwas overkill für einen "normalen" Desktop-Sockel mit Dual-Channel-Interface (128 bit), aber wäre natürlich trotzdem eine wünschenswerte Option.

So oder so dürften die Preise beim Topmodell deutlich 4-stellig sein. Ich tippe mal auf 1.199 € UVP aufwärts. Das Flaggschiff mit nur einem dieser Core-Tiles könnte im Bereich von 699 € UVP liegen, als direkte Konkurrenz zu AMDs X3D-Flaggschiff. Endlich gibt es wieder einen interessanten Konkurrenzkampf beider Unternehmen!
 
  • Gefällt mir
Reaktionen: danyundsahne und wagga
Simanova schrieb:
Spielt alles keine Rolle solange die RAM Preise nicht fallen. Es ist nichtmal wert über das Produkt zu diskutieren.
Du vergisst alle Nutzer die bereits in Besitz von DDR5-RAM sind. Und das sind nicht wenige:

1. Bei Intel kam der DDR5 Support mit Alder Lake (ab Ende 2021)
2. Bei AMD kam der DDR5 Support mit AM5 (ab Ende 2022)

Bis zum Release von Nova Lake / Zen 6 sind dann schon 5 Jahre vergangen, in denen potentielle Käufer sich mit DDR5 eindecken konnten. All diese Käufer sind potentielle Kunden für die neuen CPUs.

Alle anderen schauen zugegebenermaßen in die Röhre. 😩
 
  • Gefällt mir
Reaktionen: nyster, Veitograf, Viper816 und 2 andere
Mediendesigner schrieb:
so ein quatsch, selbst cs2 profitiert von mehr kernen aber ob es reicht ist ja eh ansichtssache.

Mir würde ein 6-8kerner viel zu langsam sein, da hätte ich ja nur die hälfte an fps wie jetzt mit meinem 24threads cpu
Das erklärt natürlich, warum ein 7800X3D 8-Kerner in CS2 signifikant schneller ist als ein 14900K mit 24 Kernen...

/s

Simanova schrieb:
Das Produkt kann von mir aus auch so groß wie eine Bratpfanne sein und muss mit Flüssigstickstoff gekühlt werden.
Hmm... nee, lass mal ;)

SaschaHa schrieb:
2*(8+16)+4 Kerne klingt schon etwas overkill für einen "normalen" Desktop-Sockel mit Dual-Channel-Interface (128 bit)
Das ist sicherlich auch Teil des Grund, warum Intel den großen Cache eingeführt hat. Ich bezweifel, dass wir eine zwei Chip Variante ohne Cache bekommen, weil dann die Speicherbandbreite zum Problem wird.

Hatten erst AMD und nVidia mit deren GPUs ja auch nicht anders gemacht. Es war anscheinen günstiger, mehr Fläche für Cache zu nutzen, als eine breitere Speicheranbindung zu verbauen.
 
  • Gefällt mir
Reaktionen: nyster, ev4x, wagga und 2 andere
Nur was von 400W gelesen und direkt das Interesse verloren. Der 12/13/14th mit 253W bzw. "Open End" (je nach verfügbarer Kühlung) waren genug für meinen Geschmack. Gerne schaue ich mir mal die Tests und Co an, aber aktuell bin ich zufrieden und das System wird sicher noch eine Weile reichen (müssen), welches aktuell bei mir läuft.
Zumal Intel ja auch wieder echt Pech hat, in 2026 eine CPU zu bringen, wo der RAM so teuer ist, dass man wahrscheinlich 2k+ für CPU und guten RAM lassen muss. Dazu noch mal 3k+ Top Tier GPU und mit dem Rest ist man dann bei 5-6K+ für ein System wo man vorher 3,5-4k ausgegeben hatte? 🫠

PS: Achja da kommt ja noch der neue Sockel + ggf neue WaKu weil die bisherigen nichtmal 300w schaffen? also eine 240er oder 360 AiO eher schwer bis gar nicht und bei 280-300W meistens das Limit erreicht ist.

Du vergisst alle Nutzer die bereits in Besitz von DDR5-RAM sind. Und das sind nicht wenige.
@Perdakles Das ist richtig aber wenn das wieder so ein Ding ist wie beim 200er wo man die Leistung erst mit PC-8000+ teilweise beginnt zu merken, werden die wenigen dass doch auf die kommende AM5 Serie gehen und nur die CPU upgraden. Schauen wir mal was AMD bringen kann/wird in 2026
 
  • Gefällt mir
Reaktionen: Nighteye
HOT schrieb:
AMD hat hier nur die Hälfte pro CCD, dazu kommen dann aber noch der Stack-Cache, der aber nur in N6 gefertigt wird... Intel ist nach wie vor sehr unwirtschaftlich.
Inwiefern?
Wenn bei AMD 80mm² (bei 12 Kernen)+ Cache hat und Intel 110mm² (bei 4+8+16 Kernen + Cache auf 150 kommt, nimmt man sich da nicht besonders viel. Interessant wirds bei den "kleineren" Kernen, die Intel selbst fertigt. Macht AMD hier auch extra DIEs unter 12 Kernen?

Interessant ist halt nach wie vor für mich, dass Intel trotz N2`P (TSMC, es war ja angeblich immer dem Intel Prozess geschuldet, dass man so viel "säuft") Verbräuche von 400+ W hat
 
  • Gefällt mir
Reaktionen: wagga, DynamaxX und Volker
guggi4 schrieb:
Gute Frage, wenn sie auf den Compute Die liegen, müsste man für den "Doppelausbau" jeweils einen Kanal deaktivieren, wenn sie im IO Die liegen, ergeben die LPE Kerne im Compute Die wenig Sinn
stefan92x schrieb:
Was bei Dual-Die und Single-Die im gleichen Sockel bedeutet, dass man bei Dual-Die die Hälfte der vorhandenen Speicherkanäle nicht nutzen kann. Das wäre Verschwendung von teurem Silizium...
Die Hälfte der PHYs vom Speicher brachliegen zu lassen wiegt glaube weniger schlimm, als der Umstand, dass dann kein Speicherzugriff eines CPU Kerns möglich wäre, ohne dass das zwangsweise zum jeweils anderem Die gehen müsste. Sowohl für die Verwaltung als auch für den eigentlichen Zugriff. Katastrophe!
 
  • Gefällt mir
Reaktionen: Rickmer, Volker und guggi4
Ist jedenfalls spannend, bei Arrow Lake war der ausgelagerte Speichercontroller ja einer der vermuteten Hauptgründe für die schlechte Gaming Performance, bei Panther Lake ist er wieder zurück in den Compute Die gewandert.
Jetzt wieder ausgelagert? Würde den vergrößterten Cache jedenfalls noch wichtiger machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wagga
Innocience schrieb:
@Volker
Gut möglich dass die LPE wieder wenig taugen. Allerdings 2 LPE extra mit an den übrigen P und E Kernen dranhängen scheint mir noch absurder. Angeblich (so zumindest von MLID gemunkelt) waren die LPE ja wohl mal angedacht für Debuggingfunktionen während des Fertigungsprozess von Meteor Lake. Naja, wir werden sehen.
LPE-Cores könnten schon nützlich sein, allerdings bräuchte es dafür Support vom OS, in der Form das wenn längere Zeit wirklich nichts oder sehr wenig passiert ist das dann bis weiteres nur noch auf die LPE-Cores gesheduled wird.
 
  • Gefällt mir
Reaktionen: wagga
Zum Thema Kerne und Spiele.
Hier mal ein 285K auf 87% Auslastung (im Idle, ohne bewegen der Spielfigur) mit 9200mhz Ram und RTX 5090 in Star Citizen.
Will gern wissen wie viel Watt ein Nova da ziehen würde.
 

Anhänge

  • Star Citizen 4.6 285K 87% Load .png
    Star Citizen 4.6 285K 87% Load .png
    768,9 KB · Aufrufe: 96
Volker schrieb:
Ja, sie machen ja Mix & Match. Sie haben verschiedene CPU-, SoC- und IO-Tiles, dazu auch noch GPU natürlich. Es könnte halt echt alles mehr in Richtung AMD gehen, das Mobile-Produkt am Ende ganz anders aussehen - so wie Strix Point vs Desktop Ryzen. Bei den Desktop-Dingern ist es ausgelagert, mobile wieder integriert oder oder oder. Und hier fertigt der und dort der, auch mal in alt oder älter.
Der modulare Ansatz wird bei Intel noch ein wenig brauchen.
 
Piktogramm schrieb:
Die Hälfte der PHYs vom Speicher brachliegen zu lassen wiegt glaube weniger schlimm, als der Umstand, dass dann kein Speicherzugriff eines CPU Kerns möglich wäre, ohne dass das zwangsweise zum jeweils anderem Die gehen müsste. Sowohl für die Verwaltung als auch für den eigentlichen Zugriff. Katastrophe!
Zusätzlich: Intel wollte doch die Möglichkeit haben, den Compute Tile komplett auszuschalten und somit Energie zu sparen.

Wie soll das gehen, wenn der Speichercontroller da drauf sitzt?
 
ragnarok666 schrieb:
Für mich, der außer Games auf dem Privat-PC sonst nichts macht, dass ordentlich CPU Power braucht, stellt sich hier die Frage, ob die E-Cores bei Games dieses mal was positives beitragen können, oder immer noch in den meisten Fällen nur nutzlos sind. Mit dick Cash dahinter könnten die ja vielleicht mal was taugen ....
Das ist ein Thema der Anwendungen, die ganze Spiele müssen einfach mal zur Kenntnis nehmen wie heutige CPUs aussehen.
 
  • Gefällt mir
Reaktionen: wagga
@foofoobar Da das ja anscheinend so einfach ist: Wie schaffst du technisch die Abhängigkeit von einem/wenigen "Kern-Threads" ab, die maximale Single/Few-Thread-Performance brauchen? Oder muss Intel zur Kenntnis nehmen, dass sie für Gamer am Bedarf vorbei CPUs bauen, wenn sie viele E- aber wenig P-Cores verbauen?
 
hippiemanuide schrieb:
Nur was von 400W gelesen und direkt das Interesse verloren. Der 12/13/14th mit 253W bzw. "Open End" (je nach verfügbarer Kühlung) waren genug für meinen Geschmack.
Die 253 Watt waren schon krass, ich habe den i7 13700K auf PL1 60 und PL2 100 Watt begrenzt.
Außer bei Cinebench wo die Punkte verloren gehen, läuft alles.
Beim Laden eines SPiels kann es evtl. etwas länger dauern weil er ja bei 100 Watt abriegelt.
Aber die 90 Grad oder 100 Grad sind endlich vorbei.
 
  • Gefällt mir
Reaktionen: hippiemanuide
Zurück
Oben