News Intel Nova Lake: Ein Quartett mit großem Cache als Core Ultra 400K erwartet

xexex schrieb:
Weiterhin falsch! Desktops sind prozentual gesehen nur noch ein Nebengeschäft, die drei Leistungsstufen sind bei Intel seit mehreren Jahren in Notebooks zu kaufen.
Thin Clients bis Notebooks sind die Zukunft für den Umsatz.
Der Zen 6 könnte sogar erst bei 10-Core starten, dazu Produkte mit 48 MB-L3, 48+72 und 48+2*72 MByte L3 stacked. Wobei so klar wird, dass AM5 dafür noch ausreicht.
Plan B sind ja weiterhin Zen 5 Produkte incl. X3D.
 
Ganz schön spät. Dann muss mein 13900k noch ein Jahr durchhalten. Bisher habe ich damit auch keine Performance Probleme.
 
bensen schrieb:
LPE-Cores gibt's seit Meteor Lake.
Ergänzung ()
Wenn ich den Artikel zu Meteor Lake richtig verstehe, sind die 6 E-Cores alle identisch. ich nehme an die Sonderbezeichnung LPE begründet sich darin, die Kerne mit weniger Spannung langsamer zu takten. Was ja auch mit E-Cores geht, deshalb sehe ich da keinen Unterschied, und es bleibt bei 2 Leistungsstufen.
 
nazgul77 schrieb:
ich nehme an die Sonderbezeichnung LPE begründet sich darin, die Kerne mit weniger Spannung langsamer zu takten.

Vor allem sind die bisherigen LPE-Cores nicht an das Cache-System des compute-dies angeschlossen, und daher kann der Compute-Die schlafen gelegt werden, und die LPE-Cores koennen ihre Aufgaben trotzdem machen. Und weil der Compute-Die schlaeft, wird viel Verbrauch gespart. Wie das mit der Cache-Konsistenz zwischen den LPE-Cores und den anderen funktioniert, ist mir unklar.

Die Leistung der LPE-Cores ist allerdings auch deutlich geringer, weil sie keinen L3-Cache haben.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
Cr4y schrieb:
So richtig, dass Intel das Konzept wohl bald wieder aufgeben wird. So zumindest die Gerüchteküche.
Okay... Zurück zu SMT?
 
ETI1120 schrieb:
Phoronix hat einen test gemacht:
https://openbenchmarking.org/result...ppd_MTIgeCA2NCBHQiBERFI1LTg4MDBNVA=5400&sor=1

Mein Eindruck, bei den eigentlichen Applikationen (es ist nur eine kleine Auswahl von dem was Phoronix sonst zeigt) ist der Zuwachs von DDR5-6400 auf MRDIMM-8800 momentan überschaubar.

Interessant auch der ClickHouse-Benchmark, wo DDR5-6400 schneller ist als MRDIMM-8800.

Ich denke es hat gute Gründe warum AMD MRDIMM mit Turin noch nicht unterstützt hat.
Aber es hat eben auch gute Gründe, warum AMD MRDIMM-12800 unterstützen wird und dies schon laut herumposaunt.

Ersteres vermutlich, weil sie es noch nicht fertig hatten. Letzteres wohl, damit sie sich im Vergleich zu Intel keine Bloesse geben.

Ich denke, die Betreiber der Server werden anhand der Applikationen entscheiden, ob sie auf MRDIMM verwenden oder beim klassischen DDR5-DIMM bleiben.

Denke ich auch. Wobei ich dunkel in Erinnerung habe, dass man MRDIMMs auch als normale RDIMMs betreiben kann. Wenn das fuer jeden Zugriff extra entschieden werden kann, dann koennten die Prozessorhersteller durch Ueberwachung der Cache-Aktivitaet zwischen den beiden umschalten: z.B. immer mindestens 10% der Zugriffe im MRDIMM-Modus. Wenn von den im MR-Modus geladenen cache lines ein bestimmter Prozentsatz tatsaechlich verwendet wird, bevor die cache line wieder rausfliegt, dann kann man den Anteil der MR-Zugriffe anheben, wenn's drunter bleibt, absenken (solange man nicht wieder die 10% erreicht hat).

Oder bei einer APU die GPU-Zugriffe im MR-Modus, und die CPU-Zugriffe im normalen Modus.
 
Tharan schrieb:
Egal ob Raptor-Lake oder Arrow-Lake: Das Problem ist aktuell noch real und die Aussage von @xexex habe ich mit 15 Minuten googlen nach neueren Benchmark-Ergebnissen nicht bestätigen können.
Nein! Das Scheduling ist völlig anders, genauso wie die CPU Architektur. Raptor Lake hatte mit langsamen E-Cores zu kämpfen und einen Scheduler der mehr oder weniger die Threads zwischen den jeweiligen Kernarten geschoben hatte, wenn die Applikation es nicht anders angefordert hatte. Dazu gab es noch Hyperthreading, man musste dies bei der ganzen Planung auch noch berücksichtigen.

Seit Meteor Lake gibt es nun die LPE Kerne, damals noch ungünstig auf einem eigenen Die untergebracht und eigentlich nur für Always-On Notebooks zu gebrauchen. Seit Arrow Lake funktioniert der Scheduler völlig anders! Es gibt nun kein HT mehr und es gibt viel schnellere E-Kerne, nun laufen praktisch alle Threads, wenn von der Applikation nicht anders gefordert, auf den E-Kernen und sobald die Leistung benötigen, werden sie auf die P-Kerne verschoben.

In etwa kannst du dir das wie die big.LITTLE Architektur unter ARM vorstellen, nur dass es hier nicht nur einen schnellen Kern gibt sondern bis zu acht. Jeder Thread der besonders viel Leistung benötigt, wird in Sekundenbruchteilen auf einen schnelleren Kern verschoben, dazu gibt es noch in Zusammenarbeit mit Windows eine Logik je nach Inhalt.
Spiele hingegen sollen primär auf den E-Kernen und im Bedarfsfall auf den P-Kernen verarbeitet werden. Hier geht es vorrangig nicht um die Effizienz und einen möglichst geringen Verbrauch, sondern vielmehr darum, der GPU auch bestmöglich zuarbeiten zu können. Mit der hauptsächlichen Nutzung der E-Kerne ist natürlich aber auch ein möglichst geringer Stromverbrauch durch die CPU vorgesehen.
1766338134501.png

In Multi-Threaded-Anwendungen wie dem Cinebench (der eigentlich auch nur ein Benchmark ist, aber für Rendering-Anwendungen stehen könnte) verteilt der Thread Director die Last natürlich auf alle Kerne, damit der Workload schnellstmöglich abgearbeitet werden kann.
1766338188348.png


Mit dem Thred Director wie er mit Alder Lake eingeführt wurde, hat es nur noch wenig gemeinsam, weil auch die gesamte CPU Architektur nun völlig anders aussieht. Spiele auf P-Kerne zu schieben, wie es manche noch unter Alder Lake gemacht haben, ist hier völlig kontraproduktiv, da nicht jeder Thread die gleiche Leistung benötigt. Hier wird nun tatsächlich der Focus auf besonders lastintensive Prozesse gelegt, die das System durch die veränderte Architektur, viel schneller auf einen Kern mit mehr Leistung verschieben kann.
Das Design von Panther Lake stellt in der Speicherarchitektur einen deutlichen Schritt über die bisherigen Hybridgenerationen hinaus dar. Während frühere Designs wie Arrow Lake oder Lunar Lake die Effizienzkerne noch über eine separate Verbindung außerhalb des zentralen Cache-Rings anbanden, integriert Panther Lake nun alle Kerne – sowohl P- als auch E-Cores – in einen gemeinsamen L3-Cache-Ring. Diese Vereinheitlichung sorgt dafür, dass Daten, die zwischen den verschiedenen Kernarten ausgetauscht werden, nicht mehr über das SoC-Fabric laufen müssen. Dadurch sinken sowohl die Latenzen als auch der Energieverbrauch pro Zugriff.
Der L3-Cache fungiert in dieser Struktur als letzte gemeinsame Speicherstufe, die nicht nur Daten zwischenpuffert, sondern auch die Kohärenz zwischen allen Recheneinheiten sicherstellt. Wenn der Scheduler Threads zwischen P- und E-Cores verschiebt, können diese ohne vollständiges Neuladen aus dem Arbeitsspeicher fortgesetzt werden, da die relevanten Cache-Zeilen im gemeinsamen L3-Bereich erhalten bleiben. Das verbessert die Reaktionszeiten insbesondere bei Anwendungen, die häufig den Kern wechseln oder stark parallelisiert arbeiten.
Die Softwarearchitektur von Panther Lake wurde tiefgreifend überarbeitet, um die gesteigerte Komplexität der neuen Hybridstruktur effizient zu steuern. Der überarbeitete Intel Thread Director v2 spielt dabei eine zentrale Rolle. Er überwacht in Echtzeit die Art und Intensität der laufenden Aufgaben und ordnet sie automatisch dem jeweils passenden Kerntyp zu – leistungsstarke Threads wandern auf die Cougar-Cove-P-Cores, während parallele oder hintergründige Prozesse den Darkmont-E-Cores und LP-E-Cores zugewiesen werden. Neu ist dabei der sogenannte Zoneless-Scheduling-Ansatz, bei dem Threads nicht länger festen Leistungszonen zugeordnet sind, sondern dynamisch über alle Kerne hinweg verschoben werden können.
https://www.igorslab.de/evolution-o...rchitektur-effizienz-und-softwareintegration/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eastcoast_pete und Tharan
zeedy schrieb:
Selbst die kleinste von den hier aufgelisteten CPUs hat 24 Kerne. Was soll man damit?

Intel und AMD steigen halt immer mit den Spitzenmodellen zum Spitzenpreis ein, damit der Halo-Effekt zur Geltung kommt. Die kleineren Modelle fuer den Hausgebrauch werden mit wenig Trara und oft erst spaeter nachgeschoben, die Marketingabteilung will ja, dass der Glanz der Spitzenmodelle alles ueberstrahlt.

Ich sehe es auch skeptisch, dass man jetzt neben den P und E Kernen auch noch LPE Kerne hat. Ein komplexeres Scheduling ist die Folge, aber mit welchem Nutzen für den Anwender? Werden die CPUs nennenswert effizienter im Teillastbetrieb?

Bei Laptops ist die Idee, dass die LPE-Cores arbeiten, wenn alle Cores auf dem Compute-Die schlafen; dadurch wird Verbrauch gespart.

Wozu sie LPE-Cores im Desktop haben? Vielleicht verwenden sie einfach den selben I/O die wie die Laptops, und wenn man dadurch mit noch vier Kernen mehr protzen kann, laesst die Marketingabteilung die Gelegenheit nicht aus.
 
jabberwalky schrieb:
Hatte kurzfristig eine i7 14700F + 4070Ti und das hat mich echt aus den Socken gehauen was das System gefressen hat. Das hat mich massiv abgetournt 👎👎
Dann Kauf Dir kein EAuto das verbraucht auf 100km mehr Strom wie das System im Jahr :)
MalWiederIch schrieb:
Nein - ohne 3D-Cache ist AMD eben hinten …
Ja aber auch deutlich weniger L1&L2 Cache Arrow P Kerne zu Zen5
L1 192kb vs AMD 80kb
L2 3MB vs 1MB
L3 36MB vs 32MB
Selbst Raptor hatte schon 80/2/36 zu Zen4 64/1/32
Mal schauen wie viel Cache AMD in Zen6 einbaut, kann mir vorstellen daß der auch bei AMD zumindest L1&2 grösser werden und Intel nicht bei den hohen L2 bleibt, denn es sollen ja auch mehr Kerne werden
MalWiederIch schrieb:
Na eben den fehlenden Cache - in Anwendungen sind beide ja gleichauf …
Und eben da fehlt Intel der Cache nicht sondern hat schon deutlich mehr sehr wahrscheinlich das die Unterschiede next Gen wieder deutlich kleiner werden denn beide lassen bei TSMC in 2nm fertigen.
MalWiederIch schrieb:
beide sind gleichauf in Spielen und Anwendungen
Wem die Anwendungsleistung juckt oder sie nutzen kann liegt besser/günstiger mit Intel, bei mir ist ohne Gaming selten auf mehr wie 12t +50% und wer es braucht schaut sicher nicht auf den Preis sondern kauft das was am schnellsten ist
MalWiederIch schrieb:
Nicht nur Intel - die X3D CPUs sind weit weg von günstig … um zu konkurrieren muss Intel diese ähnlich bepreisen, logisch …
Der 3d Cache hilft hauptsächlich in Games und da sind sie verkleichbar teuer haben dann aber eben nur 8 Kerne. Und sind in Anwendungen langsamer.
Bepreist werden die Produkte zum Release und dann regelt der Markt je nach Angebot und nachfrage.

Intel hat mit Arrow schon ordentlich die Chaches aufgebohrt und dennoch kaum Leistung gegen Reptor trotz besserer Fertigung und mehr Cache geholt. panther wird wohl nicht viel ändern am Aufbau nur ein Test für Intel A18 und ein Vergleich A18 vs N3.

Ick freu mir erstmal auf die CES und was da so neues und hoffentlich überraschendes kommt
 
Icke-ffm schrieb:
Dann Kauf Dir kein EAuto das verbraucht auf 100km mehr Strom wie das System im Jahr :)
Macht er wohl nicht, wenn sein Strom knapp und teuer ist.

Strom ist knapp und teuer für alle, die ihn aus dem Netz kaufen müssen. Je nach lokalem Netzbetreiber zahlt man dann pro kWh nVidia-Preise.

jabberwalky schrieb:
Warum muss ein Gaming PC zum Videoschauen oder surfen 120W fressen, wenn ein Notebook dafür auch mit 40W auskommt? Warum kann ich das nicht so effizient gestalten? Das verstehe ich nicht.
Sieh dir mal die PS5 an, die hat einen Power-Save Modus, dann läuft sie mit aktivem Spiel bei 75 W Power Target. Ansonsten sind es 100-200 W, mehr kann das integrierte Netzteil nämlich nicht.
 
  • Gefällt mir
Reaktionen: jabberwalky und Icke-ffm
HerrRossi schrieb:
Angeblich soll es nur noch eine Core-Klasse geben. Die Gerüchte mutmaßen, dass es "nur" noch E-Cores gibt. Aber mit Avx512 support und anderen Spierenzchen
 
  • Gefällt mir
Reaktionen: HerrRossi
mae schrieb:
Wozu sie LPE-Cores im Desktop haben?
Auch wenig Last ist noch immer Last! Wenn man die besonders effizienten Kerne mit simplen Aufgaben betrauen kann, bei denen sie besonders effizient sein dürfen, bleibt mehr Spielraum für die größeren Kerne. Zudem bleibt mehr Platz im Cache für die E- und P-Kerne und sie müssen seltener zwischen verschiedenen Threads schalten.
 
Matthiazy schrieb:
Was ich aber nicht ganz verstehe, wieso man noch nicht 100% weiß, ob nun Zen 7 für AM5 oder AM6 erscheint.
ChatGPT sagt:
Zu 100 % weiß man es, wenn es AMD sagt.

Matthiazy schrieb:
AM6 dann ohne DDR6? DDR6 soll doch erst frühestens 2029 erscheinen?
Das wäre ungeschickt, was macht AMD sobald DDR6 kommt? Noch Mal eine neue Plattform?

Es ist doch klar, dass DDR6 kein Thema für die nächste Generation von Intel und auch keines für die nächste Generation von AMD ist.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Siebenschläfer schrieb:
Sieh dir mal die PS5 an, die hat einen Power-Save Modus, dann läuft sie mit aktivem Spiel bei 75 W Power Target. Ansonsten sind es 100-200 W, mehr kann das integrierte Netzteil nämlich nicht
Wusste ich gar nicht, finde ich aber sehr cool!!
Warum macht man das nicht beim PC?
 
eastcoast_pete schrieb:
Ich warte schon lange darauf, daß einer der beiden x86 Hersteller sowas ähnliches macht wie einige CPUs es bei ARM SoCs im Mobilen Bereich machen: einen (oder zwei) wirklich große und bärenstarke Kerne plus mehrere immer noch starke "Performance" Kerne plus ein Paar oder paar E-Kerne.
Von dem was Du da beschreibst rückt man bei Arm wieder ab.
Die E-Kerne waren zu ineffizient.

Ian Cutress hat sich dazu in einem seiner Videos geäußert.
1766343790856.png

Im Diagramm sieht man wie ineffizient die ganzen E-Cores mit Ausnahme von Apple bei den Smartphones waren.

Die richtige Strategie um Energie zu sparen ist einen effizienten Kern die Task erledigen zu lassen und diesen sofort abzuschalten wenn nichts zu tun ist.

Intel bietet seit Meteorlake P + E + LPE an, das ist zwar kein HP+P+E was Du erwähnt hast, aber doch nah dran.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
52 Kerne, kein Gamer braucht diese Anwendungsleistung. 12 Kerne, effizient (wenig Hitzeentwicklung im Sommer) viel cache, langlebige Plattform und bezahlbar, reicht völlig. Ein 9800x3D, welcher in Anwendungen so schnell ist wie ein 5950x, mehr brauchen 99% der Konsumenten nicht.

Die, die bisher auf AM 5 gesetzt haben werden nicht plötzlich den Sockel wechseln, wieso denn auch? Weil die Shader kompilierung dann 20 sec schneller ist? Ob AMD vs. INTEL dann 10% schneller/langsamer ist, ist sowas von egal, in den Leistungssphären, in denen wir uns mittlerweile bei CPUs bewegen. Dies wiederholen gebetsmühlenartig Intel Prediger unter jedem Ryzen x3D Artikel und ich stimme dem zu. Und plötzlich ist das Luftschloss Core Ultra 400k in ferner Zukunft absehbar, schon wird die Vernunft begraben und Zweckmäßigkeit ein Fremdwort.

Was wir zunächst brauchen, ist mehr GPU Leistung und billigen RAM. CPUs sind technisch zwar interessant, aber Anwendungsleistung mittlerweile einfach völlig irrelevant für die meisten.
 
ETI1120 schrieb:
Zu 100 % weiß man es, wenn es AMD sagt.


Das wäre ungeschickt, was macht AMD sobald DDR6 kommt? Noch Mal eine neue Plattform?

Es ist doch klar, dass DDR6 kein Thema für die nächste Generation von Intel und auch keines für die nächste Generation von AMD ist.
Kein Thema für die nächste Sockel Generation oder was?
Es gibt übrigens neue Neuigkeiten :

https://www.pcgameshardware.de/CPU-...n-8-und-Zen-9-sollen-Codenamen-haben-1489479/

https://en.gamegpu.com/News/zhelezo/AMD's-roadmap-leaked-until-2033:-Zen-7-will-remain-on-the-AM5

Full AMD processor release schedule:

  • Zen 6 "Medusa": Socket AM5 (DDR5 + PCIe Gen5).
  • Zen 7 "Prometheus": Socket AM5 (DDR5 + PCIe Gen5), release in 2028.
  • Zen 8 "Penelope": Socket AM6 (DDR6 + PCIe Gen6), release in 2029-2030.
  • Zen 9 "Nemesis": Socket AM6 (DDR6 + PCIe Gen6), release in 2032-2033.
 
Zurück
Oben