Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Nova Lake: Ein Quartett mit großem Cache als Core Ultra 400K erwartet
Vielen Dank, dass du dir extra die Mühe gemacht hast, ich habe mir es aufmerksam durchgelesen und auch neue Details vernommen.
Aber was weiterhin fehlt: Es gibt noch nirgendwo Benchmarks die zeigen, dass es durch all die Technik nun besser läuft als früher. Im Gegenteil: Wenn das nun alles so viel besser ist spricht das ja noch weniger für den allgemeinen Architekturwechsel und den Verzicht auf SMT.
Und da schließt sich der Kreis: In Sachen Gaming bleibt meist die alte Architektur vorne und nurvweil es nun mehr Kerne gibt lässt das keine Rückschlüsse zu, dass es mit noch mehr Kernen bei Nova Lake besser. Ich hoffe das, aber konkret ist da nix. Und Arrow Lakes einziger Pluspunkt ist und bleibt die Effizienzsteigerung im unteren Lastbereich. (Wo nochmal eine Schippe drauf reichen würde mich zu überzeugen mit dem getroffenen Versprechenvon 4 Generationen auf der kommenden Plattform.)
Werden wir sehen, von den Daten her kann ich mir schon vorstellen daß Intel im Gaming die Krone holt, wieso aber Gaming CPUs Geschichte werden sollen sehe ich nicht, AMD wird auch bei Zen6 sich nicht viel ändern der x3d wird der Gaming King bleiben, und der Speicher bringt bei AMD Ast ausschließlich beim Gaming Vorteile, wieso sollte es bei Intel gänzlich anders sein ?
Wird eher teurer denn wenn Intel schneller sein sollte mit dem Ultra 7 wird der Ultra 9 sicher noch schneller und bei min doppelt so vielen Kernen auch Deutlich mehr Kosten.
MiroPoch schrieb:
52 Kerne, kein Gamer braucht diese Anwendungsleistung. 12 Kerne, effizient (wenig Hitzeentwicklung im Sommer) viel cache, langlebige Plattform und bezahlbar, reicht völlig.
Da gebe ich Dir Recht, aber beide wollen Geld verdienen, könnte mir gut vorstellen daß AMD einen 8Kern Zen6 mit 32MB L3 bringt der teurer wie ein 12Kern ohne ist und im Gaming vorn liegt und fürs Upscalling dann den 12Core mit 2x32MB der dann deutlich schneller ist wie der 8Kerner
Von dem was Du da beschreibst rückt man bei Arm wieder ab.
Die E-Kerne waren zu ineffizient.
Ian Cutress hat sich dazu in einem seiner Videos geäußert.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Anhang anzeigen 1688127
Im Diagramm sieht man wie ineffizient die ganzen E-Cores mit Ausnahme von Apple bei den Smartphones waren.
Die richtige Strategie um Energie zu sparen ist einen effizienten Kern die Task erledigen zu lassen und diesen sofort abzuschalten wenn nichts zu tun ist.
Intel bietet seit Meteorlake P + E + LPE an, das ist zwar kein HP+P+E was Du erwähnt hast, aber doch nah dran.
Die Ineffizienz der E-Kerne in den meisten SoCs mit Stock ARM Design zeigt IMHO auch, dass die Entscheidung von ARM, diese Kerne schon lange und immer noch als in-order Designs auszufuehren nicht besonders gut war. Die Apple E Kerne hingegen sind schon laenger out-of-order Designs, und u.a. dadurch leistungsstaerker, effizienter und IMHO einfach besser optimiert. Als Andrei Frumusanu noch fuer Anandtech geschrieben und getestet hat, hat er darueber geschrieben. Mittlerweile (schon seit ~ 3 Jahren oder so) arbeitet er fuer Qualcomm, und AT gibt's auch nicht mehr.
Nun, ich weiss das durchaus zu schätzen. Wenn ich das Gerät nicht mehr als Desktop nutzen will, dient es noch ein paar Jahre als Server - always on. Mein jetziger Server zieht ca. 15 Watt idle, und wird das voraussichtlich noch einige Jahre lang tun (natürlich nun ohne GPU (daher kaufe ich grundsätzlich nur CPUs mit iGPU - das erhöht die Flexibilität in der "Anschlussverwendung" enorm)).
Klar, 7 Watt Ersparnis sind bei ~8 Jahren Serverbetrieb auch nur ~120 €. Eigentlich Schnurz. Aber wenn ich bei meinem gesamten Gerätepark so denken würde, dann würde sich das schon läppern.
Meinen ollen Phenom X6 1100T habe ich ausschliesslich wegen des idle-Verbrauchs aufs Alteisen gestellt. Die Leistung hat mir noch absolut ausgereicht für zahlreiche Tasks. Aber 110 Watt idle waren dann wirklich indiskutabel. Dessen Aufgaben erledigt jetzt eine VM (von mehreren) auf einem Server mit 15 Watt...
Ich denke, ein Mittelklasse-Nova-Lake aus dem Jahr 2027 dürfte gut und gerne 15 bis 20 Jahre einsetzbar sein - von der Rechenleistung her. Obsoletiert werden wird er durch die Effizienz und den Idleverbrauch. Insofern ist das mMn schon ein wichtiges Kriterium.
Intels Probleme waren die Fertigung bei TSMC und der damit verbundene niedrige Takt der CPU + der "fehlende" 3D Cache oder eine entsprechende Technologie. AMD hat praktisch "nur" der 3D Cache gerettet, sonst hätte Intel durchgehend die logischere und effizientere Lösung.
Jetzt müssen wir aber eines berücksichtigen, die wenigsten Spiele nutzen derzeit mehr als acht Kerne und für Spiele die mehr Threads nutzen, hat Intel bereits die passende Lösung parat. Bei AMD beschleunigt der Cache derzeit nur maximal acht Kerne, bei mehr Threads gibt es Leistungsnachteile durch die Die-to-Die Kommunikation und sie haben eine Skalierung nach oben erst vor sich.
Ohne die CPU zu kastrieren und acht Kerne abschalten zu müssen, schlägt sich ein 700€ teurer 9950X3D in Spielen ziemlich miserabel, wenn man die Effizienz mit berücksichtigt.
Jetzt ist Arrow Lake im Desktop eher eine Notlösung geworden, viel mehr Anpassungen haben in der Zwischenzeit in den Notebooks stattgefunden. Mit Nova Lake kommt irgendwann alles das was man nun für Panther Lake ankündigt für den Desktop, hoffentlich wieder mit der eigenen optimierten Fertigung.
Wenn ich den Artikel zu Meteor Lake richtig verstehe, sind die 6 E-Cores alle identisch. ich nehme an die Sonderbezeichnung LPE begründet sich darin, die Kerne mit weniger Spannung langsamer zu takten.
Eigentlich nicht. Man nutzt nur andere Kerne. Jetzt halt C1 Ultra, Premium und Pro.
Drauf wurde ja schon seit Jahren hingearbeitet. Bei den A7xx Kernen war die Performance nicht mehr im Vordergrund sondern vor allem Verbrauch und Fläche.
Das Diagramm zeigt, dass sie es nicht sind. Sie sind effizienter als ihre A7x oder Xy Brüder. Das Problem ist die viel zu geringe Performance. Man kann die nur für unkritische Prozesse nutzen ansonsten muss sofort ein anderer Kern ran.
Ich denke man kommt mittlerweile ganz einfach auch mit den A7xx Cores sehr weit mit dem absoluten Verbrauch runter.
ETI1120 schrieb:
Die richtige Strategie um Energie zu sparen ist einen effizienten Kern die Task erledigen zu lassen und diesen sofort abzuschalten wenn nichts zu tun ist.
Klappt aber nicht bei jedem Task. Nicht jeder lässt sich als Paket abarbeiten. Gibt genug Aufgaben, die laufen in Echtzeit.
Ergänzung ()
mae schrieb:
Wozu sie LPE-Cores im Desktop haben? Vielleicht verwenden sie einfach den selben I/O die wie die Laptops, und wenn man dadurch mit noch vier Kernen mehr protzen kann, laesst die Marketingabteilung die Gelegenheit nicht aus.
Ist die Frage, wo die LPE Kerne lokalisiert sind. Bei Panther Lake sind sie im Compute Die.
Aber die Nutzung eben dieses Die im Notebook kann durchaus ein Grund sein. Ansonsten schadet es auch nicht die im Desktop zu implementieren. Die Kerne sind verdammt klein. Und so lässt sich der Idle/Niedriglast Verbrauch weiter senken und unter Vollast ein paar Hintergrundtasks von den Hauptkernen übernehmen.
jo, totalsuper arrow lake - zen 4 niveau - aber mit 8200Mhz RAM wer glaubt, intel könnten zen6 schlagen, der glaubt auch noch an den osterhasen und das christkind.
Von mir aus. Aber die unnötig vielen Kerne hat man ja nicht nur im CPU-Flaggschiff. Selbst die kleinste von den hier aufgelisteten CPUs hat 24 Kerne. Was soll man damit?
@0x8100 Ich denke das ARM Konzept könnte man eher mit AMD mit 2x Zen5 + 4x Zen4 + 4x Zen4c vergleichen. Ein Zen4c Kern ist natürlich schon langsamer als ein Zen5 Kern, aber jetzt auch nicht total langsam.
Aber von Intel P-Kernen runter zu E-Kernen und dann vorallem zu LPE-Kernen ist schon ein viel grösserer Sprung.
Ich fand es sehr aufschlussreich, wie viele Einträge der Intel Memory Latency Checher hatte.
Die haben von der Anzahl her die HPC Tests fast schon an die Wand gedrängt,
mae schrieb:
Ersteres vermutlich, weil sie es noch nicht fertig hatten.
Wie soll das funktionieren? Man würde die halbe Kapazität verlieren und würde mit der halben Geschwindigkeit arbeiten.
Du hattest vorher geschrieben:
mae schrieb:
Bei MRDIMM werden jeweils doppelt soviele RAM-Chips angesprochen, die dann abwechselnd liefern. Da jeder RAM-Chip einen Burst mit 16 Ergebnissen produziert, und die Kanaele bei DDR5 32-bit breit sind, ergeben zwei solche Bursts gleichzeitig ein Ergebnis von 128 Bytes.
Der Witz an der Sache ist doch, dass sich nichts an der Busbreite ändert, dass also die MRDIMMs in dieselben Steckplätze wie die RDIMMs passen. So wie ich es verstehe ändert sich auf der CPU-Seite nichts außer der doppelten Datenrate. Diese Datenrate muss der memory Controller natürlich vertragen
Der MDB erreicht dies, indem er eine 16-Bit-DRAM-Schnittstelle, die mit nativer DRAM-Geschwindigkeit läuft, in eine 8-Bit-Host-Schnittstelle umwandelt, die mit doppelter Geschwindigkeit arbeitet. Dieser Prozess des Multiplexens und Demultiplexens ermöglicht höhere Datenübertragungsraten.
Bei einem 80 bit MRDIMM sind 10 MDB verbaut. Somit hat ein MRDIMM zum DRAM 160 bit und zur CPU 80 bit.
Ich habe gesehen dass Lenovo und All About Circuits (übernehmen die Darstellung von lenovo) die Sache falsch darstellen und suggerieren, dass die Daten 128 bit weit übertragen werden
Siehe den Post von @ETI1120. Beim Snapdragon 8 Gen3 ist es Faktor 6 zwischen X4 und A520 Kernen im SpecInt. Von A715 zu X4 sind es 50%. Für FP ist der Unterschied noch größer.
Bei Intel ist der Unterschied kleiner und nicht größer.
Bei Lunar Lake sind es etwa 50% von LPE zu P.