News Intel Nova Lake: Ein Quartett mit großem Cache als Core Ultra 400K erwartet

Chismon schrieb:
Wieso wohl nicht(?), scheinbar haben die Speicher-Konzerne entschieden, die Standardisierung künstlich weiter hinaus zu zögern, zumal die (Google) KI darüber Aufschluß gibt, dass die 1.0 Standardisierung für DDR6 RAM eigentlich/ursprünglich noch 2025 stattfinden sollte.
Und dann haben sich die Pläne geändert und CUDIMM und MRDIMM erscheinen für DDR5. Die hohen Datenraten die für DDR6 angegeben wurden sind inklusive CUDIMM und MRDIMM. DDR5 mit CUDIMM bzw. mit SDRAM liegt in dem für DDR6 angegeben Bereich der Datenraten.

Bei der JEDEC sitzen erheblich mehr Leute am Tisch als nur die drei großen DRAM Hersteller.

Außerdem ist ist offensichtlich das DRAM vor einer Zäsur steht. Die Speicherzelle skaliert nicht mehr und es geht nur noch mit Tippelschrittchen voran.

Großes Thema aktuell ist 3D DRAM und wie es umgesetzt wird. In der oft zitierten SK Hynix Roadmap steht 3D DRAM unmittelbar unter DDR6. In den nächsten Jahren werden wir sehen ob und wie beides zusammenhängt.
RKCPU schrieb:
bei jeder Einführung neuer DRAM war der Anfangseffekt mässig.
Das Problem für die CPUs ist, dass die Latenz von DRAM nicht mehr sinkt. Es dauert bei jeder DDR Generation eine Weile bis die Module der neuen Generation die Latenzen der alten Generation erreichen.


RKCPU schrieb:
Zudem, der Markt für Thin Clients bis Notebooks geht in Richtung LPDDR5x was CAMM* ermöglicht. Quasi eine Zwischengeneration DRAM, die dann 2-3 Jahre dominieren könnte.
Bei DDR5 vs LPDDR5/x hängt es von von der Preisklasse der Notebooks ab ob sie mit LPDDR5X oder DDR5 kommen. Stix Point fast ausschließlich LPDDR5X, Krackan vor allem DDR5.

Sobald sich LPDDR6 etabliert hat könnte sich das zugunsten von LPDDR verschieben.


Einen Punkt auf der SK Hynix Roadmap den ich komisch finde ist, dass SOCAMM mit LPDDR6 erst im Zeitraum 2029 bis 2031 auftaucht.

RKCPU schrieb:
Dann die Aufgabe LPDDR5x auf DDR6 zu wechseln, da wird 192 Bit bei viel AI und etwas iGPU incl. AI Upscaling wohl relevant.
Synopsis bietet eine Controller IP an die sowohl LPDDR5X als auch LPDDR6 unterstützt. So wie ich es verstehe soll dies ermöglichen in den Übergangszeit SoC zu entwickeln die den Mobilphone herstellern die Wahl lassen ob sie LPDDR5X oder LPDDR6 einsetzen.

Mit LPDDR6 werden sich die Anwendungsgebiete von LPDDR ausweiten. Es ist die Frage welche Kapazitäten die großen drei an LPDDR6 bereitstellen.
mae schrieb:
Und dann gibt's hier Leute, die sich drueber beschweren, dass sie bei AMD zu einem Threadripper greifen muessen, wenn sie mehr als 16 Kerne haben wollen.
Ob es bei der Anzahl der Kerne, PCIe oder DDR SDRAM, es geht doch gar nicht mehr um die Performance die dabei rumkommt, sondern nur darum das neueste mit der höchsten Zahl zu haben.
 
Krik schrieb:
Bei den Bildern, in denen die Leute immer einen Wafer halten, frage ich mich: Was passiert da hinterher mit dem Wafer? Das Ding ist ja am Ende der Fertigung so wertvoll wie ein Auto. Gehen die Chips nicht "kaputt", wenn die so ungeschützt an die frische Luft kommen?
Gibt genug scrap wafer, bei denen irgendwas schiefgegangen ist, was man natürlich nicht sieht. Zudem sieht man von Ferne sowieso nicht, um was für einen Wafer / Produkt es sich handelt. Und selbst wenn: Moderne Lithomaschinen belichten 200+ Wafer pro Stunde, so what, zudem dürfte der Marketing-Wert des Fotos den Wert des Wafers bei weitem übersteigen. Last not least, nach dem letzten Prozessschritt sind die Wafer ohnehin versiegelt und werden in Einzelchips zersägt...
 
Bricki schrieb:
Und wie oft muss man die Shader kompilieren? Jedes mal?
Das kommt aufs Spiel an. Und ich meine es muss auch bei jedem GPU Treiber Update neu kompiliert werden. Also ist das zumindest mehr als nur einmal, wenn man den Treiber aktuell hält. Aber das nur als Ergänzung.
 
xexex schrieb:
Raptor Lake beim Launch vor vier Jahren hatte. Möchtest du dich sonst noch über die Probleme der Zen1 Generation austauschen, weil es bestimmt noch Leute gibt die sowas nutzen?
Du vergleichst Intels Aktuell schnellste Gaming CPU (Raptor Lake) mit einem Knapp 9 Jahre altem Zen 1, was Null Sinn macht.
Aber okay ich merk schon, du hast die Intel Brille auf. Sachlich bist du für mich nicht mehr.
 
  • Gefällt mir
Reaktionen: Alphanerd
JohnMalkovich schrieb:
8 kerne werden für immer und alle zeiten genug sein.
Es kommt schlicht und einfach darauf an, wie man die Rechner verwendet.

Jemand der mit der CPU rendert, wird Dir entschieden widersprechen. Bei vielen PC Benutzern langweilen sich bei einem 8 Kerner immer einige Kerne.

stefan92x schrieb:
Bei AMD wird das mit Zen 6 dann auch kommen, man wird sehen, wie viel das für Consumer wirklich bringt...
Die Frage ist, wie AMD die Bandbreite durchreichen will.

stefan92x schrieb:
MRDIMM im Server ist unverzichtbar, aber die dafür typischen Anwendungen skalieren halt auch ganz anders.
Momentan kommt AMD sehr gut ohne MRDIMM aus.

Aber sobald klar ist, dass sobald mehr Speicherbandbreite verfügbar ist, wird sich die Software daran anpassen. So dass sich diese Momentaufnahme ändern wird.

mae schrieb:
Andererseits, abgesehen von HPC braucht die meiste Software auch nicht so viel Speicherbandbreite, also ist DDR5 noch lange gut genug.
Phoronix hat einen test gemacht:
https://openbenchmarking.org/result...ppd_MTIgeCA2NCBHQiBERFI1LTg4MDBNVA=5400&sor=1

Mein Eindruck, bei den eigentlichen Applikationen (es ist nur eine kleine Auswahl von dem was Phoronix sonst zeigt) ist der Zuwachs von DDR5-6400 auf MRDIMM-8800 momentan überschaubar.

Ich denke es hat gute Gründe warum AMD MRDIMM mit Turin noch nicht unterstützt hat.
Aber es hat eben auch gute Gründe, warum AMD MRDIMM-12800 unterstützen wird und dies schon laut herumposaunt.

Ich denke, die Betreiber der Server werden anhand der Applikationen entscheiden, ob sie auf MRDIMM verwenden oder beim klassischen DDR5-DIMM bleiben.
 
HerrRossi schrieb:
Der Krieg der Kerne geht weiter, die Chipfläche für SMT mit E-Cores zu füllen scheint der richtige Weg zu sein und mehr Cache ist auch sinnvoll. Intel ist auf dem Weg der Besserung.
Da wäre ich extrem vorsichtig mit der Aussage. Einerseits hat Intel mittlerweile angekündigt, dass sie zu SMT zurück gehen werden. Andererseits ist die höhere Anzahl an Kernen in den Spieletests kein signifikanter Vorteil und auch bei den Anwendungen braucht es im Quotient mehr Kerne als die gleiche Anzahl "virtuelller" SMT-Kerne auszugleichen.

Und die Aussage von Intel wieder SMT einzubauen zukünftig zeigt ganz klar, nachdem die Aussage in der heißesten Phase der Umstrukturierung kam: SMT ist effizienter, v.a. in Bezug auf Kosten/Nutzen als CPUs ohne SMT zu produzieren. Also am Ende ein kleinerer Die, aus dem man mehr Leistung rausholen kann als die ganzen E-Kerne an Platzbedarf und Leistung mitbringen, sonst würde das Intel niemals machen. Die Kosten müssen wieder passen.
 
  • Gefällt mir
Reaktionen: HerrRossi
Nighteye schrieb:
Du vergleichst Intels Aktuell schnellste Gaming CPU (Raptor Lake) mit einem Knapp 9 Jahre altem Zen 1, was Null Sinn macht.
Aber okay ich merk schon, du hast die Intel Brille auf. Sachlich bist du für mich nicht mehr.
Du verstehst einfach nur nicht, dass es hier um Nova Lake geht und nicht um Raptor Lake. Wie groß soll der Zaunpfahl noch werden?
 
eastcoast_pete schrieb:
Ich warte schon lange darauf, daß einer der beiden x86 Hersteller sowas ähnliches macht wie einige CPUs es bei ARM SoCs im Mobilen Bereich machen: einen (oder zwei) wirklich große und bärenstarke Kerne plus mehrere immer noch starke "Performance" Kerne plus ein Paar oder paar E-Kerne.
Nicht mitbekommen? Intel macht genau das seit Jahren.
 
mae schrieb:
Angeben. Das sind Halo-Produkte.
Von mir aus. Aber die unnötig vielen Kerne hat man ja nicht nur im CPU-Flaggschiff. Selbst die kleinste von den hier aufgelisteten CPUs hat 24 Kerne. Was soll man damit? Ich sehe es auch skeptisch, dass man jetzt neben den P und E Kernen auch noch LPE Kerne hat. Ein komplexeres Scheduling ist die Folge, aber mit welchem Nutzen für den Anwender? Werden die CPUs nennenswert effizienter im Teillastbetrieb? Naja, warten wir mal ab.
 
bensen schrieb:
Du verstehst einfach nur nicht, dass es hier um Nova Lake geht und nicht um Raptor Lake. Wie groß soll der Zaunpfahl noch werden?
Naja, zur Wahrheit gehört aber auch, dass vor einem Jahr alle über die Scheduling-Probleme von Arrow-Lake redeten und Zahlen präsentierten aus einer großen Anzahl Spiele, das bis heute aber nirgends wiederholt wurde um zu prüfen, ob diese Probleme wirklich beseitigt wurden und somit als Kinderkrankheiten angesehen werden dürfen.

Egal ob Raptor-Lake oder Arrow-Lake: Das Problem ist aktuell noch real und die Aussage von @xexex habe ich mit 15 Minuten googlen nach neueren Benchmark-Ergebnissen nicht bestätigen können.
Wieso das mit Nova-Lake dann besser werden soll, wo noch eine weitere Kernart hinzu kommt bleibt offen, aber ich hoffe es natürlich. Zumal ja auch die Latenzen noch nicht gut waren in Arrow-Lake zwischen den Kernen. Natürlich ist das ja der Grund, warum auch AMD am meisten von 3D-Cache profitiert, aber die werden mit einem komplett neuen Packaging bei Zen 6 das Thema eh nochmal ganz anders angehen.
 
  • Gefällt mir
Reaktionen: CadillacFan77
Nighteye schrieb:
Bei Star Citizen haben Intel CPU,s immernoch Probleme P und E Cores zu erkennen.
Die uralte CryEngine 3.7 von 2011 kann es halt nicht besser. Die wurde für die PowerPC-SoCs von Xbox 360 und PlayStation 3 programmiert.

Nighteye schrieb:
Klar kann man jetzt mit Fanboy Argumenten ankommen und sagen, "SC ist eine Alpha, kein fertiges Spiel".
Für irgendwelche Nischenrandfälle kann man sich dann doch immer noch die genau dafür passende CPU kaufen. Es gab auch schon in den 2000ern schon irgendwelche Simulatoren, die auf ATI-GPUs nicht mal starten wollten. Wenn genau das dein Schtick war, hast du eben den nVidia-FX-Fön gekauft.

Cr4y schrieb:
So richtig, dass Intel das Konzept wohl bald wieder aufgeben wird. So zumindest die Gerüchteküche.
Richtig ist, dass Intel irgendwann allein mit den E-Cores weitermachen will. Ggf. mit SMT.

Nighteye schrieb:
Ich Spiele halt kein Cyberpunk sondern nur SC. 1200h Dieses Jahr. Daher ist das für mich leider Relevant.
Für irgendwelche Geschäftssoftware kaufst du dann wiederum ausschließlich Intel, weil diese für AMD gar nicht zertifiziert ist und du auf AMD-Kisten keinen Support vom Hersteller bekommst.
 
xexex schrieb:
Ich formuliere es Mal präziser: 3 Leistungsstufen gibt es von Intel bis heute nicht zu kaufen.Nächstes Jahr wie ich die Gerüchte und Ankündigung verstehe.

Wie ich gerade lese Ist der gehypte Intel Thread Director bereits in Linux seit Kernel 5.18 und Windows 11 integriert. Dann kann es ja losgehen.
 
Nighteye schrieb:
Ich kenne so viele die mit Raptor Lake Zocken, und keinen der mit Arrow Lake Zockt.
Mal wieder so witzig, dass du mit deiner selektiven Beta Software und 2-3 Jahre alten Videos ankommst und das mittlerweile zum 20ten oder 30ten mal, obwohl es gar nicht mehr aktuell ist..
Tharan schrieb:
Das Problem ist aktuell noch real
Nein, das ist schon länger kein Problem mehr, außer in seltenen Ausnahmefällen, sie CB/PCGH Parcours.
 
Zuletzt bearbeitet:
BrollyLSSJ schrieb:
Das kommt aufs Spiel an. Und ich meine es muss auch bei jedem GPU Treiber Update neu kompiliert werden
Macht aber jetzt dennoch das Kraut nicht fett. Es gibt nicht jeden Tag Treiber updates.

Also ja da nehm ich die paar Sekunden vielleicht ne Minute lieber in kauf und hab dafür oft bessere 1% und 0,1% Lows.
 
Nighteye schrieb:
Du vergleichst Intels Aktuell schnellste Gaming CPU (Raptor Lake) mit einem Knapp 9 Jahre altem Zen 1
Ich vergleiche Intels aktuellen CPU Stand mit AMDs aktuellen CPU Stand, du redest die ganze Zeit von einem System was Intel vor Jahren mit Startschwierigkeiten eingeführt hat, die bei aktuellen CPUs keine mehr sind! Nimm mal deine Brille ab, dann können wir gerne weiter reden.

Intel hat seit Alder Lake den kompletten Thread Director mehrfach umgebaut, den E-Kernen mehr Leistung spendiert, HT weggelassen und den kompletten Aufbau der CPUs umgestaltet, du hackst hingegen auf Problemen einer alten CPU herum, in einem einzigen Spiel, was scheinbar nie fertig wird.

Ich habe das Bild erst vor zwei Seiten gepostet, aber weil deine Brille es scheinbar weggefiltert hatte, hier nochmal extra für dich. Wir sind nicht mehr bei Alder/Raptor Lake, da bist scheinbar nur du mit deinem Kopf.
1766330157935.png
 
Zuletzt bearbeitet:
stefan92x schrieb:
Was wir wann für Consumer (also als CUDIMM) sehen werden, kann ich weniger gut einschätzen.
@ETI1120 meinte
ETI1120 schrieb:
AMD hat sich ein bisschen Zeit gelassen. Venice wird MRDIMM-12800 unterstützen. Nach allem was bekannt ist wird der Desktop Zen 6 CUDIMM unterstützen...
Es wurde beim Desktop CUDIMM
und beim Server MRDIMM dazwischen geschoben. Beides verspricht eine höhere Bandbreite. Das nimmt erst Mal den Druck DDR6 fertig zu machen.

Was ich aber nicht ganz verstehe, wieso man noch nicht 100% weiß, ob nun Zen 7 für AM5 oder AM6 erscheint.
ChatGPT sagt:
CPU-GenerationErwarteter ReleaseVermuteter Sockel
Zen 6Spätes 2026 / 2027AM5 (bestätigt in mehreren Berichten) (igor´sLAB)
Zen 7~2028AM6 → immer wahrscheinlicher, aber nicht endgültig bestätigt (PCGamesN)
AM6 dann ohne DDR6? DDR6 soll doch erst frühestens 2029 erscheinen?
 
Finds seltsam wie hier alle meinen dass Intel erstens damit an die Gaming Krone zurück kommt und zweitens dass es weniger Strom ziehn wird. Jetzt hat das Ding auch noch 3 unterschiedliche Kernarten... Big little war ein absoluter Irrweg allein aus Verzweiflung. Ich bleib dabei, dass das Ding nichts groß reißen wird. Und die immer noch Intel Käufer halten als Versuchskaninchen her.
 
nazgul77 schrieb:
Ich formuliere es Mal präziser: 3 Leistungsstufen gibt es von Intel bis heute nicht zu kaufen.
Weiterhin falsch! Desktops sind prozentual gesehen nur noch ein Nebengeschäft, die drei Leistungsstufen sind bei Intel seit mehreren Jahren in Notebooks zu kaufen.
 
Quidproquo77 schrieb:
Nein, das ist schon länger kein Problem mehr, außer in seltenen Ausnahmefällen, sie CB/PCGH Parcours.
Es tut mir Leid, aber ich habe den Test zum Start und den letzten durchgeschaut, wo 285K und 265K zu sehen sind. Im letzten haben sie etwas im Leistungsranking aufgeholt, aber da sind mit Avowed und Spider-Man 2 nun auch zwei Spiele mehr dabei, die allgemein Intel besser liegen. Das alleine auf das Scheduling zu schieben bitte ich mir genauer zu erklären. Vielleicht bin ich ja blind.
 
nazgul77 schrieb:
Ich formuliere es Mal präziser: 3 Leistungsstufen gibt es von Intel bis heute nicht zu kaufen
LPE-Cores gibt's seit Meteor Lake.
Ergänzung ()

Tharan schrieb:
Egal ob Raptor-Lake oder Arrow-Lake: Das Problem ist aktuell noch real und die Aussage von @xexex habe ich mit 15 Minuten googlen nach neueren Benchmark-Ergebnissen nicht bestätigen können.
In allen Tests die ich gesehen habe gibt's maximal einen Fall, wo es Probleme macht. Welche Spiele machen denn noch groß Probleme?
 
Zurück
Oben