News Intel Nova Lake: Ein Quartett mit großem Cache als Core Ultra 400K erwartet

Matthiazy schrieb:
@ETI1120 und @stefan92x Vielen Dank für eure Beiträge. Das heißt wenn Zen 6 und Nova Lake erscheinen wird es dementsprechend neue Mainboards geben die MRDIMM und CUDIMM unterstützen
Intel unterstützt es jetzt schon, Ergebnisse mit und ohne CUDIMM findest du ja bereits hier bei CB in den Tests.

Bei AMD wird das mit Zen 6 dann auch kommen, man wird sehen, wie viel das für Consumer wirklich bringt...

MRDIMM im Server ist unverzichtbar, aber die dafür typischen Anwendungen skalieren halt auch ganz anders.
 
  • Gefällt mir
Reaktionen: ETI1120
fox40phil schrieb:
Ich wünsche mir schon ewig, das dynamisch Kerne ausgeschaltet werden können…. Passiert aber nichts!

Passiert staendig: Jedesmal, wenn ein Kern nicht gebraucht wird, wird er vom Betriebssystem in einen Sleep State versetzt, also im Prinzip ausgeschaltet.

Du kannst unter Linux Kerne auch abschalten (ob das unter Windows auch geht, weiss ich nicht). Auf meinem Ryzen 8700G sagt lscpu z.B.:

Code:
CPU(s):                   16
  On-line CPU(s) list:    0-7
  Off-line CPU(s) list:   8-15
[...]
  Model name:             AMD Ryzen 7 8700G w/ Radeon 780M Graphics

Linux zaehlt die SMT-Threads als "CPU(s)", und ich lasse auf jedem Kern nur einen Thread laufen. Ich koennte noch mehr CPUs offline setzen, oder auch wieder online. Ist dynamischer als das im BIOS zu machen, aber weniger dynamisch als das, was das Betriebssystem mit Kernen macht, die online sind. Allerdings bleibt Kern 0 immer online:

Code:
# for i in /sys/devices/system/cpu/cpu*/online; do echo 0 >$i; done
# lscpu
[...]
CPU(s):                   16
  On-line CPU(s) list:    0
  Off-line CPU(s) list:   1-15

Beim Surfen mögen bitte nur diese kleinen Kerne laufen 🤩! Und nur so 5W (+-) verbrauchen ^^ das wäre irre!

Bei mir brauchen die Kerne beim Surfen kaum was (da ist ja keine Last auf der CPU). Ich erwarte, dass Intel auf Desktop-Prozessoren bei der geringsten Last die P-Cores anheizt; es gibt zuwenige, denen auf dem Desktop der Verbrauch wichtig ist, und zuviele, die dann wegen der submaximalen Leistung jammern wuerden. Bei Laptop-Prozessoren ist es anders, da werden die LPE-Kerne wohl bevorzugt, solange die Last gering ist.

Unter Linux kannst Du vielleicht die P- und E-Kerne alle offline schalten, um Dein gewuenschtes Verhalten zu haben, aber nur, wenn Kern 0 ein LPE-Kern ist.
 
  • Gefällt mir
Reaktionen: fox40phil
Matthiazy schrieb:
@stefan92x Und wann erscheinen die entsprechenden RAM-Riegel mit der Datenrate 12800?
Ich bin mir sicher, dass wir MRDIMM damit sehen werden, sobald sie CPU-seitig unterstützt werden. Das dürfte im Sommer mit Venice (Zen 6 Epyc) der Fall sein.

Was wir wann für Consumer (also als CUDIMM) sehen werden, kann ich weniger gut einschätzen.
 
Nighteye schrieb:
Bei Star Citizen haben Intel CPU,s immernoch Probleme P und E Cores zu erkennen
Du verlinkst Videos zu einem Spiel in einer Dauerbeta oder Alpha, je nach Sichtweise und einer vier Jahre alten CPU. Wir reden über aktuellen Stand mit Arrow/Nova Lake, einem völlig veränderten Scheduling ohne HT und viel leistungsfähigeren E-Kernen.
1766310785037.png


Nighteye schrieb:
Aber mit AMD CPU,s hat man eben nicht solche Probleme in einer "Alpha".
Mit AMD hat man ganz andere Probleme sobald ein Spiel nicht auf einem Die liegt, erst recht wenn der Cache nur einen davon abdeckt. Die "radikale" Lösung bei AMD sieht so aus:
Parallel zum Marktstart wurde der Test um Gaming-Benchmarks des Ryzen 9 9950X3D mit aktiviertem „Turbo Game Mode“ ergänzt. Wird dieser im BIOS oder über Ryzen Master aktiviert, werden auf dem Ryzen 9 das Chiplet ohne X3D-Cache und Simultaneous Multi-Threading deaktiviert. Der Ryzen 9 9950X3D wird so quasi zu einem Ryzen 7 9800X3D ohne SMT mit nochmals etwas höherem Takt
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-9-9950x3d-test.91531/

Erzähle uns also nichts von, "bei AMD hat man solche Probleme nicht", da hat man noch ganz andere.

Nighteye schrieb:
Klar kann man jetzt mit Fanboy Argumenten ankommen und sagen, "SC ist eine Alpha, kein fertiges Spiel".
Man muss schon ein SC "Fanboy" sein um es anders auszulegen. Fertige Spiele wie CP2077, haben für solche Spielereien sogar einen Menüpunkt im Spiel integriert oder sind schlichtweg auf die Unterstützung moderner CPUs ausgelegt und übergeben dem System die eigenen Präferenzen, was bevorzugt auf leistungsfähigeren Kernen ausgeführt werden soll und was auf langsamere Kerne darf.
Added a Hybrid CPU Utilization setting, which can be found under Gameplay → Performance. It can be set either to "Auto" (lets the operating system automatically decide how to distribute threads among the cores) or "Prioritize P-Cores" (prioritizes performance cores). It is set to "Auto" by default.
https://www.cyberpunk.net/en/news/49831/patch-2-11
 
Zuletzt bearbeitet:
stefan92x schrieb:
Nicht künstlich. Statt DDR6 als Standard zu definieren, wurden eben MRDIMM und CUDIMM spezifiziert. Das bedeutet, dass der JEDEC-Standard von 6400 auf 12800 verdoppelt wurde, ohne einen neuen DDR-Typ spezifizieren zu müssen.

Bei CUDIMM ist derzeit bei 6400MT/s Schluss.

Bei MRDIMM werden jeweils doppelt soviele RAM-Chips angesprochen, die dann abwechselnd liefern. Da jeder RAM-Chip einen Burst mit 16 Ergebnissen produziert, und die Kanaele bei DDR5 32-bit breit sind, ergeben zwei solche Bursts gleichzeitig ein Ergebnis von 128 Bytes. Das ist fuer HPC (Supercomputer) sinnvoll (der Fujitsu A64FX hat cache lines von 256 Bytes), aber fuer viele andere Anwendungen nicht, weswegen wir seit Jahrzehnten bei cache lines von 64 bytes sind. MRDIMMs sind also fuer die meisten Zwecke nicht sinnvoll.

Andererseits, abgesehen von HPC braucht die meiste Software auch nicht so viel Speicherbandbreite, also ist DDR5 noch lange gut genug.
 
Zuletzt bearbeitet:
Hat ja lange gedauert bis Intel kapiert hat was der X3D Cache bringt. Aber gleich 52 Kerne?
 
Würde mich freuen, wenn Intel mal wieder etwas auf der "Überholspur" fahren kann :smokin:
Ich will wieder ein klassisches "Wettrennen" zwischen Intel und AMD - wie in früheren Zeiten :D
 
  • Gefällt mir
Reaktionen: metoer und GOOFY71
Ich habe mich am Anfang schon einmal dazu geäußert, aber für mich ist es wichtig, dass Nova Lake und Zen6 auf einem ähnlichen Niveau miteinander konkurrieren. Das ist am Ende sehr gut für die Preisgestaltung bzw. den Endverbraucher, denn weder Intel noch AMD sind Wohlfahrtsvereine. Gut finde ich nebenbei, dass wir wieder in einer Art von Umbruch sind, wo man die Kernanzahl massiv erhöhen wird. Ich freue mich jetzt schon auf 2027/ 28, wo ich aller Voraussicht nach meine CPU Leistung nahezu verdoppeln kann, da ich stark parallelisiert arbeite und dabei viel Zeit sparen kann.
Wichtig finde ich auch, dass Intel im Gaming zu den X3D CPUs von AMD aufschließt, dann sind extra titulierte Gaming CPUs endlich Geschichte. Die Preise für diese Prozessoren sind meiner Meinung nach einfach ungerechtfertigt hoch. Aber wie bereits erwähnt, auch AMD ist kein Wohlfahrtsunternehmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm und Quidproquo77
Daumen sind immer gedrückt für das Comeback des jeweiligen Underdogs welcher hier derzeit Intel ist.
 
  • Gefällt mir
Reaktionen: GOOFY71
HerrRossi schrieb:
Der Krieg der Kerne geht weiter, die Chipfläche für SMT mit E-Cores zu füllen scheint der richtige Weg zu sein
So richtig, dass Intel das Konzept wohl bald wieder aufgeben wird. So zumindest die Gerüchteküche.
 
GTrash81 schrieb:
Nö.
Es gibt Spiele bzw. deren Grafikengine von mehr Kernen profitiert.
TenDance schrieb:
Puh, die Meinung gab es vor 20 Jahren bei den Dualcores [...] irgendwie wird es nie alt am althergebrachten hängen zu bleiben, oder?
E1M1:Hangar schrieb:
Also von reinem Singlecore kann man schon seit Jahren nicht sprechen.
Versteht mich nicht falsch, ich bin dafür mehr Kerne zu nutzen. Gefühlt lese ich nur viel zu häufig davon, dass es wenig bringt. Freut mich wenn dem nicht so ist.
Dieses Mal ist es halt ein sehr großer "Sprung".
Inzwischen bin ich auch bei 8 Kernen mit NVMe SSDs und WQHD :daumen:
lex30 schrieb:
Hehe. Nice. Bin gespannt was dann in meinen neuen Rechner kommt. 2027 wirds Zeit zum aufrüsten.
Wird spannend was so kommt ich plane mal auf Sommer 2028.
 
0x8100 schrieb:
gibt es schon lange im mobilbereich, wird also mit linux funktionieren.
Android ist nicht Linux. Da ist schon ein Unterschied dazwischen.

Vor Allem was die einzelnen Geräte- und OS-Hersteller noch an Treiber und Firmware rumfrickeln darf man nicht unterschätzen.
Ergänzung ()

fox40phil schrieb:
Ich wünsche mir schon ewig, das dynamisch Kerne ausgeschaltet werden können…. Passiert aber nichts!
Du musst endlich mal auf Windows 98SE umsteigen und die neue AMD K8 Generation benutzen! Einfach den Cool n' Quiet Prozessortreiber installieren, und schon wird der Prozessor runtergetaktet.

Und mit zwei Kernen wird der zweite sogar schon schlafen gelegt! Das ist Zauberei!
 
Zuletzt bearbeitet:
xexex schrieb:
Mit AMD hat man ganz andere Probleme sobald ein Spiel nicht auf einem Die liegt

Fertige Spiele wie CP2077, haben für solche Spielereien sogar einen Menüpunkt im Spiel integriert oder sind schlichtweg auf die Unterstützung moderner CPUs ausgelegt und übergeben dem System die eigenen Präferenzen, was bevorzugt auf leistungsfähigeren Kernen ausgeführt werden soll und was auf langsamere Kerne darf.
1. Mit Single CCD wie es die meisten Spieler haben, muss man sich keine Gedanken machen.
2. Kenne ich viele die mit einem Dual CCD Ryzen SC Spielen, und nichts eingestellt haben, und die haben nicht diese Immensen FPS verluste wie beim Raptor lake wo man die hälfte der FPS verliert.
Hier hat ein SC Tester zb mal den non X3D CCD deaktiviert.
Die FPS waren im vergleich zu den heftigen Unterschieden bei Intel, nur wenig anders.
1766316221316.png

3. Das was die Entwickler von Cyberpunk Speziell für die neuen Intel CPU,s gemacht haben ist toll und klasse und verdient Lob für die Entwickler. Nur leider ist das nicht bei jedem Spiel der Fall.
Ich Spiele halt kein Cyberpunk sondern nur SC. 1200h Dieses Jahr. Daher ist das für mich leider Relevant.
 
@Gullveig und ist das ein grundsätzliches problem? nein. ausserdem können die scheduler auch im upstream-kernel längst mit unterschiedlichen kernen umgehen.
 
Nighteye schrieb:
die haben nicht diese Immensen FPS verluste wie beim Raptor lake wo man die hälfte der FPS verliert.
Nochmal zur Erinnerung:
xexex schrieb:
Was das Scheduling angeht hat Intel von Beginn an viel Aufwand betrieben und die Kinderkrankheiten aus der Vergangenheit längst behoben.
Wen interessiert noch Raptor Lake, was mit "Thread Director 1.0" kam, wenn du es so nennen möchtest? Zumal der Test mit einer einzigen Betasoftware gar keine Aussagekraft besitzt.
 
  • Gefällt mir
Reaktionen: Quidproquo77
xexex schrieb:
Wen interessiert noch Raptor Lake
Raptor Lake User ? (Von denen es wohl mehr gibt als Arrow Lake User)
Ich kenne so viele die mit Raptor Lake Zocken, und keinen der mit Arrow Lake Zockt.
 
Nighteye schrieb:
Raptor Lake User ?
Du kapierst es scheinbar noch immer nicht! Wir reden über eine zukünftige CPU und nicht um die Probleme die Alder Lake/Raptor Lake beim Launch vor vier Jahren hatte. Möchtest du dich sonst noch über die Probleme der Zen1 Generation austauschen, weil es bestimmt noch Leute gibt die sowas nutzen?

Der Thread Director hat mit jeder CPU Generation Anpassungen erhalten, genauso wie AMD mit jeder Gen versucht hat ihre Probleme in der Griff zu bekommen. Stand jetzt ist das Problem mehrerer Dies bei AMD aber nicht behoben, die Lösung ist alle Kerne von einem zweiten Chiplet zu deaktivieren, bei Intel sieht es hingegen ganz anders aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Innocience, Quidproquo77 und bensen
Geil! Perfekter Kandidat um meinen 5800X auszuwechseln! :)

Und für Shaders Kompilieren beim Spielstart kann man nie genug Kerne haben.
 
Zurück
Oben