Test DDR5 vs. DDR5-CUDIMM im Test: Der neue schnellere RAM für Intel (und bald auch AMD)

ETI1120 schrieb:
Aktuell haben die X86 CPU eine dreistufiges Cache Hierarchie. Auf den Hauptspeicher muss nur dann zugegriffen werden, wenn die Speicherstelle momentan nicht im Cache liegt.
Bei Lion Cove sind es vier.

@Volker
Kann man bei nicht das Boost Setzung auswählen und die Speicherlaternen manuell einstellen? Das wäre ja die interessante Variante gewesen.
 
xexex schrieb:
Die Steigerungen der Speichergeschwindigkeit, die sich von Generation zu Generation eher im einstelligen Prozentbereich bewegen, können das nicht kompensieren.
Also mit DDR4 3200 steht bei AIDA64 ca. 35GB/s aufm Tacho.
Bei Ryzen 5000 in Richtung 3800 weiß ich ja selbst, dass etwa 55GB/s möglich sind.
Hier im Test erreicht Arrowlake mit DDR5 80-125GB/s, wie kommst du da auf einstellige Prozente?

1750331386496.png
 
  • Gefällt mir
Reaktionen: LukS, MalWiederIch, Frader und 2 andere
DerRico schrieb:
Da das aber immer noch nicht reicht, kriegt der RAM jetzt auch noch einen Chip raufgepflastert, damit es noch teurer wird!

Der Chip dürfte deutlich günstiger sein, als die gesamte Plattform auf Quadchannel umzustellen. Zumal dann auch die Mehrkosten für mehr Speicherriegel dazukommen. Die typische Größe mit dem meisten Umsatz und daher recht guten Preisen pro GB sind 16GB pro Stick. Möchte man weiter darauf setzen, kommt man bei mindestens 64GB raus, was die meisten schlicht nicht benötigen. Bei weniger wird es es pro GB wieder teurer. Auch beim Formfaktor hat man mehr Probleme. Mehr als 2 Kanäle macht bei wenig Bauraum probleme. Notebook, ITX, Mini PC etc. Zwei Kanäle haben sich als ziemlich guter Mittelweg herausgestellt. Ich hatte in meinem Leben verschiedene Plattformen mit mehr als 2 Kanälen und das hat da schon wenig gebracht bei typischen Desktop PC Anwendungen.
 
DerRico schrieb:
Jetzt muss ich als eigentlich erklärter Nerd mal negativ reingrätschen:
Dann grätsche ich mal als studierter BWLer bei dir rein.
DerRico schrieb:
Es ist geradezu spektakulär dämlich extrem leistungsfähige CPUs wie einen 285er oder 9950er an einem dual-Channel Interface verhungern zu lassen
D.h. du würdest alleine für die Top-Desktop-CPU eine eigene Plattform entwicklen oder alternativ für alle weniger leistungsfähigen CPUs diese unnötig teuer machen?

DerRico schrieb:
und dann diesen Mangel auszugleichen mit brutalen RAM-Geschwindigkeiten, am Besten noch mit hohen Latenzen, die man dann bekämpfen muss mit noch mehr Durchsatz :freak:
Also der Test hier zeigt doch, dass extrem schneller RAM den theoretischen Vorteil in der Praxis kaum umsetzen kann. Nichts von den Ergebissen deutet MMn an, dass man mit einem Quadchannel signifikante Verbesserungen in Anwendungen erzielen könnte.
 
  • Gefällt mir
Reaktionen: bad_sign, NMA, uberLemu und 2 andere
Aerobraking schrieb:
Mal eine ganz doofe Frage. Warum bringt so viel schnellerer RAM nur "so wenig"? 8800Mhz vs 5600Mhz im Multicore Leistungsrating zum Beispiel macht nur 5% Unterschied.
Weil oft die Latenzen entscheidend sind und nicht die Bandbreite.
Und Latenzen sind bei DRAM schon immer schlecht und werden auch schlecht bleiben.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Ned Flanders, LamaMitHut und 3 andere
Ja, für OC-Spielkiddys interessant, diese zusätzlich die Handschraube manuell anziehen wollen, um das letzte Quäntchen an Performance herauszukitzeln, aber erforderlich ist so etwas im Allgemeinen keinesfalls.
 
  • Gefällt mir
Reaktionen: bad_sign und ruthi91
Shoryuken94 schrieb:
Wird interessant zu sehen, wie es sich bei AMD dann mit den x3D CPUs verhält
Kommt denke ich sehr auf den Anwendungsfall an. Für die meisten spiele eher uninteressant. für zukünftige APUs sehr interessant, für die großen Zen6 CPUs mit 24 Kernen könnte es ebenfalls sehr spannend werden (in Anwendungen). So viele Kerne wollen ja gefüttert werden.

Mit ordentlich Speichertakt könnte man ohne so aufwändige und teure Quadchannel configs wie bei Strix Halo GPU/KI Chips einigermaßen vernünftig versorgen.
Ergänzung ()

foofoobar schrieb:
Und Latenzen sind bei DRAM schon immer schlecht und werden auch schlecht bleiben
Aber CUDIMMs haben doch nicht per se miese Latenzen oder? Klang für mich so, als hätte das mehr was mit den eher konservativ konfigurierten derzeitigen Chips zu tun.

Zudem gleichen sich die nominalen Timings mit mehr Takt ja aus. Sie dürfen nur nicht überproportional ansteigen (wie bei den hier getesteten).
 
foofoobar schrieb:
Weil oft die Latenzen entscheidend sind und nicht die Bandbreite.
Und Latenzen sind bei DRAM schon immer schlecht und werden auch schlecht bleiben.
Pauschales Geblubber ohne Ahnung. RAM OC bringt bei Arrow Lake nur architekturbedingt so wenig weil der IMC nicht im Compute Tile sitzt. Vergleich mal Raptor Lake DDR5-5600 vs 8000+mit getweakten Subtimings, das sind Welten Unterschiede im CPU Limit.

Die Primärtimings (CL-tRCD-tRP-tRAS-tRC) haben zudem nur wenig Auswirkung auf die Leistung und Latenzen von DDR5. Mit Abstand am meisten bringt es neben der Transferrate die Subtimings anzuziehen.

Und "schlecht" ist relativ. DRAM bewegt sich im Nanosekunden-Bereich, das ist deutlich schneller als NAND auf SSDs. Aufgrund der Entfernung zur CPU wird DRAM bei den Latenzen auch nie mit internen Caches konkurrieren können. Gemessen an der Entfernung zur CPU sind die Latenzen von DRAM weit davon entfernt schlecht zu sein.
 
Zuletzt bearbeitet:
Ja, Speicherbenchmarks, ich werde sie nie verstehen.

Was ich mir denke, wenn ich die einzelnen Spielebenchmarks ansehe: Man kann es halt nicht verallgemeinern. Nicht selten ist 5600-CL26 vorne, mal 6400-CL36, mal 8800-CL42, ganz selten 8000-CL38. 6400CL52 ist fast immer Schluslicht, wer hätte das gedacht.

Wie bei AMD auch würden mich die Testergebnisse dazu verleiten, mal zu probieren, ob man nicht bei 5600 noch niedrigere Timings rauskitzeln kann oder eben bei 6000/6400 (6000 mit CL26 und 6400 mit CL30 gibt es ja schon zu kaufen). Leider versucht niemand, bei Taktraten unterhalb von 6000MHz niedrige Timings zu fahren.
Und am Ende reden wir von niedrigen einstelligen Differenzen, höhere einstellige nur zwischen der schnellsten und der langsamsten praktikablen Konfiguration. Die zweistelligen Differenzen bestehen eigentlich nur zur völlig unrealistischen JEDEC-Konfiguration.
Im Test fehlt mir leider auch die Angabe, welche Taktraten noch 1:1 gefahren werden, das macht ja auch viel aus.


Und dann zweifle ich immer noch die Alltagsrelevanz von Gaming-Benchmarks in 720p an. Mir ist völlig Wumpe, ob man den Unterschied in höheren Auflösungen nur nicht sieht, weil die Grafikkarte limitiert - wenn es mit der schnellsten erhältlichen Grafikkarte in 1080p ab einer bestimmten CPU-Geschwindigkeit keine messbaren Unterschiede mehr gibt, dann ist jede höhere Investition in die CPU statt in die Grafikkarte ein Fehler, gerade wenn ich mir in der Realität nur deutlich langsamere Grafikkarten kaufen möchte.

Der gleiche Vergleich mit einer 5070Ti zeigte wahrscheinlich, dass es egal ist, solange man mindestens 5600CL26 fährt.
 
Tigerfox schrieb:
Nicht selten ist 5600-CL26 vorne, mal 6400-CL36, mal 8800-CL42, ganz selten 8000-CL38. 6400CL52 ist fast immer Schluslicht, wer hätte das gedacht.

Ich habe ein Video angehängt, das aufzeigt, welche Bedeutung das Taktsignal mit seiner Latenz auf die Signallänge eines einzelnen Datenpaketes nimmt.
 
Crifty schrieb:
. Aber die Performance ist am Ende auch (noch) mit normalen ddr5 zu erreichen.
Beispiel: ddr5 32gb 6000er mit CL26
Jedec konform, Standard vs. OC, mit Überspannung, ohne jede Garantie
Was ist daran nicht zu verstehen?
 
  • Gefällt mir
Reaktionen: KarlsruheArgus
sloven schrieb:
Dass es hier noch Mitglieder gibt, die den Pentium a. kennen und b. noch als High Performance Plattform (wenn, dann aber mit Burst Pipeline Cache) kennengelernt haben, sorgt dafür, dass ich mich allzu alt fühle. Vielem Dank :)
Wer kennt sie nicht...256KB Cache/SRAM Modul zum nachrüsten der 486er ;)
 
  • Gefällt mir
Reaktionen: sloven
nöörd schrieb:
Der Test sagt vor allem aus, dass das Cache-Sytem von Intels Core Ultra 200 Serie absolut nicht für Spiele geeignet ist. Mehr dazu hier:
Das typische Intel Bashing darf natürlich nicht fehlen. Arrow Lake hat eine gute bis sehr gute Spieleleistung, mit entsprechendem günstigen U-DIMM Speicher für OC spielend auf X3D Stock Niveau und wie glaube ich jeder weiß, eignet sich X3D wesentlich schlechter für RAM OC.

Immer wieder amüsant bei Unterschieden in den Frametimes von 5-10% "eignet sich absolut nicht" zu lesen.
Aber so sind die Maßstäbe wenn AMD vorne ist. Ist Nvidia vor AMD gehts nur um P/L und eine etwaige Mehrleistung für Spiel XY braucht niemand. Bin schon gespannt wie sich gewindet wird, sollte Intel um ähnliche 5-15% wieder führend sein und ob es dann auch heißt "absolut nicht geeignet".
36.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, Frader und xexex
interessant wird das ganze erst wenn die cudimm's serienmäßig jenseits der 10000er marke zu einem akzeptablen preis verfügbar werden.
für 4-5% mehr performance werde ich keine 200-300€ mehrpreis auf speicher ausgeben - das geld ist dann wahrscheinlich besser in einer schnelleren cpu oder gpu angelegt...
 
  • Gefällt mir
Reaktionen: romeon, SweetOhm und stevefrogs
Für iGPUs könnten CUDIMMs mit ihrer hohen Bandbreite interessant sein. Ähnlich viel Bandbreite wie LPDDR5x RAM, aber nicht verlötet und damit ggf aufrüstbar bzw austauschbar. Preislich keine Ahnung, aber ich vermute das LPDDR5x Speicher auch deutlich teurer ist, als normaler DDR5 Speicher.
 
Quidproquo77 schrieb:
Das typische Intel Bashing darf natürlich nicht fehlen. Arrow Lake hat eine gute bis sehr gute Spieleleistung, mit entsprechendem U-DIMM Speicher für OC spielend auf X3D Stock Niveau und wie glaube ich jeder weiß, eignet sich X3D wesentlich schlechter für RAM OC.

Immer wieder amüsant bei Unterschieden in den Frametimes von 5-10% "eignet sich absolut nicht" zu lesen.

Auch wenn es heiß ist: Aluhut wieder abnehmen und es sachlich sehen: Die Core 200 Ultra nutzen einen moderneren Prozess für die Fertigung, verbrauchen deutlich mehr und sind in Spielen langsamer. Wenn das für dich Intel Bashing ist OK...

Das das Cache-System wegen viel zuhoher Latenzen durch die vielen Stops des Ringbuses sowie die für Spiele maximal ungünstige Anordnung von P-Kernen neben E-Kernen für die in Relation zur potenziellen Leistung (siehe Anwendungen) miserablen Leistung verantwortlich ist sollte sich bis ins letzte Dorf rumgesprochen haben.
 
  • Gefällt mir
Reaktionen: SweetOhm
nöörd schrieb:
Die Core 200 Ultra nutzen einen moderneren Prozess für die Fertigung, verbrauchen deutlich mehr und sind in Spielen langsamer. Wenn das für dich Intel Bashing ist OK...
Also der 285K verbraucht in Spielen mitunter wesentlich weniger als ein 9950X oder 9950X3D und wäre damit sogar effizienter, wie auch hier im Test festgestellt. Die Fertigung ist für deine Grundaussage "nicht geeignet" irrelevant.

Screenshot 2025-06-19 153023.jpg

nöörd schrieb:
Das das Cache-System wegen viel zuhoher Latenzen...
Warum sollen diese zu hoch sein für Spiele? Funktioniert doch bestens.
Klar, die X3D wie 9800X3D und oder 9950X3D sind etwas schneller, aber dafür auch deutlich teurer übertaktest du beide Systeme ist es ein Match bis auf wenige Prozent.
nöörd schrieb:
Aluhut wieder abnehmen und es sachlich sehen
Ja, den solltest du dringend abnehmen und deine Behauptung belegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Frader
xexex schrieb:
Statt vier DIMM Sockel die an zwei Speicherkanälen angebunden sind, gäbe es dann deren maximal zwei, pro Kanal also genau ein Speichersockel.
Ich hab eh nie verstanden, warum Mainstream 2DPC Boards sind. Es ist doch eher die Ausnahme das man darauf angewiesen wäre. Auf 1DPC Boards lässt sich doch für beinahe jeden standard usecase genug RAM unterbringen. Billiger sind die Boards in der Produktion auch.

Deswegen hab ich mir auch ein AsRock B650M HDV/M2 geholt.
 
Quidproquo77 schrieb:
Warum sollen diese zu hoch sein für Spiele? Funktioniert doch bestens.
Klar, die X3D wie 9800X3D und oder 9950X3D sind etwas schneller, aber dafür auch deutlich teurer übertaktest du beide Systeme ist es ein Match bis auf wenige Prozent.
Also hier geht es um Spiele. Deine Interpretation von bestens ist interessant. Genau genommen auf den Niveau von TSMC 7 (5800X3D), obwohl Intel TSMC 3 nutzt.
 

Anhänge

  • Screenshot_20250619_154211_Firefox.jpg
    Screenshot_20250619_154211_Firefox.jpg
    186,6 KB · Aufrufe: 117
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben