LPDDR5X-10666 in 32-GB-Chips: Samsungs Speicher für Next-Gen-SoCs, Smartphones und AI

Volker Rißka
19 Kommentare
LPDDR5X-10666 in 32-GB-Chips: Samsungs Speicher für Next-Gen-SoCs, Smartphones und AI
Bild: Samsung

Der schnellste LPDDR5X kommt wieder von Samsung, und größer wird er auch: 32 GByte LPDDR5X-10666 sind das neue Aushängeschild des Herstellers. Das eignet sich nicht nur für kommende Smartphones und AI-Lösungen, sondern auch als MoP (Memory on Package) für den Nachfolger von Intel Lunar Lake und kommende SoCs.

Das Marketing von Samsung schwingt die große Keule, rundet auf „LPDDR5X-10700“ auf und vergisst die Konkurrenz – das ist ohnehin aber auch bei anderen gerade Mode. Samsung erklärt, dass der neue Speicher 25 Prozent schneller sei als bisheriger LPDDR5X, aber die Ausgangsbasis dafür ist LPDDR5X-8533. Zwischenzeitlich wurde durch SK Hynix und Micron aber längst LPDDR5X-9600 aufgelegt, nur bei Samsung nicht. Ergo kann der Hersteller heute behaupten, 25 Prozent schneller zu sein – aber eben nur im eigenen Haus.

Auch beim Thema Kapazität geht Samsung nach vorn. Das Unternehmen behauptet, 30 Prozent mehr als zuvor zu bieten, gleichzeitig aber auch 32 GByte pro Chip anzubieten. Wie das umgesetzt wird, erklärt Samsung allerdings nicht. Hier könnte endlich der finale Sprung auf echte 32-Gbit-Dies (4 GByte) erfolgen, den hatte Samsung im September des letzten Jahres angekündigt. Da auch heute von der 12-nm-Fertigung gesprochen wird, die seinerzeit ebenfalls erwähnt wurde, scheint dies die wahrscheinlichste Umsetzung zu sein. Damit würden über den klassischen 8-fach-Stapel, der in modernen DRAM-Chips genutzt wird, 32 GByte in einem DRAM-Package möglich.

Wie üblich vergeht bei Samsung zwischen Ankündigung und Erscheinen noch einige Zeit. Erst im zweiten Halbjahr soll die Produktion von LPDDR5X-10666 hochgefahren werden, dürfte realistisch also eher für Produkte des Jahres 2025 sein. Dann aber nicht nur für Smartphones, sondern dank der hohen Geschwindigkeit und Bandbreite potenziell auch für viele andere Chips, sei es im Notebook oder für AI-Lösungen, wie Grace Blackwell von Nvidia, der aktuell auf noch eher langsamen LPDDR5X setzt – ein Nachfolger von Grace könnte hier deutlich weiter gehen. Hersteller wie Nvidia und Qualcomm hatten zuletzt mehrfach betont, dass sich LPDDR5X in solchen Lösungen auch gut für Künstliche Intelligenz eigne, da diese Bandbreite benötige, aber nicht zu viel Energie fressen soll.