News LPCAMM als SO-DIMM-Nachfolger: LPDDR-basierte Module für Notebooks, Desktops und Server

Deinorius schrieb:
Wäre auch sehr interessant, ob man eine APU mit zwei solcher Module die Speicheranbindung auf 256-bit zu verdoppeln.
Man kann sich viel vorstellen. Aber ich bin skeptisch.

Das wird ein teurer Spaß, neuer Sockel mit mehr Pins und mehr Lanes auf dem Mainboard.

Deinorius schrieb:
In der Hinsicht muss ich gerade an Strix Halo denken. Ob dieser vielleicht mit LPCAMM entwickelt wird? Immerhin muss man sich fragen, wie der VRAM an diese 40 CU der iGPU angebunden werden soll, HBM sicher nicht.
Ich habe meine Zweifel, ob so etwas tatsächlich für Standard PCs geplant ist.

Es gibt nämlich enge Grenzen wie so etwas in Notebooks funktionieren kann. Teurer wie eine vergleichbare Kombination aus CPU und dGPU darf es nicht werden.

Es hat eben seinen Grund, warum die Spielkonsolen für den Hauptspeicher GDDR verwenden und Apple den Hauptspeicher in das CPU-Package packt.
 
Piktogramm schrieb:
Halte ich halt für unambitioniert aus dem aktuell fehlendem Angebot zu folgern, dass man es in Zukunft auch sein lassen sollte.
Auf den Gedanken würde ich auch nie kommen.
Umgekehrt finde ich es einen wichtigen nächsten Schritt, dass AMD und Intel auch mal Konkurrenz zu M-Pro-SOCs und M-Max-SOCs anbieten. Aber zur Beurteilung einer Implementierung einer Variante, die gerade dafür gedacht ist, eine Alternative zur Umsetzung im M-SOC zu bieten, taugt das halt nicht.
 
  • Gefällt mir
Reaktionen: Piktogramm
CDLABSRadonP... schrieb:
Umgekehrt finde ich es einen wichtigen nächsten Schritt, dass AMD und Intel auch mal Konkurrenz zu M-Pro-SOCs und M-Max-SOCs anbieten.
Zu was?

Für Apple lohnt sich das ganze weil sie alles aus einer Hand machen. Apple packt die gesamte Komplexität in das SOC. Dadurch haben sie ein einfaches Systemdesign. Außerdem hat Apple eine folgsame Kundschaft.

Hinzu kommt: Konkurrenz für die SoC durch dGPUs gibt es im Apple-Biotop nicht.
CDLABSRadonP... schrieb:
Aber zur Beurteilung einer Implementierung einer Variante, die gerade dafür gedacht ist, eine Alternative zur Umsetzung im M-SOC zu bieten, taugt das halt nicht.
Das Problem einer breiten Speicheranbindung auf dem Mainboard sind IMO die Kosten.

Apple hat den gesamten Speicher im CPU-Package. Da die IC auf einem Fanout sitzen, fällt das Verlegen der Leiterbahnen erheblich einfacher als auf der Leiterplatte. Das bringt zudem eine bessere Signalqualität und verringert den Stromverbrauch.

Das Problem für AMD und Intel hier nachzuziehen ist, dass sie keine kompletten Systeme verkaufen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Vielleicht sollte man auch generell nicht vergessen, dass die x86-ISA von Grund auf allein durch ihr Alter* nicht so effizient sein kann, wie das, was die Apfelianer von Null her aus dem Boden stampfen konnten. Notfalls gibts halt eine Übersetzungsschicht, bis genug Kram umgestellt ist. Die Jünger bleiben ja, selbst wenn sie meckern.

Bei Apple passt das Konzept mit Multicore, HUMA und IGP alles auf einem Träger gut zusammen. Dadurch ergeben sich die Performance- und Verbrauchs-Synergie-Effekte, die wir sehen.

Da kann in dieser Nische niemand mithalten. Aber die Welt ist dann doch größer. Highend-Grafik, Multi-GPU-Processing, größere NVMe-Arrays oder beliebige andere Hardware gehen aktuell nur - wenn überhaupt - in einer - i.d.R. sehr teuren - Lösungen von Apple. Oder eben jeder beliebig günstig selbst gewählten Lösung woanders.

Zumal die reine CPU-Leistung pro Watt am Ende gar nicht so weit weg von der Konkurrenz liegt. AMD hat in den letzten Jahren immer wieder gezeigt, dass die ULV-CPUs in einigen Szenarien ähnliche Leistung bringen können. Apple lebt hier von der Integration der Komponenten und der möglichen Flexibilität bei ISA und Zusammenstellung (sowie eben der Leidensfähigkeit der User, wenn ich mir die Berichte unserer Apple-Notebook-User im Großfirmen-Umfeld so ansehe. :D )

Regards, Bigfoot29

Nachtrag:
* Will sagen: Als die x86-ISA entwickelt wurde, waren aktuelle Wissensstände zu Energiesparmechanismen, effizenten Algorithmen oder die letzten 40 Jahre Entwicklung im Coding-Design nicht vorher zu sehen. Man entwickelte die Befehle im Kontext seiner Zeit. Auch wenn die Ausführung dieser Befehle immer wieder optimiert wurde und auch neue, effizientere Befehle und Methoden dazu kamen, so ist doch ein "Mem-Copy" in vielen Fällen noch nötig. Neuere Systeme können auf andere Konzepte wie HUMA zurückgreifen, bei dem dieser Befehl entfallen und die Grafik-Ausgabe die Daten auch so verwenden kann. Zeit und Energie gespart. Das ist auch nur EIN Beispiel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
Beispiel oben nachgereicht.

Mir gings auch nicht um den ewigen Streit x86 vs. irgendwas. Sondern schlicht darum, dass Apple nach Belieben Zöpfe abschneiden kann. Das Thema A20-Gate dürfte als weiteres Beispiel gern noch gelten, auch wenn Intel das nicht mehr unterstützt. (AMD schon.)

Regards, Bigfoot29
 
Bigfoot29 schrieb:
Mir gings auch nicht um den ewigen Streit x86 vs. irgendwas. Sondern schlicht darum, dass Apple nach Belieben Zöpfe abschneiden kann.
Die ISA-Debatte führt zu nichts. Ich verstehe nicht so recht was Du mit dem Zöpfe abschneiden willst. Bezogen auf die ISA ist nicht Apple dafür zuständig sondern Arm. Und in den Märkten bei denen ARM-CPUs verbreitet sind, fällt alte Zöpfe abschneiden eben leichter wie in den Märkten in denen X86 verbreitet ist.

Apple hat sich eigentlich immer durch gutes Hardware-Engineering ausgezeichnet. Sicher hatte Apple auch Klöpse drin, aber so planlos wie die PC OEMs oder PC Mainboardhersteller hat Apple nie agiert.

Bei den Macs mit Apple Silicon, darf man nicht nur die Prozessorkerne anschauen, sondern muss beachten was alles im SoC implementiert ist. Und wie das Verschieben der Komplexität in das SoC es ermöglicht das System um das SoC herum sehr einfach aufzubauen.

Apple ist den Weg der möglichst hohen Effizienz gegangen und der beinhaltet nun Mal den Hauptspeicher in das CPU Package zu verlagern und LPDDR5 zu verwenden. Ich denke HBM wäre noch effizienter gewesen aber HBM war für Apple zu teuer.

LPCAMM wird nicht so effizient sein, wie das LPDDR5 on package bei Apple, aber effizienter als SODIMM. Ich bin gespannt, ob es LPCAMM tatsächlich in die Desktops und Server schafft.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Deinorius
ETI1120 schrieb:
Ein Wermutstropfen ist, dass es AFAIU auf 4 Speicher-Bausteine begrenzt ist. Das hat 2 Auswirkungen
aktuell wurde nur das Format mit 4 Packages gezeigt. Das muss keine Begrenzung sein.
Bei LPDDRx hat man aber auch ganz andere (lockerere) Stacking Möglichkeiten gegenüber normalem DDRx.
Mittlerweile sind ja 4 oder 8 Dies pro Package kein Problem mehr.

Wenn du also auf Basis eines normalen 96GB 16-Chip Dual Rank UDIMMs rechnest, könntest du das mit 4-fach Stacking auch in einem 4-Chip CAMM realisieren.

In einem LPDDRx Package kannst du noch freier stacken (8-fach geht problemlos), allerdings weiß ich nicht wie sich das mit der CPU Anbindung verhält und ob es von dieser Seite Limitierungen gibt.
 
h00bi schrieb:
aktuell wurde nur das Format mit 4 Packages gezeigt.
Das mit dem Wermuts-Tropfen verstehe ich als Trade Off. LPCAMM wurde auf optimale Signalführung und Kompaktheit ausgelegt. Das Modul wurde quasi auf die LPDDR-Bausteine zugeschnitten. Das begrenzt die Kapazität.

Für die Notebooks und auch Desktops ist dies kein Problem. Hier ist eher der Einstieg mit 32 GByte ein Problem.

Für den Einsatzzweck bei Servern sein 128 GByte allerdings schon ein bisschen knapp.
h00bi schrieb:
Das muss keine Begrenzung sein.
Ich sehe als einzig sinnvolle Möglichkeit mehr als 4 LPDDR5-Bausteine unterzubringen den Bus zu verbreitern. Aber dann kommen wir schnell an den Punkt, an dem man besser 2 LPCAMM-Module verbaut.

Falls sich LPCAMM für High End Notebooks etabliert, könnte mir eher noch eine Variante mit 64 bit Bus und 2 LPDDR5 Bausteinen für Main Stream Notebooks vorstellen.

h00bi schrieb:
Bei LPDDRx hat man aber auch ganz andere (lockerere) Stacking Möglichkeiten gegenüber normalem DDRx.
Mittlerweile sind ja 4 oder 8 Dies pro Package kein Problem mehr.
Ich habe auf den Websites von Samsung und Micron keine LPDDR5 Bausteine mit mehr als 16 GByte gesehen. Alles mit höherer Kapazität ist nur angekündigt.
 
Samsung hat zumindest 144Gbit = 18GB auf der Website als "mass production"
https://semiconductor.samsung.com/dram/lpddr/lpddr5/k3lkdkd0cm-bgcp/
Aber grundsätzlich ist deine Aussage richtig, aktuell landet LPDDRx ja hauptsächlich in ultramobilen Geräten, da wird dann i.d.R. nur 1 Baustein verlötet.
Wenn es zukünftig einen entsprechenden Use Case gibt kann sich das ja ändern, eben weil höhere Packdichten bereits möglich wären.
 
ETI1120 schrieb:
Das wird ein teurer Spaß, neuer Sockel mit mehr Pins und mehr Lanes auf dem Mainboard.
Definitiv. Und bis jetzt ist Strix Halo ja auch nur ein Gerücht.

ETI1120 schrieb:
Ich habe meine Zweifel, ob so etwas tatsächlich für Standard PCs geplant ist.
Hat jemand von Standard PCs geredet? Ich selber gehe immer nur von verlöteten Produkten aus. Wer sich so etwas kauft, wird wohl kaum auf regelmäßig Hardware Upgrades aus sein. In der Hinsicht kann man sich auch fragen, ob dann der RAM nicht sogar auf das package kommt, wenn es nicht zu teuer ist, aber dann natürlich nicht mehr aufrüstbar. Könnte für eine gewisse Kundschaft genügend sein.

ETI1120 schrieb:
Teurer wie eine vergleichbare Kombination aus CPU und dGPU darf es nicht werden.
Das müsste dann eine kurzsichtig geplante Hardware-Platform werden, wenn es so käme.

ETI1120 schrieb:
Ich bin gespannt, ob es LPCAMM tatsächlich in die Desktops und Server schafft.
Ist wirklich auch von Desktops die Rede gewesen? Welchen Vorteil haben wir dort überhaupt?

ETI1120 schrieb:
Hier ist eher der Einstieg mit 32 GByte ein Problem.
Echt? Das muss ich überlesen haben. Ein Minimum von 16 GB wäre grandios, damit Laptops mit nur 8 GB endlich aussterben, auch wenn ich selber damit mit meinem Thinkpad auskommen würde, es hat Grenzen.
Aber ein Minimum von 32 GB würde die Durchsetzung erschweren, denn 32 GB sind lange kein Standard in Laptops.
 
Deinorius schrieb:
Hat jemand von Standard PCs geredet?
Mit Standard-PC meine ich ein Produkt dass in PCs landet ob über OEMs oder DIY.
Deinorius schrieb:
Ist wirklich auch von Desktops die Rede gewesen?
Ja schon beim text den Samsung verbereitet hat.
https://news.samsung.com/global/sam...rst-lpcamm-ushers-in-future-of-memory-modules
Deinorius schrieb:
Welchen Vorteil haben wir dort überhaupt?
In einem Towergehäuse mit ATX-Board braucht man es eigentlich nicht.
Aber für Mini ITX und kleinere Formate ist LPCAMM eine feine Sache.
Deinorius schrieb:
Echt? Das muss ich überlesen haben.
Das stand so im Artikel und kommt von anatech, denen Samsung weitere Auskünfte inklusive Bilder zugeschickt hat.

Im originalen Text von Samsung stand nichts drin.
Deinorius schrieb:
Ein Minimum von 16 GB wäre grandios, damit Laptops mit nur 8 GB endlich aussterben, auch wenn ich selber damit mit meinem Thinkpad auskommen würde, es hat Grenzen.
Was ist Dein Problem wenn Notebooks mit 8 GByte angeboten werden? Du musst sie ja nicht kaufen.
Deinorius schrieb:
Aber ein Minimum von 32 GB würde die Durchsetzung erschweren, denn 32 GB sind lange kein Standard in Laptops.
Ich kann mir auch nicht so recht erklären wo die Auflistung mit 32, 64 und 128 GByte herkommt. Von den verfügbaren Bausteinen her sollten viel mehr Größen möglich sein.
 
ETI1120 schrieb:
Aber für Mini ITX und kleinere Formate ist LPCAMM eine feine Sache.
Für normale Desktops sehe ich den Vorteil nicht und ich habe dann eher an Kompakt-PCs der NUC Klasse oder leicht größer gedacht, aber mini-ITX ist wirklich ein gutes Beispiel dafür. Die Ersparnis ist immens!

ETI1120 schrieb:
Das stand so im Artikel und kommt von anatech, denen Samsung weitere Auskünfte inklusive Bilder zugeschickt hat.
Als ich das gelesen habe, war meine erste Deutung, dass das nur die erstmalige Planung ist und erweitert wird, da 16 GB einfach noch eine zu starke Verbreitung haben. Hier stellt sich die Frage, in welchen Produktkategorien von Laptops Samsung hier plant. Möglicherweise fantasieren sie auch so weit, dass sie 16 GB für uninteressant halten...

ETI1120 schrieb:
Was ist Dein Problem wenn Notebooks mit 8 GByte angeboten werden? Du musst sie ja nicht kaufen.
Ich muss zugeben, dass ich da primär an CAMM/LPCAMM gedacht habe. Es wird ja weiterhin Laptops mit verlötetem RAM geben und dort wird man weiterhin 8 und 16 GB vorfinden.
Aber ich habe dennoch ein Problem mit heutigen 8 GB Laptop Modellen. Sofern es sich um SO-DIMM Varianten handelt, ist das nicht schlimm, dann braucht man nur 1x 8GB dazu kaufen und fertig. In meinem ThinkPad T490 sind 8 GB verlötet, aber auf 16-24 GB aufrüstbar (oder auch 40GB...). Sind irgendwan 8 GB zu wenig, kann man aufrüsten und muss nichts entsorgen.

Laptops sind für mich Geräte, die locker 10 Jahre genutzt werden können, heutzutage erst recht. Die Leistung reicht,Massenspeicher kann getauscht werden und Akkus im Grunde auch oder sind weniger wichtig. Bei verlötetem RAM sieht es anders aus. Man ist darauf angewiesen, dass dieser reicht oder die Nutzung muss herabgesetzt bzw. verkauft werden.
Ein ab grob 2020 gekaufter Laptop wird leistungstechnisch auch in 10 Jahren noch nutzbar sein, aber bei den 8 GB RAM bin ich sehr skeptisch. LPCAMM mildert diesen Umstand, aber selbst wenn es 8 GB Module geben würde, gefällt mir nicht, dass dieses Modul nach einer Aufrüstung praktisch nur noch Elektromüll wäre, außer als Ersatz für ein anderes defektes (und auch dann könnte sich der Besitzer dieses Moduls gleich für ein größeres entscheiden).

Zuammengefasst geht es mir um die Reduzierung von Elektromüll und Lebensverlängerung von elektronischen Geräten.
 
Deinorius schrieb:
Aber ich habe dennoch ein Problem mit heutigen 8 GB Laptop Modellen. Sofern es sich um SO-DIMM Varianten handelt, ist das nicht schlimm, dann braucht man nur 1x 8GB dazu kaufen und fertig. In meinem ThinkPad T490 sind 8 GB verlötet, aber auf 16-24 GB aufrüstbar (oder auch 40GB...). Sind irgendwan 8 GB zu wenig, kann man aufrüsten und muss nichts entsorgen.
Ich habe 1998 meinen ersten PC gekauft, hier hatte ich zu wenig Speicher drin. Bei allen folgenden Kisten habe ich von Anfang an viel RAM in den Kisten. Aktuell sind es 32 GByte. Aber ich verstehe es wenn Leute eine billige Kiste haben wollen, denn für ein bisschen browsen, eMail schreiben und Office (es muss ja nicht MS Office sein) sollten 8 GByte genügen.

Ich gehe davon aus dass Windows 11 für ausreichend Elektroschrott sorgt. Und Microsoft wird sich in ein paar Jahren sicher wieder einen Gefallen für die OEMs machen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Zurück
Oben