News Samsung CXL 2.0 Memory Expander: Die zweite Generation bietet erst einmal 128 statt 512 GByte

senf.dazu schrieb:
Komisch - bei Apple klagen die Leute über die Unmöglichkeit den Hauptspeicher zu erweitern. Jetzt stelle man sich mal vor das der MacPro (der sicher auch den Hauptspeicher im Prozessorgehäuse hat) künftig im Unterschied zum MacStudio ein paar CXL2.0 Slots hat. Sei es für Speicher. Sei es für Rechenbeschleuniger. Sei es für schnelle I/O wie 100..400 MBIt/s Netzwerk. "Langsame" I/O wie USB4 hat der M2-Ultra ja schon einige. Sei es für Kopplung mit weiteren MacPro's.
Der Ram ist auf das Board gelötet. Im Prozessor macht keinen Sinn, weil man dann nur einen Ram Ausbau anbieten könnte oder alternativ einen anderen Prozessor mit mehr/weniger Ram bräuchte. Das ist viel zu viel Logistik Aufwand.
Und der M2 kann genau 0 von den CXL Speichern anbieten, weil er 4 PCIe Lanes hat (für die SSD, und selbst das ist nicht mal sicher, weil Apple da ein Sonderformat verwendet). Statt SSD DRAM anbinden macht wenig Sinn, weil man dann die SSD per TB oder so anbinden müsste. Apple hat auf ein SOC gesetzt, in dem möglichst viel integriert ist, um sich die Peripherie zu sparen. Das hat dann halt den Nachteil, dass man auch keine externen Geräte via PCIe anbinden kann, weil das einfach nicht vorgesehen ist. Dafür spart man sich Chipfläche und holt sich einen Verbrauchsvorteil.
 
schmadde schrieb:
Ja. Es bedeutet 2x6 Module pro CPU, also 12.
Mit bis zu vier CPUs macht es 48 Module, also sowas.
1683924250316.png

https://www.fujitsu.com/de/products/computing/servers/primergy/rack/rx4770m5/index.html

schmadde schrieb:
Das ist ein schlechtes Beispiel, denn es betrifft Xeon SP 3.Gen, der 8 Speicherkanäle hat, aber nur 2 Sockel unterstützt.
Punkt! Bleiben 32 Slots und 8TB nur mit 256GB LRDIMMs oder 512GB Optane Modulen machbar.
1683924670893.png
 
Zuletzt bearbeitet:
xexex schrieb:
Mit bis zu vier CPUs macht es 48 Module, also sowas.
[IMG]https://www.computerbase.de/forum/attachments/1683924250316-png.1356805/[/IMG]
Ist wie immer nervig, da möchte man einen kleinen Eindruck davon bekommen, was sowas real kostet, und wie immer geben die auf ihren HP keine Preise an....
 
schmadde schrieb:
8 Sockel Systemen kauft man bei "Supermicro"? Das erstaunt mich, bei Firmen die sowas kaufen gehe ich davon aus, dass Rahmenverträge mit einem der ganz großen Hardware-Hersteller bestehen und nicht mit Bastelbuden. Unser Supplier hat keine 8 Sockel im Angebot :(
Also SuperMicro ist vieles, aber sicher keine Bastelbude... 😅
 
  • Gefällt mir
Reaktionen: MalWiederIch und medsommer
Da Sapphire Rapids und Genoa die ersten Plattformen sind die CXL 1.1 unterstützen, ist CXL erst am Anfang. Die Hersteller haben beschlossen zuerst den Fokus auf CXL Memory zu legen.

CXL hat eine breite Unterstützung in der Industrie was keine Garantie für den Erfolg ist, aber es leichter macht als ein Solo eines Herstellers.

GrumpyCat schrieb:
Puh. "Doppelte Latenz" von was im Vergleich zu was?
Zum DRAM im Hauptspeicher, doppelt ist ohne CXL-Switch. CXL-Switches erhöhen natürlich die Latenz

1683924328227.png

aus HotChip 34 : CXL Memory Challenges Prakash Chauhan, Meta & Mahesh Wagh, AMD, Folie 6

Bezogen auf 2 Sockelsysteme: Das Ziel ist es, dass die Latenz zu CXL besser oder zumindest gleich der Latenz ist zum Speicher am anderen Sockel ist.

Ein wichtiger Aspekt ist, dass CXL keine Vorgaben macht welcher Typ von Speicher eingebunden wird.
1683931841262.png

von derselben Folie.

Dementsprechend kann man CXL einsetzen, um die verfügbare Bandbreite oder die Kosten zu senken.
Natürlich stehen mit CXL 1.1 noch nicht alle Optionen offen. Aber das Feature Set wurde so akzeptiert, was bedeutet, dass es für brauchbar befunden wurde. Wir werden sehen ob das CXL-Consortium recht hatte.

1683926258395.png

https://pages.cs.wisc.edu/~markhill/papers/ieeemicro23_cxl_memory_pooling.pdf
GrumpyCat schrieb:
Wikipedia spricht von 10facher Latenz.
Wikipedia kann auch irren. Wenn CXL die 10-fache hätte, dann würde niemand CXL Memory propagieren.
GrumpyCat schrieb:
Da die normale DRAM-Anbindung auf den Boards schon schwarze Magie ist und am Limit des Machbaren läuft (oder auch häufig nicht läuft), wage ich stark zu bezweifeln, dass der durch das Durchschleusen durch gleich zwei Protokolle (PCIe und CXL) entstehende Overhead nur "doppelte Latenz" ergibt außer vielleicht bei rein linearen Zugriffen.
So wie ich es verstehe verwendet CXL den physikalischen Layer von PCIe. Hat aber ein eigenes Protokoll. Auf CXL-Links wird natürlich nicht mit dem PCIe-Protokoll kommuniziert. AFAIK wird beim Booten entschieden on eine Lane als PCIe oder als CXL betrieben wird.

Man muss sich einmal die Genoa 2 Sockel Server Boards anschauen, dann wird klar, dass die an Grenzen stoßen, wenn man 2 DIMMs je Kanal haben will.

Es ist problematisch, dass man mit dem Belegen des 2. DIMMs im Kanal zwar die Speicherkapazität erhöht, aber Bandbreite verliert. D. h. durch das 2 DIMM im Kanal wird auch das 1. DIMM wird langsamer.

GrumpyCat schrieb:
Und da ist Krams wie die anscheinend noch theoretischen "CXL Switches" noch gar nicht dabei.
Aktuell wird CXL 1.1 bei den neuen Serverplattformen von AMD und Intel ausgerollt. Die Hardware insbesondere die Switches für CXL 2.0 sind noch nicht auf dem Markt.

Da CXL 3.0 auf der physikalischen Schicht von PCIe 6.0 aufsetzt wird, es noch eine Weile dauern bis CXL 3.0 kommt.
GrumpyCat schrieb:
Also ich bin voll für Innovation, aber ein klassischer RAM-Ersatz wird das nicht, vermutlich eher eine Art sehr schnelles Swap.
Nochmal es geht nicht darum den Hauptspeicher beim Prozessor zu ersetzen.

Es geht bei CXL Memory neue Optionen beim Einsatz von Speicher zu ermöglichen.

GrumpyCat schrieb:
Und die Anwendungen, die sowas nativ optimiert unterstützen, wird man dann auch an einer Hand abzählen können.
Da es auf dem Server läuft ist das kein Argument.

Wenn eine Anwendung von CXL profitiert kann und es die Anwender verlangen wird sie angepasst.

PS828 schrieb:
Also eine RAM Erweiterung über den Steckplatz.
Nicht nur, CXL ist eine alternative Methode Speicher einzubinden. Es muss nicht zwangsläufig mehr sein als theoretisch mit DIMMs möglich ist. Aber Natürlich ist mehr Speicher einzubinden einer der Fälle.

Weitere Optionen sind der CPU eine höhere Speicherbandbreite zu geben oder das System billiger zu bauen.
1683933883763.png

1683933901716.png


PS828 schrieb:
In nieschenfällen sicherlich gut aber letztlich ist das ein weiteres potentielles Milliardengrab in der Speicherwelt.
CXL wird jedoch sehr viele solcher Nischen bieten, und es sind nicht unbedingt die Speicherhersteller die es treiben.

1683933335943.png

Das ist die Bandbreite die dem CXL-Konsortium vorschwebt. Fabric Memory ist CXL 3.0.

Der kritische Punkt ist jedoch, dass bereits CXL 1.1 Anwendung findet.
PS828 schrieb:
Keine Ahnung wie viel Geld die Hersteller im aktuell kollabierenden markt noch verlieren wollen. Daran ändert auch das Produkt hier nichts
Das CXL macht es den Speicherhersteller eher schwerer, da es neue Möglichkeiten bei der Systemkonfiguration gibt. Damit besteht die Möglichkeit in vielen Fällen den Einsatz von DRAM zu optimieren. Optimieren heißt die optimale Menge DRAM zu kaufen.
schmadde schrieb:
Dafür hätte es ja Optane gegeben als SSD oder PMEM. Es wollte nur kaum jemand haben, drum hat Intel das begraben.
Als SSD war Optane zu teuer als PMEM war es schon erheblich komplexer als einfach reinstecken und gut ist. Eine Nebenwirkung laut STH:
Gleichzeitig ist 3D XPoint in Bezug auf die Leistung immer noch eine Zwischenlösung, so dass nicht alles perfekt ist. Er ist in zweierlei Hinsicht langsamer als DRAM, der normalerweise in Ihren DIMM-Sockeln steckt. Erstens ist die Latenz höher, da in den persistenten 3D XPoint anstatt in DRAM geschrieben wird. Der zweite Aspekt wird nicht oft diskutiert. Die ersten beiden Generationen der Intel Optane DCPMM oder PMem 100 und PMem 200 arbeiten mit DDR4-2666-Geschwindigkeiten mit Cascade Lake und Cooper Lake.
Das ist extrem wichtig. Sobald Sie PMem zu einem Server hinzufügen, sinkt die Speichergeschwindigkeit auf DDR4-2666. Bei Cascade Lake oder der 2. Generation des Intel Xeon Scalable bedeutet das, dass wir von 6x DDR4-2933 pro Sockel auf 6x DDR4-2666 wechseln. Das Gleiche passiert auch mit den DDR4-3200 3rd Gen Intel Xeon Scalable CPUs.
übersetzt mit DeepL
schmadde schrieb:
Ich frag mich auch, was man da mit mickrigen 128 GB pro "Drive" erreichen will.
Das ist als Option um den maximal möglichen Speicher zu erweitern ein bisschen wenig.
Aber wenn es darum geht so etwas wie im Cost Saving example zu realisieren, wird es auch Anwendungen für 128 GByte geben.
 
Oberst08 schrieb:
Der Ram ist auf das Board gelötet. Im Prozessor macht keinen Sinn, weil man dann nur einen Ram Ausbau anbieten könnte oder alternativ einen anderen Prozessor mit mehr/weniger Ram bräuchte. Das ist viel zu viel Logistik Aufwand.
Das RAM ist bei den M1 und M2 Macs im Prozessor package.
1683936473165.png

Von der Apple Website

Über das fan out (INFO) sind die 4 LPDDR Chips mit dem SoC verbunden. Da der Speicher im packages SoC werden zum einen Sockel und Board einfacher zum anderen sinkt der Energieverbrauch.

Da Apple nur wenig Konfigurationen anbietet und alles selbst in der Hand hat, spielt es keine Rolle dass für jede Speicherkonfiguration ein eigener Prozessor gefertigt werden muss.

Bei den PC OEMs wäre es natürlich erheblich schwieriger. Hier müssten sie bei AMD bzw. Intel den Prozessor samt Hauptspeicher kaufen und würden beim Bestücken des Boards die Konfiguration festlegen. IMO ist die Möglichkeit ein Notebook erst spät konfigurieren zu können, der Grund warum LPDDR5 bei den Notebooks nur zögerlich verwendet wird.

In Punkto PCIe/CXL stimme ich Dir zu. Apple geizt mit PCIe-Lanes und wird bei den gewöhnlichen Macs nichts mit CXL machen.

Ganz davon abgesehen dass CXL Servertechnik ist.

@senf.dazu welche Beschleuniger soll Apple extern anbieten? Es ist doch alles was die Anwender brauchen im SoC.

Es gibt ja viele Gerüchte zu einem neuen auf Apple Silicon basierenden Mac pro. Für mich ist die spannende Frage kommt er und wird er überhaupt PCIe-Steckplätze bieten?

Falls er mit PCIe-Steckplätzen kommt, hätte CXL den Reiz, dass man damit auch den Speicher erweitern könnte.

Ich sehe 2 Gegenargumente:
  • Apple kein Mitgflied des CXL Consortiums.
  • Lohnt es sich für Apple überhaupt einen Mac pro mit PCIe-Steckplätzen und Apple Silicon zu entwickeln?
 
xexex schrieb:
Mit bis zu vier CPUs macht es 48 Module, also sowas.
Ja, so haben wir die 6 TB Server für HANA aufgebaut. Aber wie kommt man so auf 8 TB? Oder gar 16 TB? Die Aussage war "16 TB habe ich schon gesehen".

xexex schrieb:
Punkt! Bleiben 32 Slots und 8TB nur mit 256GB LRDIMMs oder 512GB Optane Modulen machbar.
256GB DIMMs wie gesagt theoretisch verfügbar, aber praktisch noch nicht gesehen. Mit 128er DIMMs und 512er Optane (1:4 glaube ich von SAP gar nicht zertifiziert für HANA) wären es 10 TB.
 
schmadde schrieb:
256GB DIMMs wie gesagt theoretisch verfügbar, aber praktisch noch nicht gesehen.
1683962561566.png


Lässt sich auch so bei Lenovo konfigurieren
1683963167703.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
schmadde schrieb:
8 Sockel Systemen kauft man bei "Supermicro"? Das erstaunt mich, bei Firmen die sowas kaufen gehe ich davon aus, dass Rahmenverträge mit einem der ganz großen Hardware-Hersteller bestehen und nicht mit Bastelbuden. Unser Supplier hat keine 8 Sockel im Angebot :(
Mal schlau machen wer Supermicro ist? Wobei man die eigentlich kennen muss, wenn man sich beruflich mit Servern beschäftigt.
 
  • Gefällt mir
Reaktionen: MalWiederIch und medsommer
thuering schrieb:
"8 TB weg geschnupft wie nichts". Soso. Ich behaupte, dass solche HANA DB Größen nur sehr wenige Unternehmen in D erreichen.
Denke ich auch. Unsere produktive HANA DB unter SLES for HANA belegt in der Regel etwas über 900 GB RAM.
8 TB mal eben so weg geschnupft findet man vermutlich eher bei großen Konzernen..ich arbeite in einem mittelständischen Unternehmen mit rund 1200 SAP Anwendern.
 
  • Gefällt mir
Reaktionen: thuering
ETI1120 schrieb:
Das RAM ist bei den M1 und M2 Macs im Prozessor package.
Anhang anzeigen 1356868
Von der Apple Website

Über das fan out (INFO) sind die 4 LPDDR Chips mit dem SoC verbunden. Da der Speicher im packages SoC werden zum einen Sockel und Board einfacher zum anderen sinkt der Energieverbrauch.

Da Apple nur wenig Konfigurationen anbietet und alles selbst in der Hand hat, spielt es keine Rolle dass für jede Speicherkonfiguration ein eigener Prozessor gefertigt werden muss.

Bei den PC OEMs wäre es natürlich erheblich schwieriger. Hier müssten sie bei AMD bzw. Intel den Prozessor samt Hauptspeicher kaufen und würden beim Bestücken des Boards die Konfiguration festlegen. IMO ist die Möglichkeit ein Notebook erst spät konfigurieren zu können, der Grund warum LPDDR5 bei den Notebooks nur zögerlich verwendet wird.

In Punkto PCIe/CXL stimme ich Dir zu. Apple geizt mit PCIe-Lanes und wird bei den gewöhnlichen Macs nichts mit CXL machen.

Ganz davon abgesehen dass CXL Servertechnik ist.

@senf.dazu welche Beschleuniger soll Apple extern anbieten? Es ist doch alles was die Anwender brauchen im SoC.

Es gibt ja viele Gerüchte zu einem neuen auf Apple Silicon basierenden Mac pro. Für mich ist die spannende Frage kommt er und wird er überhaupt PCIe-Steckplätze bieten?

Falls er mit PCIe-Steckplätzen kommt, hätte CXL den Reiz, dass man damit auch den Speicher erweitern könnte.

Ich sehe 2 Gegenargumente:
  • Apple kein Mitgflied des CXL Consortiums.
  • Lohnt es sich für Apple überhaupt einen Mac pro mit PCIe-Steckplätzen und Apple Silicon zu entwickeln?
Ja die Rams sitzen im Prozessor Package. Und damit im Prozessor. So bezeichnet man die schwarze Kiste die hinterher auf's Mainboard gelötet oder die Fassung auf dem Mainboard gesteckt wird. Das SOC- oder das CPU Die ist ein Teil davon. Packaging (in's Gehäuse) gehört zum Metier der Chiphersteller. Nachträglich wechseln kann der Kunde das Ram genausowenig wie das SOC. Aber damit genug der Wortklauberei.

Gerade die mangelnde Erweiterbarkeit und Modularität ist ja von Kunden oft kritisiert worden - also sind in den existierenden MacPro jede Menge Slots gewandert in die man z.B. GPUs reinstecken kann - durchaus auch mehrere. Oder auch spezielle z.B. A/V IO Karten. Ich bin ja durchaus deiner Meinung das Dinge wie GPU und NPU bereits in den Apple SOCs stecken - und das es für Apple logischer wäre größere Verbünde von ihren Prozessoren zu Multiprozessor Konfigurationen zusammenschließbar zu machen. Wie Apple es eigentlich beim M1-Ultra=2xM1-Max schon gemacht hat. Aber auch dafür braucht man Schnittstellen. Mit sehr sehr hohen Bandbreiten - ähnlich der Hauptspeicherbandbreite. (Idee: Jeder Prozessor kann auf externe Haupspeicher gleichermaßen zugreifen wie auf den eigenen ..). Aber auch IO Karten mit z.B. FPGAs oder eben für Kundeneigene Hardware oder Beschleuniger könnten ggf durchaus auch die (eher begrenzten ?) Verkäufe von MacPros steigern .. solange die Interfaces kompatibel zum Rest der Rechnerwelt sind - so das man Standardhardware aus dem Profi-Bereich ("Servertechnik") dort auch verwenden kann.

Ob Apple jetzt beim CXL Konsortium Karten hat oder nicht ist unerheblich - ARM arbeitet wohl dran CXL zu ermöglichen. Das muß keiner der Lizenznehmer selbst entwickeln. Und auch ein CXL Steckplatz wird wohl nicht viel anders aussehen als ein PCI Steckplatz. Technisch ist es eh fast das gleiche. Ein Haufen PCIe5.0 Lanes. Genauso könnte aber etwas wie CXL auch bei der Verbindung der Chips auf der Prozessorträgerplatine des Packages (in Zukunft vielleicht nicht nur SOC und Rams) wichtig werden.

Und was Apple nun tun wird - werden wir wohl irgendwann erleben. Es gibt technisch viele Wege - und welche für Apple wirtschaftlich sind, sprich wo sie Aussicht auf Kunden und Gewinn haben, weiß wohl Apple am besten. Vermutlich gibt's ja eine bestimmte Klientel die auch den aktuellen MacPro gekauft hat auf die man zumindest zuerst schauen könnte ..
 
Zuletzt bearbeitet:
senf.dazu schrieb:
Ja die Rams sitzen im Prozessor Package. ... Aber damit genug der Wortklauberei.
Wenn es auf Kosten oder Energieeffizienz ankommt ist es ein großer Unterschied, wo genau der Speicher sitzt.



senf.dazu schrieb:
Gerade die mangelnde Erweiterbarkeit und Modularität ist ja von Kunden oft kritisiert worden
Davon habe ich nichts mitbekommen.

Weil der LPDDR RAM im Prozessor Package sitzt kann Apple ein breites Interface mit großer Bandbreite bieten. Auf dem Board wäre das zu teuer.

Weil genügend Speicherbandbreite vorhanden ist kann Apple eine dicke GPU einbauen.
Weil eine dicke GPU eingebaut ist vermissen die Apple Kunden gar nicht die Option eine GPU einzustecken.

Was allerdings viele beklagen sind die heftigen Aufpreise für RAM und SSD. Aber Apple was schon immer gieriger als für sie gut war.
senf.dazu schrieb:
- also sind in den existierenden MacPro jede Menge Slots gewandert in die man z.B. GPUs reinstecken kann - durchaus auch mehrere.
Der MacPro ist eine schöne Kiste. Allerdings auch teuer.

Die Frage ist wie viele Leute die Erweiterbarkeit des MacPro tatsächlich brauchen.

Apple lässt sich verdammt lange Zeit.

senf.dazu schrieb:
Aber auch dafür braucht man Schnittstellen. Mit sehr sehr hohen Bandbreiten - ähnlich der Hauptspeicherbandbreite.
Apple hat die Schnittstellen.
1684357932551.png

Detailaufnahme der Verbindung

1684357997713.png

TechInsights

Der M1 Ultra funktioniert prächtig. Durch die Siliziumbrücke sind die beiden Chips durch sehr viele Einzelverbindungen gekoppelt. Allein die Anzahl der Einzelverbindungen sorgt für eine gewaltige Bandbreite.

Alle Gerüchte beim neuen MacPro drehen sich um die Anzahl der CPU und GPU Kerne und niemand macht sich Gedanken über die Steckplätze. Das sagt mir dass sich nur wenige um die Erweiterbarkeit sorgen, solange die CPU- und GPU-Leistung stimmen.

Kaum war der M1 Ultra draußen kursierten Gerüchte dass Apple 2 M1 Ultra nebeneinander packt. Aber das
geht eben nicht so einfach. Es ist eben schneller ein Gerücht verbreitet als überlegt, ob das was man verzapft tatsächlich funktioniert, rein geometrisch betrachtet.

senf.dazu schrieb:
Aber auch IO Karten mit z.B. FPGAs oder eben für Kundeneigene Hardware oder Beschleuniger könnten ggf durchaus auch die (eher begrenzten ?) Verkäufe von MacPros steigern .. solange die Interfaces kompatibel zum Rest der Rechnerwelt sind - so das man Standardhardware aus dem Profi-Bereich ("Servertechnik") dort auch verwenden kann.
Die Frage ist nicht was man basteln könnte, sondern was die Kunden von Apple tatsächlich brauchen und wofür sie bereit sind Geld auszugeben.

Apple weiß ganz genau wie gut sich der MacPro verkauft. Und dann können sie ja auch abklären, was die Gründe sind warum ein MacPro kein MacStudio gekauft wurde.

Apple hat 3 Optionen:
  • keinen echten Nachfolger, weil es sich nicht lohnt.
    Eventuell bringt Apple einen neuen Apple Silicon MacPro mit einem neuen High End Chip heraus. Verzichtet aber auf DIMM-Slots und zusätzliche PCIe-Lanes.
  • einen Nachfolger mit X86, weil es zwar Bedarf nach erweiterbaren Macs gibt, aber keinen der so groß ist, dass es sich lohnt dafür einen eigenen Chip zu entwickeln
  • einen Apple Silicon Chip entwerfen, der genügend PCIe-Lanes hat.
Die zweite Option halte ich für unwahrscheinlich, weil sich Apple damit eine Blöße gibt.
Vor zwei Jahren hätte ich auf die 3. Option gewettet. Durch verwenden desselben Tricks wie M1 Max und M1 Ultra könnte Apple Workstation (MacPro) und Server abdecken.

Aber inzwischen halte ich die erste Option für wahrscheinlich.
Apple sind die CPU-Entwickler scharenweise (100+ zu Nuvia, 40+ zu Rivos) davongelaufen, um bei Startups Server CPUs zu entwickeln. Hätten die das tatsächlich gemacht, wenn es auch bei Apple interessante Serverprojekte gäbe?

Meine aktuelle Interpretation: Apple Silicon war erfolgreich gelauncht. Neue interessante Projekte gab es bei Apple nicht. Also haben die Entwickler nach neuen Herausforderungen gesucht.

Übrigens: Apple hat neulich still und heimlich die Klage gegen Gerrad Williams III zurückgezogen. Er hatte Nuvia gründet, die dann von Qualcomm aufgekauft wurden. Die Klage gegen Rivos köchelt weiter.

senf.dazu schrieb:
Ob Apple jetzt beim CXL Konsortium Karten hat oder nicht ist unerheblich - ARM arbeitet wohl dran CXL zu ermöglichen.
Apple hat eine Arm Architektur Lizenz, d. h. Apple entwirft die eigenen CPU-Kerne, die mit der Arm-ISA kompatibel sind. Apple hat eine eigene GPU-Architektur entworfen. Hat Apple irgend eine IP direkt von ARM übernommen?

Außerdem gehört zu CXL ein bisschen mehr als Chip IP. Das ganze muss auch vom Betriebssystem unterstützt werden, und dabei kann Arm nicht helfen.

Wenn sich Apple für CXL interessieren würde, wäre Apple im CXL-Konsortium. Denn dann könnte Apple Einfluss nehmen.
senf.dazu schrieb:
Und auch ein CXL Steckplatz wird wohl nicht viel anders aussehen als ein PCI Steckplatz.

Falls Apple auch weiterhin bei Apple Silicon nur PCIe-Lanes per M.2 für die SSD anbietet, dann braucht Apple auch kein CXL.

CXL ist Technik für Data Center und Server. Welche Hardware liefert Apple für diesen Markt?

Es geht nicht ums aussehen, sondern ob der Steckplatz das CXL-Protokoll unterstützt.

Viele Anwendungsfälle von CXL beruhen darauf, dass der CXL-Link aus dem Servergehäuse geführt wird.
z. B. Memory-pooling:


senf.dazu schrieb:
Technisch ist es eh fast das gleiche. Ein Haufen PCIe5.0 Lanes.
Aber nur weil die physikalische Ebene gleich ist, müssen die Verbindungen noch lange nicht gleich sein. Die Logik an den Lanes muss die jeweiligen Protokolle auch unterstützen. Und dazu ist ein bisschen mehr als heiße Luft erforderlich.

Siehe Genoa:
1684370418568.png

AMD über Servethehome

Nur die P-Links können als PCIe oder CXL konfiguriert werden.
Die G-Links können als PCIe oder Infinity Fabric konfiguriert werden.
senf.dazu schrieb:
Genauso könnte aber etwas wie CXL auch bei der Verbindung der Chips auf der Prozessorträgerplatine des Packages (in Zukunft vielleicht nicht nur SOC und Rams) wichtig werden.
Das heißt dann UCIe. Aber auch hier ist Apple kein Mitglied, weil die lieber ihr eigenes Süppchen kochen.
 
Zurück
Oben