Piktogramm schrieb:
@stefan92x
https://old.chipsandcheese.com/2025/10/31/37437/
Nochmal nachgeschaut. GMI mit 32B/clk scheint es zu geben und bei Strix Halo in Richtung CCD verbaut zu sein mit ~60GB/s Bandbreite bei 2GHz IF(?). Die iGPU von Strix Halo hat GMI mit 64B/clk wie auch die CCDs der größeren Plattformen.
Ok, 32B/clk GMI für die CCDs fürs Pro-/Consumerkram scheint realistisch.
Wobei mir die Bandbreiten (~60GB/s) für CCDs mit zukünftig 12Kernen etwas wenig erscheint.
Du kannst es auch aus der anderen Seite betrachten:
An SP8 hängen 8 CCDs und 8 MRDIM DDR5-12800. Jedes DIMM hat eine maximale Bandbreite von 102 GB/s. Das geht mit 32B/clock nicht. 64B/clock ist das Minimum wenn man die Verbindung nicht als Flaschenhals haben will.
Bei SP8 sind es 2 MRDIMM DDR5-12800 je CCD. Das ergibt 204 GB/s. Da wird 64B/clock zum Flaschenhals.
Piktogramm schrieb:
@ETI1120
Ich habe die Bezeichnungen von Chips and Cheese übernommen, damit klar wird worauf ich mich beziehe.
Bei der Beschreibung von Phoenix haben sie Port verwendet, was ich finde sehr viel besser für den Anschluss an einen Ringbus passt.
https://chipsandcheese.com/p/hot-chips-2023-amds-phoenix-soc
Da gab es auch diese nette Graphik von Phoenix, da ist mir sehr viel klar geworden:
sie ist aus der Präsentation zu Phoenix von AMD auf der Hot Chips 2023. Foliensatz und Link zum Video sind bei der Hot Chips Website unter Archiv zu finden.
Piktogramm schrieb:
So richtig verständlich ist mir das mit dem IF nicht. Wenn bei StrixHalo die IGPU einfach mal 8 Ports haben kann, dann kann da intern nicht nur ein geduplexter Ringbus a 64B/clk liegen. So ein Ringbus bekommt ja nicht mehr Bandbreite, nur weil mehr Ports dranhängen. Mindestens bei StrixHalo, intern muss das Ding nochmals anders aufgebaut sein.
Das ist die eine Seite, wenn man 8 Ports an einen Bus hängt sollte er die Daten auch liefern bzw. weiterschieben können.
Und es geht nicht nur um den Trafic zur CPU oder zum Speicher. Auch die Display Engine hängt am Infinty Fabric. Das Infinity Fabric on Chip ist ein Bussystem dass an das alle IP-Blöcke des SoC angeschlossen sind.
Das Infinty Fabric gibt es natürlich auch in den GPUs, nur ein bisschen Breiter: 1024 Byte/clock
https://chipsandcheese.com/p/amds-rdna4-gpu-architecture-at-hot
Und bei einem 1024 Byte oder 8092 bit breiten Bus ist wohl zu verstehen warum AMD bisher keine Gaming GPU mit mehren GPU Chiplets gebracht hat.
Ganz so fett wird der Infinity Fabric in den IODs von SP7 und SP8 nicht sein. Aber wenn der Inifinity Fabric im IOD den Datenverkehr zwischen CCds, Speichercontroller und IO bewältigen soll, muss das Infinity Fabric im IOD mehr Bandbreite haben als die Ports zu den CCDs.