Schneller Speicher für AI: 12-fach gestapelter HBM3E hat auch bei Samsung 36 GByte

Volker Rißka
18 Kommentare
Schneller Speicher für AI: 12-fach gestapelter HBM3E hat auch bei Samsung 36 GByte
Bild: Samsung

Einen Tag nach Microns Ankündigung zur Serienfertigung von HBM3E schießt Samsung zurück: Der Wettlauf am HBM-Markt geht nun erst richtig los, denn bisher hielten sich die beiden Branchenriesen noch zurück und überließen SK Hynix weitestgehend das Feld. Doch auf der AI-Welle wollen (mit Nvidia) alle reiten und daran verdienen.

Samsung und Micron gleichauf

Samsungs Ankündigung einen Tag nach Micron lässt Betrachter etwas stirnrunzelnd zurück. Denn dass Samsung ab sofort „the industry’s first 12-stack HBM3E DRAM and the highest-capacity HBM product to date“ hat, stimmt eben nicht mehr ganz, denn Micron hat seit gestern exakt das gleiche im Angebot.

Beide neuen Produkte haben aber auch gemeinsam, dass sie noch nicht wirklich fertig sind. Sie stehen im Sampling-Status mit der Kundschaft, Micron nennt ganz offen und direkt Nvidia, bei Samsung werden keine Kunden benannt. Wer am Ende mit seinem kompletten Produkt im Markt wirklich vorn liegt, bleibt heute unklar und abzuwarten.

Technologisch betrachtet sind sich die Produkte um den erweiterten HBM3-Standard ziemlich ähnlich. 12 Lagen Speicher-Chips mit je 3 GB Kapazität werden im Package übereinander gestapelt – 36 GByte pro Stapel sind die Folge statt bisher 24 GByte über acht Ebenen. Samsung hat einen minimalen Vorteil bei der Bandbreite, taktet die Chips noch etwas höher als zuletzt vermittelt und schließt nun zu SK Hynix auf, die bereits 10 Gbit/s in Aussicht gestellt hatten. Micron wiederum verspricht einen bis zu 30 Prozent geringeren Verbrauch als die Konkurrenz. Unabhängig beweisen lassen sich aber heute beide Angaben nicht.

max. Durchsatz pro Pin max. Durchsatz pro Stack max. Kapazität pro Stack
HBM1 1,0 Gb/s 128 GB/s 1 GB
HBM2 2,0 Gb/s 256 GB/s 8 GB
HBM2E 3,6 Gb/s 461 GB/s 16 GB
HBM3 6,4 Gb/s 819 GB/s 24 GB
HBM3E (Micron) 9,2 Gb/s 1.178 GB/s 36 GB
HBM3E (Samsung) 10,0 Gb/s 1.280 GB/s 36 GB
HBM3E (SK Hynix) 10,0 Gb/s 1.280 GB/s 48 GB
HBM4 ? 1.500+ GB/s 48 GB
HBM4E ? 2.000+ GB/s 64 GB

Die Massenproduktion will Samsung noch im ersten Halbjahr dieses Jahres starten. Traditionell vergehen dann aber noch einige Monate, bis Endkundenprodukte mit diesen Chips erscheinen können. Realistisch betrachtet dürften die 36-GByte-HBM3E-Chips deshalb in Großserie erst etwas für das Jahr 2025 sein.