Hohe Nachfrage dank AI: SK Hynix will HBM3-Produktion verdoppeln

Volker Rißka
20 Kommentare
Hohe Nachfrage dank AI: SK Hynix will HBM3-Produktion verdoppeln
Bild: SK Hynix

Die neuen Beschleuniger von Nvidia und AMD brauchen HBM-Speicher, den modernsten seiner Art. SK Hynix will die Produktionslinien verdoppeln, um der zuletzt extrem gestiegenen Nachfrage gerecht zu werden. Denn Nvidias Hopper H100 ist quasi auf ein Jahr ausverkauft, AMDs neue MI300-Produkte dürften ebenfalls Anklang finden.

Vor allem der Back-End-Bereich ist bei SK Hynix demnach aktuell das Nadelöhr, um weitere fertige Chips für den Markt zur Verfügung zu stellen. Das Stapeln der DRAM-Chips, durchkontaktieren mittels TSVs, testen und verpacken nimmt bei HBM deutlich mehr Zeit und Aufwand in Anspruch. Die neuen 24-GByte-Chips bestehen intern aus 12 Lagen und setzen auf ein neues Verfahren, welches die Chips am Ende nicht größer werden lässt, als es aktuelle 16-GByte-Chips sind. Doch das hat der Hersteller laut Insidern auch erkannt, bis zum Jahresende soll sich die Kapazität dort verdoppeln, was sich direkt auf die Auslieferungen von HBM3-Chips auswirken wird.

SK Hynix sucht im HBM zuletzt verstärkt den Ausweg aus der Speicherkrise. Mit Erfolg, Marktforscher zeigen, dass 50 Prozent des Marktes auch von SK Hynix bedient wird und sie damit die Nummer 1 sind. HBM wird von SK Hynix ausschließlich in Südkorea gefertigt, Incheons Fabrikteile übernehmen die Fertigstellung der Produkte.

HBM3 mit 24 GB
HBM3 mit 24 GB (Bild: SK Hynix)

AMD und Nvidia als Hauptkunden

Wer die Abnehmer sind, ist schnell klar: Nvidia bestückt die H100-Karten mit HBM3-Speicher, in der zuletzt vorgestellten Variante H100 NVL mit insgesamt 188 GByte in einer Doppel-GPU-Konfiguration. Und AMDs neue MI300-Familie hat erst vor wenigen Tagen offiziell Zuwachs bekommen, MI300X als GPU-Beschleuniger wird auf 192 GByte HBM3 vertrauen. Die HPC-APU MI300A inklusive CPU-Teil wird auf 128 GByte HBM3 kommen.

Das Ende der Fahnenstange ist bei HBM noch lange nicht erreicht. Zwar war die Roadmap und Umsetzung stets von deutlichen Verzögerungen geprägt, dennoch geht es stetig weiter voran. HBM3 wird dabei schneller, HBM3e wurde kürzlich von SK Hynix als Evolution für das kommende Jahr angekündigt und Nvidia soll erste Samples erhalten haben, heißt es aus Südkorea. Und auch HBM4 ist schon am Horizont zu erkennen, wenngleich in großer Ferne: Realistisch kommt der nicht vor 2028.