Zu viel Strom und Wärme?: Samsung dementiert Berichte über mangelhafte HBM-Chips

Volker Rißka
20 Kommentare
Zu viel Strom und Wärme?: Samsung dementiert Berichte über mangelhafte HBM-Chips
Bild: Samsung

Seit Wochen kursieren Gerüchte, dass bei Samsungs neuen HBM-Chips noch Optimierungen für den Einsatz bei Nvidia nötig seien. Samsung bestätigt dies nun teils, dementiert aber größere Probleme. Die sollen laut Insidern aber vorliegen, vor allem bei Stromverbrauch und Wärmeentwicklung. Samsung streitet dies jedoch vehement ab.

Nachdem Reuters den Stein ins Rollen gebracht hatte, konnte The Korea Herald binnen Stunden mit einem Dementi von Samsung aufwarten. Demnach verlaufe der Entwicklungsprozess gut, Leistung und Qualität würden stetig überwacht und den Vorgaben entsprechen. Im Laufe der Zeit werde es aber noch weitere Verbesserungen geben, erklärte Samsung weiter. Dies gelte aber für alle Produkte.

Neu sind die Gerüchte in der Branche nicht. Bereits vor zwei Wochen kam das Thema in Asien größer auf, als beispielsweise das bekannte Branchenblatt DigiTimes, aber auch koreanische Medien darüber berichteten. Dabei ging es jedoch darum, dass die Chips von SK Hynix, die Nvidia bisher einsetzt, technisch anders als die Lösungen von Samsung seien, die Adaption deshalb überarbeitet werden müsse.

HBM3e ist das Beste was der Markt hat

Dass HBM3e-Chips auf Kante genäht sind, ist jedoch kein neues Thema. Nvidia kündigte im letzten Jahr die ersten Produkte mit HBM3e von SK Hynix an, reduzierte einige Monate später aber den Takt. Zudem wird HBM3e bei Nvidia-Karten nie im Vollausbau betrieben, es wird stets Spielraum gelassen. Ein geringerer Takt, kein voller Ausbau, bei Samsung angeblich zu viel Strom und Wärme – all diese Probleme gehen letztlich Hand in Hand. HBM3e ist State-of-the-Art-Technologie und durchaus eine Herausforderung für die Fertiger.

HBM kostet auch in der Fertigung mehr, der Verkaufserlös ist aber noch einmal deutlich höher und macht diese Probleme im Quartalsbericht der Hersteller am Ende mehr als wett. Zuletzt hieß es, dass für HBM das Sieben- bis Achtfache gegenüber DRAM gezahlt werde, bei drei- bis vierfach höherem Kostenfaktor – der Gewinn pro GB ist am Ende also trotzdem höher. Dass durch die umfangreiche Waferzuweisung in Richtung HBM die DRAM-Abteilung von Speicherherstellern leiden könnte, gab Micron zuletzt zu – für HBM3e-Chips benötigt man demnach die dreifache Wafermenge gegenüber DDR5.