Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHigh Bandwidth Flash: Arbeiten am HBF-Standard starten im März
Gemeinsam wollen SK Hynix und Sandisk den vor einem Jahr vorgestellten High Bandwidth Flash (HBF) zu einem neuen Speicherstandard erheben. Jetzt wurde der nächste Schritt verkündet. Die Arbeiten am HBF-Standard sollen im Rahmen des Open Compute Project (OCP) im März begonnen werden.
Normalerweise nutzt man SRAM (Cache) oder DRAM (als BGA oder HBM) ja auch wegen der Latenz. Ich bin sehr gespannt wie schnell HBF Daten liefern kann und ob man innerhalb der GPU dann zum Kompensieren der Latenz riesige L3 oder L4 Caches benötigt.
Ich hätte bei der Vorstellung einen Mischbetrieb erwartet. Also SRAM on-Die auf der GPU, dann einen Stack HBM als DRAM “Cache” und zusätzlich einen Haufen HBF für alles was zwar im “RAM” liegen muss, aber langsamer im Zugriff sein kann.
Man darf gespannt sein was HBF am Ende kann.
EDIT:
Die News war letzten Sommer schon da, dort gibts auch ne Folie mit 2xHBM und 6xHBF Stacks. Also so wie ich mir das gedacht habe…
HBM als Speicher zu Consumerpreisen wär natürlich mal was; ich fürchte nur das die Partnerschaft mit Sandisk eher das strategische Invest in zusätzliche Produktionskapazitäten, also die anhaltende Nachfrage von AI Compute, absichern soll.
Wäre natürlich geil wenn der "trickle down" Effekt gestoppt wird, wir die Technologie in kurzer Zeit überall sehen, aber ich denke das muss sich noch über Jahre durch Bigtech runter finanzieren bis wir HBM als Speicher im Consumer Rechner sehen.
Ich hätte bei der Vorstellung einen Mischbetrieb erwartet. Also SRAM on-Die auf der GPU, dann einen Stack HBM als DRAM “Cache” und zusätzlich einen Haufen HBF für alles was zwar im “RAM” liegen muss, aber langsamer im Zugriff sein kann.
Mein Gedanke war sogar eine Mischung von HBM und HBF. quasi ein paar Schichten als Cach Layer, der Rest für mehr Volumen. Dann benötigt es aber einen klugen Controller.
HBF wird vermutlich nicht für uns sein. Wie auch HBM. Als HBM auf der ersten AMD Grafikkarte kam hatte ich große Hoffnung das das für den Gamer was wird...
So wie ich das verstehe, ist das hier so gedacht, dass man im HBF das jeweilige AI-Modell speichert, dass man dann im Inferenzbetrieb anwendet. Da würde also tatsächlich wenig geschrieben werden (eigentlich nur dann, wenn der Trainingscluster ein neues Modell ausspuckt, also alle paar Wochen mal). Also eigentlich kein "Datenspeicher" sondern ein "Programmspeicher"
Die Behauptung "HBF ist kein Ersatz für Irgendwas" bedeutet "Wir nehmen Premium-Preise". Und das hat den simplen Grund dass wenn man 16 mal mehr Transistoren verbaut, man auch mindestens 16 mal mehr Dollars verlangen muss. Nur könnte eine Einführung erst 2030 bedeuten "Dead by Arrival". Die Blase könnte schon platzen wenn OpenAI Anfang 2027 erste Eernings der Börse melden muss und man da genaueres unschönes zum kaputten Business von OpenAI erfahren wird. Falls OpenAI tatsächlich Ende 2026 an die Börse geht. Die gehen aber mit negativem KGV (=negativer Gewinn) an die Börse und nicht weil sie ein funktionierendes Business ausbauen wollen. Sie wollen Geldverschwendung ausbauen bis mindesten 2030. Da wollen sie dann 100 Mio. Dollar Gewinn vermelden bei jetzt schon investierten 60 Mrd. Dollar.