News High Bandwidth Flash: Arbeiten am HBF-Standard starten im März

Normalerweise nutzt man SRAM (Cache) oder DRAM (als BGA oder HBM) ja auch wegen der Latenz. Ich bin sehr gespannt wie schnell HBF Daten liefern kann und ob man innerhalb der GPU dann zum Kompensieren der Latenz riesige L3 oder L4 Caches benötigt.

Ich hätte bei der Vorstellung einen Mischbetrieb erwartet. Also SRAM on-Die auf der GPU, dann einen Stack HBM als DRAM “Cache” und zusätzlich einen Haufen HBF für alles was zwar im “RAM” liegen muss, aber langsamer im Zugriff sein kann.

Man darf gespannt sein was HBF am Ende kann.

EDIT:
Die News war letzten Sommer schon da, dort gibts auch ne Folie mit 2xHBM und 6xHBF Stacks. Also so wie ich mir das gedacht habe…

https://www.computerbase.de/news/ar...ash-sandisk-holt-sk-hynix-mit-ins-boot.93802/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stefan92x, steirerblut und Jan
Wenn ich Flash Speicher höre denke ich natürlich auch sofort an Degradation durch Schreibzyklen. Ist das hier etwa kein Problem? Wenn ja, wie?

Das ist übrigens sicherlich der Moment in dem Intel bereut 3D-XPoint AKA Optane eingestellt zu haben.
 
  • Gefällt mir
Reaktionen: Wurstpeller
HBM als Speicher zu Consumerpreisen wär natürlich mal was; ich fürchte nur das die Partnerschaft mit Sandisk eher das strategische Invest in zusätzliche Produktionskapazitäten, also die anhaltende Nachfrage von AI Compute, absichern soll.
Wäre natürlich geil wenn der "trickle down" Effekt gestoppt wird, wir die Technologie in kurzer Zeit überall sehen, aber ich denke das muss sich noch über Jahre durch Bigtech runter finanzieren bis wir HBM als Speicher im Consumer Rechner sehen.
 
Raja Koduri 😮 … gute Impulse die irgendwie selten als Produkt am Markt funktionieren. Drücke HBF die Daumen!
 
Zuletzt bearbeitet:
Tzk schrieb:
Ich hätte bei der Vorstellung einen Mischbetrieb erwartet. Also SRAM on-Die auf der GPU, dann einen Stack HBM als DRAM “Cache” und zusätzlich einen Haufen HBF für alles was zwar im “RAM” liegen muss, aber langsamer im Zugriff sein kann.
Mein Gedanke war sogar eine Mischung von HBM und HBF. quasi ein paar Schichten als Cach Layer, der Rest für mehr Volumen. Dann benötigt es aber einen klugen Controller.
 
HBF wird vermutlich nicht für uns sein. Wie auch HBM. Als HBM auf der ersten AMD Grafikkarte kam hatte ich große Hoffnung das das für den Gamer was wird...
 
SMOrc schrieb:
Wenn ich Flash Speicher höre denke ich natürlich auch sofort an Degradation durch Schreibzyklen. Ist das hier etwa kein Problem? Wenn ja, wie?
So wie ich das verstehe, ist das hier so gedacht, dass man im HBF das jeweilige AI-Modell speichert, dass man dann im Inferenzbetrieb anwendet. Da würde also tatsächlich wenig geschrieben werden (eigentlich nur dann, wenn der Trainingscluster ein neues Modell ausspuckt, also alle paar Wochen mal). Also eigentlich kein "Datenspeicher" sondern ein "Programmspeicher"
 
Die Behauptung "HBF ist kein Ersatz für Irgendwas" bedeutet "Wir nehmen Premium-Preise". Und das hat den simplen Grund dass wenn man 16 mal mehr Transistoren verbaut, man auch mindestens 16 mal mehr Dollars verlangen muss. Nur könnte eine Einführung erst 2030 bedeuten "Dead by Arrival". Die Blase könnte schon platzen wenn OpenAI Anfang 2027 erste Eernings der Börse melden muss und man da genaueres unschönes zum kaputten Business von OpenAI erfahren wird. Falls OpenAI tatsächlich Ende 2026 an die Börse geht. Die gehen aber mit negativem KGV (=negativer Gewinn) an die Börse und nicht weil sie ein funktionierendes Business ausbauen wollen. Sie wollen Geldverschwendung ausbauen bis mindesten 2030. Da wollen sie dann 100 Mio. Dollar Gewinn vermelden bei jetzt schon investierten 60 Mrd. Dollar.
 
Zurück
Oben