News High Bandwidth Flash: Arbeiten am HBF-Standard starten im März

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
14.398
  • Gefällt mir
Reaktionen: PietVanOwl, iron-man, knoxxi und 2 andere
Normalerweise nutzt man SRAM (Cache) oder DRAM (als BGA oder HBM) ja auch wegen der Latenz. Ich bin sehr gespannt wie schnell HBF Daten liefern kann und ob man innerhalb der GPU dann zum Kompensieren der Latenz riesige L3 oder L4 Caches benötigt.

Ich hätte bei der Vorstellung einen Mischbetrieb erwartet. Also SRAM on-Die auf der GPU, dann einen Stack HBM als DRAM “Cache” und zusätzlich einen Haufen HBF für alles was zwar im “RAM” liegen muss, aber langsamer im Zugriff sein kann.

Man darf gespannt sein was HBF am Ende kann.

EDIT:
Die News war letzten Sommer schon da, dort gibts auch ne Folie mit 2xHBM und 6xHBF Stacks. Also so wie ich mir das gedacht habe…

https://www.computerbase.de/news/ar...ash-sandisk-holt-sk-hynix-mit-ins-boot.93802/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: slow_snail, iron-man, Buchstabe_A und 3 andere
Wenn ich Flash Speicher höre denke ich natürlich auch sofort an Degradation durch Schreibzyklen. Ist das hier etwa kein Problem? Wenn ja, wie?

Das ist übrigens sicherlich der Moment in dem Intel bereut 3D-XPoint AKA Optane eingestellt zu haben.
 
  • Gefällt mir
Reaktionen: iron-man und Wurstpeller
HBM als Speicher zu Consumerpreisen wär natürlich mal was; ich fürchte nur das die Partnerschaft mit Sandisk eher das strategische Invest in zusätzliche Produktionskapazitäten, also die anhaltende Nachfrage von AI Compute, absichern soll.
Wäre natürlich geil wenn der "trickle down" Effekt gestoppt wird, wir die Technologie in kurzer Zeit überall sehen, aber ich denke das muss sich noch über Jahre durch Bigtech runter finanzieren bis wir HBM als Speicher im Consumer Rechner sehen.
 
Raja Koduri 😮 … gute Impulse die irgendwie selten als Produkt am Markt funktionieren. Drücke HBF die Daumen!
 
Zuletzt bearbeitet:
Tzk schrieb:
Ich hätte bei der Vorstellung einen Mischbetrieb erwartet. Also SRAM on-Die auf der GPU, dann einen Stack HBM als DRAM “Cache” und zusätzlich einen Haufen HBF für alles was zwar im “RAM” liegen muss, aber langsamer im Zugriff sein kann.
Mein Gedanke war sogar eine Mischung von HBM und HBF. quasi ein paar Schichten als Cach Layer, der Rest für mehr Volumen. Dann benötigt es aber einen klugen Controller.
 
HBF wird vermutlich nicht für uns sein. Wie auch HBM. Als HBM auf der ersten AMD Grafikkarte kam hatte ich große Hoffnung das das für den Gamer was wird...
 
SMOrc schrieb:
Wenn ich Flash Speicher höre denke ich natürlich auch sofort an Degradation durch Schreibzyklen. Ist das hier etwa kein Problem? Wenn ja, wie?
So wie ich das verstehe, ist das hier so gedacht, dass man im HBF das jeweilige AI-Modell speichert, dass man dann im Inferenzbetrieb anwendet. Da würde also tatsächlich wenig geschrieben werden (eigentlich nur dann, wenn der Trainingscluster ein neues Modell ausspuckt, also alle paar Wochen mal). Also eigentlich kein "Datenspeicher" sondern ein "Programmspeicher"
 
  • Gefällt mir
Reaktionen: ETI1120 und He4db4nger
Die Behauptung "HBF ist kein Ersatz für Irgendwas" bedeutet "Wir nehmen Premium-Preise". Und das hat den simplen Grund dass wenn man 16 mal mehr Transistoren verbaut, man auch mindestens 16 mal mehr Dollars verlangen muss. Nur könnte eine Einführung erst 2030 bedeuten "Dead by Arrival". Die Blase könnte schon platzen wenn OpenAI Anfang 2027 erste Eernings der Börse melden muss und man da genaueres unschönes zum kaputten Business von OpenAI erfahren wird. Falls OpenAI tatsächlich Ende 2026 an die Börse geht. Die gehen aber mit negativem KGV (=negativer Gewinn) an die Börse und nicht weil sie ein funktionierendes Business ausbauen wollen. Sie wollen Geldverschwendung ausbauen bis mindesten 2030. Da wollen sie dann 100 Mio. Dollar Gewinn vermelden bei jetzt schon investierten 60 Mrd. Dollar.
 
  • Gefällt mir
Reaktionen: He4db4nger
NAND-Flash den man/Frau nicht wechseln kann ?

Wie unpraktisch solche Hardware mit Verfallsdatum Herzustellen. Die kann man dann weg werfen wenn ein kleines Detail Defekt ist. Genau so wie mein MacBook AIR M2 mit fest verlöteten RAM Speicher/SSD. Gab ja leider nichts günstigeres im PC Bereich zu der Zeit.

Fortschritt, wo hast Du Dich versteckt ?
 
Wurstpeller schrieb:
Fortschritt, wo hast Du Dich versteckt ?
Hier ist Fortschritt. Wenn eine Karte mit HBF gebaut wird, bekommt sie weniger HBM und braucht weniger lokalen SSD Storage, denn HBF ist effektiv eine SSD mit HBM-Bandbreite. Ja, der Preis dafür ist, dass das ganze verlötet wird, aber effizienter wird es dadurch eben auch.

Und allein was dadurch an Strom gespart werden kann, ist beträchtlich. Das wiegt den Preis für ein paar vorzeitig verstorbene Systeme sicher auf.
 
  • Gefällt mir
Reaktionen: ETI1120
Ich gestehe, ich checks nicht. Wofür braucht man schnellen Flash bei KI? Selbst RAM ist zu Langsam, also geht man auf VRAM und HBM. Soll der HBF jetzt so schnell sein, dass er zwischen VRAM und HBM liegt von der Bandbreite? Oder wie oder was? Die Modelle müssen in den Ram. Da kann man auch ne olle 5.400rpm HDD in 1,5 Zoll-Bauweise dran häng...
Also wofür bitte? Die einzige Vermutung, die ich habe, um die Trainigsdaten schnell genug ran zu schaffen, weil die keiner auch nur in normalen RAM bekommt. Aber mit Training hab ich tatsächlich so gar keine Erfahrung.
 
Azdak schrieb:
Soll der HBF jetzt so schnell sein, dass er zwischen VRAM und HBM liegt von der Bandbreite?
Schau doch mal auf das erste Bild im Artikel, in dem steht "Match HBM Bandwidth / Deliver 8-16X Capacity at similar cost"
Azdak schrieb:
Die Modelle müssen in den Ram.
Oder in den HBF, den du anstelle von HBM verbaust
 
  • Gefällt mir
Reaktionen: ETI1120
Wenn man es so macht wie @stefan92x schreibt, spielen die begrenzten Schreib Zyklen keine Rolle.

Größere Modelle im Speicher lokal vorhalten zu können hilft eben massiv.
Ergänzung ()

SSD960 schrieb:
HBF wird vermutlich nicht für uns sein. Wie auch HBM. Als HBM auf der ersten AMD Grafikkarte kam hatte ich große Hoffnung das das für den Gamer was wird...
Raja Koduri meinte rückblickend war die GPU zu klein. Deshalb hat sie damals nicht von HBM profitiert. Und so haben die Data Center GPUs HBM adoptiert und geben es nicht mehr her.

So wie sich HBM entwickelt hat ist es nicht mehr für Konsumerprudukte geeignet.
 
Zuletzt bearbeitet:
Zurück
Oben