Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsMit 5 TB und 64 GB/s: Kioxia interpretiert High-Bandwidth Flash als Modul
Es geht schnell voran beim Thema High-Bandwidth Flash (HBF). Kioxia hat jetzt den Prototypen eines „High-Bandwidth Flash Memory Module“ entwickelt, das 5 TB Speichervolumen und einen Durchsatz von 64 GB/s bietet. Mit solchen Modulen sollen künftig KI-Anwendungen am Netzwerkrand (Edge) beschleunigt werden.
Puuh, das ist ja wirklich krass anders als eigentlich geplant...
...heißt ja aber nicht, dass es nicht trotzdem ein sinnvolles Produkt werden kann. Eine bessere Balance aus Speichercontrollern und Flash-Packages ist generell für riesige SSDs wünschenswert. Das Daisy-Chain-Konzept wäre dabei aber insbesondere als Chipletdesign attraktiv, als ein riesiger, langgezogener Controller.
Die Lücke zwischen RAM und NAND flash ist so groß dass sich dort immer wieder Lösungen manifestieren. Man darf gespannt sein ab wann sich dort tatsächlich etwas etabliert.
Das was hier gezeigt wird hilft nur ein bisschen bei der Bandbreite aber überhaupt nicht bei der Latenz und Haltbarkeit. Diese Lücke hatten die Phasenwechselspeicher sehr Gut besetzt. Selbst Ferroelektrische Speicher könnten hier eine rolle spielen
Aber solange das noch Dichteprobleme hat wirds bei solchen "brücken" bleiben die immerhin eine gute Möglichkeit darstellen die PCIe lanes der modernen Systeme gut zu nutzen. (Auch für 6.0 und 7.0)
3DXPoint wurde leider zwei Jahre zu früh von Intel gekillt. Jetzt würde es vermutlich ausverkauft sein. So ist es halt nicht immer alle Technologien setzen sich durch
Wieso denn bitteschön ›anders als geplant‹ und könnte ›trotzdem ein sinnvolles Produkt werden‹?
Es ist doch offensichtlich daß diese Art von Flash-Speicher-Verwendung von Anfang anals Hochgeschwindigkeit-Pendant bei HBM-Anwendungsfällen analog zu HBM (High-Bandwidth Memory) selbst gedacht war.
Auch die massenhafte Verwendung von Drop-in Flash-Speicher als (Zwischen-) Speicher bei hoch-volumigen Anwendungen anstelle von (im Vergleich) langsamen Festplatten im RAID-Verbund ist doch geradezu der persistente Zwilling zu HBM-Anwendungsfällen, oder etwa nicht?
Fehlt jetzt eigentlich nur noch, eben diese Module per CXL-Anbindung direkt in die Server-Landschaft zu integrieren, um als persistenter Zwilling zu HBM die Hierarchie der Latenz-Kette von Prozessor-Speicher nachzubilden, um den Nutzwert zu maximieren – Einzige Frage bleibt Haltbarkeit/Lebensdauer/Schreibzyklen.
Analog zu CPU-Cache von L1-, L2-, L3-Cache | HBM → HBF → Festplatten/SSDs.
Ergänzung ()
@Araska Ich weiß ja nicht, ob Du es (noch) nicht begreifst, weil Du es (noch) nicht siehst, aber was Kioxia (und demnächst SanDisk in anderen Anwendungsfällen) hier auf die Beine stellen, ist nichts anderes, als den Markt für Flash-Speicher brutal umzukrempeln, indem sie praktisch AMD's kongeniale Chiplet-Philosophie auf (günstigen) Flash-Speicher anwenden – Unter Anderem eine Brute-force Attacke auf HDDs.
Flash-Module und -Controller in Reihenschaltung → PCi-Express-Anbindung, analog zu AMD's CCX → I/O-Die.
Und das ist im Grunde nichts Anderes, als Optane für Arme, nur auf Makro-Ebene!
@konkretor Aber ja, gerade jetzt und die letzten zwei, drei Jahre hätte man geradezu perfekt einen persistenten Speicher gebrauchen können, der rasend schnell ist und die niedrigst-mögliche Latenz bietet – Der hätte sogar buchstäblich schweineteuer sein können und die Unternehmen würde es nicht mal interessieren.
Sowas müßte es geben, müßte man echt erfinden … Oh warte mal!
Sauteuren Flashspeicher der von Normalsterblichen nicht zu bezahlen war, aber dafür mit irrer geringer Zugriffszeit aufbot, sowas gab's ja schon mal von Intel – Das Milliardengrab Optane!
Ein Glück hat Intel gerade noch rechtzeitig die Kurve bekommen und Optane in 2022 endgültig gekillt gekriegt, um ja bloß nicht von der ganzen KI-Blase zu profitieren, aus Versehen irgendwelche LLM-Szenarien massiv zu beschleunigen und durch Zufall sich an dem ganzen KI-Wahn dumm und dämlich zu verdienen – Nvidia's KI-Glück ist ja laut Branchen-Kenner Gelsinger auch bloß alles Zufall!
War auch echt schon eng für Intel, weil vor zwei, drei Jahren fing der ganze KI-Kram schon an hochzukochen!
Hinweis: Sämtliche Ähnlichkeiten mit vorherigen vergleichbaren Begebenheiten und identischen ehemaligen Handlungen sind rein zufälliger Natur und nicht beabsichtigt – Wie der geplatzte Apple-Deal 2006 und wie Intel noch eben schnell StrongARM™ verkaufte, unmittelbar und noch bevor das iPhone auf dem Markt kam, um ja nicht vom mobilen Smartphone-Boom zu profitieren. Nein, Spaß beiseite. Optane wäre jetzt und die letzten zwei, drei Jahre zwar gut zu gebrauchen gewesen, aber es war trotzdem eine defakto Totgeburt … Allein durch Intel's Schwachsinnigkeit.
Erst recht in dem Moment, als Intel sich in ihrer Intel-typischen schwachsinnigen Art und Weise dazu entschloß, ein Produkt ein Leben gegen jede Vernunft als kaufbares Produkt zu ermöglichen und in einen Markt zu drücken, worin es weder etwas verloren hatte, noch rentabel zu fertigen gewesen wäre.
So hat Optane stattdessen (durch prominent-grenzdebile Quersubventionierung aus Xeon-Gewinnen) Milliarden an Verlusten anhäufen können und ist dann irgendwann nach Jahren an horrenden Milliarden-Defiziten richtigerweise dem sprichwörtlichen Rotstift zu Opfer gefallen …
Hätte sich Intel mit Optane einzig auf Margen-trächtige Märkte konzentriert (welche Rentabilität garantieren) und 3D XPoint ausschließlich als persistenten Hochgeschwindigkeitsspeicher als Flash-SSDs in exklusiv PCi-Express-Karten Formfaktoren in den Server-Markt entlassen (wo es ja sogar Anfangs Verwendung fand!), hätte man mit Optane nicht nur Geld eingenommen (und nicht solche verheerenden Verluste eingefahren), sondern würde Optane vielleicht heute noch leben.
Aber der Gestörten-Laden Intel hat ja nunmal seine prominente Zwangsneurose »Wir müssen unbedingt jede Konkurrenz im Markt auslöschen, selbst unter ständiger Inkaufnahme von Milliarden-Verlusten (auch wenn wir logisch betrachtet nicht die Geringste Chance auf Wettbewerbsfähigkeit mit dem Produkt haben), ansonsten können wir für unsere Minderwertigkeitskomplexe nicht kompensieren« …
Also hat Intel lieber Jahrelang versucht, mit kapitaler Geldgewalt den Flash-Markt umzukrempeln und Optane als 2,5" Flash-SSDs und M2-SSDs unter brutalsten Verlusten selbst unterhalb der eigentlichen Herstellungskosten in den Markt zu drücken, um Samsung, (Western Digital) SanDisk, SK Hynix, Toshiba (Kioxia), (Micron) Crucial und Konsorten zu töten und ihnen den Umsatz-Geldhahn abzudrehen.
Intel hätte sich mit Optane im KI-Boom jetzt eine goldene Nase verdienen können!
Die Frage ist, ob man damit Geld verdienen oder Geld drauf legen würde. Ich tippe Mal auf das letzte.
AFAIU hatten die NVDIMMs einen weiteren Nachteil. Sie erreichten nicht die Bandbreite von SDRAM DIMMs. Beim Setup den Intel verwendet hat mussten SDRAM DIMMs und NVDIMMs mit derselben Geschwindigkeit laufen, was bedeutet, dass der SDRAM gedrosselt werden musste. STH hat dazu einen Artikel.
Als SSD war 3D-XPoint AFAIU von vorne herein zu teuer. Der ideale Anwendungsfall war der zwischen DRAM und NAND.
Interessant ist dass Sandisk und Kioxia verschiedene Projekte propagieren. Wenigstens stehen sie nicht in Konkurrenz zueinander.
Gestern bin ich über einen Artikel aus Japan (IIRC ETimes Japan) gestolpert der den Ansatz von Sandisk heftig kritisiert. Aber nur das Intro war frei zugänglich.
Wieso denn bitteschön ›anders als geplant‹ und könnte ›trotzdem ein sinnvolles Produkt werden‹?
Es ist doch offensichtlich daß diese Art von Flash-Speicher-Verwendung von Anfang anals Hochgeschwindigkeit-Pendant bei HBM-Anwendungsfällen analog zu HBM (High-Bandwidth Memory) selbst gedacht war. (...)
@CDLABSRadonP... Und damit ganz andere Anforderungen an die Bandbreite abdecken muss. Was Sandisk propagiert ist eine Speichererweiterung für HBM. Was Kioxia propagiert ist eher eine sehr schnelle SSD.
@CDLABSRadonP... Danke sehr. Wußte ich nicht, mein Fehler!
Dachte der Anwendungsfall war von Anfang an als Ergänzung zu HBM (was es ja auch irgendwo ist, nur jetzt an anderer Position) und High-speed SSDs.
@ETI1120 Aber selbst was SanDisk auf dem Interposer umsetzen will, ist praktisch bricking von irre teurer Hardware – Frage ist, ob sowas überhaupt von den Herstellern von KI-Hardware toleriert wird. Weil indem Moment, wo die Flash-Zellen durch selbst perfektionierte Wear-Leveling Algorithmen abgenutzt sind, ist die gesamte Hardware nicht länger zu gebrachen und praktisch Elektroschrott.
eDRAM oder eMMC kann man wenigstens noch reparieren – Interposer-Defekte sind deutlich heikler.
.@ETI1120 Aber selbst was SanDisk auf dem Interposer umsetzen will, ist praktisch bricking von irre teurer Hardware – Frage ist, ob sowas überhaupt von den Herstellern von KI-Hardware toleriert wird.
Wie ich schon bei der News zu Sandisk HBF geschrieben habe, das ganze hängt am Anteil der Schreibzugriffe. Ist dieser Anteil klein genug kann es funktionieren. Wenn nicht bleibt es eine nette Idee.
Da Prozessing in Memory langsam aber sicher ein Thema wird, bewerte ich als Laie HBF nicht. Wir werden sehen was daraus wird.
@Crazy-Chief Praktisch garantierte Vollauslastung der Netto-Datenrate der jeweiligen 16× PCi-Express-Version bei einem Vielfachen der maximalen Lese-/Schreibgeschwindigkeiten anderer PCi-Express-basierten (NAND-) Flash-SSD bei Allem was der Bus hergibt, bis zum Ausstieg des Chipsets …
Wie ich weiter oben schon beschrieben habe, sind es eigentlich Flash-SSDs in Reihenschaltung, also praktisch SSD im RAID-Verbund auf Level 0 – Eigentlich ein Miniatur-Flash-RAID-System unterhalb des Flash-Controller Levels, also praktisch ein Redundant Array of independentinexpensive disksFlash-modules, also RAIDRAIF.