News Toshiba: QLC-Flash und Die-Stacking mit TSV für 100-TB-SSDs

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.842
Auf dem Flash Memory Summit hat Toshiba neue Techniken für SSDs mit 100 TByte und mehr beschrieben. Künftig soll QLC-Flash (Quadruple-Level Cell) mit vier Datenbit pro Speicherzelle mehr Informationen sichern. Zudem will Toshiba künftig 32 statt 16 Dies des 3D-NANDs (BiCS) mittels TSV-Technik in einem Package unterbringen.

Zur News: Toshiba: QLC-Flash und Die-Stacking mit TSV für 100-TB-SSDs
 
Da fallen dann halt jeweils gleich vier Bit weg wenn eine Zelle hops geht. Also braucht es entweder größere Reserven oder die TBW werden etwas geringer.

Bin gespannt wie lange es noch dauert bis zur BLC (Byte-Level Cell) Die Hälfte ist ja erreicht.
 
Eine 100-TB-SSD könnte ein Dutzend 8-TB-HDDs ersetzen und würde bei deutlich mehr Leistung weitaus weniger Energie benötigen. Allerdings sind die Kosten pro Terabyte bei SSDs aufgrund des teuren NAND-Flash immer noch weitaus höher als bei Festplatten. Inwieweit sich das Verhältnis bis 2019 verschoben hat, bleibt abzuwarten. Diesen Zeitraum peilt Toshiba in etwa für 100-TB-SSDs an.
Auch 2019 dürften so eine 100TB SSDs dann noch pro GB weitaus teurer sein, die Frage ist aber, ob sie dann immer noch 10 (aktuell sind ja 10TB HDDs erhältlich) oder vielleicht nur noch 5 HDDs (wenn es dann welche mit HAMR und 20TB gibt) ersetzt. Der Kostenvorteil der SSDs entsteht dann nämlich aus der eingesparten Infrastruktur bei großen Storage. Statt 5 Racks voller HDDs reicht dann ein Rack voll solcher SSDs um die gleichen Daten zu speichern und die 4 gesparten Racks und deren Aufstellfläche, Netzwerkanbindungen und überhaupt Unterhaltskosten könnten die Mehrkosten der SSDs pro GB durchaus kompensieren. Das wird wohl der einzige Weg sein um HDDs auch bei den Kosten pro TB zu schlagen, nämlich nicht indem die einzelne SSD pro TB so billiger wird wie eine HDD, aber indem ein Storage mit sehr vielen PB bei der ToC eines mit HDDs schlägt.

Heimanwender vergessen ja immer gerne, dass man eben auch den Einbauplatz für eine HDD oder SSD nicht umsonst bekommt, weil sie die paar Platten die sie haben eben noch bequem ins Gehäuse bekommen und ans Boards sowie an Netzteil angeschlossen bekommen. Es wer mehr Laufwerken anschließen möchte, merkt das dies nicht umsonst zu machen ist.
 
Zuletzt bearbeitet:
Candy_Cloud schrieb:
Bin gespannt wie lange es noch dauert bis zur BLC (Byte-Level Cell) Die Hälfte ist ja erreicht.

Das wird noch lange dauern. Bei QLC müssen 16, bei "BLC" 256 verschiedene Ladungen unterschieden werden, ich bin mir nicht mal sicher ob es das überhaupt irgendwann geben wird. 256 Lagen 3D NAND bestimmt, aber mehr Speicher in eine Zelle geht nicht unendlich weit
 
Das Problem ist die Größe der Zellen, je mehr Bits man in einer Zellen speichern möchte, umso mehr Elektronen müssen dort auch drin sein und bei den aktuellen 15/16nm NANDs ist da nur noch von so 20 Elektronen pro Zelle die Rede. Da beißt sich die Katze in den Schwanz, entweder kann man die Zellen verkleinern, was dann die Datendichte erhöht und die Kosten senkt, oder man versucht eben mehr Bits in den Zellen zu speichern, was aber vor allem auf Kosten der Zyklenfestigkeit und Schreibgeschwindigkeit geht, beides auf einmal geht einfach nicht.

QLC war vor Jahren schon mal angedacht und ich meine zumindest Prototypenmäßig realisiert, nur wurde es eben durch die Shrinks der NANDs dann einfach wieder unmöglich.
 
Im Artikel war unter dem Thema "WORM" ja die Rede von ~150 Schreibvorgängen. Wenn man sich die Tabelle anschaut, steht den >100TB Kapazität eine TBW von 3~6 PB entgegen, was einem Faktor von 30 bis 60 entspricht. Egal.

Ich bin jedenfalls gespannt, ob wir im Consumerbereich solche Archivierungsspeicher überhaupt sehen werden. Ein Anreiz wäre ja eigentlich nur ein halbwegs gutes P/L-Verhältnis. Wenn ich vom aktuellen Preisverhältnis von ca. 0,21€/GB ausgehe, würde hier schon ein 20TB Modell (das wohl für einen Normalnutzer durchaus interessant sein dürfte) ~4300€ kosten. D.h., selbst wenn sich bis 2019 das Verhältnis auf 0,05€/GB vierfach verbessern würde, wären wir hier also mit mehr als 1000€ in der Rechnung. Wenn ich mir anschaue, dass wir heute schon 8TB für ca. 250€ bekommen, und bis 2019 vielleicht bei 10TB für 200€ angelangt sind, wäre die herkömmliche Archivierungs HDD in meinen Augen vom P/L-Verhältnis mit all ihren Nachteilen immer noch deutlich interessanter.
 
Vergiss nicht, dass bei NANDs immer auch Refreshs nötig sind für die auch P/E Zyklen draufgehen und es immer auch eine Write Amplification gibt. Daher kann man nicht einfach die Kapazität * P/E = TBW rechnen, sondern wird real immer weniger TBW haben als diese simple Rechnung ergibt.

Eine Vervierfachung bis 2019, also 5ct/GB, halt ich für zu optimistisch, innerhalb des nächsten Jahres wird nur noch eine Senkung von 20ct/GB auf 15ct/GB erwartet und die Kurve dürfte dann eher weiter abflachen, 10ct/GB in 2019 wären schon sehr gut. Für Heimanwender wird so eine SSD also sehr lange Luxus bleiben, dafür dürften die insgesamt realisierten Kapazitäten der Storages von Heimanwendern zu klein und die Infrastruktur die dafür verwendet wird, zu billig sein. Wenn brauchbares 2 Bay NAS ab so 200€ und ein 8 Bay ab 800€ kosten, dann kann man mit 10TB HDDs für sagen wir 500€ eben mit dem 8 Bay ein Storage mit 80TB brutto (also ohne RAID gerechnet) für 4800€ bauen. In dem 2 Bay NAS könnte man mit zwei 40TB SSDs das gleiche machen, aber man spart beim NAS nur 600€, damit dürften die SSDs nur je 2300€ kosten um nicht teurer zu werden, rechnet man die Energieeinsparung mit dazu, sind es vielleicht ein paar Dutzend Euro mehr, aber kommt bei weitem nicht in Größenordnungen wie sie große Storageanbieter wie Google mit ihren gewaltigen Rechenzentren erzielen können auf die solche SSDs abzielen.
 
Zuletzt bearbeitet:
;)

Eben Holt. Ich wollte verdeutlichen, dass trotz extrem vereinfachter Betrachtung und (wahrscheinlich) vollkommen übertrieben positiver Annahmen, sich selbst dann so eine SSD nicht für einen Heimanwender rechnen wird.

*Hier Stand eine schon beantwortete Frage* ;)
 
Zuletzt bearbeitet: (Überflüssiges rausgenommen)
Mir würde ja schon eine 2TB M.2 für 150 € in 2019 reichen. Je eher, desto besser.:lol:
 
Das lass ich mir gefallen mal sehen wann dan ein Petabyte gerissen wird, nicht das ich es momentan bräuchte, aber man hofft das die kleineren dann günster werden im laufe der Zeit, schon erstaunlich was auf einmal alles möglich wird.

(Da wird man gleich gierig, ach was soll der Geiz 2x8TB SSD das wärs :D auf zig Jahre(zente?) Ruhe )
 
Holt schrieb:
Der Kostenvorteil der SSDs entsteht dann nämlich aus der eingesparten Infrastruktur bei großen Storage. Statt 5 Racks voller HDDs reicht dann ein Rack voll solcher SSDs um die gleichen Daten zu speichern und die 4 gesparten Racks und deren Aufstellfläche, Netzwerkanbindungen und überhaupt Unterhaltskosten könnten die Mehrkosten der SSDs pro GB durchaus kompensieren.

Was glaubst du, daß 2019 allein nur eine 100 TB SSD kosten wird? Wieviele davon passen in ein Rack und wie klein wird dagegen wohl die Summe der Nebenkosten sein? :D
 
Werden auf dieser Summit auch irgendwelche Produkte für normale Consumer vorgestellt? Könnte ne 2TB SSD für 400 Euro gebrauchen.:lol:
 
drago-museweni schrieb:
aber man hofft das die kleineren dann günster werden im laufe der Zeit
Das sind hier SSDs für eine Anwendung für die es bisher keine SSD gab, nämlich für Cool und Cold Data. Die Zyklenfestigkeit und Schreibperformance sind bei QLC NAND eben noch mal schlechter als bei TLC, aber das ist relativ egal, zumal wenn man so viele NANDs verbaut bekommt man wenigstens bei der Schreibperformance der SSD dann über die Parallelität wieder gute Werte hin.

Das NAND ist aber nicht wirklich für kleine Consumer SSDs geeignet, die Dies werden groß sein und die Schreibperformance bei den wenigen Dies die man für eine SSDs mit einigen 100GB braucht dann entsprechend schwach. dann hat man nur 150 P/E Zyklen, was für eine SSD als Systemlaufwerk doch schon sehr wenig ist, aber das wird sicher nicht alle SSD Anbieter davon abhalten es nicht doch dafür zu nehmen. Nur wie gut diese SSDs dann noch im Alltag sind, wird man sehen müssen, ebenso ob es überhaupt günstige Controller gehen wird, die mit solchen NANDs umgehen können. Wenn nicht, werden die kleinen SSDs preislich überhaupt nicht von der Entwicklung profitieren.

Dario schrieb:
Was glaubst du, daß 2019 allein nur eine 100 TB SSD kosten wird?
Also ich fürchte wir können schon froh sein, wenn sie die Preise pro GB gegenüber heute dann halbiert haben, zumindest für die billigsten NANDs. Wie diese dann genau aussehen und was für Eigenschaften sie haben, wird man sehen müssen, aber die dürften eher noch schlechter als bei den derzeitig billigsten NANDs, also planaren 15/16nm TLC NANDs sein. Bei besseren NANDs wie Samsungs V-NANDs ist das Potential für Kostensenkungen wohl geringer.
Dario schrieb:
Wieviele davon passen in ein Rack und wie klein wird dagegen wohl die Summe der Nebenkosten sein? :D
SSDs mit solchen gewaltigen Kapazitäten werden eine neuen Anwendungsbereich für SSDs erschließen und da sie pro TB eben immer noch einiges teurer als HDDs sein werden, müssen die Kapazitäten sehr hoch sein um die ToC bei großen Storages von sehr vielen Peta- bis Exabytes eben durch die Eingesparte Infrastruktur zu senken. Dies wird umso eher erreicht, je mehr Kapazität eine SSD hat, da könnte die Größe des 3.5" Gehäuses schnell das Limit werden, andererseits ist nichts perfekt und auch beim Binnen von NAND Dies passieren Fehler. Wenn nun einer von 1000 Dies doch schlechter ist als die Prüfung ergeben hat, so habe ich bei einer SSD mit 10 davon eine Wahrscheinlichkeit von 1% so ein Die darin zu haben und damit einen baldigen Ausfall zu erleben. Verbaue ich 100 der Dies in einer SSDs liegt die Wahrscheinlichkeit schon bei 10% und wenn ich sogar 1000 Dies in eine SSD packen, steckt statisch in jeder so ein faules Ei. Also muss ich entweder mehr Redundanz intern verwenden um damit umgehen zu können oder die Prozesse so verbessern, dass der Faktor statt 1:1000 eben bei 1:100.000 landet um wieder auf 1% zu kommen, nur kostet Beides aber Geld.

Es ist eben wie immer, wenn man die bewährten Dimensionen verlässt, stößt man auf ganz neue Probleme und muss Lösungen dafür finden. Backe mal Deinen Lieblingskuchen, dafür brauchst Du vielleicht ein Pfund Mehl, zwei Eier.... nun nimm das mal 10 oder mal Hundert, dann ist das erste Problem schon mal, wo und wie Du den Teig anrühren willst, geht das in Badewanne oder sollte man einen Betonmischer nehmen und in welches Form willst Du den dann backen und in welche Ofen passt die dann, wie lange müsste der Kuchen dann überhaupt gebacken werden, etc.

Die sind eben für die großen Jungs wie Google und Co. die gewaltige Storagekapazitäten brauchen und dabei ganz andere Lösungen für Probleme brauchen die ein Heimanwender gar nicht hat, weil der selbst wenn er einige Dutzend TB speichert, doch noch in viel bescheideneren Dimensionen unterwegs ist.
 
Denen glaube ich das aufs Wort ... ganz anders als den HDD-Lappen die 100TB HDD's schon seit Jahren ankündigen.
 
Wer hat denn je eine 100TB HDD angekündigt? Außerdem ist Toshiba ja auch einer der drei verbliebenen HDD Hersteller.
 
Brian McDonald schrieb:
Denen glaube ich das aufs Wort ... ganz anders als den HDD-Lappen die 100TB HDD's schon seit Jahren ankündigen.

Und komischerweise keine Erfolge erzielen oder man hört nichts davon. Naja inzwischen gibts schon Informationen und das ganz komisch, zu einer Zeit in der auch SSDs größer und günstiger werden. Die Wettbewerbsbehörde hätte niemals so ein Marktgefüge zulassen dürfen, als IBM Storage verkauft wurde. Man hat sofort gemerkt alles wird teurer. Angeblich wegen der Flutkatastrophe in Thailand, aber scheinbar haben die sich bis heute nicht erholt!? Ja klar...

Ich denke bei denen liegt selbst HAMR in der Schublade. Aber der Verkauf läuft besser, wenn man nicht gleich die Perlen verkauft.
 
Wieso glauben die Leute einerseits es länge die nächste Technologie schon lange fertig in der Schublade und beschweren sich dann andererseits die Kunden würden als Versuchskaninchen missbraucht weil ihnen unausgereifte Technik verkauft wird, wenn es mit neuere Technologie Schwierigkeiten gibt?
 
Holt schrieb:
Wieso glauben die Leute einerseits es länge die nächste Technologie schon lange fertig in der Schublade und beschweren sich dann andererseits die Kunden würden als Versuchskaninchen missbraucht weil ihnen unausgereifte Technik verkauft wird, wenn es mit neuere Technologie Schwierigkeiten gibt?

Suche doch einfach mal hier nach HAMR und dann wirst du feststellen, daß Brian McDonald Recht hat! Und normal hast auch du Recht, wenn gesagt wird, daß Produkte beim Kunden reifen. Dafür klappt das mit dem Helium in den Festplatten allerdings sehr gut!

Vor der Flutkatastrophe gabs 2 TB Platten zum ähnlichen Preis wie heute, oder? Warum ist der Preis in all der Zeit nicht gesunken?
 
Zwischen einer Ankündigung eines Produktes und dem In Aussicht stellen eine bestimmte Kapazität innerhalb von 10 Jahren erreichen zu wollen, gibt es aber schon noch einen Unterschied und konkret angekündigt hat meines Wissens bisher kein HDD Hersteller jemals eine 100TB HDDs, man hat nur in Aussicht gestellt mit HAMR 2025 so weit kommen zu wollen.
 
Zurück
Oben