News 3D-NAND: 500 Layer für 512‑TB‑SSDs und ein Generationenvergleich

Nachteilig find Ich das man nicht gezielt sicher löschen/überschreiben kann da da Flash Speicher dahin schreibt wo frei ist und nicht fortlaufend 01.

Ansonsten ist es zwar nicht so extrem wie bei den Rampreisen aber Faktor 5 bei der Kapazität währe mahl Zeitgemessen für s Geld !
 
Vissi schrieb:
Wie sieht das im Vergleich zu einer HDD aus? Nun, ca. alle 10 Jahre booten einige unserer Ingenieure normale Festplatten, die mehr als 30 Jahre alt sind und lesen von ihnen Daten aus – fehlerfrei!"

Vor einiger Zeit habe ich einen Amiga 2000 der über 20 Jahre in der Ecke herumstand eingeschaltet. Erstaunlicherweise bootete er einwandfrei von der HDD. Nach etwa 20 Minuten roch es nach trockenlaufenden und anschließend festgefressenen Lager und die HDD war tot. Offenbar hat die Schmierung versagt.

HDDs halten also auch nicht ewig.

So alte USB Sticks habe ich zwar nicht aber Router, Switches und Mainboards. Sie booteten noch woraus ich schließe, dass die Flashspeicher mit Firmware ihren Inhalt nicht verloren haben.
 
war bei mir genau andersrum. Hab hier einen MAC SE von 1988 mit einer heißen 20MB SCSI-Platten, geht einwandfrei. Dafür hab ich USB-Sticks die eigentlich alle im Eimer sind nach einigen Jahren.
 
Holt schrieb:
Die Frage ist doch eher in wieweit dies von den Kosten her attraktiv ist.
Das ist natürlich richtig. Ich ging nur von der Aussage der News aus "Im Grunde handelt es sich um ein verdoppeltes 32-Layer-Design, denn es werden praktisch zwei 32-Layer-Stapel übereinander gestapelt, was die Hersteller Array Stacking nennen. Diese Methode ist offenbar wirtschaftlicher als die Herstellung eines nativen 64-Layer-Chips. "
Kann natürlich auch nur eine vermutung seitens CB

@sysrq Vielen Dank für die Info.
 
Vissi schrieb:
Dann müssten ja die Daten im Eimer sein!?
Auch die Angaben der Hersteller sind nur Mindestangaben, die HDD muss nach einer Lagerung gemäß der Vorgaben noch problemlos laufen und darf auch danach bis zum Ende ihrer Nutzungsdauer keine erhöhte Ausfallraten zeigen, natürlich auch wenn die Lagerbedingungen hart an der Grenze der Vorgaben sind. Lagerst Du sie außerhalb der Spezifikationen, also z.B. länger und sie ist dann danach kaputt, kannst Du dem Hersteller nicht mehr die Verantwortung dafür geben und dies ist gerade in den USA wegen der Sammelklagen dort nicht unwichtig. Damit sie auch unter grenzwertigen Bedingungen die Spezifikationen einhalten kann, sind diese Lagerzeiträume eben eher knapp als übertrieben angegeben und natürlich kann man daher guter Hoffnung sein das sie unter besseren und erst recht optimalen Bedingungen auch eine längere Lagerung problemlos überstehen. Aber eben auf eigenes Risiko und wenn es schief geht ist kann man niemanden als sich selbst dafür verantwortlich machen.

Das ist also genau wie bei den 12 Monaten die die JESD218 für die Datenerhaltung bei Client SSDs verlangt oder dem Mindesthaltbarkeitsdatum auf Lebensmitteln. Da steht auch "Mindestens haltbar bis" und nicht "Sofort tödlich bei Verzehr nach dem", auch wenn so mancher Zeitgenosse dies scheinbar so versteht.
Faultier schrieb:
Nachteilig find Ich das man nicht gezielt sicher löschen/überschreiben kann da da Flash Speicher dahin schreibt wo frei ist
Wo ist das Problem? Wenn Du die Daten auf Ebene des Betriebssystems überschrieben hast, dann überschreibt dies zwar die Daten im NAND der SSD, aber die alten Daten kann man trotzdem allenfalls noch auslesen indem man die NANDs ablötet und manuell ausliest, denn die LBAs unter denen die alten Daten vorher auslesbar waren, werden ja nun mit den NAND Adressen der neuen Daten verknüpft und die alten Daten kann man von außen nicht mehr lesen, da kein LBA mehr mit ihnen verbunden ist. Außerdem sind sie über den Controller durch das Überschreiben ungültig geworden und werden bei der nächsten Idle-GC oder wenn der Platz gebraucht wird auch noch während des Schreibvorgangs gelöscht eben um neuen Platz zu schaffen.

Einmaliges Überschreiben reicht daher auch bei SSDs damit man mit normalen Motteln eben keine Daten mehr Wiederherstellen kann!
Wattwanderer schrieb:
Nach etwa 20 Minuten roch es nach trockenlaufenden und anschließend festgefressenen Lager und die HDD war tot. Offenbar hat die Schmierung versagt.
Eben, es ist nicht die Magnetisierung der Platter die das Problem ist, sondern die Mechanik, die Chemie (also Schmierung, alternde und damit spröde werdende Kunststoffe, etc.), ggf. auch die Elektronik falls Verbindungen korrodieren. Die Platten müssen auch nicht sofort tot sein, sie können noch eine Weile funktionieren und dann erst kaputtgehen, wie bei Dir eben nach 20 Minuten, andere vielleicht nach 2 Stunden, die Frage ist ob es reicht die Daten in der Zeit alle zu kopieren und ob man damit überhaupt rechtzeitig angefangen hat. Aber auch wenn eine Platte nach 10 Jahren Lagerung noch lange problemlos funktioniert, dann heißt dies nicht das eine andere Platte auch so lange durchhält und es besagt erst recht nicht, dass die Angaben des Hersteller falsch sind, weil die keine absolut maximale Lagerdauer angeben, sondern die maximale Lagerdauer innerhalb der es keine Probleme geben wird.
 
Mir ist glücklicher Weise noch nie eine Festplatte kaputt gegangen. Und ich habe immer 5-6 Festplatten in Betrieb gehabt. Dieses Jahr habe ich 2x500gb, 1x1,5gb in Rente geschickt.
 
sysrq schrieb:
@r4yn3

http://semiengineering.com/3d-nand-flash-wars-begin/
http://semiengineering.com/how-to-make-3d-nand/

Das Limit für einen single stack scheint bei 128 Layern aufgrund des aspect ratio zu liegen. Das kann man aber wohl nur mit fortgeschritteneren Etch-Geräten. Mit derzeitiger Technologie ist das Limit bei 48/64. Samsung z.B. benutzt bei ihrem aktuellen 64L nur einen Stack, während Micron/Intel bei ihrem 64L 32+32 benutzt. Wie das bei Toshiba/WD ist weiß ich nicht. Laut den Slides ist für Anfang-Mitte der 2020er wohl 512L mit 4-8 Stacks (128-64L) geplant. Das Problem wird dann irgendwann der Yield, da sich Fehler von niedrigeren Stacks auf höhere auswirken (quasi wie die Erbse unter der Matratze :p). Aber vielleicht wird lässt sich da ja in der Zukunft auch noch was finden.
Laut anandtech nutzt micron kein stacking bei 64L. Gleichwohl sie einige Zeit vorher Mal einen Prototyp mit 32L+32L gezeigt haben.
https://www.anandtech.com/show/13009/micron-non-volatile-update-96l-3d-nand-in-h2
 
Da sollten ja bald SSD in Kapazität und Preis einer HDD näher kommen ;)

Bin ja Gespannt wenn man GPU oder CPU stapeln, besonders die Kerne ^^
 
Tekpoint schrieb:
Bin ja Gespannt wenn man GPU oder CPU stapeln, besonders die Kerne ^^
Garnicht, weil man die Abwärme nicht abführen könnte (zumindest mit in PCs üblicher Kühlung).
 
l00pm45ch1n3 schrieb:
Bemerkenswert wie schnell sich diese Technik im direkten Vergleich zu herkömmlichen HDDs / optischen Medien weiterentwickelt hat.
Die Antwort ist auch simpel: Ein lebendiger Markt mit enorm vielen Teilnehmern gegen ein Oligopol aus WD und Samsung. Wo Gewinne ohne Innovation garantiert sind, tut sich auch nichts. Die Preisentwicklung bei HDD zeigt doch alles.
 
Botcruscher schrieb:
Die Antwort ist auch simpel: Ein lebendiger Markt mit enorm vielen Teilnehmern gegen ein Oligopol aus WD und Samsung. Wo Gewinne ohne Innovation garantiert sind, tut sich auch nichts. Die Preisentwicklung bei HDD zeigt doch alles.

Da hast du absolut recht. HAMR wird auch nur entwickelt, weil denen da oben langweilig ist, und die sonst keine anderen Hobbys haben.
 
Tekpoint schrieb:
Da sollten ja bald SSD in Kapazität und Preis einer HDD näher kommen
Über die Preise sagt die News nichts aus und wie ich schrieb, ist da auch nicht so viel Potential als das man den HDDs damit gefährlich werden könnte. Bei der maximalen Kapazität hat man die HDDs schon lange überholt, die größte HDDs die man derzeit kaufen kann haben 14TB, wie in der News auch steht hat die größte in Serie gefertigten SSD 30TB Samsung PM1643) und deren Vorgänger PM1633a mit 15,36TB ist schon fast 2½ Jahre alt. Beide sind zwar OEM Produkte und im normalen PC Handel daher kaum bis gar nicht erhältlich, aber bei den Preisen wird dies auch kaum einen Heimanwender stören, denn einen 5 stelligen Betrag alleine für die SSD dürften die wenigsten hinzulegen bereit sein.
Vindoriel schrieb:
Garnicht, weil man die Abwärme nicht abführen könnte (zumindest mit in PCs üblicher Kühlung).
Das vermute ich auch, ich denke man wird die Schaltungen der Logikelemente zunehmend dreidimensional gestalten, die Transistoren sind ja schon in die Höhe gebaut. Direkt wie bei NAND Zellen übereinander angeordnete und voneinander unabhängige sich wiederholende Elemente (wie eben die Kerne) erwarte ich eher nicht so bald und meines Wissens nach ist dies auch noch nicht einmal bei DRAM der Fall.
Botcruscher schrieb:
gegen ein Oligopol aus WD und Samsung.
Samsung hat seine HDD Sparte 2011 an Seagate verkauft und hat daher seit 7 Jahren damit nichts mehr zu tun. Die drei Hersteller von HDD sind WD, Seagate und Toshiba und da findet auch immer noch Wettbewerb statt, auch um die Technologie für mehr Datendichte:
Bei 40TB will man 2025 angekommen sein und die Kosten sollen nicht sehr weit über denen der herkömmlicher HDDs liegen, die Steigerung der Kapazität ist bei HDDs eben schwieriger als bei SSDs wo man einfach mehr der gleiche NAND Dies reinpackt, aber dafür hat man dann bei den SSDs auch linear steigende Kosten und bei HDDs fallen die Kosten pro TB, wenn man eine neue Technologie zu Steigerung der Datendichte erst einmal serienreif hat.
 
500 Layer, 500 Terabyte - aber immer noch M.2 mit 4 PCIe3.0 Lanes - oder soll sich bei der Verlustleistung auch noch was tun ?
 
Bis man die 500 Layer und 500TB hat, ist PCIe 5.0 langst raus und vermutlich schon durch PCIe 6.0 abgelöst, außerdem erlaubt M.2 gar nicht mehr als 4 PCIe Lanes und auch keine 9W Leistungsaufnahme und bis die 500TB SSDs für Heimanwender erschwinglich werden, dürfte auch PCIe 6.0 längst abgelöst worden sein.
 
Holt schrieb:
Bis man die 500 Layer und 500TB hat, ist PCIe 5.0 langst raus und vermutlich schon durch PCIe 6.0 abgelöst, außerdem erlaubt M.2 gar nicht mehr als 4 PCIe Lanes und auch keine 9W Leistungsaufnahme und bis die 500TB SSDs für Heimanwender erschwinglich werden, dürfte auch PCIe 6.0 längst abgelöst worden sein.

2023 gibt es bestimmt noch kein PCIe 6.0, never ever.
 
Dann warten wir mal ab ob es 2023 dann auch 500Layer NANDs und 500TB SSDs geben wird!
 
l00pm45ch1n3 schrieb:
Bei Festplatten hat man gefühlte Erfahrungswerte was die Haltbarkeit betrifft.
Bei einer SSD ist das wohl noch ein Glücksspiel.

Schauen wir mal.
Hab gerade meine erste SSD von 2009 wieder erhalten, die lag ca 3+ Jahre in der Schublade. Nächste Woche werde ich sie mal in einem externen Gehäuse testen.
Der erste schnell Test mit drei Fotos klappte erstmal.
 

Anhänge

  • 1DF0603B-6314-4C5C-9A6D-FC98F64FDBF9.jpeg
    1DF0603B-6314-4C5C-9A6D-FC98F64FDBF9.jpeg
    926,6 KB · Aufrufe: 593
40 TB, das ist schon ordentlich!
 
Ich habe noch ne 50 GB OCZ Vertex2 rumliegen. Muss die mal wieder rauskramen...

Was Datenbeständigkeit angeht, sehe ich aufgrund der größeren Speicherzellen (gröberer Prozess) weitaus weniger Probleme als bei aktuelleren SSDs, insbesonders TLC der 1. Generation ohne 3D-NAND (die haben ihre Daten schon nach paar Monaten verloren bzw. für massiven Einsatz der Fehlerkorrektur gesorgt).
 
Zurück
Oben