News 3D-NAND: Intel und SK Hynix setzen neue Maßstäbe bei der Flächendichte

@Caramon2 @Rickmer
Ich weiß nicht ob ihr damit was anfangen könnt, ich denke aber mal. Hier ist eine MX500 500GB die etwas stärker benutzt wurde von mir. Sie hält immernoch gut, aber auch nur seitdem ich größere Jobs nur noch auf den HDDs mache, und nicht mehr die SSD dafür nutze (VeraCrypt Volume Creation, VMs testen, Dinge auf 3 HDDs kopieren, wo es auf der SSD dann halt 3x mal so schnell geht, etc.)

1679159141499.png
 
  • Gefällt mir
Reaktionen: Caramon2
Rickmer schrieb:
seufz

1) Du meinst SLC Cache, nicht DRAM Cache. DRAM Cache hat einen anderen Zweck und ist bei MLC und TLC SSDs gleichermaßen wichtig wie bei QLC.


Richtig, falsche SSD für den Zweck gekauft.
Beim Kauf einer 5400rpm SMR HDD wäre dir da die Performance genauso negativ aufgefallen.
Seufz
Nein, ich meine den DRAM Speicher, der neben der Map und zum wear leveling auch als Puffer genutzt wird, falls der Flash nicht mit kommt. TLC kann schneller schreiben, also wird der DRAM FIFO schneller geleert und muss nicht so groß dimensioniert sein.

Habe im guten Glauben eine QLC geholt, konnte nicht ahnen das es bei kleinen Linux-Images schon einbricht. TLC hat da keine Probleme mit DRAM Cache btw.
 
Phoenix_29021 schrieb:
Hier ist eine MX500 500GB die etwas stärker benutzt wurde von mir. Sie hält immernoch gut, aber auch nur seitdem ich größere Jobs nur noch auf den HDDs mache, und nicht mehr die SSD dafür nutze (VeraCrypt Volume Creation, VMs testen, Dinge auf 3 HDDs kopieren, wo es auf der SSD dann halt 3x mal so schnell geht, etc.)
Die ist schon über ihr TBW Rating hinaus und immernoch bei 50%, da kann man doch nicht meckern :)

Wenn ich beim Attribut AD 753 durchschnittliche Löschvorgänge sehe, geht Crucial wohl von einer Haltbarkeit von 1500 Löschvorgängen aus. Für TLC ist das eine eher vorsichtige Angabe.

116TB in 3565 Stunden ist aber auch eine eher überdurchschnittliche hohe Belastung... das sind 33GB pro Betriebsstunde. Oder auch 543 MB/Minute bzw. 9MB/s Dauerlast.
Oder 1,56 DWPD, wenn man Dauerbetrieb annehmen würde. (Was vermutlich nicht korrekt ist). Was ich sagen will - die Belastung ist weit über das hinaus, wofür die SSD designed wurde.

Diablokiller999 schrieb:
Nein, ich meine den DRAM Speicher, der neben der Map und zum wear leveling auch als Puffer genutzt wird, falls der Flash nicht mit kommt.
Kannste die Info auch mit 'ner Quelle untermauern, oder ist das nur Wunschdenken?

(Bzw. eher nicht-wunsch-Denken, weil bei 'ner Consumer-SSD ohne power loss protection hätte ich lieber keinen Write-Cache im volatilen DRAM...
für z.B. Wear Leveling ist das kein Problem wenn die Befehle in richtiger Reihenfolge abgegeben werden, aber ich kann mir ganz easy ein Scenario vorstellen, wo jemand beim Windows Update ungeduldig wird, den Strom ausknipst, Writes gehen verloren und beim nächsten Anschalten meldet sich Windows, dass da was kaputt ist weil als geschrieben bestätigte Dateien nicht existieren.)

Diablokiller999 schrieb:
Habe im guten Glauben eine QLC geholt, konnte nicht ahnen das es bei kleinen Linux-Images schon einbricht.
Ich hatte zwischenzeitig eine Intel 660p 1TB, da war mir im Vorfeld bekannt, dass der SLC Cache im Minimum 12GB groß ist... für 'ne ISO reicht das, für 'ne VM mit der man ein-zwei Sachen gemacht hat eher nicht.
 
Rickmer schrieb:
Die ist schon über ihr TBW Rating hinaus und immernoch bei 50%, da kann man doch nicht meckern :)

Wenn ich beim Attribut AD 753 durchschnittliche Löschvorgänge sehe, geht Crucial wohl von einer Haltbarkeit von 1500 Löschvorgängen aus. Für TLC ist das eine eher vorsichtige Angabe.
Bei 116TB über TBW hinaus?🤔 Waren es nicht etwa 180TB bei 500GB-Variante?
Bei einer entsprechenden 8xxEVO wären das 300TBW, weil Sammy meist 600TBW pro 1TB garantiert und die Rest-Life-%% mit ca. 3000 P/E-Zyklen kalkuliert (oder waren das 3200?).
 
massaker schrieb:
Bei 116TB über TBW hinaus?🤔 Waren es nicht etwa 180TB bei 500GB-Variante?
Hast Recht
keine Ahnung, warum ich 100TB im Kopf hatte
 
Rickmer schrieb:
(Bzw. eher nicht-wunsch-Denken, weil bei 'ner Consumer-SSD ohne power loss protection hätte ich lieber keinen Write-Cache im volatilen DRAM...

NVMe sieht dafür ein Flag vor und auch CDI zeigt das an:
cdi.png

Mir ist keine Consumer SSD bekannt die das Flag nicht setzt, komplett unabhängig vom Vorhandensein von DRAM oder nicht. Liegt daran, dass selbst ohne DRAM Consumer FW keine Garantien geben kann, dass Daten wirklich im Flash liegt wenn sie das dem Host mitteilt. Das geht prinzipiell, ist aber Mehrarbeit welche man im Consumerbereich nicht haben will, da das direkt die Datenraten drücken würde. Aber macht auch nichts, die jetzigen Schutzmechanismen auf FW und Dateisystemebene reichen im Consumerbereich vollkommen aus, damit bei einem Stromverlust nicht gleich sämtliche Daten verloren gehen.
 
Rickmer schrieb:
Wann hast du das letzte mal davon gehört, dass eine TLC SSD mit mehr Kapazität als 128/256GB kaputt geschrieben wurde?
(Einige fragwürdige Builds für Chia-Plotting mal ausgenommen)

Naja ich nutze bewusst eine HDD, ich schreibe aber auch seit jahren ca 3000 GB/Jahr. Spannenderweise hält die hdd
 
Zuletzt bearbeitet:
Chuuei schrieb:
NVMe sieht dafür ein Flag vor und auch CDI zeigt das an:
Hmm, danke für den Hinweis. Irgendwie habe ich den Eintrag bisher übersehen.

Chuuei schrieb:
Mir ist keine Consumer SSD bekannt die das Flag nicht setzt, komplett unabhängig vom Vorhandensein von DRAM oder nicht.
Du meinst Consumer NVMe?
Bei keiner meiner Consumer SATA SSDs (MX500, Ultra3D, M4, Vertex 2) ist der Flag vorhanden.
Bei meinen Enterprise SSDs (Micron 7400 Pro m.2, Micron 5210 ION, Kioxia CD6-R U.3) ist der Flag nicht, aber das dürfte niemanden überraschen.

Ich hätte da auch spontan ein Beispiel für eine Consumer NVMe SSD, die den Flag nicht setzt: Samsung SSD 970 EVO 500GB, M.2
Die Intel 660p 500GB, die im Notebook ab Werk verbaut wurde, hat den Flag derweil tatsächlich.

Piak schrieb:
Naja ich nutze bewusst eine HDD, ich schreibe aber auch seit jahren ca 1000 TB/Jahr. Spannenderweise hält die hdd
Bloß weil's in den Spezifikationen nicht drin steht heißt nicht, dass es nicht geht :D
Es ist ja auch bei SSDs bekannt, dass (grade bei älteren MLC Modellen) ein Vielfaches der vom Hersteller genannten TBW drauf geschrieben werden kann bevor die SSD tatsächlich degradiert.

(Weiß jemand zufällig, ob das Experiment irgendwo mit modernen QLC SSDs wiederholt wurde? Oder überhaupt mal wiederholt wurde?)
 
Piak schrieb:
Ahso... nagut, das ist effektiv komplett unbelastet.

Selbst günstigste Consumer HDDs haben im Datenblatt 50 TB/J stehen, bessere HDDs 250/350/550 TB/J.

Bei Enterprise SSDs geht noch viel mehr... ich hatte eine gebrauchte Kioxia CD6-R 7.68TB gekauft, die hatte ca. 10k Stunden drauf mit ~2 PB Writes bei 'nem Gesamtzustand von 97%.
 
Rickmer schrieb:
Du meinst Consumer NVMe?
Bei keiner meiner Consumer SATA SSDs (MX500, Ultra3D, M4, Vertex 2) ist der Flag vorhanden.
Passt doch so wie ich geschrieben habe. Es gibt SSDs in verschiedenen Varianten für Consumer, Enterprise, Industrial Market etc. Aber NVMe ist nur nen Protokoll, da gibts kein Consumer NVMe. Ob SATA was analoges hat um dem Host das mitzuteilen weiß ich nicht, die Funktionalität an sich gibt es natürlich. Ist ja unabhängig vom Protokoll sondern was die FW macht.

Rickmer schrieb:
Ich hätte da auch spontan ein Beispiel für eine Consumer NVMe SSD, die den Flag nicht setzt: Samsung SSD 970 EVO 500GB, M.2
Die zeigt nicht mal an, dass Trim unterstütz wird den CDI Screenshots laut Google Bildersuche nach :) Weiß nicht warum Samsung das nicht dem Host mitteilt. Ganz konsistent scheint das auch nicht zu sein. Wenn man z.B. nach CDI Screenshots der 980 Pro schaut gibts beides, mit Anzeige des Flags und ohne. Die welche das Flag reported hat die neuere FW, vielleicht hat Samsung da was nachgebessert.
 
  • Gefällt mir
Reaktionen: Rickmer
Rickmer schrieb:
Das klingt für mich nach einer heimlichen neuen Revision mit QLC Speicher...
Kann nicht sein: Bei QLC könnte der SLC-Cache ja nur max. 1/4 der Kapazität haben: Genau das wollte ich mit dem Test (Zufallszahlen per dd direkt aufs Laufwerk geschrieben) ja kontrollieren:

Da Billig-Marke und im Datenblatt (u. a.) keine Angabe des Flash-Typs (um eben beliebig das jeweiligs günstigeste verbauen zu können), hatte ich QLC schon fast erwartet: Dann wären sie sofort zurück gegangen.

Rickmer schrieb:
Du könntest die SSD mal aufschrauben und Bilder im Der SSD Bilder Thread posten, dann kann man mal nachschauen, was für NAND drin ist.
Afair ist da nicht mir schrauben, sondern eher ein geklipstes Plastikgehäuse. - Solange noch Garantie drauf ist, würde ich das gerade bei Billig-Dingern aber sowieso nicht machen, da die Wahrscheinlichkeit ja höher ist, dass ich sie vielleicht in Anspruch nehmen muss.

Rickmer schrieb:
Persönlich gehe ich davon aus, dass eine SSD spätestens 20 Jahre nach Kauf zu langsam und/oder zu klein sein wird und entsprechend ist meine Einstellung zur Haltbarkeit.
Ich erwarte nicht, dass eine SSD, die die ersten Monate problemlos übersteht (also kein Monatgsmodell ist), bei mir kaputt geht, bevor ich nicht schon längst was abderes einsetze, weil SSDs mir bis dahin schon viel zu lahm sind. ;)

Rickmer schrieb:
1) Du meinst SLC Cache, nicht DRAM Cache. DRAM Cache hat einen anderen Zweck und ist bei MLC und TLC SSDs gleichermaßen wichtig wie bei QLC.
Das hatte ich mal getestet: Einen relevanten Nachteil von DRAMless konnte ich selbst bei einer vollständigen Systemaktualisierung nicht feststellen:

https://www.computerbase.de/forum/threads/sata-ssds-dram-cache-vs-dramless.2011541/

Rickmer schrieb:
2) Selbst im Worst-Case Scenario hast du nur beim sequentiellen Transfer von großen Dateien HDD Geschwindigkeiten. Sobald die Dateien klein sind, ist auch eine QLC SSD um Welten schneller als eine HDD.
Ich habe eine 1:1 Kopie meines Produktivsystems (natürlich mit verschlüsselter Homepartition) in einem ext. Gehäuse, um es überall booten zu können: Z. B. wenn jemand sein System zerschossen hat, dass ich dann dort meine gewohnte Arbeitsumgebung und Tools habe.

Selbst wenn ich sie an einem PC mit nur USB2 boote (das sind sogar noch die meisten), dauert nur das booten und die jeweils ersten Starts größerer Programm ein paar Sek. (=unwesentlich) länger, aber dann kann ich wie gewohnt damit arbeiten und vergesse schnell, dass sie nur an USB2 hängt: Überhaupt kein Vergleich zu den quälend langsamen fest installierten Systemen, wenn derjenige noch eine HD hat (weil ihm eine SSD "zu teuer" ist!).

Phoenix_29021 schrieb:
@Caramon2 @Rickmer
Ich weiß nicht ob ihr damit was anfangen könnt, ich denke aber mal. Hier ist eine MX500 500GB die etwas stärker benutzt wurde von mir. Sie hält immernoch gut, aber auch nur seitdem ich größere Jobs nur noch auf den HDDs mache, und nicht mehr die SSD dafür nutze (VeraCrypt Volume Creation, VMs testen, Dinge auf 3 HDDs kopieren, wo es auf der SSD dann halt 3x mal so schnell geht, etc.)
117 TB Hostwrites ist schon sportlich. :)

Bedenklich finde ich die 59°C: Bei mir liegen int. SSDs normalerweise um 30°C. Nur in einen ext. Gehäuse werden sie so warm. Und das auch nur bei größerer Schreiblast
Rickmer schrieb:
Hast Recht
keine Ahnung, warum ich 100TB im Kopf hatte
Meine 250 GB v1 hat 100 TBW und danach richtet sich offenbar der %livetime: 5 TB=5%
Ergänzung ()

Rickmer schrieb:
Wenn ich beim Attribut AD 753 durchschnittliche Löschvorgänge sehe, geht Crucial wohl von einer Haltbarkeit von 1500 Löschvorgängen aus. Für TLC ist das eine eher vorsichtige Angabe.
Ah, das ist das!

Ich wusste bisher nichts damit anzufangen und hatte es deshalb nicht protokolliert.

Danke! :)
 
Caramon2 schrieb:
Kann nicht sein: Bei QLC könnte der SLC-Cache ja nur max. 1/4 der Kapazität haben: Genau das wollte ich mit dem Test (Zufallszahlen per dd direkt aufs Laufwerk geschrieben) ja kontrollieren:
Stimmt. Overprovisioning könnte das auch erklären, ist aber bei 'ner billig-SSD eher unwahrscheinlich.

Caramon2 schrieb:
Afair ist da nicht mir schrauben, sondern eher ein geklipstes Plastikgehäuse. - Solange noch Garantie drauf ist, würde ich das gerade bei Billig-Dingern aber sowieso nicht machen, da die Wahrscheinlichkeit ja höher ist, dass ich sie vielleicht in Anspruch nehmen muss.
Verständlich.

Kann ich nachvollziehen, auch wenn ich auf meine eigene Restgarantie verzichtet hatte.

Aber meine SSDs hatten auch alle schon ein paar tausend Betriebsstunden, ich bin mit denen also im mittleren Teil des Hardware-Lebenszyklus. Das jetzt noch was passiert, ist sehr unwahrscheinlich.

Caramon2 schrieb:
Ich erwarte nicht, dass eine SSD, die die ersten Monate problemlos übersteht (also kein Monatgsmodell ist), bei mir kaputt geht, bevor ich nicht schon längst was abderes einsetze, weil SSDs mir bis dahin schon viel zu lahm sind. ;)
Ich sag's mal so... meine erste SSD war 2010 eine Vertex 2 120GB, welche 184€ gekostet hatte.
10 Jahre später hat man für den Preis bei vergleichbarer Qualität 2TB bekommen - also rund das 16-fache, oder Faktor 2^4.
Oder andersrum aufgesetzt hatte man 2020 eine 120GB SSD für 15€ bekommen.

Sofern wir nicht irgendwo hart in ein Limit laufen mit der Entwicklung von NAND, kann ich mir einfach nicht vorstellen, dass 20 Jahre alte SSDs jemals für mehr als vielleicht kleine Bastelprojekte relevant sein werden.

Caramon2 schrieb:
Das hatte ich mal getestet: Einen relevanten Nachteil von DRAMless konnte ich selbst bei einer vollständigen Systemaktualisierung nicht feststellen:

https://www.computerbase.de/forum/threads/sata-ssds-dram-cache-vs-dramless.2011541/
Danke für die Benchmarks.

Caramon2 schrieb:
kein Vergleich zu den quälend langsamen fest installierten Systemen, wenn derjenige noch eine HD hat (weil ihm eine SSD "zu teuer" ist!
Oder alternativ, weil die erste SSD von OCZ war und wie so viele andere der OCZ SSDs aus der Vertex 2 Serie und Zeitgenossen vorzeitig abgelebt ist...

Das Pech hatte mein Vater. Das hatte dann ein paar Jahr gedauert, bis ich die nächste SSD verbauen durfte...
 
Caramon2 schrieb:
117 TB Hostwrites ist schon sportlich. :)

Bedenklich finde ich die 59°C: Bei mir liegen int. SSDs normalerweise um 30°C. Nur in einen ext. Gehäuse werden sie so warm. Und das auch nur bei größerer Schreiblast

117TB gehen sehr sehr schnell, da muss man aufpassen, ich hab die SSD erst 2 Jahre glaub ich.

Als SMART Value werden 59 angezeigt, neben der komplett verbuggten Temperatur. Oben links werden 41 angezeigt.

DIe is auch SATA, und liegt (weil im Moment alles recht janked up is) auf den HDDs drauf, die auch nicht wirklich ne Belüftung bekommen (zumindest die internen nicht).
 
Rickmer schrieb:
Sofern wir nicht irgendwo hart in ein Limit laufen mit der Entwicklung von NAND, kann ich mir einfach nicht vorstellen, dass 20 Jahre alte SSDs jemals für mehr als vielleicht kleine Bastelprojekte relevant sein werden.

Gebe Dir in der Sache grundsätzlich Recht, vor allem vor dem Hintergrund, dass gerade in der IT 20 Jahre doch eine weit überdurchschnittliche Verwendungsdauer sind. Da kann man nicht meckern, sondern die Sachen auch in ihren wohlverdienten Ruhestand schicken.

Andererseits habe ich eine ca. 12 Jahre alte SATA-SSD mit 256 GB im Einsatz, und zwar als Bootlaufwerk in einem Linux-Server. Und sie ist im Grunde genommen für diesen Einsatzzweck absoluter Overkill, sowohl bei Performance als auch Kapazität. Und das wird auch in 8 Jahren noch so sein...
 
@Yosup Ich habe eine 11 Jahre alte Crucial M4 256GB als Bootlaufwerk meines Raspberry Pi und kann mir nicht vorstellen, wie die in absehbarer Zeit unzureichend werden könnte... daher dito.

Aber '20 Jahre alte boot-SSD für Heimserver' darf mMn mit zu 'kleine Bastelprojekte' zählen :)
 
> Kann nicht sein: Bei QLC könnte der SLC-Cache ja nur max. 1/4 der Kapazität haben
Rickmer schrieb:
Stimmt. Overprovisioning könnte das auch erklären, ist aber bei 'ner billig-SSD eher unwahrscheinlich.
Ich glaube wir reden aneinander vorbei: 960 GB QLC könnten im SLC-Modus nur mit 240 GB beschrieben werden. 960 GB TLC dagegen mit 320 GB SLC.

Dass es bei der Intenso "High" etwas mehr ist, wird daran liegen, dass dafür der komplette Flashspeicher genutzt wird.

Phoenix_29021 schrieb:
Als SMART Value werden 59 angezeigt, neben der komplett verbuggten Temperatur. Oben links werden 41 angezeigt.
Das hatte ich übersehen. Ich kenne das Tool nicht.

Aber das macht Sinn: Mit ist schon häufiger aufgefallen, dass bei der Temp in deinem Fall "Current" (ich kenne das als normalisiert) und raw zusammen 100 ergeben. 41 würde also gut zu 59 passen.

Zeigen auch andere Tool (z. B. GSmartControl) den kaputten Wert?

Phoenix_29021 schrieb:
DIe is auch SATA, und liegt (weil im Moment alles recht janked up is) auf den HDDs drauf, die auch nicht wirklich ne Belüftung bekommen (zumindest die internen nicht).
Also sozusagen mit Fußbodenheizung. :)

Ich habe meine beiden internen in einen Doppel-Adapter aus Metall, damit die Wäre besser angeführt wird:

SSD-Doppeldecker.jpg

Leider muss man die wirklich so einbauen, dass die Anschlüsse zum großen Überhang zeigen, sonst passen die Löcher für die Schrauben im Adapter nicht zu denen im PC.

Der erste Adapter war ein Fehlkauf, da im Shop nicht erkennbar war, dass der aus Kunststoff ist:

32 GB SSDs.jpg

Auch dort müssen die Anschlüsse zur langen Seite zeigen. - Gesunder Menschenverstand ist offenbar außer Mode…

Die beiden SSDs (waren nur zur Demonstration auf dem Foto) haben übrigens nur 32 GB (aber noch MLC), hatten 2015 ca. 35€ gekostet und da ohne SLC-Cache, lassen sie sich nur mit ca. 100 MB/s beschreiben. Lesend schaffen die aber an die 500 MB/s, so das die für die Systempartition gut nutzbar waren: Die Daten blieben auf den HDs.
 
Caramon2 schrieb:
...960 GB QLC könnten im SLC-Modus nur mit 240 GB beschrieben werden. 960 GB TLC dagegen mit 320 GB SLC.
Dass es bei der Intenso "High" etwas mehr ist, wird daran liegen, dass dafür der komplette Flashspeicher genutzt wird...
Du bist schon auf der richtigen Spur. Bedenke, dass die "1-TB-Class-SSDs" IMMER die Rohkapazität von ~1099,5 GB haben, ganz egal ob für den User dann 1024, 1000 oder 960GB zugänglich gemacht werden, da ändert sich lediglich die "spare area". Je nach SSD werden mindestens 10 bis 20GB davon verbraucht (Firmware, FTL im SLC-Mode, FTL-Backup, Reserve Blocks usw...) und ca. 1080 MB können sie tatsächlich benutzen um mit Daten zu arbeiten. Sprich, egal ob 800/960/1000 oder 1024GB -> nutze einfach grob 1080 für max. pSLC-Größe Berechnung: bei TLC also 1080 :3 = 360GB pSLC und bei QLC wären dann 1080 :4 = 270GB pSLC.
 
Caramon2 schrieb:
Ich glaube wir reden aneinander vorbei: 960 GB QLC könnten im SLC-Modus nur mit 240 GB beschrieben werden. 960 GB TLC dagegen mit 320 GB SLC.
massaker schrieb:
Bedenke, dass die "1-TB-Class-SSDs" IMMER die Rohkapazität von ~1099,5 GB haben
1,33Tbit Dies existieren, daher mein Kommentar bezüglich Overprovisioning
https://www.elektroniknet.de/halbleiter/1-33-tbit-3d-nand-mit-96-layern.155925.html

Würden 8 solcher Dies verbaut, wäre ein 330GB Cache auf QLC Basis möglich. Ich denke nicht, dass das wahrscheinlich ist, aber die Möglichkeit besteht.
 
Zurück
Oben