News 3D-NAND: Intel und SK Hynix setzen neue Maßstäbe bei der Flächendichte

pas06 schrieb:
Kann man den nand eigentlich beliebig verkleinern wie Transistoren? Eher nicht oder? Hoffe das ist keine dumme Frage 🤣
Man hat mal vor Jahren gesagt, dass bei 15nm bei NAND-Flash Schluss sein wird, weil es finanziell keinen Sinn mehr macht und es auch technische Gründe dafür gäbe. Deshalb hat man dann das Stapeln von Layern priorisiert. Ob sich die Grenze von 15nm aber mittlerweile verschoben hat, weiß ich nicht, dazu hat man schon lange nichts mehr gehört.

Wie schon einige angemerkt haben, wird der Nutzen durch mehr Bits pro Speicherzelle immer kleiner und die Probleme immer größer. Ich habe mittlerweile den Eindruck, man versucht die Nachteile (welche bei einer höheren Speicherdichte aufkommen) bei der Leistung mit immer größerem und schnellerem Cache in den SSDs zu kompensieren.
 
Zuletzt bearbeitet:
Rickmer schrieb:
heutiger TLC ist in allen Belangen besser als der MLC von vor 10 Jahren.
Das glaube ich nicht. Die Firmware kann mit dem TLC besser umgehen, als mit MLC vor 10 Jahren. Meine M500 mit 480 GB schreibt durchgängig 420GB/s. Das schafft heute keine TLC mit 500 GB. Hat natürlich auch mit der Größe der NAND-chips zu tun. Eine 870 Evo kann trotz 8-kanal-kontroller vermutlich nicht alle Kanäle versorgen und wird nach dem SLC-Cache langsamer.
 
SaschaHa schrieb:
QLC ist aus meiner Sicht schon hart an der Grenze und bestenfalls für Budge-Rechner ohne wichtige Daten eine Alternative
... oder halt für highend Enterprise Hardware für SAN-Systeme und Rechenzentren alle Größen ;)

peljotha schrieb:
Meine M500 mit 480 GB schreibt durchgängig 420GB/s. Das schafft heute keine TLC mit 500 GB.
Ich biete 700 MB/s steady-state Writes:
Micron 7450 PRO - 1DWPD Read Intensive 480GB, 512B, M.2 2280

Zumindest gehe ich mal davon aus, dass du mit 420 GB/s eher 420 MB/s meintest, weil für 420 GB/s brauchste GDDR auf einer modernen GPU...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LadykillerTHG, Caramon2 und massaker
SaschaHa schrieb:
Begrüßenswert wäre es, wenn man bei der Formatierung von Speichermedien in Zukunft die "Stufe" per Software auswählen könnte: So sollte ein 4TB QLC-Speicher zum Beispiel auch als 3TB TLC-, 2TB MLC- oder 1TB SLC-Speicher formatierbar sein. Technisch wäre das kein Problem, zum Cachen von Daten wird das ja bereits so gehandhabt. Wäre aber nice, wenn das eben generell ginge.

Das wäre die Traumlösung. Erinnert ein wenig an die Anfangsszene von Johnny Mnemonic, als dieser seinen Brainspeicher per Software vergroessert. Er wird davor gewarnt, dass diese Kapazitätsvergrößerung dazu führt, dass der Speicher die Daten nicht so lange halten könne (naja, so ähnlich). Jedenfalls ziemlich beeindruckende Analogie zu Flash und den verschiedenen Multilevel-Stufen... Der Film ist von 1995!
 
  • Gefällt mir
Reaktionen: Caramon2
Rickmer schrieb:
@ando99 Das Zeug ist nichtmals aus dem Labor raus, die letzten gezeigten Samples brauchten glaube ich noch LN2 Kühlung?
Das Zeug ist seit Jahren aus dem Labor raus, jetzt geht es um Optimierung der Haltbarkeit und Erhöhung der yield in der Produktion. Intel/Hynix geht doch die letzten zwei Jahre auf jeder Messe damit Haustieren und zeigt schon Prototyp SSDs.
Du verwechselst das wohl mit HLC welches im Labor bei niedrigen Temperaturen demonstriert wurde.
Ergänzung ()

peljotha schrieb:
Das schafft heute keine TLC mit 500 GB. Hat natürlich auch mit der Größe der NAND-chips zu tun.
Das hat nur damit zu tun. Deine künstliche Beschränkung auf 500 GB ist unsinnig. Das einzige was du zeigst ist, dass MLC mit der vierfachen Anzahl Dies schneller ist. Schon die 1TB schafft >500MB/s.
Ergänzung ()

SaschaHa schrieb:
  • QLC ist aus meiner Sicht schon hart an der Grenze und bestenfalls für Budge-Rechner ohne wichtige Daten eine Alternative, in PLC habe ich meinerseits absolut kein Vertrauen mehr.
Das ist aber an der Realität vorbei. Die Daten sind nicht unsicherer als auf TLC SSDs. QLC wird auch im Enterprise Bereich verbreitet eingesetzt.
Das Problem ist nur Haltbarkeit und Performance.

QLC hat sich durchgesetzt und das wird auch PLC. Der Kostenvorteil mag abnehmen, aber er ist noch groß genug. Es sind immerhin theoretische 25%, wovon man vielleicht 15-20% heben kann. Es gibt auch noch Anwendungen für HDDs.
Was aber nicht passieren wird ist, dass QLC und später PLC TLC komplett verdrängen wird. Da sind einfach die Nachteile zu groß. Es ist ein parallele Nutzung je nach Anwendungsgebiet.

Es gibt so viele Anwendungen, wo die Performance nahezu egal ist. Tonnen von Consumer Elektronik, riesige Kapazitäten WORM in Enterprise und es wird immer mehr. Man wird auch immer mehr von HDDs abknabbern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Caramon2
bensen schrieb:
Das hat nur damit zu tun. Deine künstliche Beschränkung auf 500 GB ist unsinnig. Das einzige was du zeigst ist, dass MLC mit der vierfachen Anzahl Dies schneller ist. Schon die 1TB schafft >500MB/s.
Ja, hast Du recht, ist so.
 
pas06 schrieb:
Kann man den nand eigentlich beliebig verkleinern wie Transistoren? Eher nicht oder? Hoffe das ist keine dumme Frage 🤣

NAND-Speicher sind im Grunde verschaltete Transistoren. Es gelten also die gleichen Gesetze der Physik: irgendwann ist schluss, weil kleiner als ein Atom wird es kaum werden (Die Grenze dürfte vermutlich schon vorher erreicht sein).

Andere Frage: Macht es bei dem Gestapel nicht Sinn, statt mm² (Fläche) mm³ (Volumen) als Maßeinheit der Speicherdichte zu nehmen?
 
  • Gefällt mir
Reaktionen: pas06
bensen schrieb:
Die Daten sind nicht unsicherer als auf TLC SSDs.
bensen schrieb:
Das Problem ist nur Haltbarkeit und Performance.
Das ist für mich aber ein eindeutiger Widerspruch. Gerade an der Haltbarkeit misst sich ja die Sicherheit, und da ist QLC einfach meilenweit hinterher. Es ist schwierig, die "Lesegenauigkeit" von Bits innerhalb von Speicherzellen zu verdoppeln. Genau das ist aber nötig, um bei einem zusätzlichen Bit pro Zelle auf das selbe Niveau zu kommen wie mit der Vergleichstechnologie. Der Spannungsabfall dürfte zudem zu Beginn größer sein als mit zunehmender Zeitspanne, wodurch wir hier also nicht von einem linearem Abfall ausgehen sollten. Auch das spricht gegen eine höhere Anzahl an Bits pro Speicherzelle. Irgendwann stellt sich für Hersteller die Frage, was günstiger ist: Die Flächenersparnis durch mehr Bits oder die niedrigere Ausfallrate durch sicherere Speicher. Aktuell würde ich den Sweetspot - je nach Anwendungsfall - auf irgendwo zwischen TLC und QLC einschätzen. Für Heimanwender eher in Richtung TLC, für Cloud-Dienste eher in Richtung QLC (aufgrund der Datenintegrität durch Parallelisierung/Backups). Im Laufe der Zeit werden auch QLC- oder gar PLC-Speicher sicherer werden, aber bis diese die Vorteile von TLC großflächig übertreffen, wird aus meiner Sicht noch einiges an Zeit verstreichen. Hier nur mal ein Denkanstoß: Doppelt so viele Spannungszustände unterscheiden zu müssen wird zu einer massiv reduzierten Lebensdauer führen. Was wiegt hier also mehr? Die höhere Flächendichte auf der einen oder die reduzierte Lebensdauer bzw. die Zusatzkosten, um die gleiche Lebensdauer zu erreichen, auf der anderen Seite? Das ist eben ein Spiel, das sehr vom Anwendungsfall abhängig ist. Und mit jedem zusätzlichen Bit pro Speicherzelle wird der Vorteil der Flächendichte im Verhältnis zur Komplexität geringer bzw. "schwieriger".
 
  • Gefällt mir
Reaktionen: Caramon2
LamaMitHut schrieb:
Am Ende sparen sich die ganzen Experten hier noch das Backup, weil sie denken das TLC ja brutal sicher ist. ;-)
Backups braucht man weniger wegen Hardwareausfälle, sondern wegen der Kohlenstoffeinheit zwischen Stuhl und Tastatur. - Wobei ich mich selbst nicht ausschließen kann. ;)
 
  • Gefällt mir
Reaktionen: Topflappen, massaker und LamaMitHut
Caramon2 schrieb:
Backups braucht man weniger wegen Hardwareausfälle, sondern wegen der Kohlenstoffeinheit zwischen Stuhl und Tastatur
Ich hatte schon zweimal Ausfall von Hardware mit Datenverlust, beides HDDs, das reicht mir fürn Rest meines Lebens...

Bei meinen Eltern ist auch schon eine HDD und später noch eine SSD (eine OCZ Vertex 2, nicht wundern) abgeraucht.


Hardwareausfälle sind meiner Erfahrung nach locker häufig genug, dass es sich lohnt, in Backups Zeit und Geld rein zu stecken.
 
  • Gefällt mir
Reaktionen: Caramon2
SaschaHa schrieb:
Begrüßenswert wäre es, wenn man bei der Formatierung von Speichermedien in Zukunft die "Stufe" per Software auswählen könnte: So sollte ein 4TB QLC-Speicher zum Beispiel auch als 3TB TLC-, 2TB MLC- oder 1TB SLC-Speicher formatierbar sein. Technisch wäre das kein Problem, zum Cachen von Daten wird das ja bereits so gehandhabt. Wäre aber nice, wenn das eben generell ginge.
Ich fände es schon klasse, wenn man den SLC-Cache deaktivieren könnte, da dadurch z. B. bei TLC 4x mehr geschrieben werden muss:

Wenn 1 GiB geschrieben wird, geschieht das zuerst im SLC-Modus, wodurch Flashzellen für 3 GiB beschrieben werden. Anschließend wird es in den TLC-Modus umkopieren, wobei Flashzellen für nochmal 1 GiB beschrieben werden.

Gerade bei SATA-SSDs wie z. B. die 500 GB MX500 v1 *), die lt. THG auch nach dem SLC-Cache noch mit ca. 450 MB/s beschrieben werden kann, ist der SLC-Cache nahezu absurd.

*) von den neueren kenne ich die Werte nicht

Btw:

Meine 250 GB BX100 (MLC ohne SLC-Cache - BX ist deren Billig-Modell: hat Mitte 2015 "nur" 85€ gekostet) zeigt nach 13 TB Hostwrites (28 TB Flashwrites - "modernere" SSDs zeigen das - vermutlich aus gutem Grund - nicht mehr an) noch 98% remaining Livetime. - Die lässt sich mit durchgehen 360 MB/s beschreiben.

Meine 250 GB MX500 (v1) hat dagegen schon nach 5 TB nur noch 95%. - Nach dem SLC-Cache schreibt die noch mit ca. 220 MB/s.

Ich hatte mir schon deshalb nur die 250 GB gekauft, damit der SLC-Cache wenigstens einen Sinn hat.
 
  • Gefällt mir
Reaktionen: Yosup
Caramon2 schrieb:
Wenn 1 GiB geschrieben wird, geschieht das zuerst im SLC-Modus, wodurch Flashzellen für 3 GiB beschrieben werden. Anschließend wird es in den TLC-Modus umkopieren, wobei Flashzellen für nochmal 1 GiB beschrieben werden.
Dein Fehler ist die Annahme, dass die Abnutzung der Flash Zellen durch SLC-Writes gleich hoch ist wie die Abnutzung durch TLC Writes.

Das stimmt nicht.

Siehe z.B. die Erklärung hier, bzw. den gesamten Diskussionsthread

Caramon2 schrieb:
Meine 250 GB BX100 (MLC ohne SLC-Cache - BX ist deren Billig-Modell: hat Mitte 2015 "nur" 85€ gekostet) zeigt nach 13 TB Hostwrites (28 TB Flashwrites - "modernere" SSDs zeigen das - vermutlich aus gutem Grund - nicht mehr an) noch 98% remaining Livetime. - Die lässt sich mit durchgehen 360 MB/s beschreiben.

Meine 250 GB MX500 (v1) hat dagegen schon nach 5 TB nur noch 95%. - Nach dem SLC-Cache schreibt die noch mit ca. 220 MB/s.
Ich denke da wird auch schlicht anders gezählt bzw. Crucial hat geändert, wie die 'remaining lifetime' berechnet wird.

Was ist denn bei den beiden SSDs der Wert von Attribut AD (Average Block Erase Count)?

Abgesehen davon - ist das überhaupt relevant? Wenn die MX500 in 5 Jahren 5% verloren hat - wirst du die wirklich noch 95 weitere Jahre benutzen bis die bei 0% ist?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: medsommer und Caramon2
SaschaHa schrieb:
Das ist für mich aber ein eindeutiger Widerspruch. Gerade an der Haltbarkeit misst sich ja die Sicherheit, und da ist QLC einfach meilenweit hinterher.
Nein, Haltbarkeit bedeutet im Endeffekt wie häufig die Zelle beschrieben werden kann. Das hat nichts mit Sicherheit zu tun. Dafür gibt's ja Logik, die bewertet ob eine Zelle noch taugt oder nicht.
 
Rickmer schrieb:
Ich hatte schon zweimal Ausfall von Hardware mit Datenverlust, beides HDDs, das reicht mir fürn Rest meines Lebens...
Einen Tag, nachdem ich aus einer Laune heraus zum ersten Mal eine komplette Datensicherung gemacht habe (auf CD-RW), fiel meine 30 GB IBM DTLA aus: Ich schalte den PC ein, sie klackert erst stark und fuhr dann immer wieder hoch und runter.

Da erst 10 Monate alt, habe ich auf Garantie eine neue bekommen: 10 Monate später verabschiedete sich auch die mit ähnlichen Effekten.

Wieder auf Garantie eine neue bekommen und der Händler meinte, wenn das nochmal passiert, müssen wir uns was anderen überlegen.

Wieder 10 Monate später (da konnte man schon fast die Uhr nach stellen) bekam ich stattdessen eine 40 GB Samsung P80, die immer noch funktioniert: Ich nutze sie gelegentlich noch für Tests per USB-Adapter.

Andere Platten sind weder mir noch im Bekanntenkreis ausgefallen.

Menschliches Versagen (a la "ich dachte …") ist hier viel häufiger der Grund für eine Wiederherstellung.

Ich selbst experimentiere gerne (aka Try&Error ;) ) und sichere deshalb häufig: Wenn ich an was "dran" bin, die Systempartition auch mehrmals am Tag: Per rsync dauert das auf die zweite int. SSD nur 15-20 Sek.
 

3D-NAND: Intel und SK Hynix setzen neue Maßstäbe bei der Flächendichte​


Würde mich mal über neue "Maßstäbe" beim Preis ab 4 TB und vor allem bei 8 TB freuen :-)
Die kleineren Kapazitäten sind inzwischen ja deutlich güsntiger geworden,
grade bei den 8TB darf es gerne auf 300 gehen oder weniger.
 
Rickmer schrieb:
Dein Fehler ist die Annahme, dass die Abnutzung der Flash Zellen durch SLC-Writes gleich hoch ist wie die Abnutzung durch TLC Writes.

Das stimmt nicht.
Ok, das wusste ich nicht (habe ich mich aber schon länger gefragt).

Meine Rechnung bzgl 4x schreiben ist aber nicht falsch, nur ist es dann eben nicht 4x so schädlich. Trotzdem schädlicher, als ohne SLC-Cache. Von daher ist meine Aussage auch nicht falsch.

Wobei ja angeblich nicht das schreiben "schlimm" ist, sondern vor allem das löschen: Ist das löschen von im SLC-Modus beschriebenen Zellen auch weniger schädlich, als wenn sie im TLC-Modus beschrieben gewesen wären?

Rickmer schrieb:
Siehe z.B. die Erklärung hier, bzw. den gesamten Diskussionsthread
Danke! Werde ich auf jeden Fall machen.

Rickmer schrieb:
Ich denke da wird auch schlicht anders gezählt bzw. Crucial hat geändert, wie die 'remaining lifetime' berechnet wird.
Zu ihren eigenen Ungunsten? Dass deren Premium-Modell viel schlecher erscheint, als deren altes Billig-Modell?

Rickmer schrieb:
Was ist denn bei den beiden SSDs der Wert von Attribut AD (Average Block Erase Count)?
Das muss ich auch auf später verschieben, da ich mir das nicht notiert habe: Beide SSDs habe ich letzten Monat eingemottet und durch zwei Intenso "High" ersetzt, da die ihren kompletten freien Speicher als SLC-Cache nutzen: Bei der 960 GB (die nutze ich ext.) wurde es erst nach ca. 330 GiB langsam: Das aber richtig (um 50 MB/s), da sie ja nicht einfach im TLC-Modus weiterschreiben kann, sondern parallel dazu erst mal Platz schaffen muss, indem sie den SLC-Cache nach TLC umkopieren muss.

Rickmer schrieb:
Abgesehen davon - ist das überhaupt relevant? Wenn die MX500 in 5 Jahren 5% verloren hat - wirst du die wirklich noch 95 weitere Jahre benutzen bis die bei 0% ist?
Relevant ist das natürlich nicht, *) aber es wurmt mich, da ziemlich ineffizient: Bei der 500 GB, wo der SLC-Cache mir praktisch gar nichts bringt und nur schaden würde, würde mir das vermutlich keine Ruhe lassen.

*) Zumindest nicht in meinem Fall, da ich den PC nicht intensiv nutze. - Wenn jemand laufend sehr große Datenmengen schaufelt (z. B. Spiele sollen inzwischen sehr groß sein - mein letztes Spiel war Half Live 1) mag das anders aussehen.
 
Caramon2 schrieb:
Zu ihren eigenen Ungunsten? Dass deren Premium-Modell viel schlecher erscheint, als deren altes Billig-Modell?
Um dafür in Übereinstimmung mit deren Garantiebedingungen anzuzeigen, warum nicht?

War ja auch nur 'ne wilde Vermutung - ich habe da keine tieferen Einblicke. Meine MX500 sind mit mehr Writes noch bei 99%, sind aber auch 2TB Modelle, und die nächstältere Crucial, die ich besitze, ist eine M4.

Caramon2 schrieb:
Bei der 960 GB (die nutze ich ext.) wurde es erst nach ca. 330 GiB langsam: Das aber richtig (um 50 MB/s), da sie ja nicht einfach im TLC-Modus weiterschreiben kann, sondern parallel dazu erst mal Platz schaffen muss, indem sie den SLC-Cache nach TLC umkopieren muss.
Das klingt für mich nach einer heimlichen neuen Revision mit QLC Speicher...

Du könntest die SSD mal aufschrauben und Bilder im Der SSD Bilder Thread posten, dann kann man mal nachschauen, was für NAND drin ist.

Caramon2 schrieb:
Relevant ist das natürlich nicht, *) aber es wurmt mich, da ziemlich ineffizient: Bei der 500 GB, wo der SLC-Cache mir praktisch gar nichts bringt und nur schaden würde, würde mir das vermutlich keine Ruhe lassen.
Persönlich gehe ich davon aus, dass eine SSD spätestens 20 Jahre nach Kauf zu langsam und/oder zu klein sein wird und entsprechend ist meine Einstellung zur Haltbarkeit.

Wer deutlich mehr Writes verursacht als der Durchschnitts-Consumer, sollte halt beim Kauf der SSD darauf achten, eine geeignete SSD zu wählen.

Beispiele (alle in 500GB für einfache Vergleichbarkeit der TBW)
Western Digital Red SN700 NVMe NAS SSD - 1DWPD 500GB, M.2 (54€) - 1000TB TBW
Seagate IronWolf 525 - 0.7DWPD NAS SSD +Rescue 500GB, M.2 (105€*) - 700TB TBW

oder etwas weniger Consumer orientiert: Solidigm SSD D3-S4520 480GB, M.2 (113€) - 4100TB TBW

Kostet aber natürlich auch mehr. Oftmals ist es günstiger, eine größere Consumer SSD zu kaufen - für den Preis der Solidigm bekommst du auch fast die MX500 2TB, die dann auch 700TB TBW hat.

*Ein Teil des Aufpreis dürfte das '+Rescue' ausmachen, aber sonst habe ich keine Ahnung, warum die doppelt so viel kostet wie die SN700. Ein schlechter Deal.
 
  • Gefällt mir
Reaktionen: Caramon2
Ich denke, ich werde mich jetzt nochmal schön mit TLC NAND eindecken, nachdem die Speicherpreise gerade im Keller sind, und es langsam so aussieht, als würde TLC durch QLC abgelöst. Hab keinen Bock, mehr für eine "Pro" SSD zu bezahlen, die in einem solchen Szenario gnädigerweise noch auf TLC setzt.
 
  • Gefällt mir
Reaktionen: Caramon2
Rickmer schrieb:
:rolleyes:

Das wurde vor 10 Jahren in demselben Ton mit fast denselben Worten über TLC geredet...
Nur kann man die Defizite von TLC anscheinend noch ganz gut mit DRAM Cache ausgleichen. Meine QLC SSDs kranken alle an den unsagbar miesen Schreibraten, sobald der DRAM Cache voll ist, bin ich zurück in HDD Zeitalter.
Wie viele Zyklen der kann, ist mir wegen dem overprovisioning recht egal. Aber sobald ich große Daten bewege, ist halt Schluss.
Was neben Spielen auch dank meiner Arbeit mit Yocto relativ häufig vorkommt. Am falschen Ende gespart...
 
Diablokiller999 schrieb:
Nur kann man die Defizite von TLC anscheinend noch ganz gut mit DRAM Cache ausgleichen. Meine QLC SSDs kranken alle an den unsagbar miesen Schreibraten, sobald der DRAM Cache voll ist, bin ich zurück in HDD Zeitalter.
seufz

1) Du meinst SLC Cache, nicht DRAM Cache. DRAM Cache hat einen anderen Zweck und ist bei MLC und TLC SSDs gleichermaßen wichtig wie bei QLC.
2) Selbst im Worst-Case Scenario hast du nur beim sequentiellen Transfer von großen Dateien HDD Geschwindigkeiten. Sobald die Dateien klein sind, ist auch eine QLC SSD um Welten schneller als eine HDD.
3) Es gibt auch performante QLC SSDs. Das sind nicht die weithin bekannten Consumer Modelle, aber es gibt sie. Das ist als würdest du sagen 'Alle Mercedes Benz Autos sind langsam' weil du mit einem Smart über die Autobahn gefahren bist. (Smarts sind auf 130km/h limitiert.)

Diablokiller999 schrieb:
Was neben Spielen auch dank meiner Arbeit mit Yocto relativ häufig vorkommt. Am falschen Ende gespart...
Richtig, falsche SSD für den Zweck gekauft.
Beim Kauf einer 5400rpm SMR HDD wäre dir da die Performance genauso negativ aufgefallen.
 
  • Gefällt mir
Reaktionen: Caramon2
Zurück
Oben