News 3D-NAND-Flash: Samsung über V8 mit 200+ und künftige 1.000+ Layer

LamaMitHut schrieb:
Du sagst das so, als wäre es das leichteste überhaupt sowas umzusetzen. (...)
Nein, sag ich nicht, über das spreche ich gar nicht. Siehe hier, diesmal mit Markierungen:
CDLABSRadonP... schrieb:
QLC ist kein Konzept, das von klügsten Köpfen entwickelt (...) werden musste.
Mal ein Beispiel: Sich einen Multicoreprozessor (entspricht MLC-n) als Konzept auszudenken ist eine Leistung. Sich einen Quadcore als Konzept (entspricht QLC bzw. MLC-4) auszudenken, ist keine Leistung. Ein spezifisches natives Quadcoreprozessordesign aufzulegen ist nichts desto trotz auch eine Leistung.
 
Zuletzt bearbeitet:
dersuperpro1337 schrieb:
Was interessieren die ganzen Layer, wenn man am Schluss sowieso immer mehr QLC Zellen Müll bekommt?
Mich interessiert der Fortschritt beim Aufbau der Speicherbausteine herzlich wenig, wenn man mir irgendwelchen Consumer Mist zu Prosumer Preisen verkaufen will und dann auch noch die robusten MLC und die akzeptablen TLC Produkte vom Markt verdrängt...

Wieso sollte QLC Müll sein. Es gibt keinen Müll sondern entsprechend der Anwendung passende Technologien und wenn man nur selten schreibt und Daten nur lagert spart QLC Kosten durch Anwendung der passenden Technologie.


Außerdem ist es umso besser wenn nicht nur TLC/QLC Anwendung findet sondern ebenso die Anzahl der Layer steigt da:

  • Hierdurch die Kosten für TLC/QLC sinken und auch größere SSDs möglich werden.
  • Weniger Chips / Fläche benötigt werden.

Man muss kein Fan von QLC sein und kann sich aktuell eine TLC kaufen. Müll ist es dennoch trotzdem nicht.

Das selbe spiel hatte man von 1 Bit auf 2 Bit und von 2 Bit auf 3 Bit. Kein Mensch trauert nun noch einer MLC nach... Die Leistung von QLC wird dank 4-Plane Design etc. auch noch genügend steigen um S-ATA TLC SSDs und günstigere M2 SSDs zu ersetzten.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen und LamaMitHut
[wege]mini schrieb:
Genau. Man kastriert einen Chip, der verschiedene Speicherzustände beherrscht und daher mehr Bits pro Zelle speichern kann, auf das Niveau der alten Technologie. Klingt super logisch. :evillol:
Das ist genau das Konzept vom Pseudo-SLC-Cache, das quasi bei jeder MLC-n-SSD genutzt wird. Dadurch erhält man einen Geschwindigkeitsboost.

Das gleiche Prinzip kann aber auch feiner genutzt werden. Man könnte einen Teil einer QLC-SSD wie QLC, einen Teil wie TLC, einen wie MLC und einen SLC ansprechen.

Tatsächlich könnte dieses Konzept auch statisch genutzt werden, wenn man Binning betreibt: Die besten MLC-5-SSD (Marketingname wahrscheinlich PLC) würde man dann tatsächlich als MLC-5-SSDs nutzen. Bei denen, bei denen anhand des Binnings davon auszugehen ist, dass die keine 2 hoch 5 Abstufungen auf Dauer mitmachen werden, wird daraus dann eine QLC/ MLC-4-SSD. (mit naturgemäß halber Kapazität) Die PLC/ MLC-5-SSD würde man aber auch auf Knopfdruck vollständig in eine QLC MLC-4-SSD umwandeln können.

Ganz praktisch gesprochen: Edit: Das praktische Beispiel war Quark, wurde jetzt korrigiert!
Die MLC-5-SSD hätte maximal 5TiB Kapazität, auf MLC-4 umgeschaltet hat sie nur noch 4TiB Kapazität. Die downgebinnte SSD könnte nur im umgeschalteten Modus bleiben. Klar, dass ersteres weiterhin flexibler ist.
(ich glaube aber, wie angerissen, nicht, dass es so kommen wird)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai und [wege]mini
Bei >= 1.000 Schichten übereinander interessieren mich zwei Fragen brennend:
1) Wie hoch wird das Gesamtkonstrukt? Das dürfte dann nämlich schon im cm-Bereich sein.
2) Wie sieht es mit der thermischen Anbindung der 1.000 oder mehr Schichten an die Heat-Sink aus?
 
mehr layer. her damit. dann gibts endlich wirklich große SSD zu kaufen.
allerdings hoffe ich das es nicht den weg vom QLC zum PLC finden wird. noch mehr schreibeinbußen kann man kaum noch abfangen. dazu fehlt dann doch der nötige RAM für die RAMDISK.
 
CDLABSRadonP... schrieb:
Das ist genau das Konzept vom Pseudo-SLC-Cache, das quasi bei jeder MLC-n-SSD genutzt wird. Dadurch erhält man einen Geschwindigkeitsboost.

Das ist absolut richtig. Ergibt aber nur Sinn für Benchmarks.

Der Name Cache, ist ja nicht umsonst verwendet worden.

Vernünftige Menschen kaufen 4+ QLC SSDs und hängen sie in ein RAID. Die Zeiten von nicht funktionierendem TRIM bei SSDs in RAIDs, sind ja glücklicher Weise vorbei.

Die Schnittstelle limitiert heute schon (in den meisten Fällen). Da muss man die armen SSDs nicht noch zusätzlich kastrieren, damit wenige User (die Backups hassen), ihre eigenen Wunschvorstellungen ausleben können.

Das Zeug soll für jedermann, zu möglichst günstigstem Preis verkauft werden. Das funktioniert nur mit MLC und vielen Layern.

mfg
 
CDLABSRadonP... schrieb:
Bei denen, bei denen anhand des Binnings davon auszugehen ist, dass die keine 2 hoch 5 Abstufungen auf Dauer mitmachen werden, wird daraus dann eine QLC/ MLC-4-SSD. (mit naturgemäß halber Kapazität)
Was soll daran naturgemäß sein?
Die SSD hätte 80% der Kapazität, nicht 50%.
 
Schön dass auch in diesem Bereich große Fortschritte sichtbar sind und nun auch konkretere Aussagen gemacht und Zahlen präsentiert werden.

Jedoch ist meiner Meinung nach der Teil über die "ViSiOnEn" der Hersteller recht überflüssig. Allgemein ist der Begriff eher die geschönte Form von "Hirnwixxen" mmn. 800 Layer, nein gleich 1000 Layer, oder warte - eine Millionen Layer! Man kann genauso über VR 8K360 HDR Gaming träumen, ja es wird irgendwann kommen und sich als Standard etablieren, aber solange man keinen konkreten Plan hat wie das bewerkstelligt werden soll ist es keine News und kein Interview wert.
 
[wege]mini schrieb:
Das ist absolut richtig. Ergibt aber nur Sinn für Benchmarks.
Das ergibt überall Sinn, wo die zu schreibende Datenmenge kleiner ist als die Größe des Caches. Also in sehr vielen Anwendungsfällen und nicht nur Benchmarks.
Ergänzung ()

Prolokateur schrieb:
aber solange man keinen konkreten Plan hat wie das bewerkstelligt werden soll ist es keine News und kein Interview wert.
Sie haben ja einen Plan. Nur ist der eben noch nicht ökonomisch und teils vielleicht auch technisch umsetzbar.
 
  • Gefällt mir
Reaktionen: [wege]mini
Matthias B. V. schrieb:
Man muss kein Fan von QLC sein und kann sich aktuell eine TLC kaufen. Müll ist es dennoch trotzdem nicht.
TLC und QLC Flash sind beide für Desktop PC und Notebooks brauchbar. Nur sollte man den EInsatzzweck kennen.
QLC eignet sich besser wenn eher weniger Daten geändert werden auf dem Datenträger,
während man bei Änderungen von größeren Datenmengen, z.B. Videoschnitt, auf TLC Flash setzen sollte.
SLC/MLC Flash wäre natürlich noch besser, aber dieser wird fast nur noch im Serverbereich genutzt; und ist für heimische PC ein wenig kostspielig.
 
bensen schrieb:
wo die zu schreibende Datenmenge kleiner ist als die Größe des Caches

Das ist so zwar richtig. Da wir hier aber über Datenspeicher reden, die normaler weise voll gemacht werden, ist am Ende von diesem Cache nichts mehr übrig. :evillol:

100GB sind doch heutzutage auch keine große Zahl mehr. Sogar beim kopieren dieser Zahl, wird es schwer mit "Cache".

Zu guter Letzt, muss der ganze Mist sogar noch irgend wann im Hintergrund wieder verschoben werden. Also dann, wenn der geneigte User nur rumlungert. Dann muss das System arbeiten.

mfg
 
bensen schrieb:
Was soll daran naturgemäß sein?
Die SSD hätte 80% der Kapazität, nicht 50%.
Nein. QLC bedeutet, dass es 16 unterschiedliche Zustände in den Zellen gibt, PLC bedeutet, dass es 32 gibt. → PLC als QLC zu behandeln führt zu 50% Kapazität. So funktioniert das schon die gesamte Zeit...
SLC speichert 1bit pro Zelle, MLC 2bit, TLC 3bit, QLC 4bit, PLC 5bit, ...
 
Zuletzt bearbeitet:
Weyoun schrieb:
Bei >= 1.000 Schichten übereinander interessieren mich zwei Fragen brennend:
1) Wie hoch wird das Gesamtkonstrukt? Das dürfte dann nämlich schon im cm-Bereich sein.
Also eine Schicht dürfte deutlich weniger als 1 Mikrometer Dicke haben, eher so um die 100 Nanometer. Genaue Wert kann nur der Hersteller liefern.

Weyoun schrieb:
2) Wie sieht es mit der thermischen Anbindung der 1.000 oder mehr Schichten an die Heat-Sink aus?
Die thermische Belastung dürfte nur beim Beschreiben eine Rolle spielen, aber TLC u. QLC Flash sind nicht dafür gedacht dass da pausenlos größere Datenmengen darauf geschrieben werden.
Ergänzung ()

orodigistan schrieb:
1000 layer sind ein traum, dann müssen 10 tb locker erreichbar sein pro chip
Pro SSD ja, aber nicht pro Chip. Pro Chip max. die 5-fache Speicherkapazität im Vergleich zu einem Chip mit 200 Layern.
 
CDLABSRadonP... schrieb:
Nein. QLC bedeutet, dass es 16 unterschiedliche Zustände in den Zellen gibt, PLC bedeutet, dass es 32 gibt. → PLC als QLC zu behandeln führt zu 50% Kapazität. So funktioniert das schon die gesamte Zeit...
SLC speichert 1bit pro Zelle, MLC 2bit, TLC 3bit, QLC 4bit, PLC 5bit, ...
Du schreibst es doch selber mit den bit. Wie kann denn von 4 auf 5 bit die doppelte Kapazität rauskommen?!
Die Kapazitätsteigerung ergibt sich aus den bit, nicht aus den Zuständen, die brauchst du um die verschiedenen bit abbilden zu können.
 
Zuletzt bearbeitet:
LamaMitHut schrieb:
Du sagst das so, als wäre es das leichteste überhaupt sowas umzusetzen. Sorry, aber meiner Meinung nach ist das verdammt naiv.
Das Konzept benötigt nun wahrlich keinen IQ von 200 aufwärts.
Die technische Umsetzung ist aber tatsächlich anspruchsvoll - undbenötigt natürlich auch moderne (Fertigungs)Technik.
Ergänzung ()

Crazy-Chief schrieb:
Du schreibst es doch selber mit den bit. Wie kann denn von 4 auf 5 bit die doppelte Kapazität rauskommen?!
Les dich mal in das Binärsystem ein, dann verstehst du das. ;-)
Ist das gleiche wie: "Warum kann ein Jumper mehr die Möglichkeiten verdoppeln?"
Oder: Warum für SCSI keine 16 Jumper zur Adressierung nötig waren.
 
[wege]mini schrieb:
100GB sind doch heutzutage auch keine große Zahl mehr. Sogar beim kopieren dieser Zahl, wird es schwer mit "Cache".
Heutzutage hin oder her. Es kommt auf das Anwendungsszenario an. Es sind einfach nicht überall große Schreibvolumina nötig.
Gerade im Consumerbereich sind das viele Szenarien und da ist so ein Cache wichtig.

[wege]mini schrieb:
Zu guter Letzt, muss der ganze Mist sogar noch irgend wann im Hintergrund wieder verschoben werden. Also dann, wenn der geneigte User nur rumlungert. Dann muss das System arbeiten.
Der geneigte User arbeitet vielleicht auch mal und schiebt nicht nur Daten hin und her.
Sorry, aber deine Sichtweise ist einfach nur einseitig.
 
  • Gefällt mir
Reaktionen: [wege]mini
Zurück
Oben