News 3D-NAND von WD & Kioxia: Auf BiCS6 folgt BiCS+ mit viel mehr Leistung

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.969
  • Gefällt mir
Reaktionen: ComputerJunge, boxte30:Goas, Dama und 2 andere
Wenn die Zahlen erreicht werden sieht es so aus als könnte QLC bis in 3-4 Jahren tatsächlich auch für viele User interessant sein und TLC ablösen und somit für mehr als nur als Datengrab taugen.

Wenn man die Zugriffszeiten noch Richtung 50 und Programm Richtung 100 bekommt braucht der normale Durchschnittsverbraucher keine TLC SSDs mehr…
 
  • Gefällt mir
Reaktionen: flo.murr und NMA
Sivaram zeigte sich euphorisch und sprach von einem „Quantensprung bei der Performance von NAND“. Doch bleiben weitere Details sowie entsprechende Vorstellungen der Konkurrenz abzuwarten.
Gleichzeitig fällt der Sprung bei der Kapazität aber gar nicht mal so gut aus, oder übersehe ich da etwas?
Den Zyklus von etwa 1,5 Jahren zwischen den Generationen wollen die Partner einhalten und so soll die nachfolgende Generation Ende 2023 präsentiert werden. Statt von BiCS7 spricht Western Digital von „BiCS+“. Die Anzahl der Layer soll wie bei Samsungs V-NAND V8 auf über 200 ansteigen. Durch die abermals gesteigerte Flächendichte werden 55 Prozent mehr Bit pro Wafer in Aussicht gestellt.
Einfach nur mal mit Moores Law vergleichen...
 
Dann gibt's neben Intel/Micron noch ne zweiten gescheiten QLC NAND. Der BICS4 und auch Samsungs QLC sind ja unterirdisch.
 
  • Gefällt mir
Reaktionen: IllusionOn
Bevor hier sich hier jemand von der Speicherdichte in die Irre führen lässt:
dies wird über string-stacking erreicht, was prinzipiell einfacher ist als die "Höhe" eines Stapels Speicherzellen zu erhöhen. Dabei wird (wie in den Folien angegeben) Wafer-Bonding genutzt, also ganze Wafer gestapelt. Es werden somit mehrere Wafer und damit ebenfalls mehr Fläche benötigt (die quasi sich dann quasi in der Anzahl der "Etagen" versteckt) was natürlich die Kosten erhöht. Wenn es möglich ist die Speicherdichte ohne diese Technik zu erhöhen wird dies natürlich bevorzugt. Einen Technologieführer nur nach der Speicherdichte kann man also nicht ausrufen ohne die Anzahl der gestapelten Strings/Wafer zu betrachten.
 
  • Gefällt mir
Reaktionen: Colindo, Topflappen und Bigeagle
Jetzt fehlt nur noch eine bezahlbare 4TB SSD, dann fliegt die HD aus dem PC und meine 2 TB SSD wandert ins Notebook.
 
Santa Clause schrieb:
Bevor hier sich hier jemand von der Speicherdichte in die Irre führen lässt:
Wo soll das bitteschön in die Irre führen sein? Wichtig ist das Resultat. Warum lässt du nicht gleich nur 2D NAND gelten, weil in die dritte Dimension zu gehen ist ja Pfuschen?
 
LamaMitHut schrieb:
Wo soll das bitteschön in die Irre führen sein? Wichtig ist das Resultat. Warum lässt du nicht gleich nur 2D NAND gelten, weil in die dritte Dimension zu gehen ist ja Pfuschen?
Ich glaube, er wollte explizit den Aufwand dazu unterstreichen. Wenn jemand beim Auto einen besseren Motor rausbringt, der aber vorher handpoliert werden muss und keinen Kaltstart mehr machen kann, dann ist das zwar toll von den Leistungen, aber nicht für ein Auto der Golfklasse geeignet.
Wenn die Produktion linear mit dem Speicher teurer wird, weil man die Chips trotzdem planar produziert und danach erst stapelt, dann bringt es für billige SSDs erstmal auch nicht so viel. Probleme, dass SSDs zu groß sind, sind zumindest im Desktop nicht vorhanden, aber schlecht ist es natürlich auch wieder nicht.
Ein wenig ist es aber so, dass einfach nur der Arbeitsaufwand gesteigert wurde, aber keine neue Technologie verwendet wurde.
Oder habe ich das falsch verstanden von @Santa Clause ?

Wie sehen die Prognosen zur Haltbarkeit eigentlich aus? Sonst war Samsung da immer weit vorne. Weil Samsung auch in den meisten anderen Parametern führend war, war ein Griff zur Samsung SSD eine ziemlich sichere Sache, wenn man es sich leisten konnte. Ist das nicht mehr so? (Es gab doch zumindest eine Zeit, in der das so war und ich dachte, das wäre noch gar nicht so lange her gewesen?)
 
  • Gefällt mir
Reaktionen: Santa Clause
LamaMitHut schrieb:
Wo soll das bitteschön in die Irre führen sein? Wichtig ist das Resultat. Warum lässt du nicht gleich nur 2D NAND gelten, weil in die dritte Dimension zu gehen ist ja Pfuschen?
Es geht um die Kosten! Hersteller die ohne oder mit weniger String-Stacking auskommen können vllt nicht mit so hohen Werten bei der Speicherdichte werben, können aber grade deswegen günstiger fertigen.

@INe5xIlium So sieht es aus.
Die einzelnen Zellen sind nicht sooo kritisch wie das Zusammenspiel aus NAND, Controller und dessen Software. Samung ist aber definitiv ganz vorne dabei, es hat seinen Grund warum das Unternehmen Marktführer ist. Man muss natürlich immer gucken ob das jeweilige Produkt den eigenen Anforderungen entspricht. Bei hoher Schreiblast empfielt sich ein Blick zu den Profi-Serien die entsprechend viel bieten (hohe DWPD, PLP, etc.).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut
Santa Clause schrieb:
Es geht um die Kosten! Hersteller die ohne oder mit weniger String-Stacking auskommen können vllt nicht mit so hohen Werten bei der Speicherdichte werben, können aber grade deswegen günstiger fertigen.
Uff, hier geht es doch auch um sowas wie Produktionsmenge Pro Fabrik / Maschinen, und nicht nur variable Stückkosten? (Hoffentlich habe ich den Begriff jetzt richtig verwendet)
 
Wenn die Zahlen sich dann auch entsprechend in den bezahlbaren SSDs niederschlagen ist das ja mal eine gute Nachricht.
Kosten sind die andere Sache. Aber Teurer wirds ja wohl nicht werden und wenn die (günstigen) SSDs nach dem SLC Cache nicht mehr auf uralt-HDD Niveau abfallen ist das gut.
 
LamaMitHut schrieb:
Uff, hier geht es doch auch um sowas wie Produktionsmenge Pro Fabrik / Maschinen, und nicht nur variable Stückkosten? (Hoffentlich habe ich den Begriff jetzt richtig verwendet)
Mehr Stacks > mehr Prozessschritte > mehr Maschinen für gleichen Waferdurchsatz > weniger Output pro Fab.
Da Koxia "BICS+" in der Roadmap mit +55% Bit/Wafer angibt bzw. 200+ Layer gegenüber aktuell 162 nennt ist klar, dass hier jeder String in die Höhe wachsen muss um den Output zu steigern. Das Stapeln von noch mehr Wafern kommt dann erst später mit multi-wafer-bonding.
 
  • Gefällt mir
Reaktionen: LamaMitHut
Die große Schwäche von QLC-NAND, das langsame Schreiben, soll zumindest gemindert werden. Die Charge-Trap-Zellen des QLC-BiCS6 sollen sich mit 60 MB/s beschreiben (program) lassen. Das ist mehr als das Sechsfache gegenüber BiCS4 (BiCS5 gibt es nicht als QLC) und immer noch 50 Prozent mehr als bei Intels 144-Layer-QLC.

Schneller schreiben klingt erstmal super, es gilt aber eben auch zu bedenken, das am ende auch die Kapazität der Chips steigt.
Es frisst halt einfach die Geschwindigkeitsvorteile wieder auf, wenn bei gleicher Gesamtkapazität weniger Dies in der SSD zu finden sind.
 
Konkurrenz belebt das Geschäft, für mich persönlich ist WD jedoch nach meinen Erfahrungen mit meinen Blue 3D SSDs erstmal von der Kaufliste runter. Allenfalls als drittes Standbein im Backup-Konzept werden sie neben Samung und Crucial mangels weiterer Alternativen bei mir zwangsläufig weiterleben, mehr als dritte Wahl und Notnagel sind sie aber für mich nicht mehr. Für die echten Arbeitsmittel gebe ich lieber die paar Euro mehr für Samsung aus.

Vor zehn Jahren hatte ich noch gehofft, meine Festplatten Anfang der 20er-Jahre endgültig in Rente schicken zu können, aber nach den vielen Jahren der Stagnation hinsichtlich Preis und Kapazität rechne ich nun auch in den nächsten zehn Jahren nicht mehr damit, obwohl mein Platzbedarf nicht mehr signifikant ansteigt. Deutlich mehr als 10TB (also eine 16TB-SSD, wenn es mit den Größenabstufungen in Zweierpotenzen weiter geht) plus die doppelte Menge für Backups werden da auch auf absehbare Zeit nicht wirtschaftlich darstellbar sein. Inzwischen denke ich schon wieder über einen Ersatz der vorhandenen HDDs durch neuere Modelle nach, eigentlich wollte ich gar keine HDDs mehr kaufen. Nicht mal die Dual-Aktuator-HDDs haben es bisher zum echten Durchbruch geschafft, die Transferraten hinken weiter den Kapazitätszuwächsen hinterher. Insgesamt eine frustrierende Entwicklung.
 
ThommyDD schrieb:
Vor zehn Jahren hatte ich noch gehofft, meine Festplatten Anfang der 20er-Jahre endgültig in Rente schicken zu können, ...
ThommyDD schrieb:
Deutlich mehr als 10TB (also eine 16TB-SSD, wenn es mit den Größenabstufungen in Zweierpotenzen weiter geht) plus die doppelte Menge für Backups werden da auch auf absehbare Zeit nicht wirtschaftlich darstellbar sein.
Hast du dabei eigentlich trotzdem schon Erfahrung gesammelt, was mit SSDs passiert, wenn die über 4 Jahre keinen Strom hatten? Einige Bastelrechner und Daten von mir sind auf 128Gb SSDs und die haben teilweise äußerst selten Strom.
 
Santa Clause schrieb:
Mehr Stacks > mehr Prozessschritte > mehr Maschinen für gleichen Waferdurchsatz > weniger Output pro Fab.
Mit mehr Layer hast du aber auch mehr Prozessschritte. Die gibt's nicht kostenlos.
Ergänzung ()

lars1900 schrieb:
Schneller schreiben klingt erstmal super, es gilt aber eben auch zu bedenken, das am ende auch die Kapazität der Chips steigt.
Es frisst halt einfach die Geschwindigkeitsvorteile wieder auf, wenn bei gleicher Gesamtkapazität weniger Dies in der SSD zu finden sind.
Die Gesamtkapazität steigt ja meist mit wenn die Die-Kapazität steigt. Die SSDs werden größer, aber absolut nicht billiger.
Für den Consumerbereich passt das dann. Für schreibintensive Szenarien natürlich ungünstig.
Aber BICS6 ist ja weiterhin bei 1 TBit für QLC. Also kein Problem.
 
Zuletzt bearbeitet:
Und wie schaut es mit der Langzeitstabilität aus? Sind die Daten auch nach 5 Jahren "nur auf der Platte rumliegen" noch lesbar? Oder nach 2 Jahren im Schrank als Backup?
Davon ist leider nicht die Rede.
 
INe5xIlium schrieb:
Hast du dabei eigentlich trotzdem schon Erfahrung gesammelt, was mit SSDs passiert, wenn die über 4 Jahre keinen Strom hatten? Einige Bastelrechner und Daten von mir sind auf 128Gb SSDs und die haben teilweise äußerst selten Strom.
Den Fall habe ich nicht. Meine SSDs sind spätestens alle paar Wochen im Einsatz. Ich muss ja die Backups aktuell halten. Bei den WD-SSDs (nicht nur für Backup, auch als System-SSD) habe ich jedoch festgestellt, dass die vor anderthalb Jahren geschriebenen Daten (beispielsweise die Steam-Spielebibliothek) - trotz regelmäßiger Benutzung der SSD an sich - nur noch mit einstelligen Datenraten gelesen werden konnten. Echter Datenverlust trat dabei noch nicht auf. Jedoch war das Verhalten eben auch um Welten schlechter als bei den SSDs von Crucial und Samsung. Die werden in gleicher Weise genutzt und lesen die Daten auch nach längerer Zeit anstandslos. Ein Datenrefresh hat das Verhalten bei den WDs wieder normalisiert, ich werde nun im Zeitverlauf weiter beobachten, wann und wie stark der Einbruch stattfindet. Da das Problem singulär bei WD auftritt, werde ich die SSDs aber meiden, es gibt ja eben noch andere.

In zwei Rechnern, die ich wirklich sehr selten nutze, die sind höchstens einmal im Jahr am Stromnetz, habe ich jeweils eine Crucial M550 (128GB mSATA bzw. 128GB 2,5"-SATA) drin. Deren Betriebssysteme - jeweils Windows 98 und Windows XP auf beiden Rechnern - habe ich vor über fünf Jahren installiert, bisher keine Auffälligkeiten. Ein Datenrefresh fand überhaupt nicht statt.

Eine Rolle spielt aber die Lagertemperatur. Ich habe im Auto SD-Speicherkarten mit Musik. Die muss ich jährlich neu beschreiben, sonst gibt es Störungen und Aussetzer. Durch die hohen Innenraumtemperaturen im Sommer verlieren die Karten ihre Daten.
 
  • Gefällt mir
Reaktionen: INe5xIlium
Zurück
Oben