News Western Digital: BiCS4-3D-NAND nutzt 96 Layer und TLC oder QLC

Ich habe gerade wieder ein System fertig gestellt das, wie auch mein eigener Rechner aus der Signatur, auf einer Samsung 960 Evo ( PCIe3 x4 ) basiert. Das alte System mit einer 850 Evo ( Sata ) lief auch noch und so konnte man sehr schön vergleichen und was soll ich sagen - der Performanceunterschied war schon sehr auffällig!

Die die meinen da gibts keinen großen Unterschied sollten einfach mal 2 identische Systeme mit diesen SSDs aufsetzen, dann wird auch Euch klar, dass da sehr wohl ein Unterschied besteht und der ist nicht unbedingt gering!
 
Dario schrieb:
der Performanceunterschied war schon sehr auffällig!

Das bildest du dir ein weil du alles gekauft hast und das System wohl neu installiert hast. Ich hab NVMe und Sata SSDs getestet und du spürst kein Unterschied bei dem gleichen Image und Rechner.

Der einzige Unterschied den man spürt ist beim Kopieren von viel Dateien oder wenn man die NVMe SSD richtig fordert bei mir als Datenbank Server.

Wenn man aber nicht genau diesen einen Workflow hat der von einer NVMe SSD profitieren kann spürt man genau 0 Unterschied.
 
Cool Master schrieb:
Der einzige Unterschied den man spürt ist beim Kopieren von viel Dateien oder wenn man die NVMe SSD richtig fordert bei mir als Datenbank Server.

Wenn man aber nicht genau diesen einen Workflow hat der von einer NVMe SSD profitieren kann spürt man genau 0 Unterschied.

Da gehen unsere Meinungen auseinander, aber ich lasse dich in deinem Glauben! :)
 
MichaG schrieb:
@Holt: NAND-Flash ist nicht nur für SSDs da. ;)
Das ist richtig, wenn ich die Zahlen der Verteilung der Nutzung von NAND noch richtig im Kopf habe, sind es keine 50% oder waren es eher knapp über einem Drittel?
Aber erstens sind wir in einem SSD Forum, zweitens sieht man bei kaum einem anderen Geräte die Leistung der NANDs so direkt wie bei einer SSD und wer bekommt die ersten Prototypen: SSD und SSD Controller Hersteller!

pipip schrieb:
Die Fehlerkorrektur wird aber auch wesentlich aufwendiger.
Warum sollte sie das? Die Zahl der Layer hat damit meines Wissens nichts zu tun, die macht nur die Fertigung aufwendiger.

Cool Master schrieb:
Die Geschwindigkeit der SSD kommt so oder so nicht durch die Übertragungsrate zustande sondern die Zugriffszeit und da juckt es noch weniger ob SATA mit AHCI oder PCIe mit NVMe.
Bei NAND juckt es da wohl weniger, da dessen Latenz einfach sehr hoch ist, bei Storage Class Memory wird das aber anderes sein. Außerdem rückt damit die Latenz des Gesamtsystems in den Vordergrund, die ist nämlich auch erschreckend hoch, wie man man im Review der Intel Optane bei TweakTown sieht. Die kommt mit 488MB/s bei CDM 4k QD1 am i7-6700K@4,7Ghz unter Windows Server 2008R2 gemessen wurde, schon am System mit dem i7-7700K@5GHz und Windows Server 2012R2 sind es nur 415,8MB/s und auch sequentiell dann minimal weniger. Bei den 4k QD1 lesend fallen die Latenzen des System immer besonders auf und bei der Optane mit ihrem 3D XPoint welches eine sehr viel geringere Latenz als NANDs hat, zeigen sich die Latenzen des Systems noch mal viel dramatischer. So waren es auf dem von Intel für den Review gelieferten System nur 304,2MB/s und auf dem normalen "TweakTown's high-performance Z270 test system" 365,8MB/s, wobei diese beiden Testsysteme mit Win 10 liefen und der Z270@5GHz offenbar auch der gleiche Rechner ist, der mit Win Server 2012R2 dann 415,8MB/s geschafft hat, also immerhin fast 14% mehr nur aufgrund der Version von Window.

WoFNuLL schrieb:
Da die Layer aneinander liegen, und das auch noch viel enger als Vorher
Wieso? Sind in einem Hochhaus mit mehr Stockwerken denn auch zwangsläufig die Zimmer kleiner und die Deckenhöhen geringer?

Shadow Complex schrieb:
Hat denn die Komplexität der Fehlerkorrektur wirklich mit der Kapazität zu tun oder nur der Anzahl der möglichen Ladungszustände?
Vor allem mit der Anzahl möglicher Ladungszustände, aber auch Fakten wie die mögliche Anzahl der Elektronen, Verluste durch Leckströme und Übersprechen spielen eine Rolle.
Shadow Complex schrieb:
wobei LDPC auf SSD jedweder Kapazität verwendet wird.
Vor allem wird es auch SSDs mit TLC NAND verwendet, bei denen mit MLC ist es nicht üblich. Inzwischen unterstützen die Controller für Consumer SSDs ja alle LDPC weil TLC inzwischen praktisch Standard geworden ist, aber als TLC in die SSDs einzog, war dies anderes und z.B. die Ultra II verwendet einen Marvell Controller der dies noch nicht unterstützt.
 
WoFNuLL schrieb:
Da die Layer aneinander liegen, und das auch noch viel enger als Vorher um in das Package zu passen, kann durch Leckströme und ähnliches eher ein Fehler entstehen als in den Vorigen (3D)Nand Generationen. Von daher muss die Fehlerkorrektur das natürlich abfangen und wird dementsprechend aufwendiger Umzusetzen.

Dass die Höhe der Dies beim Packaging aktuell ein reales Problem ist, wäre mir neu.
Die Leckströme usw. sind abhängig vom Design und werden dort schon behandelt. Diese sind somit für die Fehlerkorrektur irrelevant.
Ergänzung ()

Holt schrieb:
Aber erstens sind wir in einem SSD Forum, zweitens sieht man bei kaum einem anderen Geräte die Leistung der NANDs so direkt wie bei einer SSD und wer bekommt die ersten Prototypen: SSD und SSD Controller Hersteller!

Die brauchen aber auch relativ lange um ein marktreifes Produkt zu haben. Des Weiteren verkaufen sich NANDs für SSDs so schlecht, wenn es kein Controller gibt, der die Chips unterstützt.

Die Verwendung in µSD-Karten usw. dürfte hingegen relativ trivial sein, wenn die Chips physikalisch ins Gehäuse passen. (Crucial hat dafür scheinbar extra kleiner Dies aufgelegt.)
 
Und µSD Karten brauchen keine Controller?
 
Ich fand ja TLC schon eine eher schlechte Entwicklung, komplexer, mehr Aufwand, weniger Haltbar und benötigt Pseudo SLC zum Ausgleich. Wird dann ja alles noch schlimmer mit QLC. Hauptsache billig :rolleyes:
 
Hallo32 schrieb:
Die dürften vom Design lange nicht so komplex sein.
Klar, aber er muss die NANDs auch korrekt ansteuern können und nur der Teil wird ja auch bei den 3rd Party Controllern jeweils auf neue NAND Typen angepasst.

Pizza! schrieb:
Hauptsache billig :rolleyes:
So ist es, die Leute wollen billig und bekommen daher billig. Solange die Alltagsperformance halbwegs reicht, billig richtet sich ja vor allem an Neukunden die noch keinen Vergleich zu anderen SSDs haben und gegenüber HDDs sind meist auch Billig-SSDs schneller, selbst wenn man sie mit "Tricks" wie Pseudo-SLC Schreibcaches pusht und die Haltbarkeit den meisten Heimanwendern auch genügt (die SSDs werden eh getauscht bevor meist überhaupt ein Bruchteil der P/E Zyklen verbraucht ist), warum nicht? Wenn Du mehr willst, gibt halt mehr aus!
 
Es gibt eben user und nicht zuletzt Unternehmen, die einen hohen bedarf an speicherplatz haben. Warum sollten die Hersteller jetzt milliarden an forschungsgeldern für die weiterentwicklung von mlc mit einer schlechten datendichte verschwenden?
 
Also finde sehr schade dass es nur ansatzweise erwähnt wird, dass sich durch den 3D NAND TLC Speicher
sich das 4k-Read/Write I/O extrem erhöht.

Siehe "AS SSD Benchmark".
 
Wenn Du schon hier wegen dieser wichtige Nachricht die Leiche fläddern musst, dann schreiben bitte welche konkrete SSD in welchen Review Du meinst.
 
Zurück
Oben