News Intel SSD 520 Series vermutlich auf SandForce-Basis

Du liest irgendwas in der verzweifelten Suche nach Gegenargumenten ohne Ahnung von der Materie zu haben. Es ging um LPM, welches bei einigen, wenigen System zu Freezes und Laggs, nie aber zu BSOD geführt hat. Diese wurden bei der m4 mit der FW 002 abgestellt, bei der C300 mit der 006, was aber nicht bei allen Usern funktionieret und dann nochmal mit der 007. Für die C300 gab es überhaupt nur die FW 001, 002, 006 und 007, für die m4 nur die 001, 002 und 009. Das sind ja wohl nicht diverse FW-Updates um das Problem zu beheben sondern eines für die m4 und zwei für die C300, aber bestimmte Personen zählen eben unterschiedlich, wenn es um verschiedene Controller geht.

Vergleiche einfach mal, wieviele FW Versionen es beim SF-1222 gab (der Erstlingswerk von SF, so wie die C300 für Crucial, denn für die M225 brauchten sie die FW ja nicht selbst zu machen, die war von Indilinx), das waren mehr als 4 und wieviele es jetzt schon für den SF-2281 gibt, auch mehr als die 3 der m4.

Der wichtigste Unterschied aber ist: Die m4 ist ausgereift und arbeitet problemlos auch mit Intels angeblich defekten SandyBridge-Chipsätzen zusammen!
Ergänzung ()

thesddreview wirft hier den ANOBIT Controller in den Ring, der auch in der Genesis T-Series verbaut wird und durchaus ähnliche Werter erreicht, wie sie der 520 nachgesagt werden. Dazu hat Intel Capital in die Firma investiert. Obendrein verspricht ANOBIT die Lebenserwartung von NANDs gewaltig zu steigern:
Anobit’s patented MSP™ (Memory Signal Processing) technology which extends more than 20 times the standard MLC endurance from approximately 3,000 read/write cycles to over 50,000 cycles, makes MLC technology suitable for high-duty cycle applications.
Ein SSD-Controller kann sowas aber eigentlich nicht, der bekommt ja nur Bit zurück und keine Ladepegel der Zellen! Es geht also nur innerhalb der NANDs selbst, denn dieser werten ja die Ladung der einzelen Zellen selbst aus. Ein Controller kann nur sparsam mit den Zyklen umgehen (für die Werber macht das aber wohl keinen Unterschied) und eine geringe Writeamplifikation erzeugen. Kleiner als 1.0 geht aber nur, wenn man die Daten komprimiert. Andererseits steht bei den Spezificationen "MLC 25nm NAND with MSP™ Technology", wonach dieses Wunder dann wirklich innerhalb des NANDs verbracht wird. Demnach würde Intel dann ein besonderes NAND für diese SSD fertigen, was sich sicher auch im Preis niederschlagen wird.

Oder man macht es wie Intel beim HET-MLC:
you get 320GB of NAND inside this 200GB drive. Of course 200GB is defined as 200,000,000,000,000 bits, so actual binary storage capacity is 186.3GiB. This is absolutely insane: over 41% of the NAND on the 710's PCB is set aside as spare area. We have never reviewed an SSD with anywhere near this much spare area before.

If we run the p/e count with 320GB as the actual amount of NAND available, it works out to be just under 40K p/e cycles per cell. The significant spare area on the 710 increases the drive's projected lifespan by 55%! Intel even recommends setting aside another 20% of the drive if you need a longer lifespan. An extra 20% spare area will give you another 50% increase in total bytes written. Tinkering with spare area just helps reduce write amplification, it doesn't magically make the NAND cells last longer.
...
For the past couple of years Intel has included a couple of counters in the SMART data of its SSDs. SMART attribute E2h gives you an accurate count of how much wear your current workload is putting on the drive's NAND. To measure all you need to do is reset the workload timer (E4h) and run your workload on the drive for at least 60 minutes. Afterwards, take the raw value in E2h, divide by 1024 and you get the percentage of wear your workload put on the drive's NAND. I used smartmontools to reset E4h before running a 60 minute loop of our SQL benchmarks on the drive, simulating about a day of our stats DB workload.

Once the workloads finished looping I measured 0.0145% wear on the drive for a day of our stats DB workload. That works out to be 5.3% of wear per year or around 18.9 years before the NAND is done for. I'd be able to find more storage in my pocket before the 710 died due to NAND wear running our stats DB.

For comparison I ran the same test on an Intel SSD 320 and ended up with a much shorter 4.6 year lifespan.
Wenn man also nur genug Overprovisining betreibt, dann wird die Wrtieamplification bei den typischen professionellen Anwendungsprofilene (viele Random Writes) stark gesenkt. Dieses rechnet man dann auf die P/E Zyklen der NANDs um, Taschenspielertricks des Marketing. Offenbar vermutet man, dass die Leute nicht verstehen, was eine Writeamplification ist aber von den P/E Zyklen schon mal was gehört haben. Jedenfalls funktioniert dies mal wieder nur unter bestimmten Voraussetzungen: Viele Randomwrites die auf gewöhnlichen Consumer-SSD (mit wenig Spare Area) eine gewaltige Write Amplification hervorrufen. Auch ANOBIT vergleicht seine 50.000 Zyklen ja mit den 3.000 die Micron für sein 25nm NAND angibt, wobei dem aber eine Retention von 12 Monaten zugrunde liegt und nicht nur von 3 Monaten, wie sie für Entersprise NAND von JEDEC definiert sind.

Die Genesis T-Serie ist auf jeden Fall eine Enterprise SSD, was man schon an der Bauhöhe von 15mm sieht und dazu hat sie eine Idle Leistungsaufnahme von 2.8W sowieso typische Entersprise Kapazitäten: "100 GB, 200 GB, 400 GB and 800 GB"
 
Holt schrieb:
Ergänzung ()

thesddreview wirft hier den ANOBIT Controller in den Ring, der auch in der Genesis T-Series verbaut wird und durchaus ähnliche Werter erreicht, wie sie der 520 nachgesagt werden. Dazu hat Intel Capital in die Firma investiert. Obendrein verspricht ANOBIT die Lebenserwartung von NANDs gewaltig zu steigern: Ein SSD-Controller kann sowas aber eigentlich nicht, der bekommt ja nur Bit zurück und keine Ladepegel der Zellen! Es geht also nur innerhalb der NANDs selbst, denn dieser werten ja die Ladung der einzelen Zellen selbst aus. Ein Controller kann nur sparsam mit den Zyklen umgehen (für die Werber macht das aber wohl keinen Unterschied) und eine geringe Writeamplifikation erzeugen. Kleiner als 1.0 geht aber nur, wenn man die Daten komprimiert. Andererseits steht bei den Spezificationen "MLC 25nm NAND with MSP™ Technology", wonach dieses Wunder dann wirklich innerhalb des NANDs verbracht wird. Demnach würde Intel dann ein besonderes NAND für diese SSD fertigen, was sich sicher auch im Preis niederschlagen wird.

Ich habe mal in der Quelle der ssdreview-News xtremesystems.org gelesen und bin dort auf PDFs gestoßen die das Memory Signal Processing (MSP) von Anobit, welches eben die Lebensdauer steigern soll, ein bisschen genauer erläutern. http://www.anobit.com/uploaded/IPA12112-Web.pdf

Anscheinend geht es nicht darum die WA zu senken, sondern u.a. zusätzlich die Leckströme der einzelnen Zellen zu messen und darauf aufbauend Fehlerkorrektur zu betreiben. Das im "normalem" ECC wie es afaik unsere gegenwärtigen Consumer-SSDs machen nicht enthalten.

Ob dazu auch der Flashspeicher angepasst werden muss, kann ich atm nicht bewerten. Im PDF sieht man aber, dass der Controller auf jeden Fall die MSP und erweiterten ECC-Infos verarbeitet. Diese Technik kann man als SSD-Hersteller anscheinend implementieren, wenn man sie von Anobit lizensiert.

Hier noch ein Benchmark der die gesteigerte Lebenserwartung von TLC-FLash http://www.anobit.com/uploaded/FMS_2010_MSP_vs_ECC.pdf

Während normale ECC nur Fehler bei bis zu ca. 300 PE-Zyklen ausgleichen kann, sollen durch MSP ca. 4500 PE-Zyklen möglich sein, bevor die Fehler nicht mehr korrigiert werden können. Das ist ein Faktor von 15.
 
Die Leckströme der einzelnen Zellen zu messen und darauf aufbauend Fehlerkorrektur zu betreiben, bedeutet ja wohl auch, dass man diese Informationen irgendwo speichern muss, also mehr WA erzeuge und weniger Nutzkapazität übrig bleibt. Außerdem kann man Leckströme nur kompensieren, indem man die Ladung regelmäßig auffrischt, wie es bei DRAM ja auch nötig ist. Dazu braucht man aber eine regelmäßige Stromversorgung, die bei Smartphone und Tablets sicher besser gegeben ist, als bei Consumer-SSDs. Da läßt man den Rechner dann eine Woche ausgeschaltet und die Daten auf der SSD sind weg: Die Datenretention von 12 Monaten ist dann nicht mehr gegeben.

Da es so bei der m4 im Dauerschreibtest so ähnlich passiert ist und die m4 ja die Consummerversion der Micron C400 für den professionellen Einsatz ist, könnte bei der also durchaus was ähnliches implementiert sein. Immerhin stellt Micron die NANDs ja selbst her, kann also alle erforderlichen Signal hinausreichen.
 
Zurück
Oben