Leserartikel Ein paar Efahrungen mit (älteren) SSDs

G

Gerk

Gast
Ich will das dort nicht weiter "auswalzen":
Holt schrieb:
Gerk, vor allem alte ATAPI Laufwerke haben nun einmal oft Probleme mit dem AHCI Modus und wenn ein Intel SATA Host Controller im RAID Modus läuft, dann laufen die anderen Ports die nicht zum RAID gehören, nun einmal im AHCI Modus.

Bzgl. der Datensicherheit sind beide SSDs suboptimal, die C400 hat hoffentlich eine ausreichend aktuelle FW, die ist bei OEM SSDs wie es alle SSDs mit dem Micron Label sind, üblicherweise gar nicht einfach zu bekommen, aber ich meine es gibt von Micron ein öffentlich downloadbares FW-Update welches den 5184 Stunden Bug behebt, die C400 ist nämlich mit der Crucial m4 baugleich und hat daher auch die gleichen Probleme. Wenn die SSD dann plötzlich verschwindet weil noch keine FW mit dem Bugfix eingespielt ist, dann ist Datenkorruption nicht zu verhindern. Obendrein war die m4 immer reicht sensible auf unerwartete Spannungsabfälle, weshalb die Nachfolger mit Marvell Controllern dann auch Stützkondensatoren spendiert bekommen haben, auch wenn es nur die kleine Lösung für Data-at-rest war.

Die HG6 hat einen Pseudo-SLC Schreibmodus (der Reviewer spricht von einem adaptiven SLC-Schreibcache, aber ich bevorzuge das Wort Cache nur bei SSDs zu verwenden die dafür einen festen Bereich für das Pseudo-SLC verwenden (bisher waren das immer SSD mit TLC NAND) und sonst von einem Pseudo-SLC Schreibmodus zu reden, was für SSDs mit MLC NANDs typisch ist die Pseudo-SLC benutzen. Der Unterschied ist, dass bei so einem Pseudo-SLC Schreibmodus erst ein Bit in die freien NAND Pages geschrieben wird und dann erst später das zweite Bit, statt beide direkt hintereinander zu beschreiben. Danach werden die Daten dann noch mal umkopiert, was die Write Amplification erhöht, aber es erhöht auch das Risiko der Low-Page Corruption, etwas durch eine unerwarteten Spannungsabfall!

Die liegt daran, dass beim normalen Beschreiben der MLC NANDs, wenn als das erste Bit (die Low-Page) und gleich darauf das zweite Bit geschrieben wird, bei einem Spannungsabfall die Daten wahrscheinlich zu selben Datei gehören und dies vermutlich sowieso nicht zuende geschrieben wurde, weshalb das Journaling (auch NTFS hat sowas) dann dazu führt, dass diese Datei zwar verloren ist, aber mehr auch nicht, außer ggf. andere Dateien die auch gerade erst zusammen mit ihr geschrieben wurden. Wird aber ein Pseudo-SLC Schreibmodus verwendet, so wurden die Daten in die Low-Page lange vor dem zweiten Bit in diese Page geschrieben und fällt dabei die Spannung plötzlich ab, so werden Daten korrupt die zu einer Datei gehören die längst von Filesystem als sicher geschrieben wurden, schlimmstenfalls sogar Metadaten des Filesystems. Während im ersten Fall der Vorgang des Schreiben der Datei (ggf. der letzten Dateien) vom Journaling einfach "rückgängig" gemacht wird und das Filesystem wieder in den Zustand vor dem Schreibvorgang versetzt wird, geht das beim zweiten Fall nicht und daher erhöht sich das Risiko von Datenverlust durch solch einen Pseudo-SLC Schreibmodus höher.

Das macht so eine SSD nicht unsicher, aber Sicherheit ist immer relativ und fängt beim Schutz vor Datenkorruption bei ECC RAM und der passenden Plattform (CPU + MoBo) an und hört bei der passenden (Enterprise-)SSD noch nicht auf. Eine Samsung PM/SM863, Intel DC S3xxx oder von Micron eine mit DC am Ende, wäre die passendere Wahl gewesen.

Micron C400:
Diese SSD war in einem Leasingrückläufer, den ich vor ein paar Monaten günstig gekauft habe, als einziger Datenträger drin. Es sieht so aus, als wäre die WS ein paar Jahre lang Montag bis Freitag ununterbrochen eingeschaltet gewesen ohne viel Last. Die SSD hatte viele Stunden, wenig Einschaltungen und nicht so viel geschrieben.

Eigentlich sagt dieser Link alles:
https://support.ts.fujitsu.com/IndexDownload.asp?SoftwareGuid=FA3F21BF-893F-49A9-A836-4EA2547C81B0
Es war ziemlich schwierig, den zu finden.
https://support.ts.fujitsu.com/content/QuicksearchResult.asp
Volltextsuche
Ergebnisse Suchanfrage: C400 070H
Zuvor hatte ich mindestens 5 vergebliche Updateversuche aus verschiedenen anderen Quellen (Micron, Crucial, Lenovo, Dell...) gemacht. Diese C400 ist eine OEM-SSD für Fujitsu und Micron ist da mit Updates sehr zickig. Bekommen hatte ich diese SSD mit FW 040H. Nun wurde also die FW wieder frisch geschrieben und ich habe keinerlei Befürchtungen, dass in den nächsten paar Jahren Bitrot die zernagen könnte.

Als der PC ankam, habe ich auf der SSD zuerst Windows 7 und ein paar Testprogramme installiert, um zu sehen, ob die Hardware OK ist. Heute benutze ich W7 nur noch für Tools, mit denen ich mich bei Ubuntu nicht auskenne etwa 2 Mal die Woche. Daneben sind auf der SSD ein paar Downloads und Backups. Die SSD läuft unauffällig mit normaler Performance.

Toshiba HG6:
Ungefähr 2010 hatte ich mich in einem Forum zur mir unverständlichen Preisbildung bei SLC geäußert und gemeint, dass MLC eigentlich anspruchsvoller in der Herstellung sein müsste und man den doch wohl auch firmwaremäßig als SLC betreiben könnte - zum Bruchteil des Preises einer "echten" SLC-SSD. Dafür bin ich von Verkäufern, Groschenjungs, Moderatoren saublöd und primitiv angemacht worden. Die Krönung war die Behauptung eines Mods, dass MLC 2 Floating Gates hat. Heute hat so eine Kombination von SLC und MLC/TLC praktisch jede zweite SSD.

(Nun kommt SLC wieder einmal ins Gespräch.
Z-NAND: Samsung bereitet Serienfertigung der Z-SSD vor 12.9.2017
https://www.computerbase.de/2017-09/samsung-serienfertigung-z-ssd/
"Zum Einsatz kommt auf hohe Leistung getrimmter SLC-NAND-Flash, den Samsung Z-NAND nennt." )


Und eines Tages sehe ich im Mediamarkt so eine Toshiba zum recht günstigen Preis. Ich weiß gar nicht, ob HG6 auf dem Karton stand. Ich hatte niemals vor, diese SSD jemals zu mehr als 50% voll zu schreiben. Also müsste die doch immer im SLC-Modus laufen. :) Das wäre doch ein interessantes Experiment.

Zur Zeit sind die 128GB der SSD ausschließlich mit etwa 10GB Ubuntu in einer BTRFS-Partition gefüllt. Jede Woche spiele ich mal Gott und mache btrfs scrub, um zu sehen, ob ein Bit verloren gegangen ist, aber sie tut mir nicht den Gefallen.

"Weisst du wieviel Sternlein stehen?"
https://www.volksliederarchiv.de/weisst-du-wieviel-sternlein-stehen/
"Gott, der Herr, hat sie gezählet,
daß ihm auch nicht eines fehlet,
an der ganzen großen Zahl,
an der ganzen großen Zahl."

;)

Ich hatte schon den Gedanken, mit der Brechstange, mit einem Hex-Editor, auf Partitionsebene das BTRFS zu demolieren. Ein intelligenter und fähiger Mensch hat mir das aber schon abgenommen und meine Faulheit gestärkt:

"An experiment on data corruption and recovery with Btrfs
(and some open questions to Btrfs developers)

Michele Alessandrini "
https://sites.google.com/site/miche...nt-on-data-corruption-and-recovery-with-btrfs

Abschnitt "Btrfs, one device"...

"# btrfs scrub start mount1/
scrub started on mount1/, fsid 36a2b980-b5dc-4d79-a2bf-010c85056cc7 (pid=32168)
ERROR: There are uncorrectable errors."

Der Mann hat's drauf - Respekt! Danke!

Meine HG6 läuft super. Leider kann ich sie momentan mit AS SSD Benchmark von Windows 7 aus nicht benchen, weil das mit BTRFS natürlich nicht funktioniert.
(Naja, vielleicht mal mit WinBTRFS.
heise, "WinBtrfs 1.0 erschienen: Dateisystem Btrfs nativ unter Windows einsetzen"
https://www.heise.de/ix/meldung/Win...fs-nativ-unter-Windows-einsetzen-3822262.html
)
 
Zuletzt bearbeitet:
Irgendwie habe ich den Erfahrungsbericht nicht wirklich finde können.

Theamtisch ein Beitrag von mir:

Ich habe seit nun 10 Jahren eine Crucial C300, zwischenzeitlich als Steam Festplatte im Einsatz. Tut einwandrei.
 
Gerk schrieb:
Ergebnisse Suchanfrage: C400 070H
070H müsste auch die letzte FW Version der Crucial m4 sein.

Gerk schrieb:
Diese C400 ist eine OEM-SSD für Fujitsu und Micron ist da mit Updates sehr zickig.
Das ist bei OEM SSDs normal, da Micron die zwar herstellt, aber Fujitsu dann dafür verantwortlich ist. Das ist wie beim Auto, wenn da z.B. ein Getriebe von ZF drin ist, kann man sich bei Problemen auch nicht an ZF wenden, sondern muss das mit dem Hersteller des Autos klären.
Gerk schrieb:
habe keinerlei Befürchtungen, dass in den nächsten paar Jahren Bitrot die zernagen könnte.
Die Gefahr sind unerwartete Spannungsabfälle, dabei kann es passieren das die SSD hinterher gar nicht ansprechbar ist, aber mit der Power Cycle Wiederbelebungsmethode sollte man sie wie die m4 und deren Nachfolger mit Marvell Controllern mit hoher Chance wiederbeleben.

Gerk schrieb:
Ungefähr 2010 hatte ich mich in einem Forum zur mir unverständlichen Preisbildung bei SLC geäußert und gemeint, dass MLC eigentlich anspruchsvoller in der Herstellung sein müsste und man den doch wohl auch firmwaremäßig als SLC betreiben könnte - zum Bruchteil des Preises einer "echten" SLC-SSD.
Das Problem ist, dass MLC NAND damals nicht darauf ausgelegt war das nur ein Bit geschrieben wird, die Logik zur Unterscheidung der Ladungszustände ist nicht darauf ausgelegt gewesen. SanDisk/Toshiba hat dies mit dem 24nm NAND geändert, dies war erstmal darauf ausgelegt im Pseudo-SLC Modus betrieben zu werden:
Inzwischen können wohl alle MLC und TLC NANDs diese Pseudo-SLC Modus, aber 2010 konnte MLC NAND dies noch nicht.

Gerk schrieb:
(Nun kommt SLC wieder einmal ins Gespräch.
Z-NAND: Samsung bereitet Serienfertigung der Z-SSD vor 12.9.2017
https://www.computerbase.de/2017-09/samsung-serienfertigung-z-ssd/
"Zum Einsatz kommt auf hohe Leistung getrimmter SLC-NAND-Flash, den Samsung Z-NAND nennt." )
Aber nur in der ersten Generation, die nächste Z-NAND Generation wurde schon als MLC angekündigt:
Gerk schrieb:
Ich hatte niemals vor, diese SSD jemals zu mehr als 50% voll zu schreiben. Also müsste die doch immer im SLC-Modus laufen. :)
Nein, denn die Daten werden ja im Idle umkopiert, so dass danach bei Bits beschrieben werden. Es ist nicht so, dass sie ständig im Pseudo-SLC Schreibcache bleiben, dies zeigt auch das das Ergebnis von AS-SSD auf der start genutzten (10GB frei) SSD, wo immer noch mit 475MB/s geschrieben wurde. Wäre es so, dass die Daten im Pseudo-SLC Modus bleiben würden, wäre nur eine Schreibrate wie weiter unten bei HD Tach von etwa 100MB/s möglich, da ja das schreiben des zweiten Bits viel länger dauert und wenn nur 10GB frei sind, wären alle Low-Pages ja schon längst beschrieben. Wenn Du nur die Hälfte der Kapazität nutzt, dann wirst Du wohl die NANDs wohl immer im Pseudo-SLC Modus beschreiben, danach wird die FW diese im Idle aber umkopieren und dann stehen stehen die Daten doch immer wieder mit 2 Bit in jeder Zelle.
Gerk schrieb:
Jede Woche spiele ich mal Gott und mache btrfs scrub, um zu sehen, ob ein Bit verloren gegangen ist, aber sie tut mir nicht den Gefallen.
Das Risiko ist im Alltag auch extrem gering, wie gesagt vor allem bei unerwarteten Spannungsabfällen, besondern während Schreibvorgängen und bei der eben vor allem dann, wenn dabei auch noch der Pseudo-SLC Bereich voll ist und deshalb die zweiten Bits beschrieben werden. Aber wenn nur 10 von 128GB belegt sind, wird das nun wirklich kaum passieren.
 
Micha_80 hat das gut ausgedrückt.

Micha_80 schrieb:
Kein Fortschritt ohne Veränderung!

Kennt ihr noch die Checkbox in Windows 3.11 um den DMA Modus zu aktivieren? Das war Gold Wert!

Bei der aktuellen Samsung 960 Evo heißt es

Schnittstellen
PCIe 3.0 x4, NVMe 1.2 (teilweise)

http://www.samsung.com/de/memory-storage/960-evo-nvme-m-2-ssd/MZ-V6E1T0BW/

Mit PCIe 4.0 kommt zwangsläufig NVMe 1.3

"Silicon Motion: Neue SSD-Controller setzen durchweg auf PCIe und NVMe"
https://www.computerbase.de/2017-08/silicon-motion-sm2262-sm2262en-sm2263-sm2263xt/
"Die vier neuen Controller SM2263, SM2263XT, SM2262 und SM2262EN arbeiten sogar allesamt mit PCIe 3.0 x4. Unterstützt wird das NVMe-Protokoll in Version 1.3."

und damit müssen unkorrigierbare Lesefehler klar und deutlich an Windows und an jeden (ungeschulten) Nutzer gemeldet werden. Dann bin ich mal gespannt.

Jedenfalls erwarte ich dann für nicht vollständige Umsetzung der Standards deutliche Punktabzüge in den Reviews.

Edit:

Nachdem ich das genauer durch geklickt habe, sind meine Hoffnungen teilweise verflogen.

NVM Express Revision 1.3 May 1, 2017
http://www.nvmexpress.org/wp-content/uploads/NVM_Express_Revision_1.3.pdf

Es wäre auch zu schön, wenn sich die Industrie selbst zu Offenheit und Ehrlichkeit bekennen würde.
Dann bleibt nur weiterhin die häufige Überprüfung der SMART-Werte. Auch deren Umfang und Genauigkeit sollten in Tests bewertet werden.

Irgendwo hatte ich beim Durchwuseln der je OEM unterschiedlichen Firmware den Eindruck, dass es auch unterschiedliche "Offenbarungen" in den SMART-Werten gibt. Der OEM darf sich anscheinend wünschen, was gemeldet wird und was nicht.
 
Zuletzt bearbeitet:
Gerk schrieb:
damit müssen unkorrigierbare Lesefehler klar und deutlich an Windows und an jeden (ungeschulten) Nutzer gemeldet werden. Dann bin ich mal gespannt.
Du hast da falsche Vorstellungen, denn ersten erfährt der User davon nur, wenn das Programm welches den Lesevorgang auslöst und damit auch die Fehlermeldung statt korrupter Daten bekommt, dem User diese Fehlermeldung auch weiterreicht und zweitens ist das heute schon nicht anderes, NVMe 1.3 gibt dem Programm dann nur die Möglichkeit mehr Details zu dem Fehler zu erhalten. Bis reale Programme diese Möglichkeiten auch nutzen, dürfte es eine Weile dauern. Wenn ein Programm eine Datei einliest und bei einem Lesefehler einfach so tut als wäre nichts gewesen, dann wird es das auch mit NVMe 1.3 tun können und es gibt auch Fälle wo dies sinnvoll ist. Z.B. bei Packprogrammen wie RAR, wenn dort Recovery Records verwendet werden, also wieder Redundanz zur Fehlerkorrektur hinzugefügt wird und dies reicht um den Fehler zu korrigieren, dann muss der Anwender von dem Lesefehler nicht unbedingt erfahren, da die Datei trotzdem korrekt genutzt werden kann.

Gerk schrieb:
Jedenfalls erwarte ich dann für nicht vollständige Umsetzung der Standards deutliche Punktabzüge in den Reviews.
Träumer! Die allermeisten Reviewer kennen diese Standards gar nicht, der Rest kann sie entweder nicht testen oder macht sich die Mühe nicht und wenn dann noch einer übrig bleibt der doch was dazu testet, hast Du gewaltiges Glück gehabt. Zu 99% werden bei den Reviews die SSDs in den Testrechner gebaut und die Benchmark abgearbeitet, ohne sich überhaupt um Auffälligkeiten zu kümmern, also etwa zu schauen ob die Leistung vielleicht schlecht ist weil die SSDs zu warm wurde und throttelt. Die Reviews hier bei CB sind also schon gehobener Standard und vielleicht schicht daher der eine oder andere Hersteller keine Exemplare für einen Review. Es scheint mit nämlich gerade bei SSDs und auch Netzteilen so zu sein, dass die Hersteller sich dann weniger kritische Reviewer aussuchen, wenn sie bei den anderen mit ihren Produkten nicht gut abschneiden würde, weil der Review diese zu kritisch hinterleuchtet.

Das kann man den Herstellern nicht verdenken, bringt die Reviewer aber in die Zwickmühle entweder gute, auch kritische Reviews zu bringen oder eben viele Reviews für die die kritischen Reviewer keine Samples geschickt bekommen.
Gerk schrieb:
Nachdem ich das genauer durch geklickt habe, sind meine Hoffnungen teilweise verflogen.

NVM Express Revision 1.3 May 1, 2017
http://www.nvmexpress.org/wp-content/uploads/NVM_Express_Revision_1.3.pdf
Was meinst Du genau?
Gerk schrieb:
Es wäre auch zu schön, wenn sich die Industrie selbst zu Offenheit und Ehrlichkeit bekennen würde.
Natürlich, aber dies hängt sehr vom Hersteller ab, die einen dokumentieren viel und machen diese Dokumente auch öffentlich verfügbar, andere mauern. Negatives schreibt aber kaum einer explizit in die Dokumentation, zuweilen muss man daher auch zwischen den Zeilen lesen und auf Dinge achten die nicht da stehen, bei anderen Modellen aber angegeben sind.
Gerk schrieb:
Dann bleibt nur weiterhin die häufige Überprüfung der SMART-Werte. Auch deren Umfang und Genauigkeit sollten in Tests bewertet werden.
Komm wieder in die Realität zurück und sei froh wenn im Review ein Screenshot von CrystalDiskInfo zu finden ist, wie es bei thessdreview meistens der Fall ist, auch wenn der Reviewer dort offenbar nicht weiß, dass die Namen der Attribut nicht vom Controller kommen, sondern dem auslesenden Tool bekannt sein müssen, was eben nicht immer der Fall ist. Dann steht dort "Vendor Specific", was aber eben nur bedeutet, dass CDI den Namen nicht kennt, weil der entweder nicht öffentlich zugänglich dokumentiert ist oder noch nicht eingepflegt wurde. Da kommt dann so ein Kommentar:
Was so nicht korrekt ist, wie Werte kann man auch mit CDI überwachen, sollte die Namen der Attribute aber einmal aus dem Herstellertool auslesen und sich aufschreiben und dabei unbedingt prüfen, ob die Namen die CDI anzeigt auch korrekt sind, denn wenn es eine SSD nicht kennt, verwendet es bei einigen Attributen trotzdem Namen, halt die die dafür meistens stimmen. Die müssen aber in dem Fall nicht wirklich korrekt sein.

Gerk schrieb:
Irgendwo hatte ich beim Durchwuseln der je OEM unterschiedlichen Firmware den Eindruck, dass es auch unterschiedliche "Offenbarungen" in den SMART-Werten gibt.
Die sind bisher nicht besonders streng genormt, bei NVMe gibt es nun wenigstens erstmal Pflichtattribute und daher macht jeder Hersteller da sein Ding und nicht wenige treiben auch so einigen Schindluder, wie hier bei der WD Blue beim Attribut F4, dessen Aktueller Wert schon im Neuzustand 0 ist, also den Grenzwert erreicht hat was eigentlich einen Schlechten Zustand bedeutet, gleichzeitig ist der Schlechteste Wert aber 100 und dabei sollte der immer den geringsten Wert anzeigen, den der Aktuelle Wert jemals hatte, der Schlechteste Wert darf also nie höher als der Aktuelle Wert sein.

Hier bei den Maxiotek MK8115 Prototypen gibt es mit der FW 0208a keinen, aber mit der FW 0206b gleich drei solche Attribute bei denen der Aktuelle Wert 0 ist, aber immerhin ist dort wenigstens der Schlechteste Wert konsequent behandelt und auch auf 0 gesetzt worden. Bei solche Werten schlagen Tools die diese Ausnahmen nicht kennen und nur Auswerten ob ein Aktueller Wert den Grenzwert erreicht hat, dann sofort alarm und bezeichnen den Zustand als schlecht, obwohl er natürlich gar nicht schlecht sein muss.
Gerk schrieb:
Der OEM darf sich anscheinend wünschen, was gemeldet wird und was nicht.
Richtig, die Hersteller bauen für die OEMs was diese haben wollen und wofür sie zu bezahlen bereit sind. So gibt es dann immer wieder abweichende FW Versionen für die gleiche SSDs bei die unterschiedlichen OEMs. Es gab z.B. von der C300 oder doch der C400 eine FW für HP bei der nur SATA 3Gb/s aktiviert wurde, wohl weil der Rechner in dem sie verbaut wurde, auch kein SATA 6Gb/s hatte. OEM SSDs sollte man daher nicht kaufen, außer zusammen mit dem Gerät mit dem sie verkauft werden.
 
Holt, dieses Mal sind wir einer Meinung.

Holt schrieb:
Was meinst Du genau? .

Ich hatte mir eingebildet, dass zwischen NVMe 1.3 und den Neuerungen bei Linux 4.13 ein direkter Zusammenhang ist.

https://www.heise.de/ct/artikel/Die-Neuerungen-von-Linux-4-13-3771362.html?seite=5
"Fehler beim Datenträgerzugriff besser handhaben"

Ich dachte, die SSD meldet den unkorrigierbaren logischen Block, das OS ermittelt daraus die Datei und schickt mir ein großes rotes Warnfenster - Katzenvideo.jpg oder kernel.exe - und ich entscheide: kann weg oder muss ich aus der install.iso ersetzen oder Backup von vorgestern, weil ja vorgestern, als das Backup gemacht wurde, die SSD den Fehler noch nicht gemeldet hat.

Da war der Wunsch der Vater des Gedankens.

So bleibt mir nur, bei meiner - wahrscheinlich letzten - SSD noch mehr auf Qualität zu achten, damit gar nicht erst etwas passiert, obwohl das bei meinen Spielereien egal ist. In einer Firma hilft dann nur Raid1 - hattest Du schon vorgeschlagen - bzw. in einem größeren Unternehmen ein Storagegerät von einer Weltfirma, wo die sich um die Datensicherheit kümmert.

(Es war einmal...
https://de.wikipedia.org/wiki/EMC_Corporation )

Leider weiß ich nun nicht mehr, warum ich mir, vllt in 2 Jahren, noch mal einen neuen, letzten PC zulegen sollte.

Zum Thema SSD-Erfahrungen:
Meine 3. zuverlässige SSD ist eine Samsung 830. Die läuft und läuft und man muss sich wohl keine Gedanken machen.

Meine 3 unzuverlässigen Krücken will ich jetzt nicht weiter erwähnen.
 
Zuletzt bearbeitet:
Welches die "3 unzuverlässigen Krücken" waren, würde mich aber schon interessieren.
 
Zurück
Oben