Alte SSD wieder flottmachen

Crass Spektakel

Lieutenant
Registriert
Juli 2015
Beiträge
994
Ich möchte hier Erfahrungen zu überlagerten SSDs teilen.

Mein Lagerkistchen enthielt bis letztes Wochenende ein paar SSDs mit 60 bis 2000GByte die seit zwei bis 10 Jahren nicht mehr am Stromnetz waren (nicht wundern teilweise waren das Backups von Geschäftskunden, denen macht das nichts aus wenn eine €500-SSD jahrelang nutzlos vergammelt).

Ergebnis: Die Dinger waren wie erwartet extrem langsam da sich die Flashzellen entladen hatten.
Die alten 60-240GByte-SSDs schafften so 200-2000kByte/s (KILO nicht MEGA), die 2000GByte-SSD kam so auf 12MByte/s.
Nach mehreren Versuchen sie wieder flott zu bekommen hat sich folgendes bewährt:

1. Secure Erase - die schlechte Lese-Performance verbessert sich minimal aber die Schreibleistung steigt deutlich an, allerdings nicht auf Maximum. Ohne diesen Secure-Erase werden die Laufwerke eben nur mit wenigen hundert kByte/s beschrieben womit das komplette Überschreiben MONATE dauern würde.
2. Laufwerk komplett mit Zufallsdaten überschreiben. Bei mir reichte ein "( while cat irgendeinarchiv.zip; do echo >&2 ...; done ) >/dev/laufwerk" was schön flott läuft. Am Ende ist die Schreib-Lese-Leistung fast schon wieder auf Maximum.
3. smartctl -t long /dev/laufwerk um Low-Level-Fehler zu finden
3. Laufwerk nochmal mit Secure Erase bearbeiten
4. Voila, Scheib- und Lese-Leistung wieder auf Maximum.
5. Optional: Laufwerk mit hexdump /dev/laufwerk noch nach Fehlern absuchen

Klingt bescheuert aber wirkt bei rund zehn verschiedenen SSDs.
 
  • Gefällt mir
Reaktionen: JunkyardSpecial, Marflowah, Pym und 2 andere
Ich habe gute Erfahrung mit einmaligen blkdiscard /dev/sdX gemacht.
 
  • Gefällt mir
Reaktionen: drake23
blkdiscard ist auch eine gut Alternative zu Secure Erase, das macht meistens aber nicht immer das gleiche. Man merkt ja ob die Sektoren anschliessend wirklich genullt sind und das Laufwerk wieder flotter arbeitet.

Der Schritt mit dem gesonderten Überschreiben mit Zufallszahlen war bei mir aber immer notwendig ansonsten erreichte das Laufwerk nicht ganz die volle Leistung. Zufallszahlen deshalb weil einige SSDs noch immer die Daten komprimieren und wenn man das Ding nur mit Nullen vollschreibt belegt das nur einen Bruchteil der SSD und bewirkt somit auch keine Rücksetzung der Flashzellen.

Einen Nachtrag muß ich noch loswerden. Laufwerke bei enen per eDrive/OPAL die Low-Level-Funktionen gesperrt sind muß man natürlich erst mit dem PSID-Tool (*1) von der Konsole aus freischalten ansonsten funktioniert Smart Erase garnicht und blkdiscard mangelhaft. Wobei das Deaktivieren normalerweise sowieso einem Secure Erase gleichkommt, man tauscht einfach einen Arbeitsschritt gegen einen anderen.

(*1) hab grade keine Ahnung mehr wie das Ding genau heist - könnte aber https://sedutil.com/ gewesen sein. Ich kann mich nur erinnern daß man vor Nutzung erstmal die PSID von der SSD fotographieren/notieren sollte und beim Kernel eine Option angeben muß daß alle Libata-Funktionen freigeschalten werdden.
Dämlicherweise aktiviert Windows 10 bei der Installation grundsätzlich IMMER OPAL/eDrive. Ausser man sperrt das per Registry vor der Installation.
 
Zuletzt bearbeitet:
Ich hatte eine 64 GB einfach ne ganze Zeit laufen lassen, ohne Last.
Einen Geschwindigkeitstest hatte ich nicht mehr durchgeführt, nur einen Test der SSD, ob defekte Sektoren da sind oder nicht. Anfangs nur Rot, war nachher alles im Grünen Bereich.
Beim kopieren von irgendwelchen Daten gab es dann auch keine Probleme mehr.
 
andi_sco schrieb:
Ich hatte eine 64 GB einfach ne ganze Zeit laufen lassen, ohne Last.
Einen Geschwindigkeitstest hatte ich nicht mehr durchgeführt, nur einen Test der SSD, ob defekte Sektoren da sind oder nicht. Anfangs nur Rot, war nachher alles im Grünen Bereich.
Beim kopieren von irgendwelchen Daten gab es dann auch keine Probleme mehr.

Das ist im Prinzip auch eine gültige Maßnahme.

Die SSD macht dabei im Hintergrund eine Garbage-Collection, liest alle Zellen einmal ein, ermittelt aus den schlecht lesbaren Daten mittels Fehlerkorrektur noch verwertbare Inhalte und schreibt sie dann zurück. Alle neu geschriebenen Daten sind dann wieder flott nutzbar.

1. Problem: Das dauert ewig. Bei 200kByte/s - war bei meiner 60GByte-SSD so - dauert das durchaus 100 Betriebsstunden. Bei meiner 2000GByte SSD hätte es sogar 450 Stunden gedauert - bei Acht Stunden Betrieb pro Tag also knapp zwei Monate.

2. Problem: Die Fehlerkorrektur muß nicht immer richtig liegen. Das sind alles Grenzbereiche, da kann es zu nicht korrigierbaren und nicht erkannten Fehlern kommen.

Wenn man das im Auge behält geht das in Ordnung. Bei mir waren die Daten auf der SSD allerdings egal und ich wollte schnelle Ergebnisse.

Wenn man mittels Secure-Erase alle Zellen als leer markiert dann findet kein Read-Correct-Write und kein Ready-Modify-Write statt und es kann sofort mit hoher Geschwindigkeit gearbeitet werden. Denn das eigentliche Schreiben geht ja immer noch flott, nur Read- und Correct sind langsam.

Nachtrag:

Ich hatte auch eine der ersten TLC-SSD in der Kiste. Leseleistung kaum 100kByte und regelmässig harte Lesefehler.
Ich bin mir ziemlich sicher daß da mal Daten drauf waren aber das Ding war bis auf rudimentären Datenmüll per hexdump eigentlich leer. smartctl meldete auch ein paar absurde Werte, z.B. 90% aller Sektoren "temporarily bad" oder sowas. Das Ding lies sich auch nicht beschreiben bis ich ein Firmware-Update eingespielt und einen Secure-Erase ausgeführt hatte. Mein Bauchgefühl sagt mir daß die Flashzellen da so weit umgekippt waren daß schlicht garnichtsmehr lesbar war. Ich habe das Laufwerk seit zwei Tagen in einer Dauerschleife aus copy und diff, scheint wieder alles zu laufen.

Eines der ersten QLC-Laufwerke zeigte schon nach drei Monaten ohne Strom massive Einbrüche bei der Lesegeschwindigkeit, von vormals 900MByte/s auf 50MByte/s.

Ein ebenfalls recht altes MLC-Laufwerk war hingegen fast gut nutzbar, Leseleistung von 500 auf 200MByte eingebrochen.

Ein sehr altes SLC-Laufwerke (wahnsinnige 8GByte mit einem propietärem SATA-Anschluß) hingegen lief einwandfrei und das obwohl es seit 15 Jahren keinen Strom hatte. Das Ding ist allerdings so alt daß es nichteinmal Secure Erase oder TRIM beherrscht. Was aber anscheinend auch egal ist, das Ding macht einfach SATA1-Geschwindigkeit, komme was wolle. Laut Flashtool ist das Ding nichteinmal gemappt, d.h. DOS-Sector 0 liegt in Flash-Zelle 0 uswusf.. also extrem primitiv.

Ich denke mal daß mehr Bits pro Zelle das ganze sehr anfällig für Stromtrennung macht.
 
Zurück
Oben