SSD defekt? (Prozent der verbrauchten Lebensdauer 10%)

juenger schrieb:
Sicher das die gewünschten Writes auch wirklich auf die zweite SSD (die ja noch bei 100% steht?) geschrieben wurden?

Ja, da bin ich sicher :D Die andere SSD (MX100 512GB) hat im selben Zeitraum 80 TB geschrieben (und das kommt auch hin, 360 TB waren es definitiv nicht, so oder so).

Die defekte Platte dient nur fürs OS und die installierten Programme. Auch dass der freie Speicherplatz sich dort nicht ändert ist ein Indiz dafür dass da nichts geschrieben (und wieder gelöscht) wird - sonst wäre wohl zumindest während des Schreibvorgangs temporär eine Veränderung zu sehen.

juenger schrieb:
Hast Du eventuell noch einen Auszug der SMART Werte von früheren Zeitpunkten, oder auch als die SSD noch neu war?

Leider nicht, aber als ich unlängst vor ca. 4-5 Monaten mal geguckt hatte, war sie ziemlich sicher noch auf 100% gestanden.
 
Zuletzt bearbeitet:
shoa66 schrieb:
Die defekte Platte dient nur fürs OS und die installierten Programme.

Wenn nur die statischen Dateien, und keine Hibernate, SWAP, USERS Ordner, Programm Arbeitsordner oder $TEMP Dateien auf der Systemplatte liegen, lässt sich die angezeigte hohe Write Belastung kaum erklären.

shoa66 schrieb:
Auch dass der freie Speicherplatz sich dort nicht ändert ist ein Indiz dafür dass da nichts geschrieben (und wieder gelöscht) wird - sonst wäre wohl zumindest während des Schreibvorgangs temporär eine Veränderung zu sehen.

Nicht unbedingt. Sollte eine Datei wie zB die SWAP Datei oder irgendeine LOG oder Arbeitsdatei auf der Platte statisch angelegt sein, so kann darauf beliebig geschrieben werden, ohne das sich dadurch die Plattenspeicherbelegung ändert. Wenn der Rechner noch eine HDD-Led hat, kann man daran auch schon sehr häufige Schreib/Lese Zugriffe erkennen.

Vielleicht zeigt ein I/O Monitoring (Resourcenmonitor) etwas an, ob möglicherweise ein Programm so intensive Writes erzeugt.
 
juenger schrieb:
Wenn nur die statischen Dateien, und keine Hibernate, SWAP, USERS Ordner, Programm Arbeitsordner oder $TEMP Dateien auf der Systemplatte liegen, lässt sich die angezeigte hohe Write Belastung kaum erklären.

Selbst damit würde es sich nicht erklären lassen. Um eine SSD wie die Crucial m4 innerhalb von knapp 2 Jahren so weit fertig zu schreiben, müsste man doch mehrere Stunden am Tag durchgängig Daten schreiben, mit voller Geschwindigkeit.
Wenn man sich mal anschaut, wie viele hunderte Terabyte (und teilweise Petabyte!) bei diversen Extrem-Tests von normalen Consumer SSDs schon geschrieben wurden, das hat man so schnell nicht zusammen, da muss man sich schon richtig anstrengen!
 
Genau darum wäre es auch so interessant, herauszufinden warum die SMART Werte ein so hohes Write Volumen anzeigen. 346 TB ist schon eine ordentliche Menge, und über die gesamten Betriebsstunden ergibt sich ein Durchschnitt von rund 23 GB/Stunde.

Wieviele TB oder PB diverse Tests auf eine SSD schreiben konnten, ist ein anderes Thema, da bei diesen Tests der wesentliche Punkt der Datenerhaltung über einen längeren Zeitraum (Dataretention) nicht berücksichtigt wurde. Das der Großteil der nicht verbrauchten P/E-Zyklen für den Erhalt der Daten in den Zellen reserviert ist, wurde bei all diesen Tests schlicht übersehen oder einfach ignoriert!

Da die m4 keine Host-Writes protokolliert, kann man leider nicht mehr erkennen woher (vorausgesetzt der SMART Wert ist korrekt) woher das vermutete extrem hohe Schreibvolumen entstanden ist?
 
shoa66 schrieb:
Diente nur als Laufwerk fürs OS, alle schreib-intensiven Vorgänge (Storage, Videobearbeitung/Transcoding usw). fanden auf der zweiten SSD statt (512 GB - die hat noch 100%).
Verschleiß ist kein Garantiegrund und da alle 5½ ein P/E Zyklus verbraucht wird, dürfte da viel mehr drauf geschrieben werden als Du meinst.


frkazid schrieb:
Beworben werden die mit 40GB/Tag über 5 Jahre. Und 1,2 Millionen Stunden zwischen den Zellenausfällen.
Die 1,2 Millionen Stunden sind die MTBF und haben nichts mit Zellausfällen oder einer Lebenserwartung zu tun, sondern das ist eine Ausfallwahrscheinlichkeit und die gilt auch nur während der geplanten Nutzungsdauer die hier wie üblich 5 Jahre betragen dürfte. Die Lebenserwartung wird vom Hersteller festgelegt, entsprechend der Nutzung die er für ein Produkt vorsieht und den Einsatzbedingungen.
Das können bei SSDs auch mal 10 Jahre sein, bei HDD sind eher 3, 5 oder 7 Jahren typisch, die Garantiedauer ist i.d.R. kürzer, logisch.
Dann gibt man z.B. 2 Millionen Stunden MTBF/MTTF an, was eine statistische Ausfallwahrscheinlichkeit während der Lebensdauer bei Einhaltung der Einsatzbedingungen ist, abzüglich der Anfangsphase in der die Ausfallraten alle technischen Produkte immer besonders hoch sind.
Hat man 2 Millionen der Geräte in einem System, kann man jede Stunde einen Fehler / Ausfall erwarten.
Hat man nur 2000 Geräte, so wird etwa alle 1000 Stunden eine Fehler auftreten, also so alle 43 Tage.
Hat man nur eines, wär ein Fehler nach spätestens 2 Millionen Stunden oder 228 Jahren zu erwarten, nur ist dann die Lebensdauer schon lange überschritten und damit ist die MTBF/MTTF bei so wenigen Geräten nicht aussagekräftig und damit irrelevant.
Wieso das so ist? Nun ein durchschnittlicher Mitteleuropäer von 46 Jahren mit einem BMI von 27, Nichtraucher und mäßiger Konsument von Alkohol hat eine statistische Sterberate von 1,8 Todesfällen pro 1000 solcher Personen. Damit rechnen die Versicherungen und daraus ergibt sich eine MTTF von 1000(Personen) * 365 (Tage/Jahr) * 24 (Stunden/Tag) / 1,8 (Personen, die Ausfälle pro Jahr) = 4,867 Millionen Stunden, was 555 Jahren entspricht.
So alt wird aber offensichtlich keiner, die Versicherer rechnen mit 81 Jahren Lebenserwartung, also nur etwa 0,71 Millionen Stunden.
shoa66 schrieb:
Wieso das? 611 Tage sind doch 1,67 Jahre und somit nicht mal die Hälfte der oben angesprochenen 5 Jahre (mit jeweils 40 GB/tag)?
Vielleicht ist die SSD auch nur sehr voll, zumindest aus der Sicht des Controllers weil sie verschlüsselt ist oder nicht getrimmt wird? Dann wäre die Write Amplification ggf. sehr hoch.

shoa66 schrieb:
Defrag habe ich deaktiviert und wüsste auch sonst nicht, welche Dienst etwas schreiben sollten (passe da schon auf und bin kein DAU).
Das sollte und muss man nicht machen, Windows 7 erkennt SSDs und wirft sie aus dem Zeitplaner des Dienstes wo man sie auch nicht von Hand dort eintragen.

samsungtr schrieb:
Bei den Parametern steht doch 10% der verbrauchten Lebensdauer und nicht verbleibende Lebensdauer.
Die Namen der Attribute kommen immer aus dem Tool welches sie ausliest und nicht aus dem Controller. Bei Client SATA SSD SMART Attribute Reference nennt sich das Attribut CA:
Da die anderen Namen der Attribute sich ja fast immer auf den Rohwert beziehen, ist der Namen bei CDI aber in gewisser Weise schon konsequent, denn der Rohwert beträgt ja 90, es wurden eben 2704 und damit 90% der 3000 spezifizierten P/E Zyklen schon verbraucht.
samsungtr schrieb:
Ausserdem wird die Prozentanzeige oben im sehr kritischen Zustand rot, erst dann würde ich mir Sorgen machen.
Die dürfte bald Rot werden, aber auch dann besteht kein Grund zur Sorgen, es liegen ja keinerlei Fehler vor und es wurden noch keine Reserveblöcke verbraucht.
samsungtr schrieb:
Denke die SSD wird noch langen seinen Dienst verrichten.
Das denke ich auch, denn im Dauerschreibtest auf xtremesystems.org hat eine Crucial m4 64GB 2111 TiB (=2.06PiB) geschrieben und deren NANDs haben 36477 P/E Zyklen überstanden, die 3000 P/E Zyklen sind also für deren NANDs sehr zurückhaltend angegeben.
 

Ähnliche Themen

Zurück
Oben