wie lange darf eine SSD höchstens unbenutzt rumliegen?

smooth el 4a

Lt. Commander
Registriert
Okt. 2015
Beiträge
1.324
hi Leute :)

ich hab vor einiger Zeit gelesen, dass eine SSD nach spätestens einem halben Jahr ohne Gebrauch mal wieder benutzt werden soll, damit keine Daten verloren gehen.

-> gilt das immer noch oder stimmt das gar nicht?

vlt. weiß auch jmd, auf was bei dieser bestimmten Form der "Haltbarkeit" geachtet werden muss?

es geht letztlich darum, geeignete kleine SSDs für Linux und Windows zu finden, die nur seltend mal über ein Wechsellaufwerk gebootet werden.
 
ich hab von SSDs keine ahnung, deswegen frag ich
 
Davon habe ich noch nie gehört. Ergibt aus logischer Sicht auch keinen Sinn. Flash-Speicher zeichnet sich doch gerade dadurch aus, dass er nichtflüchtig ist und die Daten auch ohne Stromzufuhr erhalten bleiben.

Wenn man eine SSD nun tatsächlich nach einer gewissen Zeit eben doch mit Strom versorgen müsste, da sonst die Daten der einzelnen Zellen verloren gehen, würde dies bedeuten, dass jede Zelle refreshed wird, was afaik nicht passiert.

PS: Wahrscheinlich beziehst du dich auf Falschmeldungen vor zwei Jahren: https://www.computerwoche.de/a/falsch-interpretiert-ssds-verlieren-keine-daten,3212246
 
@ Leli196: danke für den link!

demnach müsste die SSD also schon "aufgrund der Vielzahl an Program-/Erase-Zyklen bereits das Ende ihrer Lebensdauer erreicht" haben und sie würde "bei einer Lagerung bei 30°C und ohne Stromversorgung die Daten immerhin noch für ein Jahr behalten"

ok, das ist --------- sehr weit weg ---------- vom nutzungsverhalten von so ziemlich jedem user

genaueres weiß man aber nicht, ob es z.b. unterschiede bei 3D-NAND, 2D-NAND, MLC, TLC gibt? dürfte also irrelevant sein?

edit: und da das ja auch nur gilt, wenn die SSD schon das ende ihrer lebensdauer erreicht hat, kann man also eine "normal genutze" SSD laaang genug liegen lassen
 
Zuletzt bearbeitet:
Also wenn es Unterschiede zwischen den NAND-Typen gibt, dann ist TLC anfälliger als MLC und 2D-NAND anfälliger als 3D-NAND - quantifizieren kann ich das aber nicht.
 
Also ein halbes Jahr ist vielleicht etwas zu pessimistisch (bei qualitativ schlechterem NAND aber durchaus möglich), aber auf länger als ein paar Jahre sollte man auch nicht hoffen.

Hier sind z.B. mehr Infos (letzter Abschnitt): http://heise.de/-2056586
 
Bei einer SSD würde ich von einem Jahr stromlos ausgehen. Bei Client SSDs wirds von JESD218 ein Jahr Datenerhalt verlangt, allerdings bei 30°C. Die gespeicherte elektrische Ladung verflüchtig sich definitiv, je nach Qualität der einzelnen Zelle und des Types, mal mehr und mal weniger schnell.

Kühle Temperaturen sollen den Vorgang verlangsamen, also SSD tiefkühlen.

Ich persönlich hatte, auch bei USB Sticks, noch keinen Verlust durch zu lange Lagerung, dabei ging es aber meistens nur um 1-2 Monate.

Bei einer SD Karte konnte 2016 noch Daten von 2010 ausgelesen werden (Uralte Familienfotos, die Karte wurde beim Auszug aus der Wohnung wieder gefunden).

Für deinen Zweck sollte es funktionieren, für Backups und Langzeitspeicherung würde ich mich auf erprobte Sachen beschränken.
 
Wichtig ist vor allem die Temperatur, je nach Quelle halbiert sich die Data Retention Time alle 5°C bzw. 10°C mehr Lagertemperatur, weil die Isolierschicht durchlässiger wird ja wärmer es ist. Dann kommt es auch den Zustand NANDs an, mit dem Alter fällt die Zeit, wobei auch hier die Temperatur bei der sie Schreib- und Löschvorgänge passiert sind, eine Rolle spielt, die bei mehr Wärme durchlässigere Isolierschicht leidet weniger wenn da beim Beschreiben und Löschen die Elektronen durchgeschossen werden, Wärme beim Betrieb ist also für die Haltbarkeit der NANDs sogar vorteilhaft. Dann hängt von der Qualitätsstufe und dem konkreten Typ der NANDs ab, es gibt z.B. von Spansion auch NANDs mit einer DRT von 20 Jahren im Neuzustand, 10 Jahren nach 1000 Zyklen und einem Jahr nach 10.000 Zyklen..

Aber HDDs sind auch nicht endlos lagerfähig, dazu schreibt Seagate z.B. hier und auch in einigen anderen Product Manuals:
Wenn also die Lagerbedingungen nicht eingehalten werde, sind 90 Tage und zwar in der ungeöffneten Originalverpackung, sonst bestenfalls 1 Jahr. Nach dem Öffnen sollten HDD nicht länger als 30 Tage stromlos sein.

Bei der neuen Barracuda Pro 10TB mit Heliumfüllung schreibt Seagate:
Also hier nur ein halbes Jahr in der ungeöffneten originalen Versandverpackung von Seagate und sonst 2 Monate, nur bei optimalen Bedingungen bis zu einem Jahr.

HGST schreibt für viel HDDs wie z.B. die Ultrastar 7K6000, die Ultrastar He10 oder auch die Megascale:
Maximum storage period within shipping package is one year

Die Langzeitarchivierung von digitalen Daten ist also weiterhin eine Herausforderung für die Consumer HW die man einfach im Schrank liegen lässt, nicht gedacht ist. Es bleibt da einfach ein Glücksspiel wie lange die funktioniert und man die Daten davon noch lesen kann.
 
die richtig wichtigen sachen sichere ich auf optische datenträger auf m-disc
die nicht so wichtigen auf normale blueray

einige sachen muss ich aber auf mein datengrab schieben das stecke ich einmal im jahr an und lasse HDD care drüber laufen
paralel die auf meinem raid 6 gespeicherten daten lasse ich in festgelegten abständen auf konsitenz überprüfen, da finden sich manchmal ein paar fehler.

auf SSDs lege ich keine archive an da die 1. dafür zu teuer sind und 2. auch garnicht die nötige größe haben
 
Holt schrieb:
Aber HDDs sind auch nicht endlos lagerfähig, dazu schreibt Seagate z.B. hier und auch in einigen anderen Product Manuals:
-----

Wenn also die Lagerbedingungen nicht eingehalten werde, sind 90 Tage und zwar in der ungeöffneten Originalverpackung, sonst bestenfalls 1 Jahr. Nach dem Öffnen sollten HDD nicht länger als 30 Tage stromlos sein.

Bei der neuen Barracuda Pro 10TB mit Heliumfüllung schreibt Seagate:
-----

Also hier nur ein halbes Jahr in der ungeöffneten originalen Versandverpackung von Seagate und sonst 2 Monate, nur bei optimalen Bedingungen bis zu einem Jahr.
Bei dem von dir Zitierten geht es in erster Linie um die Lagerfähigkeit von HDDs, aber die DRT der NANDs ist doch etwas völlig anderes als die Lagerfähigkeit der HDDs. Im Endeffekt bedeutet es ob die HDD noch nutzbar ist oder nicht und ist deshalb für den Nutzer von Relevanz, klar; aber trotzdem heißt es ja nicht, dass die Daten auf den Plattern dann fehlerhaft sind. Es könnte sich doch auch auf das Kugellager etc. beziehen.
Es macht dann also einen sehr großen Unterschied ob die NANDs nach 2 Jahren unter schlechten Bedingungen fehlerhafte Daten auslesen und die Daten damit futsch sind, oder ob eine HDD nach 2 Jahren unter schlechten Bedingungen nicht mehr funktioniert, weil mechanische Komponenten defekt sind und die Daten auf den Plattern aber noch vorhanden und damit wiederherstellbar sind.

Weißt du mehr dazu was genau die Lagerfähigkeit von HDDs begrenzt?
 
Klar ist es was anderes, ich wollte nur darauf hinweisen das auch HDDs nicht dafür gedacht sind jahrelang unbenutzt irgendwo gelagert zu werden. Das kann gut gehen, es kann auch nicht gut gehen und dann kommt man nicht mehr an seine Daten. Vielen ist dieser Umstand einfach nicht bewusst, die sehen nur das NAND mit den Jahren die Daten verlieren, während die Magnetisierung der HDDs erhalten bleibt, vergessen aber das dies wenig nutzt wenn der Rest der HDD nicht mehr funktioniert.

Fehlerhafte Daten wird man weder bei HDDs noch bei SSDs auflesen, da die Daten bei beiden mit ECC gesichert sind, die bei HDD hinter jedem Sektor steht und bei SSDs hinter jeder NAND Page, die Pages haben dafür extra ein paar Byte mehr an Kapazität als angegeben. Werden die Daten also falsch gelesen so erkennt die ECC dies und kann bis zu einem bestimmten Grad auch die Fehler noch korrigieren, andernfalls geben die Laufwerke einen Lesefehler aus, aber keine falschen Daten! Zumindest HDDs markieren den betroffenen Sektor dann als schwebenden Sektor. Diese Lesefehler führen dann zu Datenverlust und ggf. fehlerhaft ausgelesenen Dateien, je nachdem wie die SW die zum Auslesen verwendet wurde, mit den Fehlern umgeht.
 
Was gehört in den Bereich Aberglauben?
 
760_Torr schrieb:
Das gehört in den Bereich Aberglauben.

Hihi, ich meinte nicht Deine Antwort, sondern die Eingangs-These. Du hast natürlich Recht mit Deinen Restrisiko-Warnungen. Aber in der Praxis würde man doch wichtige Daten nicht auf einem magnetischen Datenträger sichern, sondern eher auf einem (nervigen) optischen.
 
danke euch für die antworten, nun ists klar :)
 
smooth el 4a schrieb:
ich hab vor einiger Zeit gelesen, dass eine SSD nach spätestens einem halben Jahr ohne Gebrauch mal wieder benutzt werden soll, damit keine Daten verloren gehen.

-> gilt das immer noch oder stimmt das gar nicht?.

Wie der Link oben bestätigt kam diese Spinnerei/Panikmache kam wegen einer Präsentation auf dem Flash Memory Summit vor ein paar Jahren auf, die falsch interpretiert wurde: Dabei wurde aber der ganz ganz wichtige Teil nicht richtig übersetzt/gelesen: Es ging dabei um die "Datenhaltbarkeit" wenn der Flash am Ende seiner Lebensdauer angelangt ist weil er die maximale Anzahl an P/E Zyklen erreicht hat.

In dieser Präsentation ging es unter anderem darum einen industrieweiten Richtwert festzulegen wie lange eine SSD die Daten MINDESTENS noch lesbar vorhalten können sollte wenn der Flash am Ende ist. Der Zeitraum wurde in der JEDEC Solid State Spec dann auf 3 Monate festgelegt (ob Consumer oder Enterprise Spec weiß ich nicht auswendig).
 
Obendrein wurde da in der Präsentation mit verschiedenen Temperaturen gerechnet, also auch der Fall angenommen, dass die NANDs der SSD im Betrieb sehr kalt waren, was zu mehr Verschleiß der NANDs führt und danach bei hohen Temperaturen gelagert wurden, was zu einem schnelleren Verlust der Daten führt. Im Extremfall kam man so auf eine sehr kurze Data Retention Time, nur dürften diese Annahmen für die Temperaturen eben gerade für Heimanwender wenig realistisch sein, oder wo lagerst Du die SSD und wie warm ist es dort?

Die JESD218 gibt jedenfalls folgende Zeiten und Temperaturen an:

jedec_data_retention-jpg.332553
 
Das heisst also, man sollten alle seine USB-Sticks, SSDs und Speicherkarten alle paar Monate mal wieder anschliessen, mit Strom versorgen, damit keine Daten verloren gehen?
 
Eine meiner SSDs liefert nach etwa 1 bis 2 Jahren im Betrieb im täglich eingeschalteten PC regelmäßig beschädigte Daten oder Blue Screen. Ich würde mich nicht bedingungslos auf Consumer-SSDs verlassen. Das könnte auch ein Grund dafür sein, dass das Dateisystem ReFS wieder aus Windows 10 PRO gestrichen wird. Ohne Prüfsummen bemerkt kaum ein "Consumer" beschädigte Daten oder weiß nicht, warum die beschädigt sind.

"Das Dateisystem Refs soll Daten sicher speichern können.

Redstone 3: Microsoft entfernt Refs-Formatierung von Windows 10 Pro "
https://www.golem.de/news/redstone-...matierung-von-windows-10-pro-1708-129616.html


"ReFS in Windows 10 verwenden"
https://www.windowspro.de/wolfgang-sommergut/refs-windows-10-verwenden
"Microsoft nennt die Unter*stützung von ReFS als wichtiges Feature der neuen Edition Pro for Work*stations, gleich*zeitig redu*ziert der Her*steller den Support für das neue Datei*system in der Pro Edition. Ein Grund für große Aufregung ist das nicht, weil ReFS unter Windows 10 nur einge*schränkt nutzbar ist."
In einer Workstation werden wohl kaum billige Consumer-SSDs eingesetzt werden.

Das ist ein Grund, warum ich mich von Windows getrennt habe. :)

Allgemein verständlich ausgedrückt: Wenn alle Benutzer Dateisysteme mit Prüfsummen hätten, die jeden (unkorrigierbaren) Bitfehler melden, dann wären einige SSDs nur schwer bis gar nicht verkäuflich und etliche RAM-Sorten auch nicht.

Microsoft hatte einst für alle PC RAM mit ECC empfohlen.
"Vista: Microsoft empfiehlt Speicher mit Fehlerkorrektur - Datum: Dienstag, 07.02.2006 12:56 Uhr"
http://winfuture.de/news,24076.html
" Ein grosses Problem stellt laut Microsoft die weite Verbreitung von billigem Arbeitsspeicher dar, der häufig Fehler verursachen könne.

Dieser Speicher ist häufig von minderer Qualität und kann durch Fehler Software zum Absturz bringen, weil er oft nicht ganz den gültigen Spezifikationen entspricht, hiess es. Da Speicher eine extrem wichtige Rolle in heutigen PCs spielt, ist die Verwendung von ECC-Modulen nach Ansicht von Analysten der richtige Weg um die Probleme zu vermeiden."

Zumindest Windows Server 2016 läuft anscheinend nicht ohne ECC.
https://docs.microsoft.com/en-us/wi...alyzer/use-ram-that-provides-error-correction
"Microsoft does not support Windows Server 2016 on computers without error correcting RAM."

Das RAM muss prüfen, aber das Dateisystem NTFS prüft nichts. Das ist nicht mehr zeitgemäß.
 
Zuletzt bearbeitet:
Zurück
Oben