externe SSD für Backup

Ist auch ein schwieriges Thema bzw. etwas undurchsichtig. Fakt ist ja, dass die Ladung mit der Zeit abnimmt und dass der Controller die Daten irgendwann refresht, also die Sektoren neu schreibt.
Ausgehend von dem verlinkten Thread, ist anzunehmen (was auch völlig logisch ist, da SSDs keine Batterie für die Zeit haben), dass refresht wird, wenn eine Zelle mit einer gewissen Geschwindigkeit nicht mehr auf anhieb fehlerfrei gelesen werden kann.
Nun wird die SSD dann mehrere Versuche unternehmen, um den Sektor korrekt zu lesen, und falls dies erst mal gar nicht mehr möglich ist, wird versucht, über den Error-Correction-Code (den die SSD wie die HDD hat) die Daten des Sektors zu rekonstruieren.
Wären nun auch die Daten des ECC schon korrumpiert, wäre das folglich nicht mehr möglich. Die große Frage bzw. Unbekannte bei der Sache ist, wie stark die Ladung abnehmen muss, damit die Daten verloren sind. Auch in dem verlinkten Thread wurde bisher nicht von Datenverlust berichtet, wohl aber von teilweise extrem langsamen Leseraten nach langer zeit, welche natürlich mit dem Abnehmen der Ladung zusammenhängen.

Ich halte es deshalb auf jeden Fall für empfehlenswert, die Daten in einem gewissen Abstand neu zu schreiben oder zumindest mal zu lesen.

"Keine Probleme" ist übrigens ungleich "Nicht korrumpierte Daten". Datenkorrumption muss nicht zwangsläufig zu (merklichen) Problemen führen.
 
EDV-Leiter schrieb:
Woher kommt eigentlich die Annahme, SSDs würden ihre Daten (sofort) verlieren, sobald sie mal 3 Wochen ohne Strom herumliegen...?
Das "sofort" von nirgendwo, die üblichen 6 Monate für Consumerprodukte aus den JEDEC Specs, da ich zu kaum einer Consumer SSD reale Angaben finde. Das sind in der Regel die Mindestanforderungen, welche die in dem Konsortium vereinten Hersteller für ihre Produkte einhalten sollten.

Dass dies Minimalangaben sind, ist mir bei einem Backup ziemlich egal. Ich kann zu Hause noch nicht einmal für konstante Umgebungsbedingungen sorgen.

Kuristina schrieb:
Auch da ist alles noch da.
Du hast also ein Backup des PCs vor dem letzten Ausschalten, hast alles bitgenau gegen einander geprüft und keinen Unterschied gefunden. Nur, weil die zum Booten genutzten Dateien augenscheinlich noch feherfrei waren (oder das Verzeichnis einer ext. SSD noch fehlerfrei angezeigt werden kann), heißt das nicht, dass alle Daten noch korrekt sein müssen.

Ich habe auch schon nach 10 Jahren von HDDs meine Daten wieder bitgenau lesen können. Trotzdem würde ich mich für ein wichtiges Backup nicht blind darauf verlassen.

Kuristina schrieb:
Naja, Backups sollte man ja regelmäßig machen.
Warum sollte ich regelmäßig ein neues Backup meiner garantiert unveränderten Bilder- und Videos (oder der abgeschlossenen SW-Entwicklungsprojekte/Steuerakten) der letzten 20 Jahre machen? Die Daten landen einmal im Archiv, von dort im Backup und das wars. Danach gibt es nur noch regelmäßige Prüfungen, ob die Daten korrekt lesbar sind. Erst, wenn ein Backup das nicht mehr sicher stellt, wird dieses Backup auf einem neuen Medium neu geschrieben.

Banned schrieb:
"Keine Probleme" ist übrigens ungleich "Nicht korrumpierte Daten". Datenkorrumption muss nicht zwangsläufig zu (merklichen) Problemen führen.
Das stimmt zwar in der Theorie. Aber wer führt die Prüfung seines Backups durch, indem er nur die Daten erneut liest?

Entweder, man mancht es garnicht, weil man blind dem Speichermedium und dessen Selbstheilung vertraut. Oder man nutzt irgendeine Art von Prüfmöglichkeit für sein Backup.

Ob dies zusätzliche Prüfsummen in Form eines passenden Backup-Programms sind, in Form des Dateisystems, manuell erzeugte Prüfsummen oder ob man das Backup gar mit dem Quelldaten vergleicht, bleibt jedem selber überlassen.

Das letzte mal, als ich mich über längere Zeit wie nur einen Urlaub auf den Datenträger meines Backups verlassen habe, muss wohl zu Zeiten von QIC-80 Streamern gewesen sein. Dann kamen CD/DVD und nahezu jeder wusste, warum man sich auf kein Medium im Langzeiteinsatz blind verlassen sollte.

Auch deshalb würde ich Langzeit-Backups nicht einfach blind alle X Jahre neu aus einer ungeprüften Quelle erstellen. Auch die Quelle kann über die Jahre Probleme bekommen, die man auf diese Weise nicht zwingend erkennt.

Was die Ausgangsfrage betrifft, so würde ich, wenn es zwingend SSDs sein müssen, entweder auf Samsung T7 setzen oder mir selber etwas basteln. Ein paar SSDs dafür wurden ja schon genannt. Ich würde jedenfalls nichts von WD oder Sandisk nehmen, die Probleme mit meiner WD Blue SSD reichen mir dafür, die Reaktion von WD auf die offensichtlichen Konstruktionsfehler der ext. Sandisk SSDs kommen noch dazu. Und wenn ich mit meinem Backup-Medium kein Handball spiele und sie auch nicht mit in die Badewann nehme, wären es einfach zwei günstige 2,5" HDDs von Seagate.
 
Zuletzt bearbeitet:
gymfan schrieb:
Warum sollte ich regelmäßig ein neues Backup meiner garantiert unveränderten Bilder- und Videos (oder der abgeschlossenen SW-Entwicklungsprojekte/Steuerakten) der letzten 20 Jahre machen?
Naja, wenn es nur Bilder und Videos sind und da auch nix dazukommt, dann brauchst du das nicht. Aber ich mach ja von meinem ganzen /home ein Backup. Mit allem drum und dran. ^^ Und da ändert sich täglich einiges.
 
gymfan schrieb:
Das stimmt zwar in der Theorie. Aber wer führt die Prüfung seines Backups durch, indem er nur die Daten erneut liest?

Naja, damit Zellen refresht werden vom Controller aus, müssen sie idR eben erst einmal gelesen werden. Wird dann festgestellt, dass der Sektor nicht korrekt gelesen werden konnte, wird refresht; sonst wohl idR nicht.
Dass ein Controller einfach nach gewisser Zeit selbstständig Zellen refresht, die nicht gelesen werden, trifft laut den Aussagen in dem verlinkten Thread wohl nicht zu.

Der Nutzer erhält darüber aber keinen Log.

Trotzdem erhöht das Auslesen und vor allem das Neuschreiben die Wahrscheinlichkeit, dass die Daten nicht korrumpiert sind. Eine Garantie ist es freilich nicht.


gymfan schrieb:
Entweder, man mancht es garnicht, weil man blind dem Speichermedium und dessen Selbstheilung vertraut. Oder man nutzt irgendeine Art von Prüfmöglichkeit für sein Backup.

Ob dies zusätzliche Prüfsummen in Form eines passenden Backup-Programms sind, in Form des Dateisystems, manuell erzeugte Prüfsummen oder ob man das Backup gar mit dem Quelldaten vergleicht, bleibt jedem selber überlassen.

Ja, das ist der einzige Weg, die Integrität der Daten wirklich zu überprüfen.

Wenn ich mir nur den Großteil der Leute anschaue, die hier so unterwegs sind, dann brauchst du denen mit sowas nicht kommen; die haben kein Bewusstsein für die Risiken und Möglichkeiten oder es ist ihnen einfach egal.

Wenn dann jemand alle zwei Jahre mal chkdsk /r ausführt, ist das immer noch besser, als einfach gar nichts zu machen, darum geht es mir.
Ist ja auch immer eine Sache des Aufwands und des Nutzens. Manuell Prüfsummen anzulegen/anlegen zu lassen ist bei einem großen Datenbestand schon sehr auswendig bzw. unkomfortabel und zeitintensiv bei der Überprüfung (da auf Dateiebene die Prüfsummen erstellt werden).
Ein Dateisystem mit Prüfsummen (am besten mit Redundanz aus RAID) ist da der beste Weg mMn, wenn es viele Daten sind.


gymfan schrieb:
Auch deshalb würde ich Langzeit-Backups nicht einfach blind alle X Jahre neu aus einer ungeprüften Quelle erstellen. Auch die Quelle kann über die Jahre Probleme bekommen, die man auf diese Weise nicht zwingend erkennt.

Absolut richtig. Geht aber auch leider über den Bewusstseinshorizont der meisten hier hinaus. Da heißt es dann nur immer 3-2-1 Backup-Regel... Jo, bringt einem aber auch nur bedingt was, wenn man nicht prüfen kann.


gymfan schrieb:
Das "sofort" von nirgendwo, die üblichen 6 Monate für Consumerprodukte aus den JEDEC Specs,

Darf ich fragen, wo du diese Angabe her hast. Damals gab es etwas Verwirrung um die Aussagen von JEDEC diesbezüglich. Die dort verwendeten Angaben bezogen sich auf SSDs, die schon fast totgeschrieben waren und unter ungewöhnlichen Bedingungen gelagert wurden:
https://www.anandtech.com/show/9248/the-truth-about-ssd-data-retention

Zitat daraus:
"All in all, there is absolutely zero reason to worry about SSD data retention in typical client environment. Remember that the figures presented here are for a drive that has already passed its endurance rating, so for new drives the data retention is considerably higher, typically over ten years for MLC NAND based SSDs."

MLC ist jedoch nicht TLC, und TLC nicht QLC. Somit kann das hier wiederum anders aussehen, würde ich vermuten. (Ob das mit den 10 Jahren stimmt, sei trotzdem mal dahingestellt - würde ich auch eher bezweifeln).

(Evtl. gibt es da neuere Erkenntnisse, die an mir vorbei gegangen sind - deshalb meine Frage. :) )
 
Zuletzt bearbeitet:
Schau dir mal was von WD z.B das MyBook an.
Ich weiß natürlich, dass dort eine HDD verbaut ist, schlägt sich bei mir aber sehr gut.
Man muss ja nicht alles auf eine Platte setzen.
Es gibt ja auch RAID Systeme die deine Backup Platte nochmals absichern, oder du gehtst in die Cloud, wobei ich persönlich das mit meinen Vorstellungen von Datenschutz nicht vereinbaren könnte.
 
Banned schrieb:
Naja, damit Zellen refresht werden vom Controller aus, müssen sie idR eben erst einmal gelesen werden. Wird dann festgestellt, dass der Sektor nicht korrekt gelesen werden konnte, wird refresht; sonst wohl idR nicht.
Klar, irgendwer muss sie lesen, aber nicht zwingend der User. Immerhin haben nur einige (neuere) SSDs das Problem mit der Read Degradation (auch, wenn sie ständig unter Strom stehen) und bei einigen älteren SSDs wurde das Problem durch Firmware-Updates behoben.

Banned schrieb:
Dass ein Controller einfach nach gewisser Zeit selbstständig Zellen refresht, die nicht gelesen werden, trifft laut den Aussagen in dem verlinkten Thread wohl nicht zu.
Dann sind wohl die Flash-Zellen in den letzten Jahren massivst schlechter geworden.

Der WD Blue 4TB ist es vollkommen egal, wie oft ich die alten Sektoren (immer langsamer) gelesen habe, sie blieben langsam bis ich sie selber manuell neu geschrieben habe. Dagegen kann ich auf meiner Crucial m500 (ja, die nutzt noch MLC) auch heute noch Sektoren schnell lesen, die ich vor 6-7 Jahren einmalig geschrieben habe. Bei der Sandisk Ultra II (TLC) ist es genauso, bei der Samsung 970 EVO (TLC) oder Intel 660p (QLC) habe ich das Problem seit 2019 auch noch nie beobachtet. Entweder sind die älteren Flash-Zellen selbstheilend oder die Firmware macht im Hintergrund irgendwas auch dann, wenn man nicht auf die Sektoren/Zellen zugreift.

Banned schrieb:
Wenn dann jemand alle zwei Jahre mal chkdsk /r ausführt, ist das immer noch besser, als einfach gar nichts zu machen, darum geht es mir.
Keine Frage, jede Prüfung ist besser wie keine. Faktisch hätte ich mir meine weitergehenden Prüfungen in den letzten 20 Jahren auch sparen können. Ich habe noch nie einen Fehler dabei gefunden. Aber alleine das Wissen, dass die Dateien noch dem Original entsprechen, ist mir den kleinen Zusatzaufwand auch im Privatbereich wert.

Banned schrieb:
Die dort verwendeten Angaben bezogen sich auf SSDs, die schon fast totgeschrieben waren und unter ungewöhnlichen Bedingungen gelagert wurden:
https://www.anandtech.com/show/9248/the-truth-about-ssd-data-retention
Ob man ein Jahr stromlos bei max. 30°C als ungewöhnlich ansehen kann? Ich wohne nicht mehr im Dachgeschoss, aber trotzdem habe ich hier oft genug 26-28°C Zimmertemperatur. Die Temperatur im Schrank (oder wo auch immer man seine Backup-SSD aufbewahrt) habe ich nie gemessen.

Aber ich gebe Dir recht, man muss die Folie sicherlich so interpretieren, dass die Werte auch noch gelten müssen, wenn die TBW nahezu erreicht sind. Da ich aber noch nie an Flash-Zellen geforscht habe, weiss ich schlicht nicht, ob (und wenn ja, wie sehr) die Haltbarkeit der Ladung mit deren Nutzung abnimmt.

Gerade die Read Degradation lässt mich darauf schließen, dass dies nicht zwingend der Fall ist ud vor allem nicht, dass die Haltbarkeit im Neuzustand erheblich länger sein muss.

Da Jedec die Specs nicht kostenlos heraus gibt und ich die Aussagen der Hersteller (Seagate und Intel) bzgl. TBW und Edurance/Retention immer getrennt verstanden habe, war meine Aussage oben zwar falsch (es sind eher mind. 1 Jahr Stromlos bei <= 30°C), aber trotzdem ist für mich nicht zwingend von der Verknüpfung der TBW und der Retention auszugehen.

Das hier waren die allgemeine Aussagen von Seagate dazu:
https://www.seagate.com/files/staticfiles/docs/pdf/whitepaper/tp618-ssd-tech-paper-us.pdf

Und für Intel (2018 haben sie noch Flash Speicher und SSD produziert, und auch, wenn es in dem Vortrag von Seagate mit Intel als Quelle zitiert wird):
https://www.computerbase.de/forum/t...vatkunden-ist-da.1816718/page-2#post-21580585
(das PDF ist direkt bei der JEDEC verlinkt, sollte also deren Angaben entsprechen)

Insb. Seite 27 mit der Temperaturtabelle. Ohne den Wortlaut des Vortrages oder zumindest die JESD218b zu kennen, gehe ich eher vom negativen Fall als minimale Anforderung auch bei neuen Flashzellen aus.

Ich hatte auch schon eine SSD, die mir ca. 2012 als defekt gemeldet wurde und nicht mehr zugreifbar war. 2022 konnte ich plötzlich wieder darauf zugreifen und zumindest einige Dateien korrekt anzeigen. Trotzdem schließe ich daraus nicht, dass alle heute verkauften SSDs auch nach 8 Jahren ohne Strom noch fehlerfrei auslesbar sind.

Kuristina schrieb:
Aber ich mach ja von meinem ganzen /home ein Backup. Mit allem drum und dran. ^^ Und da ändert sich täglich einiges.
Einiges ändert sich, anderes nicht. Der TO möchte überwiegend inkrementelle Backups machen womit die Backups der nicht geänderten Dateien auch nicht wieder neu geschrieben werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banned
Zurück
Oben