Daten vor Datenkorruption schützen

W

WerbePar

Gast
tl;dr: ich habe bei einem Bild Datenkorruption festgestellt. Wie kann ich sowas in Zukunft einfach verhindern?


Hallo,
ich habe heute das Problem gehabt, dass ich eine mir wichtige private Fotodatei von vor 1,5 Jahren nicht mehr öffnen konnte. Die Datei hatte 0 Byte...ich speichere alle meine Daten auf einer internen 8 TB SSD, wo ich aktiv mit meinen privaten Daten arbeite. Um mich gegen Ransomware, Diebstahl, Hardwareausfall, etc. schütze, habe ich die Daten redundant auf mehreren externen Festplatten. Meine Kopien liegen im Bankschließfach, bei meinen Eltern und in einem Festplattenkoffer in einem Schrank bei mir. Die Backups aktualisiere ich über das Jahr immer wieder.

Ich habe also eine Menge Backups, aber das hilft mir auch nicht, wenn ggf. vor einem Jahr z.B. oben genannte Bilddatei einen Defekt aus irgendeinem Grund erlitten hat. Ich suche also nach einer Lösung, um Vorfälle wie oben zu verhindern für ein Datenvolumen aus derzeit 5 TB, bestehend aus Videos, Fotos, Dokumenten, etc.

Ich habe jetzt viel im Forum quer gelesen. Es gibt vmtl. zwei Wege, um das Thema anzugehen:
  • Jährliche Archivierung der Daten mit Prüfsummen und Wiederherstellungsinformationen (um beim Feststellen eines Fehlerfalles Daten aus einem robusten Archiv wiederherstellen zu können)
  • Verwendung von Prüfsummen auf meiner internen 8 TB SSD

Die erste Option sorgt dafür, dass ich überhaupt ein Archiv habe und auch mal auf Daten zugreifen kann, die ich ggf. mal vor 6 Monaten gelöscht habe, in keinem Backup mehr habe und dann auf einmal doch brauche.
Die zweite Option könnte wohl dafür sorgen, dass Bitfehler und ähnliches gar nicht erst auftreten bzw. ich diese merke. Dies sollte man wohl auch machen, wenn man eine SSD als Datenplatte einsetzt, da SSD scheinbar fehleranfälliger sind für Datenkorruption (https://www.computerbase.de/forum/t...rlust-beim-lesen-alter-dateien.2089001/page-2).

Die jährliche Archivierung würde ich wohl so machen, dass ich mir jetzt mehrere externe Festplatten kaufe, die ihr Archiv für ein paar Jahre halten. Wie sollte der Archivierungsvorgang erfolgen? Im einfachsten Fall wähle ich alle Dateien auf der internen SSD aus und mache ein gesplitetes WinRAR-Archiv auf die externen Archiv-Festplatten mit den folgenden Optionen:
1691747045937.png

Im Forum und auch via ChatGPT wurde ich auf MultiPar hingewiesen. Damit kann ich wohl defekte Dateien reparieren. Als Empfehlung wurde genannt, dass MultiPar 10% an Speicherplatz gewährt werden soll bzw. als Größe für die Wiederherstellungsinfos.

Für das andere Anliegen bzgl. dem täglichen Einsatz von Prüfsummen auf der internen 8 TB SSD weiß ich noch nicht, wie ich das Thema angehen soll. Im Forum habe ich ein paar Beiträge gelesen, dass manche das im Einsatz haben. Bei einem Forenteilnehmer erledigt die Prüfsummengeschichte seine Fotodatenbank und andere haben wohl Windows-Tools im Einsatz.

Das sind soweit meine Gedanken. Ich bin gerne bereit Geld in die Hand zu nehmen, um die Archivfunktion umzusetzen und so die Datenintegrität bewahren zu können. Meine offenen Fragen/Anliegen wären wie folgt:
1. Wie archiviert ihr wichtige Daten? Kopiert ihr einfach die Daten auf externe Festplatten/Bandlaufwerke und verstaut die oder setzt ihr MultiPar oder ähnliches ein, um die Daten zu schützen?
2. Welche Maßnahmen sind alltagstauglich, um Datenkorruption in den alltäglichen Daten zu verhindern? Gibt es eine Möglichkeit, dass ein Programm täglich oder wöchentlich Prüfsummen aller Daten erstellt und bei einem Fehler selbstständig einen Alarm auslöst? Mit Google konnte ich dafür noch keine praktikable Lösung finden.

tl;dr: ich habe bei einem Bild Datenkorruption festgestellt. Wie kann ich sowas in Zukunft einfach verhindern?
 
Zuletzt bearbeitet von einem Moderator:
Womit und wie backupst du die Dateien?

Ich nutze z.B. Syncback, alle paar Tage manuell.
Wenn sich die Größe einer Datei ändert - erst recht auf 0 Byte - wird mir das angezeigt, und ich kann dann prüfen und verhindern, dass eine korrumpierte Datei die noch unbeschädigte Datei im Backup-Container überschreibt.
 
  • Gefällt mir
Reaktionen: DJMadMax und WerbePar
Was spricht denn gegen eine richtige Backupsoftware, die inkrementelle und gestaffelte Backups macht?
 
  • Gefällt mir
Reaktionen: DJMadMax, prh, WerbePar und eine weitere Person
Mehrere Kopien auf (natürlich) mehreren HDD's bzw. ggf. DVD/BD.
KEINE SSD's zum archivieren nutzen die nicht mindestens 1x pro Monat LAUFEN. Am besten NIE SSD's als "Passive Schließfachlager" verwenden !

Ansonsten : Multible Laufwerke machen das Reparieren von "defekten" Dateien unnötig da man sie ja noch HAT! Mehrmals ! Wozu eine Reparatur versuchen wenn ein einfacher Sync mit ner intakten Kopie den Fehler ebenfalls beseitigt ?
 
  • Gefällt mir
Reaktionen: tollertyp, DJMadMax und (gelöschtes Mitglied)
Carrera124 schrieb:
Womit und wie backupst du die Dateien?

Ich nutze z.B. Syncback, alle paar Tage manuell.
Wenn sich die Größe einer Datei ändert - erst recht auf 0 Byte - wird mir das angezeigt, und ich kann dann prüfen und verhindern, dass eine korrumpierte Datei die noch unbeschädigte Datei im Backup-Container überschreibt.
Ich nutze FreeFileSync. Ich habe aus Faulheut bisher nie die Liste der Änderungen geprüft. Ggf.wäre das auch eine Option. Sollte ich mir Gedanken drüber machen.

Garmor schrieb:
Was spricht denn gegen eine richtige Backupsoftware, die inkrementelle und gestaffelte Backups macht?
Die Datenmenge, die sich ändert, sind pro Monat schon 1 TB, da die Systemsicherungen von Laufwerk C sich oft ändern. Man könnte aber dennoch überlegen, ob man nicht statt WinRAR sowas wie Macrium Reflect einsetzt. Der einzige Nachteil von Macrium Reflect wäre, dass es keine Wiederherstellungsinformationen speichert, falls ein Teil des Abbildes defekt ist. Was mache ich wenn das Archiv beschädigt wird? Dann ist ggf. gar nichts mehr aus dem Archiv lesbar. Bei WinRAR besteht die Change der Wiederherstellung defekter Archive.
Aber ich finde die Idee gut für die Bilder z.B. da ändert sich nicht soviel und die kann ich zumindest mit Macrium nochmal extra wie von dir vorgeschlagen sichern.

NatokWa schrieb:
Ansonsten : Multible Laufwerke machen das Reparieren von "defekten" Dateien unnötig da man sie ja noch HAT! Mehrmals ! Wozu eine Reparatur versuchen wenn ein einfacher Sync mit ner intakten Kopie den Fehler ebenfalls beseitigt ?
Multiple Laufwerke habe ich ja bereits im Einsatz. Ich habe ca. 8 Datenträger, die jeweils eine Kopie aller Daten haben. Ich verstehe den Punkt, dass man dann bei defekten einer Datei auf eine der Kopien zugreifen kann. Ich würde dennoch gerne zusätzlich eine Datensicherung/Archiv haben, die nochmal robuster gegen Defekte selbst ist.
 
Zuletzt bearbeitet von einem Moderator:
Ich würde möglichst auf freie Software setzen und die Software mit in die Sicherung, bzw daneben speichern. Was bringt dir ein geiles Programm, wenn das morgen nicht mehr funktioniert.

Dateien mit Parität zu sichern ist nur sehr schwer, weil das scheinbar keiner macht. Ich habe sowas auch gesucht und nie gefunden. Dieses eine Programm gibs leider auch nur wieder für Windows.
 
  • Gefällt mir
Reaktionen: WerbePar
Azghul0815 schrieb:
Man kann z.B. auch über eine Kopie in der Cloud nachdenken, wenn die Daten so wichtig sind, natürlich verschlüsselt.

u.U. mal einen richtigen Backupplan mit einem Systemhaus ausarbeiten.
Was ist der Vorteil einer Cloudkopie gegenüber einer Kopie im Bankschließfach? Cloud sehe ich in dem Kontext eher als fehleranfälliger an, wenn ich Verschlüsselung noch als Layer dabei habe und dann mehrere TB über einen normalen Internetanschluss hochschieben muss. Bei dem Datentransport können ggf. auch Daten beschädigt werden oder? Cloud kann man noch überlegen als Zusatz zu den anderen Backupmedien, aber aus meiner Sicht weniger im Bereich der Archivierung. Dafür finde ich den Speicherplatz dann doch zu teuer. Da kann ich lieber noch mehr Festplatten kaufen.
Backupplan mit einem Systemhaus sehe ich nicht als notwendig an, wenn ich bereits nach 3-2-1-Strategie die Daten sichere.

AGB-Leser schrieb:
Ich würde möglichst auf freie Software setzen und die Software mit in die Sicherung, bzw daneben speichern. Was bringt dir ein geiles Programm, wenn das morgen nicht mehr funktioniert.
Stimmt, das Programm sollte man vorsichtshalber mit abspeichern. Ich werde wohl einmal jährlich mit verschiedenen Programmen die Archivierung vornehmen. Eine Archivierung mit Macrium Reflect, eine mit WinRAR+Wiederherstellungsinformationen und eine mit einer OpenSource-Lösung. Die Archivierungsmedien kommen dann in mein Bankschließfach und dann wäre das zumindest erledigt. Und wenn zwischendurch eine Datei korrupt geht, die nicht im Archiv ist, ist die Wahrscheinlichkeit hoch, dass eine intakte Kopie in einem der Backupmedien vorhanden ist wie es NatokWa beschrieben hat.

Dann erstmal danke für all die Beiträge. Ich glaube ich weiß jetzt worauf ich zu achten habe, um sowas künftig zu verhindern. Das mit den Prüfsummen auf dem internen Laufwerk prüfe ich nochmal via Google, ob es da noch nen Lösungsvorschlag gibt.
 
Zuletzt bearbeitet von einem Moderator:
Cloud hat den Vorteil, dass die Daten dort eben auch redundant gespeichert werden und du dich da nicht mehr sorgen musst.
Tape wäre auch ne Lösung.

es gibst mehrere vernünftige Backup Strategien und noch mehr Medien.

Die scheint es eher um wiederherstellen und Fehlerkorrektur zu gehen. Da liegt der Fokus ja nicht nur auf dem Backup.

Auf jeden Fall viel Erfolg!
 
  • Gefällt mir
Reaktionen: WerbePar
  • Nutze ZFS als Dateisystem
  • sorge für eine ausreichende Redundanz
  • führe (automatisiert!) regelmäßige Scrubs1) durch

1)
Das Scrubbing ist ein wichtiger Part der regelmäßigen Pflege eines ZFS-Systems. Hierbei liest das System alle belegten Dateisystemblöcke, vergleicht den Inhalt mit der hinterlegten Prüfsumme und korrigiert – wenn nötig – Fehler auf dem Speicher. Hierdurch ist sichergestellt, dass kippende Bits auf den Festplatten nicht den Inhalt der Datei beschädigen und Fehler frühzeitig erkannt werden. Ein Scrub wird hierbei über den Befehl “zpool scrub poolname” gestartet.
 
  • Gefällt mir
Reaktionen: TorenAltair, Fusionator, Azghul0815 und eine weitere Person
Azghul0815 schrieb:
Die scheint es eher um wiederherstellen und Fehlerkorrektur zu gehen. Da liegt der Fokus ja nicht nur auf dem Backup.

Auf jeden Fall viel Erfolg!
Das ist korrekt. Für mich geht es primär um die Datenintegrität bzw. das ist gerade die offene Flanke. Vielen Dank. Ich werde alles nochmal überdenken. Die wichtigsten Daten sind weniger als 1 TB. Die kann ich auch einmal verschlüsselt in die Cloud schieben und habe auch sozusagen mein Archiv, wenn ich die Daten nicht ändere.

@Maximilian.1
Vielen Dank für die Infos. ZFS habe ich bisher nur von gehört, aber nie mit beschäftigt. Schaue ich gleich mal rein.
 
  • Gefällt mir
Reaktionen: Azghul0815
WerbePar schrieb:
Die Datenmenge, die sich ändert, sind pro Monat schon 1 TB, da die Systemsicherungen von Laufwerk C sich oft ändern.
Ich antworte da mal mit deinem Zitat drauf:
WerbePar schrieb:
Backupplan mit einem Systemhaus sehe ich nicht als notwendig an, wenn ich bereits nach 3-2-1-Strategie die Daten sichere.
Sehr löblich, überprüfst du auch ob die Datenträger dann noch IO sind? Sowas gehört auch dazu, das beste Backupkonzept nutzt nix wenn die Medium schon defekt sind auf denen das Backup letztendlich liegt.
WerbePar schrieb:
Jährliche Archivierung der Daten mit Prüfsummen und Wiederherstellungsinformationen (um beim Feststellen eines Fehlerfalles Daten aus einem robusten Archiv wiederherstellen zu können)

WerbePar schrieb:
Verwendung von Prüfsummen auf meiner internen 8 TB SSD
Un die Prüfsummen bringen dir was? genau du erkennst das ein Fehler vorliegt kannst ihn damit aber weder verhindern noch Rückgängig machen, sehe ich als nicht Zileführend an.

WerbePar schrieb:
Man könnte aber dennoch überlegen, ob man nicht statt WinRAR sowas wie Macrium Reflect einsetzt. Der einzige Nachteil von Macrium Reflect wäre, dass es keine Wiederherstellungsinformationen speichert, falls ein Teil des Abbildes defekt ist.
Macrium Reflect hat u.a. den Vorteil das es sich auch um die konsistens des Backups kümmert, zur Laufzeit. D.h. beim Backupprozess wird verifiziert ob die Daten korrekt sind.
WerbePar schrieb:
Was mache ich wenn das Archiv beschädigt wird?
Dann greift die 3-2-1 Regel, und du greifst auf ein anderes Backup zu und prüfst den Datenträger mit der korrupten Datei und ziehst ihn ggf. aus dem Verkehr.
WerbePar schrieb:
Bei WinRAR besteht die Change der Wiederherstellung defekter Archive.
Aber auch nur bis zu einem gewissen Teil.
WerbePar schrieb:
Was ist der Vorteil einer Cloudkopie gegenüber einer Kopie im Bankschließfach?
Flexibilität, du musst dir keine Gedanken um den Datenträger machen und ob die Daten nach einem Jahr noch lesbar sind. Darum kümmert sich der Cloudbetreiber. Und du bist auch schneller wieder an den Daten drann.
Azghul0815 schrieb:
Cloud hat den Vorteil, dass die Daten dort eben auch redundant gespeichert werden und du dich da nicht mehr sorgen musst.
Das stimmt nicht, Redundanz kostet extra. Wenn man möchte das Daten z.B. zwischen 2 Rechenzentren gehalten werden zahlst du dafür extra. Bitte mal das kleingedruckte lesen.
WerbePar schrieb:
Cloud sehe ich in dem Kontext eher als fehleranfälliger an, wenn ich Verschlüsselung noch als Layer dabei habe und dann mehrere TB über einen normalen Internetanschluss hochschieben muss. Bei dem Datentransport können ggf. auch Daten beschädigt werden oder?
Nein, wenn bei der Datenübertragung etwas schief geht wird dir das Mitgeteilt.
WerbePar schrieb:
Cloud kann man noch überlegen als Zusatz zu den anderen Backupmedien
Genau, das könnte 1 in der 3-2-1 Regel werden.
 
  • Gefällt mir
Reaktionen: WerbePar
sikarr schrieb:
Nein, wenn bei der Datenübertragung etwas schief geht wird dir das Mitgeteilt.
Ich hatte überlegt via NAS Daten in die Cloud zu schieben. Bei Synology passiert vieles via WebDav in dem Kontext. Nach meinen bisherigen Recherchen hat WebDav keine Prüfsummenfunktion im Protokoll vorgesehen. Nach meinem Verständnis können dabei also Daten durchaus korrupt übertragen werden.

sikarr schrieb:
Un die Prüfsummen bringen dir was? genau du erkennst das ein Fehler vorliegt kannst ihn damit aber weder verhindern noch Rückgängig machen, sehe ich als nicht Zileführend an.
Idee war, dass der Fehler auffällt, also das überhaupt eine korrupierte Datei auffällt und nicht unbemerkt defekt rumliegt. Dann kann ich sie in dem Moment aus einem Backup wiederherstellen.

sikarr schrieb:
Sehr löblich, überprüfst du auch ob die Datenträger dann noch IO sind? Sowas gehört auch dazu, das beste Backupkonzept nutzt nix wenn die Medium schon defekt sind auf denen das Backup letztendlich liegt.
Soweit wie es die S.M.A.R.T-Werte erlauben. Daher habe ich aber auch relativ viele externe Medien, damit dabei auch mal zwei defekt gehen können ohne dass es zu einem großen Problem führt. Damit gleichzeitig alle meine Daten und Backups defekt sind, muss schon sehr viel passieren.
sikarr schrieb:
Aber auch nur bis zu einem gewissen Teil.
Aber ggf. ausreichend für mein Szenario.
sikarr schrieb:
Genau, das könnte 1 in der 3-2-1 Regel werden.
Ich nehme es als 1 mit zu der bestehenden 1. Da ich die Daten nur verschlüsselt in die Cloud lade, sollte auch ein Klartext-Backup im Bankschließfach weiterhin vorhanden sein.
 
WerbePar schrieb:
Nach meinen bisherigen Recherchen hat WebDav keine Prüfsummenfunktion im Protokoll vorgesehen. Nach meinem Verständnis können dabei also Daten durchaus korrupt übertragen werden.
Webdav läuft über TCP, das kümmert sich um die korrekte Übertragung der Pakete.
WerbePar schrieb:
Idee war, dass der Fehler auffällt, also das überhaupt eine korrupierte Datei auffällt und nicht unbemerkt defekt rumliegt. Dann kann ich sie in dem Moment aus einem Backup wiederherstellen.
Wo ist den dein Fehler aufgetreten? auf deinem Quelllaufwerk oder beim suchen im Backup
WerbePar schrieb:
Soweit wie es die S.M.A.R.T-Werte erlauben. Daher habe ich aber auch relativ viele externe Medien, damit dabei auch mal zwei defekt gehen können ohne dass es zu einem großen Problem führt. Damit gleichzeitig alle meine Daten und Backups defekt sind, muss schon sehr viel passieren.
Ah OK du setzt mehrere Medien ein.
WerbePar schrieb:
Aber ggf. ausreichend für mein Szenario.
Kommt immer auf die Beschädigungen an.
 
  • Gefällt mir
Reaktionen: WerbePar
sikarr schrieb:
Wo ist den dein Fehler aufgetreten? auf deinem Quelllaufwerk oder beim suchen im Backup
Auf dem Quellaufwerk. Die Datei war vom November 2021. Und meine Backups reichen derzeit nur ca. 4 Monate zurück. Da war die Datei auch schon beschädigt.
sikarr schrieb:
Ah OK du setzt mehrere Medien ein.
Richtig. Fünf im Bankschließfach. Zwei bei meinen Eltern. Bei mir zu Hause drei im Festplattenkoffer.

sikarr schrieb:
Webdav läuft über TCP, das kümmert sich um die korrekte Übertragung der Pakete.
Ah ok. Danke für die Info. Dann brauche ich mir da keine Sorgen machen.
 
Prüfsummen sind wichtig, um eine Beschädigung festzustellen

zfs halte ich hier nicht für eine gute Idee. Im Grunde funktioniert das, aber es ist nicht einfach damit umzugehen. Vor allem brauchst Du die Treiber/Programme dafür und soweit ich weiß, hat nur Ubuntu bzw FreeBSD da standardmäßig was an Bord. Ich würde auf üblichen Dateisystemen bleiben. NTFS ist gut stabil und ext4.
 
  • Gefällt mir
Reaktionen: sikarr und WerbePar
Ich alsse die Prüfsummengeschichte auch erstmal und kümmere mich um Archivierung + Cloud. Das sollte alles an offnen Flanken abfackeln.
 
WerbePar schrieb:
ich habe bei einem Bild Datenkorruption festgestellt. Wie kann ich sowas in Zukunft einfach verhindern?
Redundanz mit dem Zusatzwissen, welche der Datei dem Original entspricht. Ob man die Wiederherstellung dann mittels Dateisystem, WinRAR, par2 oder einer weiteren Kopie erledigt, muss jeder selber wissen.

WerbePar schrieb:
Idee war, dass der Fehler auffällt, also das überhaupt eine korrupierte Datei auffällt und nicht unbemerkt defekt rumliegt. Dann kann ich sie in dem Moment aus einem Backup wiederherstellen.
Dafür müsstest Du aber auch eine Art Archiv definieren, welches unveränderliche Daten (z.B. alte Bilder) enthält. Für mich gibt es dabei keinen Grund, diese Daten jeden Monat neu zu sichern. Das Bildarchiv und die Backups davon werden exakt einmal erstellt und nur um neue Bilder ergänzt. Dann ist es recht einfach per Prüfsumme zu testen, ob Archiv und Backups noch die Dateien enthalten, für die man vor vielen Jahren Prüfsumme erstellt hat.

Alternativ kann man an der Quelle Prüfsummen erstellen und für die alten, nicht geänderten Datei, vor dem nächsen Backup alles prüfen lassen. Wobei das dann monatlich recht viel Aufwand/Zeit in Anspruch nimmt, da die 4 TB an nicht geänderten Altdaten jedesmal gelesen werden müssen.

WerbePar schrieb:
Ich alsse die Prüfsummengeschichte auch erstmal und kümmere mich um Archivierung + Cloud. Das sollte alles an offnen Flanken abfackeln.
5 TB in die Cloud? Mal unabhängig von den regelmäßigen Kosten dafür hast Du hoffentlich einen extrem schnellen Upload bei 1 TB an Daten pro Monat. Ich verzweifele fast schon an meinen derzeit 14,5 GB pro Monat und VDSL. Das sind aber nur gut 60 Minuten Upload, wenn ich das Internet nicht anders benötige. In der Realität also eher zwei Stunden, die man natürlich noch automatisiert in die Nacht legen könnte.

Bei allem, was Du irgendwie "nachbehandelst", egal, ob verschlüsseln oder komprimieren, musst Du halt auch dafür sorgen, dass Du mit Sicherheit die passende SW lauffähig zur Hand hast, wenn Du an die Daten willst. Lässt sich die WinRAR Lizenz auch dann übertragen, wenn der Original-PC nicht mehr verfügbar ist. Auf einem Andriod/iOS Gerät wird es jedenfalls nicht laufen, falls Du mal mobil auf die Daten zugreifen musst.

Die kostenlose Macrium Reflect Version läuft demnächst aus, WinRAR (mit Unterstützung der Wiedeherstellungs-Optionen) gibt es nur für Windows. Für monatliche Backups, die man nach 3-4 Monaten sowieso löscht, ist sowas trivial. Aber für ein Langzeitarchiv, von dem ich im Idealfal einmal Backups erstelle und diese dann nur noch regelmäßig auf korrekte Lesbarkeit prüfen, ist mir proprietäte SW (alles, was nicht im Quelltext vorliegt und von mir auch compiliert werden kann) heutzutage nicht mehr sinnvoll.

An meine alten Datenbackups (damals noch mit Acrionis erstellt, weil es so schön einfach war) komme ich heute nur noch mit extrem großen Aufwand oder Kosten. Entweder muss ich einen PC finden, der mit dem altne Bootstick (auch der ist als Image gesichert) noch bootetr oder ich muss einen Jahreslizenz kaufen, um exakt einmal meine alten Daten lesen zu können. 7zip läuft dagegen unter nahezu jedem OS, par2 als Prüfsummentool, ebenso. Jedenfalls, wenn man mit einem Compiler umgehen kann, sonst muss man unter Winodws etwas suchen oder MultiPar/QuickPar nutzen.

Und auch, wenn in 20 Jahren bei mir noch keinmal die Überprüfung der Backups mit den früher erstellten Prüfsummen angeschlagen hat, wollte ich auf die Sicherheit nicht mehr verzichten. Einzig ZFS/BTRFS wäre (bzw. ist) für mich eine Alternative dazu. Ich möchte nicht nur wissen, dass eine Datei defekt ist, sondern auch, welche dies ist ohne sie mit dem korrekten Anzeigeprogramm öffnen zu müssen.

AGB-Leser schrieb:
NTFS ist gut stabil und ext4.
Irgendwie hat er es trotzdem geschafft, ein ehemals anzeigbares Bild in eine 0-Byte Datei zu ändern. Wenn ich mal nicht von einem Anwenderfehler oder einem Virus ausgehe, dann geschieht das bei NTFS anscheinend (liest man hier immer mal wieder) gelegentlich. Ich hatte sowas bisher noch nicht einmal bei einem Stromausfall mit NTFS.
 
Ja genau. Hatte meine Mutter mit einem Teil ihrer Bilder auch. Ursache: Kaputter Chipsatz im Rechner. Also selbst da ist man nie wirklich sicher :D
 
FreeFileSync & Kollegen…

@WerbePar
Nichts kannst du tun.

Das klingt überheblich? Du müsstet wie hier aufgeführt auf sich nicht selbst degenerierenden 3 Datenträgern 3 Kopien ablegen und einwecken.
Denn wenn dein Master-Datenträger ein Problem hat; wenn genauer gesagt in der bewussten Datei X ein Bit kippt und die Datei korrumpiert würden die o.g. Backupsysteme diese Änderung mitschreiben oder du, wenn du es merkst, hoffentlich die eingeweckten Reserven hast.

Du hat nie genug Ressourcen dich so abzusichern wie es dir vorschwebt. Nicht genug Ablagen, nicht gneug Vergleichszeit zum Verifizieren. Vgl. oben - Bakup weicht ab, du überschreibst es mit der defekten Datei in bestem Gauben.
Deswegen kannst du nichts tun.

CN8
 
Zurück
Oben