Sicherungskonzept

MiniPCHTPC

Cadet 4th Year
Registriert
Mai 2015
Beiträge
98
Wie hier:
https://www.computerbase.de/forum/t...kannt-nach-platinentausch-gpt-falsch.1529358/

zu lesen hat mein bisheriges Sicherungskonzept ein Problem: Es ist nicht automatisiert.

Ich mache (eigentlich) wöchentlich eine 1:1 Kopie von ~3 TB Daten. Da ich demnächst zur Sicherung als CD-R/DVD-R sichern möchte, wird das noch deutlich mehr. Das Problem ist dabei Silent Data Corruption. Meine Lösung dazu ist, die Daten im Backup jeweils mit einem Inhaltsvergleich abzugleichen - so würde ein SDC-Fehler zumindest auffallen.

Leider dauert das dann etliche Stunden - genau das Problem, warum ich in letzter Zeit nicht dazu gekommen bin und jetzt (wahrscheinlich) einiges an Daten futsch ist. Leider hat also meine Vorsicht gegenüber SDC nun dazu geführt, dass es dieses Problem gibt.

Online-Lösungen sind bei TB-Datenmengen nicht praktikabel. Eine permanente Sicherung im gleichen System erleidet im Zweifel das selbe Schicksal. Was also tun für die Zukunft? RAID0 für einen Plattenausfall und zusätzlich ein externes Backup käme mir nun in den Sinn, das würde aber nicht das grundlegende Problem der SDC im Backup lösen.
 
Mir ist keine automatisierte Sicherung bekannt, ausser du hast einen Roboter. Das Verbinden von Backupmedium zu PC muss immer manuell erfolgen.
 
installiere Veeam Endpoint Backup Free, richte es ein und fertig.

Erste Sicherung Full und die nächsten inkrementell
 
@Belvor, du verstehst mich falsch. ich möchte alte CDS auf Festplatte sichern, da die inzwischen schon einige Ajhre auf dem Buckel haben.
@hpxw
Danke für den Tipp. Wie sichert Veeam Endpoint Backup Free die Backups gegen SDC oder sonstige Beschädigung?

@all:
Das anschließen ist ja nicht das Hauptproblem, sondern der, dass der Vorgang selbst manuell gemacht werden muss (langwieriger Datenabgleich (SDC), Überprüfung der Unterschiede (Gab es SDC, versehentlich Löschungen o.ä. ?) und anschließende Sicherung. Der Zwischenschritt ist eben problematisch - Aber mir fällt nichts besseres ein, um Schäden im Backup zu erkennen. Prüfsummen wären eine Lösung - das beitet NTFS aber nicht. Checksum-Dateien oder gar Wiederherstellungsinfos (zB Par) sind bei veränderlichen Daten soweit ich weiß auch nicht handhabbar, weil sie einerseits geprüft werden müssen, andererseits aktualisiert. ich habe noch kein derartiges Backup-Tool finden können.

Mir geht gerade durch den Kopf, "normale" inkrementelle Sicherungen zu machen, diese jeweils mit Redundanz zu ergänzen und die Redundanzen werden bei jedem Backup geprüft.

So wird dann einiges an Zusatzspeicher genutzt, aber man könnte ja ggf große Dateien manuell aus älteren Backups löschen. Kann Par selektive Wiederherstellung? also eine fehlerhafte Datei wieder herstellen, wenn Dateien aus dem Par-Set fehlen?!
 
also eine fehlerhafte Datei wieder herstellen, wenn Dateien aus dem Par-Set fehlen?!
Sofern genug Blöcke vorhanden sind, werden auch komplette Dateien wiederhergestellt.
Selbst wenn die par Dateien beschädigt sind, funktioniert die Wiederherstellung noch.
 
Zuletzt bearbeitet:
Ich meinte Damit: Wenn ich Datei1 lösche, kann ich Fehler in Datei2 genauso gut korrigieren, als wäre Datei 1 noch da.

Ich habe mal angefangen, Backup-Tools zu testen, als nächstes ist Veeam Endpoint Backup Free dran (musste erstmal eine Mailadresse finden, die nicht verweigert wird bei der Registrierung)

Bisher erkennt ausnahmslos kein Tool Verschobene/Umbenannte Dateien - mit einer Ausnahme: Cobian Backup erkennt einen umbenannten Ordner und sichert nicht alles neu, sondern nur den umbenannten Ordner als leeren Ordner (Bei der Wiederherstellung kann das natürlich keiner mehr zuordnen...) - ich habe langsam das Gefühl, dass das nur FreeFileSync kann, was aber als sync Tool ausgelegt ist und daher keine inkrementellen/Differentiellen Backups kann (afaik).

Bisher ausführlich getestet habe ich:

Cobian Backup, Backup Maker und Duplicati


ausstehend:
- Veeam Endpoint Backup Free

gerne nehme ich noch Empfehlungen an - danke :)
Ergänzung ()

Wow, Veeam ist ja richtiger Mist. Für das 100MB Testverzeichnis wurden in der Spitze 800MB RAM verbraucht. Jedes Backup - auch ohne Änderungen - ist 30 MB groß und verschobene/umbenannte Dateien und Ordner werden nicht erkannt. Einzig nettes Feature ist der Auslösezeitpunkt "bestimmtes USB-Gerät oder bestimmte Netzwerkspeicher verfügbar"
 
Hallo,

ich bin neugierig geworden. Wie ermittelst du überhaupt Silent Data Corruption oder Bit-Rot? Ich habe mich auch schon mal gefragt, was mit einer kaputten Datei passiert, wenn man immer Backup vom Backup vom Backup macht. Irgendwann dürfte ja nur noch Müll vorhanden sein. Vor Jahren habe versucht mich damit schlau zu machen, ohne Erfolg. :)
 
Byte-Vergleich. Mach dich darüber mal schlau. Kurz: Wer nicht Hand anlegt, wird über die Jahre einfach ein paar Daten begraben dürfen.
 
Das ist ja gerade meine Frage! :hammer_alt:
https://www.google.de/search?q=Byte-Vergleich

Als Dateisystem soll ZFS oder btrfs "Datenfäule" verhindern können. Das muss man ja erst einmal haben. Ich stelle mir vor, dass irgendwie eine Prüfsumme erstellt wird. Gibt es nicht Software, Synchronisationsprogramme, die Datenbestände "so" vergleichen können, egal auf welchem Dateisystem sie liegen?
 
Du kannst Puresync verwenden. Ich empfehle die benutzerdefinierte Installation und alle unnötigen Implementierungen zu deaktivieren, vor allem wenn man nur den Vergleich nutzen will. Macht man ja eher selten.

Das über Hardware zu erschlagen halte ich für unnötig. ECC-Ram, entsprechendes Board usw. nur um ein ohnehin fälliges Backup nicht hin und wieder genauer unter die Lupe nehmen zu müssen. Ich bin bisher in zwei Fällen je bei mir und meinem Vater fündig geworden, bei mir waren es ein paar Bilder und eine Videodatei, die ich aus dem Backup rekonstruieren konnte, bei meinem Vater waren Bilder von einer offenbar beschädigten Daten-DVD zurückgespielt worden. Auch dort aus Backup rekonstruiert.
Also es macht schon Sinn, ein Vergleichs-Tool zu nutzen. Synchro-Softeware, die etwas auf sich hält, hat das meist dabei.
 
Der Vergleich bei PureSync ähnelt dem vom Total Commander sehr. Der Vergleich sagt ja nur, welche Dateien nicht gleich sind. Ich möchte jetzt aber wissen, welche der beiden Dateien die defekte ist. Das scheint mir mit PureSync nicht möglich zu sein. (Sofern ich nicht etwas übersehen habe.)
Meine Vermutung ist, dass man für mein Vorhaben irgendwie mit Prüfsummen arbeiten müsste.
 
Tja, da wäre Fleiß angesagt. Ich habe z.B. zwei Backups vorliegen, zudem von ausgewählten Dokumenten zig Rar-Container. Da entscheidet im Zweifel die Mehrheit im Direktvergleich. Bei Bildern sind Fehler recht schnell ausfindig gemacht.
 
Ich will's ja einfacher und automatisiert haben. Fotos einzeln sichten? Jede Datei öffnen und gucken was passiert? Ist nicht dein Ernst bei Datenbeständen im Terabyte-Bereich. :D

Nebenbei. Ich hatte konkret eine Outlook.pst Datei. Die hatte ich dreimal. So bin ich nach dem Ausschlussverfahren gegangen.

Es müsste doch Software geben, die eine Prüfsumme vom Datenbestand erstellt. Ändert sich irgendwann die Prüfsumme, ist etwas faul. Das kann man jetzt natürlich händisch machen, aber es wird doch hoffentlich Software geben, die das automatisiert macht.
 
Im Fehlerfalle. Bei mir 2,5 TB 250.00 Dateien, 5 Fehler bisher seit 2009. Deshalb Silent Data Corruption, das fällt nicht in der Masse an, wenn deine RAM-Riegel nicht völlig im Eimer sind (hin und wieder Memtest overnight kann übrigens auch nicht schaden).
Ich mache den Vergleich einmal im Quartal.
 
Die Frage ist ja, ob der Fehler beim Erstellen des Backups auftritt oder "im Lager"
 
Zurück
Oben