Backups mit Fehlertoleranz

Konti

Banned
Registriert
Apr. 2005
Beiträge
6.421
Hallo Leute

Ich sichere meine Daten immer auf externen Festplatten. Bislang allerdings einfach nur, indem ich den Kram da ganz normal rüber kopiere. Dabei kann es über die Jahre natürlich vorkommen, daß einige Daten "vergammeln" (Bits kippen um).
Das hat mir nun schon das ein oder andere Bild/Lied/Video angekratzt, und deshalb würde ich das in Zukunft ganz gerne vermeiden.

Von daher hab ich mich gefragt, ob man nicht irgendwie (am besten einfach von Vista aus) eine ganze Festplatte so einrichten kann, daß ein paar Prozent des Speicherplatzes für eine erhöhte Datensicherheit verwendet werden.



Ich hatte da irgendwann schonmal son extra Programm gehabt, mit dem konnte man so Recovery-Files von Dateien erstellen, die z.B. 5% so groß wie das Original-File waren. Wenn dieses dann beschädigt war, konnte es mit Hilfe des Programmes und des Recovery-Files wieder hergestellt werden.

Sowas hätte ich halt gerne vollautomatisch und im Hintergrund für eine ganze Backup-Festplatte. Also, gibt's da irgendwie bei Vista schon ne Funktion, oder benötigt man da ein extra Programm für?
Welches Programm würdet ihr dafür empfehlen?
 
Ist mir jetzt nichts bekannt, Interessiert mich aber auch obs da etwas gibt. Hatte auch schon ein Bild wo defekt war... Du meinst z.b. sowas wie es bei WinRAR Archiverzeugung gibt da kann man auch Wiederherstellungs Informationen noch mit abspeicher.

Sonst könntest du ja auch so machen das von den Dateien jeweils eine Kopie dabei ist, weil beide Dateien aufeinmal werden wohl kaum so schnell kaputt gehen. Das ist aber dann wieder eine Frage des Speicherplatzes. Ich sichere 3 Mal die Woche ca 30 GB (also nur neuere Dateien oder neue werden kopiert bzw. nicht mehr existierende im Backupverzeichnis gelöscht)

Ich nehme das Programm Personal Backup
Meine Einstellungen:
 

Anhänge

  • Aufzeichnen.JPG
    Aufzeichnen.JPG
    148,2 KB · Aufrufe: 137
Zuletzt bearbeitet:
drdiablo schrieb:
Du meinst z.b. sowas wie es bei WinRAR Archiverzeugung gibt da kann man auch Wiederherstellungs Informationen noch mit abspeicher.
Ja genau .. das ist auch nochn gutes Beispiel. Nur halt am liebsten on-the-fly im Hintergrund ganz automatisch, wenn ich was auf die Backup-Platte drauf kopiere.

Eine Datei doppelt drauf zu kopieren ist schon sehr unökonomisch. Und selbst dann ist die Datensicherheit noch lange nicht so hoch wie mit einem 5% großen Recovery-File.

Oft fällt es einem ja auch erst viel zu spät auf, daß eine Datei Schaden genommen hat.
Es wär von daher auch gut, wenn die Backup-Funktion (bzw. das Backup-Programm) das irgendwie scannen könnte, so daß man dann die beschädigten Files auch gleich wieder reparieren kann, wenn man die Platte mal wieder dran hat.
 
(software-) error correction funktioniert nur bedingt und schon garnicht in jedem fall (worst case)

du kannst aber andere medien benutzen, um deine daten langfristig zu sichern ...
mit diesem thema müssen sich auch viele unternehmen beschäftigen, die unterlagen mehrere jahrzehnte archivieren müssen

ich habe mal gehört, dass vergoldete dvd-rohlinge gut geeignet sind. auf jeden fall gibts medien, die "langzeithaltbar" sind - dafür auch teurer als vergleichbare normale
 
Klar .. letztendlich kann alles kaputt gehen. Für das bisschen Platz, das es benötigt, ist es jedoch schon sehr sicher. Die wichtigsten Daten habe ich ohnehin auf jeweils 2 verschiedenen Festplatten. Das werde ich auch weiterhin so machen.

Für vergoldete DVD-Rohlinge oder irgendwelche Industrie-Sicherungs-Hardware hab ich weder Geld noch Lust. Ich will bei Festplatten bleiben, da das komfortabel und günstig ist.
Nur fehlt mir halt wie gesagt im Moment das richtige Programm, um wirklich sicher zu backuppen.
 
Denk auch das das sicherste wirklich 2-3 Festplatten sind für den Privat gebrauch. Evtl wäre noch ein Internetdienst bei dem man sowas speichern könnte noch eine Alternative, voraussgesetzt ihn gibt es lange genug. Dann hat man halt nur mit der geschwindigkeit zu kämpfen für das Hochladen.

Ich bleibe dabei es auf 2-3 Festplatten zu werden. Eine USB/ESATA Festplatte, dann die 2te im Rechner und als dritte ist eben die erste Platte im Rechner wo die Originale liegen.

Wobei Die Frage ist alles immer neu zu kopieren oder so wie ich das immer nur neue oder geänderte Daten aktuallisiert werden. Fest steht, wenn die Daten nicht bewegt werden sind sie irgend wann defekt, anders gesagt trägt es auch risiko wenn man daten umher schiebt.

Ohman die Digitale Welt ist doch echt nur schlimm... Haste damals noch deine Bilder auf Negative gespeichert konntest die auch noch nach 50 Jahren ohne Probleme entwickeln und was machste heut? Nach 2-3 Jahren ist ein teil defekt... Ich hab mit Meiner Digicam 8500 Bilder bis jetzt gemacht, gut einen großteil braucht man nicht wirklich aber so sachen kannst z.b. später deinen Kindern doch fast nimmer zeigen weil es nicht mehr existiert. Dazu kommt das Festplatten über 500 GB doch momentan alles andere als ausgereift sind, grad die 1TB und 2TB Platten gehen viel zu oft kaputt...
 
Zuletzt bearbeitet:
Das stimmt schon, aber wenn du merkst "Ohhh da ist was defekt" dann heißt das noch lange nicht das genau die gleiche stelle auf der anderen Festplatte defekt ist. Vorausgesetzt man hat nicht die defekte Datei kopiert. Ach mist :D

Wenn jemand eine möglichkeit kennt mit Toleranzen dann bitte raus damit :D Wir können ja alles mit Winrar Archiven zupflastern, aber dann ist es wahrscheinlich schlimmer wenn die Winrar datei futsch ist weil dann in schlimmsten fall alles darin auch hinüber ist.
 
richtig erkannt, wenns archiv kaputt ist, kannst du vllt teile davon nicht mehr auslesen ...

eine mögliche lösung ist alles doppelt zu speichern und dazu noch checksummen zu bilden. dann kann man regelmäßig daten mit den summen gegenchecken und wenn ein fehler aufgetreten ist, dann nur hoffen, dass die andere festplatte nicht auch betroffen ist.
ob es speziell programme dafür gibt, kann ich nicht sagen, aber normalerweise bekommt man sowas mit skripten ziemlich gut hin ;)

ähnlich funktioniert auch ein raid 1. auf softwarebasis ist man auch von motherboard/controller- hardware unabhängig, hat nur eben doppelten speicherbedarf. ein raid 5 reduziert den speicherbedarf, erhöht aber ein wenig das risiko von defekten daten.
für backups sollten es imho aber schon software raids sein, auf geschwindigkeit kommts hier ja nicht primär an!
 
Wie wäre es, wenn du z.B. einfach halbjährlich "chkdsk X: /F /R /X" drüberlaufen lässt? Dann sollte die gesamte Festplatte durchgegangen und neu magnetisiert werden.
 
So deine Theorie. Aber die traurige Realität ist, dass man wenn in dieser Zeit wirklich ein Fehler passiert dass der Fehler einfach neu geschrieben wird.

Weiters besteht bei Backups noch das Problem, dass die Fehler beim nächsten Backup mit kopiert werden und die alten (unbeschädigten) Daten überschrieben werden. Bei manche Daten die man nicht so oft braucht kommt man bis zum nächsten Backup meistens nicht drauf, dass da ein Fehler vorhanden ist.

Man kommt also über eine MD5 Summe nicht hinweg.


Meine momentane Konfiguration:
Desktop PC ist mit meinen Server Synchron. Wenn also egal auf welcher Festplatte eine Datei geändert wird, wird sie auch auf der anderen Festplatte geändert.

Man bräuchte jetzt ein Programm, dass auf 2 oder mehrere Systemen läuft und MD5 Summen von allen zu Synchronisierenden Daten erstellt.
Der Desktop und der Server müssten regelmäßig (1 mal Monat) alle Daten mit der Checksumme überprüfen und wenn keine Änderung erfolgte und es nicht mehr übereinstimmt, vom zweiten PC die fehlerfreie Datei kopieren.
 
Ich habe ja nicht gemeint, dass man chkdsk zur Fehlerkorrektur ausführen sollte, sondern das einfach nur als Möglichkeit gesehen, die komplette Platte neu zu magnetisieren. Ein halbes Jahr lang sollten die Daten doch zumindest halten und dann werden sie eben wieder aufgefrischt.

Ich weiß nicht mehr wo, aber vor kurzem habe ich nämlich genau über das Thema (Backups auf Magnetspeicher) etwas gelesen. Da wurde, soweit ich mich noch richtig erinnern kann, geraten, die Platten zumindest einmal jährlich im Betrieb zu nehmen, um die Magnetisierung aufrecht zu erhalten.
 
Nur vom kurz mal anschalten werden die Daten ja nicht aufgefrischt. Auch durch das bloße Lesen (mit diesem scan-dings) werden die wohl nicht erneuert.
Da müsste man schon alle Daten einmal komplett neu aufspielen. Das dauert ewig und ganz sicher, daß da nicht doch schon früher (als nach nem halben Jahr) was kippt, ist es eben auch nicht.

Man, ich hab irgendwie garnicht damit gerechnet, daß vernünftige Lösungen dafür Mangelware zu sein scheinen. Hätte gedacht, hier kämen gleich zich Antworten mit passenden Free- und Pay-Programmen ...
Wundert mich schon son bisschen, daß das Thema so "unberührt" zu sein scheint.
 
Wenn Festplatten ihre Magnetisierung verlieren würde das ja heisen das eine Festplatte die ein paar jahre nur herumlag würde in dem fall die meinsten unbrauchbaren Daten habe, seh ich das Richtig?
Klingt für mich schon etwas einleuchtend mit dem Checkdisk wenn der jeden bereich einmal durchfährt und alles liest.

EDIT: Oh grad gesehen beim abschicken das Konti was geschrieben hat ;)
Hm, da haste recht, dachte auch das ein paar sachen kommen die helfen können. Naja wenn man Windows ja mal Neuinstalliert (das bei mir schon mal 2-3 mal im Jahr vorkommen kann) dann werden die Daten zumindest auf der C: Partition neugeschrieben (zumindest alles was unter Dokumente und meinem User Name ist).
 
Zuletzt bearbeitet:
Ich bin mir jetzt nicht sicher, aber ich vermute, dass checkdisk beim Oberflächen-Scan die Daten nicht nur liest, sondern auch schreibt (um eben den Bereich zu testen) und dass dadurch die Magnetisierung wiederhergestellt wird. Wenn das der Fall sein sollte, dann funktioniert es definitiv.

Selbst wenn beim Scan nicht so vorangegangen wird, glaube ich dennoch, dass das helfen müsste. Auch bei Festplatten, die regelmäßig im Betrieb sind gibt es bestimmt Datenbereiche, die selten bis nie explizit neu geschrieben werden und die Magnetisierung wird aufrecht erhalten.

Und wenn dir dann ein halbes Jahr zu selten sein sollte, kannst du es ja z.B. auch alle 4 Monate machen.
 
Zuletzt bearbeitet:
Ihr habt mich gerade auf eine Idee mit dem Daten neu schreiben gebracht.
Wenn man einen PC defragmentiert werden die Daten doch auch neu geschrieben.
Also hätte das defragmentieren mehrere Nutzen.
Dabei habe ich an O&O Defrag 11 gedacht.
Dieses Programm defragmentiert dank Aufgabenassistent die HDD's ganz automatisch, es müssen am Anfang nur ein paar Einstellungen vorgenommen werden.
Weiters kann man lt. Computerbild die HDD's vor der Defragmentierung auf Datenfehler überprüfen. Wie zuverlässig das ist kann ich leider nicht beurteilen.

Trotzdem ist das noch immer nicht die gesuchte Lösung, da hier nicht mit MD5 und Backups gearbeitet wird.

mfg eigs
 
Daran habe ich auch schon gedacht, nur wenn nicht viel verändert wird, gibt es auch kaum etwas zu defragmentieren.
 
bei JKDefrag gibt es noch eine Methode alle Daten an den Anfang der Festplatte zu schieben. Dann würde er alle Daten Bewegen. Nur wie sich das dann z.b. auf den Start von Windows ausübt weis ich nicht, hatte halt schon die erfahreung gemacht das bei einer bestimmten speziellen Methode Windwos langsamer war beim hoch und runterfahren bis es es halt irgend wann wieder normal war.

müsste man mal testen was passieren würde wenn man z.b. mit JKDefrag alle daten zu einem block an den anfang/ende der Platte/Partition schreiben würde und danach z.b. mit OODefrag steahlt und Space danach ausführen das er wieder alles richtig positioniert, kann auch mit JKDefrag gemacht werden.

Oder was meint ihr? Müsst ich doch mal Testen
 
Ich benutze One-click BackUp for WinRAR und lass direkt das Archiv vor Beschädigungen schützen, das kommt den was du suchst sehr nahe.
 
Zurück
Oben