privates "Backup"

Also das ist ja mal eine Fehlkonstruktion...
Gerade hatte ich mich nach einer solchen Lösung umgeschaut, bleibe dann aber wohl doch bei einem USB Stick.
 
Hi @Xetro,

Du hast ja hier schon viel Antworten bekommen, das meiste ist,auch völlig Richtig und in Ordnung.
Nach allem was du allerdings geschrieben hast, glaube ich es ist am besten es einfach zu halten.

Du willst manuell arbeiten? Fein, völlig legitim. Die notwendige Hardware sind eine Kleinigkeit, und es kann den Zweck eines Backups erfüllen, wenn einige Dinge beachtet werden:
  • fast jede beliebige, mechanische HDD langt, ob 2,5"(Laptop) oder 3,5" (Desktop) oder 1,8" ist für deine Zwecke relativ belanglos
  • entweder fertig im externen Gehäuse oder auch selbst in eines einbauen geht, völlig egal
  • keine SSD, keine USB Sticks!
  • wenn möglich 2 HDDs, eine bei dir Daheim, eine bei Freunden/Verwandten, in jedem Fall aber "offsite", ab und an einfach die beiden tauschen
  • dann einfach regelmäßig die Daten händisch rüberschieben und halbjährlich, spätestens aber jährlich einen kurzen Check ob noch alles da ist (am besten mit Kalenderterminen arbeiten, man vergisst sowas schnell mal!)
  • das isses auch schon... da du die Daten ja nicht von den Rechnern löscht hast du mit 2 HDDs 3 Kopien der Daten vorliegen, et voila: ein Backup! 😁
Bonus:
  • wenn du magst, hol dir TeraCopy und setz das als Systemstandard auf allen Rechnern, das ist etwas fixer beim Kopieren als der Windows Explorer und kann dir die kopierten Daten per checksum "verifizieren"
Man kann hier natürlich streiten, ob man diese Vorgehen als echtes "Backup" bezeichnen sollte... aber das Risiko auf Datenverlust ist mit einfachen Bordmitteln stark verringert. Ich finde das langt für das, was du vorhast & erwartest.

Gruß,
Myr
 
Zuletzt bearbeitet:
Myrixamophit schrieb:
Man kann hier natürlich streiten, ob man diese Vorgehen als echtes "Backup" bezeichnen sollte... aber das Risiko auf Datenverlust ist mit einfachen Bordmitteln stark verringert. Ich finde das langt für das, was du vorhast & erwartest.
+1

Nicht streiten, es ist ein "echtes Backup". Es kommt dabei nur darauf an, was man unter Backup versteht. "Backup" im eigentlichen Sinn ist IMO nur das Vorhalten eines Mediums, auf dem die "wichtigen" Daten" als Duplikate vorliegen. Wenn man das Ganze weitertreiben will, sollte das nicht nur ein einzelnes Medium sein, sondern mindestens zwei, wenn nicht gar mehrere; je nachdem, wie wichtig dem User seine Daten sind. Das nennt man dann Backup-Strategie.

Zum Beispiel die Backup-Strategie meiner Frau für die Bilder vom Smartphone: sie kopiert von Zeit zu Zeit ihre Bilder auf den PC und macht von dem Bilder-Ordner eine Kopie auf eine externe Festplatte, die nur bei Bedarf an den PC angesteckt wird. Fertig ist ihre Backup-Strategie. Danach löscht sie die Bilder auf dem Smartphone, um darauf Platz für neue Bilder zu haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Myrixamophit und Snowi
Ein dickes Dankeschön an alle in diesem Thema, denn an mir ist der Gedanke, dass man eine Platte regelmäßig laufen lassen muss, damit sie nicht sprichwörtlich einrostet vollkommen vorbeigegangen. Ich ging immer davon aus, dass man die auch monate- oder jahrelang rumliegen lassen kann.

Vielleicht kann ich auch etwas zur Entwarnung beisteuern, denn ich habe einige Platten, die ich teilweise über wirklich lange Zeiträume nicht mehr habe laufen lassen und die haben keine Ausfälle gehabt bisher. Oder müsste man die bis in den letzten Sektor scannen, um das ruhigen Gewissens sagen zu können?
 
  • Gefällt mir
Reaktionen: Myrixamophit
Konfekt schrieb:
Vielleicht kann ich auch etwas zur Entwarnung beisteuern, denn ich habe einige Platten, die ich teilweise über wirklich lange Zeiträume nicht mehr habe laufen lassen und die haben keine Ausfälle gehabt bisher.
Das kann man m.E. nicht direkt vergleichen. Ich habe auch noch eine 2GB Seagate Festplatte, die nach 20 Jahren im Keller wieder problemlos angelaufen ist und auf der noch (so gut wie) alle Daten fehlerfrei lesbar waren.

Modernere Platten sollen hier aber deutlich anfälliger geworden sein. Meine "Theorie" bzw. Schlussfolgerung aus bekannten Faktren ist, dass die Hersteller zum Erreichen immer größerer Kapazitäten immer mehr Platter auf immer engerem Raum in die Plattengehäuse quetschen, die äußerlich natürlich gleich groß bleiben mussten. Natürlich neben der Tatsache, dass sie gleichzeitig auch pro Platter auch immer mehr Daten drauf gequetscht bekommen. Während also immer mehr Raum im Gehäuse für die Platter genutzt wird, wird man im Gegenzug sicherlich auf Motoren umgesattelt sein, die mit immer weniger Platz auskommen und ggf. im auch nur kaum mehr Drehmoment liefern als unbedingt nötig. Das heißt, während "alte" Motoren ggf. noch genug "Wumms" hatten, um eine nach Monaten oder Jahren etwas festgetrocknete Spindel mit 2, 3 Plattern zum Anlaufen zu bringen, schaffen das moderne Winz-Motoren mit einem leicht festklebenden Klotz von 10 Plattern halt ggf. einfach nicht mehr...
 
  • Gefällt mir
Reaktionen: Myrixamophit und Konfekt
Konfekt schrieb:
Ich ging immer davon aus, dass man die auch monate- oder jahrelang rumliegen lassen kann.
Kann man auch. Es gibt halt Extremfälle wo es zu Ausfällen kommen "kann" und wenn man allgemeine Empfehlungen ausspricht, dann besser konservativ!

Konfekt schrieb:
Oder müsste man die bis in den letzten Sektor scannen, um das ruhigen Gewissens sagen zu können?
Nein, wenn sie nur vernünftig gelagert waren und nicht liefen, kann es eigentlich zu keiner der üblichen Degradationen kommen. Schreib- und Lesefehler, fehlerhafte Sektore u.a. enstehen im Betrieb. Auch die MTBF Werte beziehen sich auf den Betrieb, nicht die Lagerung.

Purche schrieb:
Das kann man m.E. nicht direkt vergleichen. Ich habe auch noch eine 2GB Seagate Festplatte, die nach 20 Jahren im Keller wieder problemlos angelaufen ist und auf der noch (so gut wie) alle Daten fehlerfrei lesbar waren.
Hier auch, jahrelang nict benutzt, angeworfen, alles da... habe in über 20 jahren nur ein oder zwei mal defekte gehabt. Unter seeeehr vielen. Gibt halt keine absolute Garantie...

Purche schrieb:
Modernere Platten sollen hier aber deutlich anfälliger geworden sein. Meine "Theorie" bzw. Schlussfolgerung aus bekannten Faktren ist, dass die Hersteller zum Erreichen immer größerer Kapazitäten immer mehr Platter auf immer engerem Raum in die Plattengehäuse quetschen, die äußerlich natürlich gleich groß bleiben mussten. Natürlich neben der Tatsache, dass sie gleichzeitig auch pro Platter auch immer mehr Daten drauf gequetscht bekommen. Während also immer mehr Raum im Gehäuse für die Platter genutzt wird, wird man im Gegenzug sicherlich auf Motoren umgesattelt sein, die mit immer weniger Platz auskommen und ggf. im auch nur kaum mehr Drehmoment liefern als unbedingt nötig. Das heißt, während "alte" Motoren ggf. noch genug "Wumms" hatten, um eine nach Monaten oder Jahren etwas festgetrocknete Spindel mit 2, 3 Plattern zum Anlaufen zu bringen, schaffen das moderne Winz-Motoren mit einem leicht festklebenden Klotz von 10 Plattern halt ggf. einfach nicht mehr...
Könnte sein, klingt ziemlich logisch. Weiß ich selbst aber nicht. Nur eines weiß ich: wenn Platten durch Lagerung sterben, dann oft durch "verharzte" oder eingetrocknete Schmiermittel. Und dass es durchaus vorkommt, aber extrem selten. Und beim Backup persöhnlicher Daten will man halt nicht zu dem <1% gehören, denen das passiert. Daher besser ab und zu einfach "anwerfen"...

Und mein Tipp halbjährlich oder spätestens jährlich zu checken dient ehrlicherweise auch ein wenig der Backup Disziplin bei manuellen Backups. Wenn man eh die Platte rausholt um sie anzuwerfen, dann kann man auch eben gleich das Backup aktualisieren, nech? Zwei Fliegen mit einer Klappe! 😉
 
  • Gefällt mir
Reaktionen: Konfekt
Zurück
Oben