News Sicherungen und Backups: Habt ihr schon mal Daten verloren und wie schützt ihr euch?

gea schrieb:
(noch beta aber fast fertig, kaum noch Probleme)

Bei allem Respekt, aber ein Dateisystem wäre das letzte, wo ich eine Beta-Version einsetzen würde. Und solange Windows die Dateisysteme nicht nativ unterstützt, werden sie auch nicht abheben.
 
  • Gefällt mir
Reaktionen: mchawk777
Meine lieblings Backup-Strategie ist:
3x alle Daten auf der gleichen Platte 😂
 
  • Gefällt mir
Reaktionen: blende11
OldboyX schrieb:
Halte das sehr ähnlich.
Die wirklich wichtigen Daten werden in der Cloud gesichert mit 2 Endgeräten die ich regelmäßig nutze und die beide so eingestellt sind, dass sie ALLE Daten immer auch lokal speichern.

Mehr halte ich für den 0815 User für Paranoia.

Da müssten dann schon 3 Systeme an (mindestens) 2 verschiedenen Orten gleichzeitig hops gehen, damit die Daten weg sind.

Ich habe bisher noch keinen zwingenden Mehrwert in Cloud-Speicher gefunden. Ich arbeite halt nur an einem Ort an meinen persönlichen Projekten, und private Dokumente möchte ich auch keiner Cloud überlassen.

In über 25 Jahren PC-Basteleien ist mir zwar die eine andere HDD untergekommen, die ich vorsichtshalber aus dem Verkehr gezogen habe (ehe das Geschrei groß ist), aber ein Totalausfall einer HDD oder SSD bisher noch nicht. Von daher fühle ich mich ganz sicher damit, dass meine wichtigen unwiderbringlichen Dateien auf einer externen SSD ruhen. Mmh, vielleicht könnte ich da mal ein weiteres Laufwerk anschaffen und für ein doppeltes Backup sorgen - und diese speichermedien regelmäßig erneuern (da ja auch non-volatile Speichermedien einer Alterung bis zu einem möglichen Datenverlust unterliegen).
 
Weil ich angegeben hatte, dass es bei mir kam zu Datenverlust kam, aber keiner der Punkte zutraf:
Vor Äonen nannte ich mal eine 120 GB Festplatte mein eigen, die meine Systemplatte war. Das Ding von von Seagate. Und die Platte war zwei Mal ein Garantiefall innerhalb von 1,5 Jahren. Seitdem kaufe ich nichts mehr von Seagate.
Viel verloren hatte ich nicht, weil ich den Rechner wegen LAN-Parties damals sowieso alle viertel Jahr platt gemacht hatte. Aber ein paar Sachen lagen eben auf der Speicherpartition.
 
gea schrieb:
Robocopy ist ein feines Tool, nehme ich auch sehr gerne um lokale Ordner per SMB mit dem NAS zu syncronisieren. Bleibt das Problem Versionierung (auf dem NAS) und Backup (der NAS Daten). Dafür gibts besseres.
Ist jetzt nur Vermutung; aber Ja - mit robocopy direkt wirds nicht gehen. Aber da geht doch sicher was mit Powershell und einem Script um das robocopy herum... ?

Robocopy kann ja loggen; also geht es nur darum, das robocopy erst einmal vergleichen muss, wo Daten/Verzeichnisse Deines aktuellen Sicherungslaufes anders sind oder fehlen.

Aus diesem Log müssten dann die erfassten originalen Dateien aus dem Verzeichnis heraus [ggf mit vorhandenen Unterordnern] erst einmal in eine separates Unterverzeichnis verschoben werden. Als Verzeichnisname dann bspw das Datum des jeweiligen Tages/Uhrzeit in der Form YYYY-MM-DD[-hh-mm].

Für den Teil bräuchte es ein Script; Powershell kann da sicher was tricksen und die geloggten Daten [mit Hilfe eines zweiten (?) (robo)copy-Durchlaufes] in ein Unterverzeichnis verschieben.

Anschließend können dann die neuen Dateien und Verzeichnisse den nun leeren geräumten Platz einnehmen. Am Ende hast Du immer die aktuellste Version vorliegen und nach und nach eine Fülle an Verzeichnissen mit Datumsangaben. :-D

Nachteil 1: Du hast immer die ganzen Dateien komplett gesichert, selbst wenn nur ein Zeichen anders wäre [statt innerhalb der Datei eine Versionierung zu haben], was mehr Platz benötigt.

Nachteil 2: Im Kopf kann ich mir sowas vorstellen - aber was Powershell davon hält, da habe ich keine Ahnung, weil Powershell. :D
 
MaverickM schrieb:
Bei allem Respekt, aber ein Dateisystem wäre das letzte, wo ich eine Beta-Version einsetzen würde. Und solange Windows die Dateisysteme nicht nativ unterstützt, werden sie auch nicht abheben.
Das Dateisystem ist nicht beta sondern normales OpenZFS (hat die "normalen" OpenZFS Bugs). Beta ist der OpenZFS Treiber und damit die Integration in Windows. Da dreht es sich um Mounts, Volumes, Kompatibilität mit anderen Treibern, ACLs, Laufwerksbuchstaben oder Probleme beim Öffnen eines Pools aus Linux. Offene Bugs kann man ja nachlesen.

Für einen kritischen Unternehmensfiler würde ich ZFS noch nicht nehmen und wäre auch bei ReFS nicht sicher. Das stabilste ZFS gibts eh immer noch bei Solaris und Illumos.
 
sverebom schrieb:
Ich habe bisher noch keinen zwingenden Mehrwert in Cloud-Speicher gefunden. Ich arbeite halt nur an einem Ort an meinen persönlichen Projekten, und private Dokumente möchte ich auch keiner Cloud überlassen.
Die Hauptsache ist ja, dass du Backup-wichtige/-würdige Dateien auch außerhalb dieses einen Ortes lagerst. Ob das jetzt ne Platte bei ner vertrauenswürdigen Person, ner Bank, deinen Anwälten oder ein entfernt stehendes NAS ist oder eben Online-Storage ist, ist ja egal.

Nur wenn das möglichst synchron sein soll, bleiben für die meisten nur Online-Storage oder ein entfernt-stehendes NAS. Braucht aber eben auch nicht jeder tagesaktuelle Backups.
 
gazer schrieb:
Ist jetzt nur Vermutung; aber Ja - mit robocopy direkt wirds nicht gehen. Aber da geht doch sicher was mit Powershell und einem Script um das robocopy herum... ?

Robocopy kann ja loggen; also geht es nur darum, das robocopy erst einmal vergleichen muss, wo Daten/Verzeichnisse Deines aktuellen Sicherungslaufes anders sind oder fehlen.

Aus diesem Log müssten dann die erfassten originalen Dateien aus dem Verzeichnis heraus [ggf mit vorhandenen Unterordnern] erst einmal in eine separates Unterverzeichnis verschoben werden. Als Verzeichnisname dann bspw das Datum des jeweiligen Tages/Uhrzeit in der Form YYYY-MM-DD[-hh-mm].

Für den Teil bräuchte es ein Script; Powershell kann da sicher was tricksen und die geloggten Daten [mit Hilfe eines zweiten (?) (robo)copy-Durchlaufes] in ein Unterverzeichnis verschieben.

Anschließend können dann die neuen Dateien und Verzeichnisse den nun leeren geräumten Platz einnehmen. Am Ende hast Du immer die aktuellste Version vorliegen und nach und nach eine Fülle an Verzeichnissen mit Datumsangaben. :-D

Nachteil 1: Du hast immer die ganzen Dateien komplett gesichert, selbst wenn nur ein Zeichen anders wäre [statt innerhalb der Datei eine Versionierung zu haben], was mehr Platz benötigt.

Nachteil 2: Im Kopf kann ich mir sowas vorstellen - aber was Powershell davon hält, da habe ich keine Ahnung, weil Powershell. :D

"Versionierung" per Script und robocopy wäre eine sehr schwache Lösung für ein Problem für das es mit ZFS Snapshots eine perfekte Lösung gibt und mit Windows Shadow Copies eine gute.
 
Ja hab auch mal Daten wegen Raid verloren wie viele hier offenbar, ja Raid ist kein Backup.
 
gea schrieb:
"Versionierung" per Script und robocopy wäre eine sehr schwache Lösung für ein Problem für das es mit ZFS Snapshots eine perfekte Lösung gibt und mit Windows Shadow Copies eine gute.
Es ging mir nur um die Frage/Antwort ob robocopy es überhaupt könnte... oder wie, wenn schon nicht direkt. Das es für einen professionellen Ansatz weniger geeignet ist, ist mir auch klar; das Wiederherstellen der X.-letzteten Version per Hand macht am Ende weniger Spass.
 
gea schrieb:
Beta ist der OpenZFS Treiber und damit die Integration in Windows.

Das ist für die Praxis Jacke wie Hose.
 
  • Gefällt mir
Reaktionen: mchawk777 und TomH22
Mein einziger "Datenverlust" ist mal vor vielen Jahren mit dem Abhandenkommen eines Smartphones einhergegangen - die darauf befindlichen Bilder, von denen einige durchaus (ideell) wichtig waren, hatte ich leider noch nicht gesichert. Hierhingehend, da ich sicherlich kein IT-Unbedarfter bin, muß ich ein "selbst schuld" konstatieren, allerdings halte ich dieses Narrativ pauschal zu nutzen für absolut unpassend. 🤷‍♂️​
 
  • Gefällt mir
Reaktionen: TomH22
gea schrieb:
@blackiwid ??
Man verliert keine Daten wegen Raid sondern weil man kein Backup hat......
Naja indirekt, es ist eine weitere Fehlerquelle, ein schlecht angestoßenes Sync und good bye...

Auch gibt es falsche Sicherheit, wobei ich zwischen Raid 1 und komplizierteren Raids unterscheiden würde, ne Spiegelung ist schon fast ne art Backup oder nennen wir es partielles Backup.

Ich gebe dir Recht das Backup das Hauptproblem ist das fehlende, aber wenn man nicht Hauptberuflicher Admin ist oder sowas, ist das etwas wo der Privatanwender im Zweifel wenig Erfahrung hat, und dann sind Benutzerfehler wahrscheinlicher.

Ich hab es ja nur auch gesagt weil hier einige genau Raid als Beispiel brachten wo irgendwo Strom weg war oder was auch immer und sie wie ich auch damit schon Daten verloren haben. Festplatten kündigen sich nicht immer aber oft an, SSDs geht meistens nur Schreibfähigkeit weg nicht Lesefähigkeit, ähnlich mit USBsticks...

Es müssen ja 2 Dinge zusammen kommen:
1. Verlust der Originaldaten.
2. kein Backup

Wenn nur 1 von gegeben ist hat man keinen Datenverlust, und Raid kann halt nr. 1 wahrscheinlicher machen oder unwahrscheinlicher, jeh nach Raid Level.
 
kalgani schrieb:
Vollkommen verrückt, oder?
Gar nicht mal - Beruflich kann man sich meist auch keine Schlampereien leisten (es sei denn man bekleidet eine derart hohe Position in der man nicht mehr wirklich kontrolliert wird), ansonsten kann es auch sehr schnell Abflug heissen ...

Privat liegt die Entscheidung ja bei dir selbst - da musst du auch gar nichts backuppen wenn du es nicht selbst willst - jaa das ist schon ein ziemlicher Unterschied.
 
Meinen ersten großen Datenverlust hatte ich dank Windows ME welches die Festplatte meines ersten Rechners ruiniert hatte... keine Ahnung wie das passiert ist.
Den zweiten hatte ich, weil mein dämlicher Vater in einem Anflug an Rage meine Daten vom Notebook meiner Schwester (welches ich mitgenutzt hatte) gelöscht hat, mit dem Argument, dass das ihres wäre.

Hab nun ein Mehrschichtiges Sicherungssystem.
Alles wird auf meinem NAS im Raid 1 gespeichert; meine persönlichen und Arbeitsbezogenen Daten werden zusätzlich zwischen NAS und Notebook synchronisiert. Im NAS ist eine extraplatte, auf welche alle 2 Wochen der ganze Raidverbund gesichert wird. Persönliche Daten (Fotos etc) sind außerdem auf M-Discs gespeichert, dazu hat das NAS extra einen Brenner. Diese Backups mach ich regelmäßig sobald sich genug neue Daten angesammelt haben um die nächste 100gb disc zu füllen.
Dann existiert noch eine externe SSD, die vor allem entbehrlichere Daten enthält (sind aber ebenso im NAS vorhanden)
 
Nicht böse gemeint, aber die Umfrage ist "ein wenig quatsch". Ein Backup, selbst auf eine NAS, ist kein Backup. Solange diese im selben Haushalt steht sind die Daten nicht sicher. Und wenn diese ausschließlich in einem anderen Haushalt steht, sind sie auch nicht sicher.

Ich sichere daher lokal auf NAS und diese wiederum auf einen Haushalt (weit weg) auf eine weitere NAS.

Für das Thema "Backup" ist das mein aller niedrigster Einstiegspunkt. Da ist noch Luft nach oben.

Übrigens: Die Frage, wie ihr euer Backup sichert, ist auch nicht vorhanden.
 
letzter Datenverlust 2003, weil eine neue 120GB Platte (wo ich alles für eine Daten-Umstrukturierung rauf kopiert hatte, weil die ja am zuverlässigsten ist...) plötzlich tot war.
Seitdem sind die wichtigsten Daten - mittlerweile 4TB - mindestens 3x gesichert. Allein die ganzen Fotos/ Videos von den Kindern/ Urlauben sind 3TB. Da wäre ein Verlust echt richtig ärgerlich, deswegen liegt ein Backup auch immer gesynct bei meinem Bruder auf der NAS. Ebenso seine Daten bei mir, falls mal das Haus abbrennt/ überschwemmt wird.
 
Hab mir erst gerade dieses Jahr den Blu-Ray Brenner "BW-16D1HT Silent" von ASUS gekauft um M-Disc zu brennen. Diese M-Discs von Verbatim sollen (angeblich) 1'000 Jahre halten und 5x100GB Blu-Rays kosten fast soviel wie der Brenner selbst! Meine Kumpels haben mich für verrückt erklärt als ich gesagt habe, dass ich mir im Jahr 2025 noch ein internes optisches Laufwerk hole aber mir geht es primär um die Sicherung von wichtigen Daten, Fotos und Videos!
 
  • Gefällt mir
Reaktionen: TriceO
Zurück
Oben