Benchmarking 1

News Sicherungen und Backups: Habt ihr schon mal Daten verloren und wie schützt ihr euch?

mchawk777 schrieb:
In wie weit waren die Ergebnisse unzuverlässig?

Backup-Tasks die nicht zur eingestellten Uhrzeit liefen. Datei-Backups/Sync, der nichts gemacht hat. Eine Recovery habe ich dann auch gar nicht erst probiert, glaube ich. Irgendwo im Forum habe ich da auch ausführlich was dazu berichtet... Ich war jedenfalls nicht angetan.
 
  • Gefällt mir
Reaktionen: mchawk777
Erstelle meine Backups manuell oder automatisch mit dem Paragon Festplattenmanager und hier ist auch mit vorbestimmt, dass ein automatisches Backup mit dem nächsten Rechnerstart ggf. nachträglich noch vollzogen wird.
Ashampoo_Snap_Montag, 17. November 2025_19h10m35s.png

Das klappt auch soweit gut.

In meinem Fall wird hiermit auf eine NAS gesichert. Manuell mache ich es aber zusätzlich noch mit einer externen angeschlossenen Festplatte an meinem Rechner. Das mache ich manuell zusätzlich dazu, da ich diese Festplatte nicht immer eingeschaltet habe.
 
Ich habe ein Datengrab auf einer Synology DS115j
die Backup HDD steckt in einer DS216j

mit HyperBackup habe ich eine "rsync Kopie (Einzelversion)" eingerichtet
so bekomme ich eine 1:1 Kopie (Mirror) und keine verschlüsselte HBK Datei

2x Seagate Ironwolf 10 TB aus 2017
 
Ich entwickle gerade ein neues Betriebs und Backup Konzept für mein Multi-OS/ MultiServer Tool napp-it cs für Storage Spaces und ZFS und das lautet:

ZFS ist das Beste, was man lokal auf dem Rechner haben kann, von der Datensicherheit und von von den Features her wie Hybrid Pools, Raid Funktionen, Verschlüssellung und vieles mehr. Das ist ausgereift und es fehlt nur noch sehr wenig wie AnyRaid für "wunschlos glücklich".

Aber auch mit ZFS und Snapshots kann man Daten verlieren. Blitzschlag, Diebstahl, Amok Hardware; Sabotage und das wars dann. Dann braucht man auch mit ZFS Disaster Backup, traditionell als 321 Backup (3x Kopien auf 2x Datenträger, davon 1x Extern). Das kann man immer noch so machen z.B. mit externen (USB) ZFS Pools oder einem oder zwei weiteren NAS Systemen und ZFS Replikation.

Es geht aber auch viel moderner. Als Nachfolger des 321 Prinzips sehe ich 1S3 (Eine Kopie der Daten lokal und eine remote auf einem S3 Einzelserver oder idealerweise S3 Cluster. Einen S3 Server oder Cluster kann relativ günstig bei einem Hoster mieten oder selbst aufbauen, privat bei Freunden oder Familie sonst als On Premise im Büro, Betrieb oder Schule. Die lokalen Daten werden dann aus einem ZFS Snap auf den S3 Server übers Internet syncronisiert. Deduplizierung und Verschlüssellung ist mit Tools wie rclone, restic oder kopia plattformübergreifend möglich. Hat man einen S3 Cluster so repliziert der die Daten automatisch im Cluster und man hat Backup Hochverfügbarkeit.

Ein oder mehrere ZFS Server mit einem oder mehreren S3 Installationen als Backup Cluster, zentral und remote gemanagt mit meinem multi os/multi server napp-it cs , das ist mein Konzept.
 
Du hast die Idee hinter der 3-2-1 Backup Strategie doch schön verbalisiert und führst dann auch noch sehr richtig aus, wieso ein stabiles und ausfallsicheres Storage wie dein ZFS selbst mit Snapshots noch Daten verlieren kann. Wie man es dann dennoch schafft sich so eine vermeintliche Nachfolgestrategie einfallen zu lassen, musst du mir erklären :confused_alt:

Nach deiner neuen Strategie hättest du insgesamt nur noch zwei statt zuvor drei Kopien:
  • 1x auf deinem bestehenden ZFS (quasi die Live-Daten)
  • 1x auf dem S3 Dienst deiner Wahl
An den zuvor von dir ausgeführten Risiken,
Blitzschlag, Diebstahl, Amok Hardware; Sabotage und das wars dann.
hat sich nichts geändert. Das kann dir auch bei deinem S3 Dienst deiner Wahl passieren. Es ist noch wahrscheinlicher, wenn du statt auf AWS S3, GCS, R2 oder B2 auf einen S3 Dienst setzt, der nicht auf professioneller, redundanter Hardware in entsprechender Umgebung läuft wie beispielsweise bei einem deiner Freunde oder der Familie.

Bedenke dabei auch noch folgendes: Eine Datei in S3 zu speichern, ist nicht vergleichbar mit einer einfachen Kopie auf einem zweiten Datenträger. Denn neben dem Datenträger (Storage) den der S3-Dienst selbst verwendet (vergleichbar mit dem zweiten Datenträger) liegt die Datei jetzt nicht mehr "unverarbeitet" vor, sondern "verarbeitet", d.h. du hast einen Komplexitätslayer hinzugefügt der auch für eigene Probleme Sorgen kann. Vor allem dann, wenn du auf die Kompetenz eines Dritten wie die deines Freundes oder die Familie angewiesen bist (Stichwort Ende von MinIO).
Die Verwendung von restic, kopia usw. erhöht abermals die Komplexität denn jetzt musst du nicht nur die Daten aus dem S3 Storage selbst herausbekommen, sondern bist auch noch darauf angewiesen, dass die jeweilige "Hülle" -- das Backupformat -- auch noch intakt ist. Das kann sich manchmal auch als Problem entpuppen, siehe https://github.com/kopia/kopia/issues/4788 oder https://github.com/kopia/kopia/issues/5049

Was ich dir sagen will: Ich verstehe nicht, weswegen du glaubst jetzt mit zwei statt drei Kopien auszukommen. An den von dir aufgeführten Risiken hat sich nichts geändert.

PS: Trotz der zuvor verlinkten Probleme setze ich selbst seit 2024 auf kopia. Mein kopia Repository liegt lokal auf einer zweiten Festplatte (quasi ein Storage ausschließlich für kopia). Dieses Repository repliziere ich mit rsync als Kopie auf Speicher bei rsync.net wo ich wiederum Geo-redundanten Speicher gebucht habe. Das ganze ist für mich nur dadurch finanzierbar, weil die Datenmenge, also das Kopia Repository, nur 1-2TB groß ist. Sollte das einmal nicht mehr reichen würde ich Stand heute wohl die Geo-Redundanz aufgeben wodurch sich mein Speicherplatz bei rsync.net verdoppeln würde und ich würde stattdessen auf deren ZFS und den dort regelmäßig automatisch erzeugten Snapshots vertrauen (damit sichere ich mich bspw. gegen Ransomeware-Attacken ab, die auch mein lokales Backup erreichen könnten was dann evtl. automatisiert Remote landen würde.

PS2: Hast du eigentlich schon einmal die Wiederherstellungs Mittels kopia von Remote getestet? Ich musste schon mehrfach mehrere 100GB aus dem Backup wiederherstellen. Das hat jeweils zwischen 12-20 Stunden mit einer 100/40er DSL-Leitung gedauert. Das macht keinen Spaß. Selbst wenn du 1GBit Glasfaser haben solltest: Bedenke die Chunk-Große und wie kopia und Co. intern arbeiten. Der direkte Dateizugriff gewinnt immer um Welten. Und selbst wenn du dir jetzt sagst, "Mein Gott, ist bislang noch nie vorgekommen, dass ich an dieses Backup musste... dann warte ich halte 20 Stunden!": Das Erlebnis wenn man nach 20 Stunden feststellt, dass man sich da mit dem relativen Pfad verhauen hat und weiß, dass man jetzt weitere 20 Stunden wird warten dürfen weil kopia alles noch einmal laden darf... es prägt einen :cool_alt: Daher mein Tipp: kopia Repository lokal vorhalten!
 
  • Gefällt mir
Reaktionen: nyster
Zurück
Oben