Mein Backupplan

Kocgiri

Newbie
Registriert
Okt. 2010
Beiträge
7
Hallo zusammen,

ich habe folgende Backupstrategie und zugleich die ich für meine Datensicherung umsetze.
Wäre aber trotzdem über Optimierungsvorschläge sehr dankbar.

- Meine 2 Clients erstellen Ihre Datensicherungen nach dem Generationsprinzip auf mein NAS Synology 1019+ Die Clients speichern auch Ihre Daten auf freigebende Ordner auf dem NAS.

- NAS hat 5 Server Festplatten und läuft mit RAID 5

- Das NAS erstellt auch seine Datensicherung nach dem Generationsprinzip auf 2 externe HDDs die via 2 Dockingstations am NAS angeschlossen sind. Ich nehme 2 Dockingstation weil auch wenn es eine Clone Funktion an den Dockingstation gibt, dauert das clonen länger als wenn ich ein Fullbackup erstelle.

Die Datensicherung vom NAS geschieht über das eigene Synology Backup Tool Hyper Backup

1. Dockingstation bleibt die HDD permanent am NAS angeschlossen. Hier werden die Backups von Montag bis Freitag erstellt.

2. Dockingstation wird Freitags ein full Backup auf die 2. HDD geschrieben damit diese örtlich getrennt aufbewahrt werden kann. Heißt die nehme ich immer mit.

Sowohl im NAS und bei den externen Festplatten werden 24/7 Server Marken Festplatten genutzt.

Backups sind verschlüsselt 256AES

Die Backups an der 1. HDD werden nach einem Fullbackup differentielle Backups erstellt.

Die Backups an der 2. HDD werden Freitags nur Full Backups erstellt.

Bei den Clients wird aktuell Acronis benutzt, werde auch mal das Backup Tool von dem NAS probieren Backup for Business. Vielleicht hat schon jemand damit Erfahrung? Ist das genau so gut wie Acronis?

Mit diesen Mitteln fahre ich grad (aktuell kein Budget für RDX oder Tandberg wird es auch nie geben ;-)

Was haltet Ihr davon? Reicht es als Backup Einstieg ( Hardware, Software Umsetzung)?
Oder könnte man mit den gegeben Mitteln noch was optimieren?

Vielen Dank im Voraus
 
Zuletzt bearbeitet:
Ich würde die externen HDDs rausnehmen und auf eine Cloudlösung setzen.

Du hast aktuell die Originale, die Kopien auf dem NAS, nun würde ich noch auf eine Lösung außer Haus setzen, ich benutze zB. Synologys Cloud Sync, um die verschlüsselten Backups nachts ins Onedrive zu verschieben.
 
Wo werden die Backups gelagert? Der ganze Krams in einem Brandabschnitt (Haus)?
Wenn ja, mach Dir Gedanken darueber das zu aendern. Sprich eine Kopie des Komplett-Backups ausser Haus.

BFF
 
  • Gefällt mir
Reaktionen: commandobot
Eine Festplatte bleibt immer an der 1. Dockingstation stecken.

Die 2. Festplatte nehme ich Freitags mit ins Büro und nach dem Fullbackup am Freitag am Feierabend wieder mit nachhause. Während des Transports nutze ich eine sichere HDD-Case mit schloss. Daheim kommt die HDD in ein feuerfestes Safe.

Cloud Lösungen kommen aktuell nicht in frage. Internet Leitung zu lahm, Dateien zu groß und Router spinnt ;-(
 
Zuletzt bearbeitet:
Glatt den einen Punkt (ausserhalb) uebersehen im Post. Sorry.

Aber!
Du weisst, dass ein "niedliches Tierchen" Dein staendig angeschlossenes Backup-Konstrukt ratzfatz killen kann?
Dann hast Du im schlimmsten Fall nur die Platte als Sicherheit, die Du mit Dir rum schleppst. Was wenn Du an dem Tag stolperst?

Insgesamt ist das was Du da treibst recht schluessig. Mir persoenlich fehlt die mehrfache Absicherung nach extern. Ich persoenlich hab das wirklich Wichtige, zusaetzlich zu Lagerung an 2 Standorten ausserhalb meiner Huette, verschluesselt bei zwei Cloudanbietern.

BFF
 
  • Gefällt mir
Reaktionen: Kocgiri
@BFF genau deswegen versuche ich mit den gegeben Mitteln mein Worst-Case Szenario so gering wie möglich zu halten.

Daher die Frage wo kann man unter diesen Umständen noch optimieren oder ist hierbei schon alles rausgeholt worden was geht? Ansonsten wär es das schon von mir ;-)
 
  • Gefällt mir
Reaktionen: BFF
Klingt für mich schon gut so wie es ist. Nur ich würde, wie bereits erwähnt, einiges auslagern. Dass muss ja auch nicht jedes Fullbackup der Clients sein. Die wirklich wichtigen Daten (vielleicht mit ein paar Abstrichen) wirst du über Nacht sicher in die Clous kopieren können. Auch mit einer nicht so dicken Leitung.
 
  • Gefällt mir
Reaktionen: Kocgiri
Zu optimieren waere die Absicherung des Backup gegen Totalverlust. @Kocgiri
Den hast Du definitiv, wenn Dir die Bude abbrennt oder ein Trojaner Dir die im Netz erreichbaren Datentraeger "killt" und das verbliebene Freitagsbackup Dir vor Schreck den Tag auf den Fussboden faellt. ;)

Denk drueber nach zumindest das absolut Wichtige in die Cloud auszulagern.
 
  • Gefällt mir
Reaktionen: Kocgiri
Die kostengünstige Variante wäre eine Cloud Daheim, dass wäre auch ratz fatz gebaut. Einfach ein NAS oder noch eine Festplatte an die Fritzbox anschließen freigeben usw. Dann müsste ich die andere Festplatte woanders Bunkern und nicht mehr Daheim. Vielleicht hilft es ja anderen. Bei mir geht erstmal Cloud-Lösung nicht.
 
Zuletzt bearbeitet:
Die Backups an der 1. HDD werden nach einem Fullbackup differentielle Backups erstellt.
Tatsächlich differentiell oder inkrementell?
Differentiell hat den Nachteil, dass die Diffs mit zunehmendem Abstand zum basierenden Vollbackup prinzipbedingt immer größer werden.
Inkrementell hat den Nachteil dass die Ketten nicht zuu lang werden sollten durch die höhere Gefahr dass ein Inkrement in der Kette beschädigt werden könnte.

In HyperBackup sollte unbedingt die turnusmäßige Backup-Überprüfung eingeschaltet werden.

Die (versionierten?) Acronis-Backups auf das NAS sollten von einem versionierten HyperBackup-Job ausgenommen werden, da die Inkremente von HyperBackup unverhältnismäßig verdammt groß werden können.

Weiterhin: Die Freigaben für PC-Backups auf dem NAS sollten restriktive Berechtigungen haben. Im Sinne von: Nur ein Benutzer hat Schreibrechte auf das Verzeichnis. Und dieser Benutzer wird ausschließlich in Acronis eingetragen - nirgendwo anders.
Auch kein verbundes Netzlaufwerk an deinem Computer "um mal zu gucken" ob die Backups laufen. (Ob die Backups laufen schickt Acronis dir regelmäßig per Email. Und wenn du keine Emails bekommst, ist irgendwas nicht richtig.)
Dieser Benutzer ist nur ein regulärer Benutzer auf dem NAS. Kein Admin-Benutzer.
Vergiss das Passwort nach Vergabe anschleßend sofort.
Machs am besten so:
-Notepad öffnen
-zwei mal mit der Faust über die Tastatur rollen
-den String im Notepad copy'n paste in das PW-Feld vom Benutzer im NAS & speichern
-den String bei den Zugangsdaten für die Freigabe in Acronis eintragen & speichern; in Acronis testen ob der Zugriff läuft
-anschließend Notepad schließen ohne zu speichern

Alle(!) Admin-Benutzer auf dem NAS bekommen 2FA. Das ist kein Hindernis sondern sieht voll cool aus.
Admin-Accounts auf dem NAS werden ausschließlich für administrative Aufgaben genutzt. Für alles andere werden eingeschränkte Konten genutzt. Der Account mit dem du die Freigabe von Urlausbildern anschauen kannst, sollte keiner sein mit dem du RAIDs im NAS löschen kannst.
 
  • Gefällt mir
Reaktionen: Kocgiri
@t-6

Genau man könnte die Größe der Backups optimieren, dass ist eine super Idee.

Ich habe aktuell auf differentiell eingestellt mit Überprüfung der Versionsketten.
Würde dann auf inkrementell umstellen mit Option Überprüfung der Versionsketten.

Bei den Versionsketten, wird nach 21 Stück das älteste dann immer überschrieben.

Passwort ist extrem lang und passt soweit ;-)

Backups von Acronis und HyperBackup geschehen immer Zeitversetzt und kommen sich nicht in die Quere. So geht mein Netzwerk nicht in die Knie.

Nutzervergabe ist auch schon drinn nach Admin und User usw. heißt Admin ist Admin und Rest eingeschränkte Nutzer mit deren Ordner und Zugriffsrechte auf diese z.B. Urlaubsbilder
 
Zurück
Oben