Umfassende Back-Up Strategie -Diskussion

DFFVB

Commodore
Registriert
Dez. 2015
Beiträge
4.943
Hallo zusammen,

ich hab einen neuen Rechner (endlich) - und möchte nun eine ausgereifte Back-Up Strategie fahren:

Wie ist die Lage:

  • Ich habe ca 400 GB an Daten
  • Davon ca 200 GB kritisch und wichtig
  • Ich möchte vom neuen Rechner (Dell XPS 15 -512 GB) - Kopien vom Windows im Auslieferungszustand machen (nein ich möchte kein nacktes Windows installieren). Da der Teufel ein Eichhörnchen ist, will ich das dreifach machen:
    1. AOMEI Backupper (USB Transcend 128 GB)
    2. Paragon 2017 (externe 240 GB)
    3. Windows Boardmittel (externe 200 GB)
  • Neben der "CleanCopy" möchte ich aber auch Kopien vom System machen, wenn alles installiert ist und die Daten kopiert sind (VMware, Office, Spotify, Dropbox, etc. pp.). Auch hiervon dann wieder Back-Ups machen
    1. AOMEI (externe 1,3 TB)
    2. Paragon (externe 500 GB)
  • Daneben möchte ich redundante Back-Ups der Daten vorhalten (zwei Samsung EVO 850 512 GB)
  • Garniert wird das ganze mit diversen Boot-Sticks (Dell, Windows, Aomei, Paragon)
  • theoretisch in Zukunft noch zwei Off-Site Festplatten bei Kumpels

Wer mitgerechnet hat, wird merken, dass ich hier einige Festplatten brauche, aber nur sechs Stück habe. Da ja AOMEI und Paragon immer "exklusiv die Festplatten beschreiben, stellt sich die Frage, ob man die nicht Partitionen arbeiten kann. Ferner stellt sich die Frage, ob man von denen auch booten / wiederherstellen kann... ich hab da ja so meine Zweifel. Im Elektronik-Kompendium steht ja^^. Böte sich ja an von AMOMEI CleanCopy und Voll-Backup auf der 1,3 TB unterzubringen :-)

Acronis - lohnt sich das? Clonezilla will nicht mit Samsung SM951 NVMe SSD vom Dell.

Ich hab das ganze mal visualisiert:

BackUp Strategie ohne NAS .png


In Zukunft soll hier noch ein NAS (QNAP TS 253A oder Selbstbau) dazu kommen, in welchem die beiden SSDs im Raid0 = 1TB laufen. Da soll dann Nextcloud drauf laufen, worauf per Goddsync auf WebDav 400 GB täglich gesynct werden. Sowie ein komplettes Backup per AOMEI / PARAGON wöchentlich. Von der QNAP einmal im Monat per Knöpfchen drücken...

Auch das hab ich mal so bisschen visualisiert:

BackUp Strategie  NAS.png

Ich freu mich über Feedback und Anregungen :)
 
Wow, ganz schön komplex.

Also ich mache mein Backup so, dass die Daten auf meiner Synology NAS liegen. Dort sind 4 Platten als Raid 5 konfiguriert, also darf eine Platte ausfallen ohne dass Daten verloren gehen. Das ganze sichere ich dann mit der Synology Cloud-Sync-App verschlüsselt auf ein Amazon Cloud-Drive, dass es günstig ohne Volumenbeschränkung gibt. Gleichzeitig habe ich zuhause noch ein kleines NAS stehen (Synology 112dj glaub ich), und schreibe die Daten (also immer nur die Änderungen) vom großen NAS jede Nacht auf das kleine.

Gruß
Mick
 
Klar Image vom Clean-System kann ich noch verstehen. Aber warum danach den Aufwand sind doch max. 512GB warum nicht eine komplette Sicherung der Platte auf 2 externe Festplatten im Wechsel.
Ich sichere Rechner (nur inkrementell) -> NAS -> Onedrive. Ein Image vom Clean System und einiger "Snapshots" habe ich auf einer externen Platte liegen.
 
Kharne schrieb:
Backup und Raid 0 vertragen sich nicht.

Sorry solche Kommentare kannst Du Dir sparen, ich denke auch Dir sollte klar sein, dass die Daten hier momentan fünfach, später dreifach vorliegen werden.

@MickH74: Das ist natürlich auch nen geiles Rezept, wären mir aber momentan zu viele Anschaffungskosten. Wie kommt es, dass Du keine Volumenbeschränkung für Amazon Cloud-Drive hast?

Bzgl. Amazon Glacier, sollte man glaube ich vorsichtig sein

@reakos: Ich weiß auch nicht wie, aber ich habe in den letzten zwei Jahren ca. 20 Mal das System neu aufsetzen müssen (Virus, Festplattenausfall, neuer Rechner, SSD, Leihgerät etc.) , daher nun eine "once and for all Lösung".
 
Das war nicht böse gemeint, das ist nur etwas, was viele vergessen bzw. übersehen.

Persönlich würden mir 2 Platten, die täglich wechselnd ein inkrementelles Backup machen (und danach vom Rechner getrennt werden) und ein wöchentliches Vollbackup reichen.
 
Alles klar ;-) Ja ich weiß, viele sagen: Nimm eine externe Festplatte oder zwei und stöpsel die ran, das würde ja sogar halbwegs
gehen, aber ja durch die Nextcloud kommt Komplexität rein...
 
Was Kharne sagt kann ich so unterschreiben.

DFFVB es gibt keine "Once and for all"-Lösungen, weder für Firmen noch für Privatanwender, es gibt nur aktuelle Sicherheitstrategien die regelmäßig hinterfragt und an neue Gegebenheiten angepasst werden müssen.

Das vollständige System würde ich nur nach gravierenden Meilensteinen sichern, ich mache das alle 1-2 Monate, dann aktualisiere ich manuell alle meine Standardsoftware, Treiber, räume das System auf (Cleanmgr, Temps manuell, etc.) und mache die große Runde AV-Check, Malewarebytes etc.
Benutzerdaten sichere ich ausschlielich auf meinem NAS und von da auf den Onedrive, so halte ich auch einen Teil der Daten auf allen Systemen synchron. Normale Daten habe eh ausschließlich auf dem NAS und im Onedrive. Ich habe Office 365 Home für 5PCs etc. kostet ca. 70,- im Jahr, ich hab 5 User angelegt (meine Frau und mich, einen für das NAS, einen für meine System-Images und einen für Freigaben) jeweil mit einem TB.
 
DFFVB schrieb:
Sorry solche Kommentare kannst Du Dir sparen, ich denke auch Dir sollte klar sein, dass die Daten hier momentan fünfach, später dreifach vorliegen werden.

@reakos: Ich weiß auch nicht wie, aber ich habe in den letzten zwei Jahren ca. 20 Mal das System neu aufsetzen müssen (Virus, Festplattenausfall, neuer Rechner, SSD, Leihgerät etc.) , daher nun eine "once and for all Lösung".

Wer seinen Rechner in 2 Jahren 20 mal aufsetzen muss, sollte anderen, bei berechtigten Anmerkungen wie den Hinweis auf die sehr dämliche Kombination von RAID0 und Backup, besser nicht sagen, dass sie die klappe halten sollen.

Denn wenn du halbwegs so clever wärest, wie deine paranoide Backupstruktur suggerieren soll: Was helfen dir die Sicherungen, wenn die Systeme, die sie beherrbergen unsicherer sind, als das zu sichernde System? Das ist Unsinn²!
Davon abgsehen macht es überhaupt keinen Sinn das im RAID0 zu fahren, da du wohl kaum mit 10 GE arbeiten wirst (und dann wohl die CPU der Flaschenhals wäre). :freak:
 
Ich halte deinen Ansatz für Overkill und dem KISS Prinzip widersprechend. Außerdem setzt du fünf verschiedene Programme ein? Wie gesagt: Wenn du zu viel Zeit hast und Backup als dein Hobby betrachtest, dann mach es so. Aber vergiß nicht das Wiederherstellen mit jedem Programm regelmäßig zu testen! Sonst hast du zwar 27 Backups, aber keins lässt sich wiederherstellen.

Mein Ansatz wäre:
- Vollständiges Backup der CleanCopy und des fertigen Systems gespeichert auf zwei Datenträgern / an zwei Orten (eine Offsite; selten aber regelmäßig prüfen, dass beide noch funktionieren; ich verwende hierzu meistens Clonezilla)
- Regelmäßige automatische, vollständige (z. B. Montag) und inkrementelle (immer wenn bereits ein vollständiges vorliegt z. B. Di-So) Backups (Ich habe meine Daten auf einem NAS und verwende dort duplicity. Eine Kopie der Daten ist offsite zu lagern, z. B. zwei-drei externe Festplatten die wöchentlich gewechselt werden. Erst wenn der Speicherplatz zur Neige geht, würde ich alte Backups von den Platten löschen. Zusätzlich prüfe ich regelmäßig, ob ich die Daten von diesen Platten (mit einem Boot-Stick/Iso) wiederherstellen kann. Ich halte alte Versionen vor und mache inkrementelle Backups, damit mir ein Ransom/Locker-Virus keine Probleme machen würde)

Das sind 4-5 Festplatten und zwei Programme.

Problem: Ok die Samsung SM951 ist im Dell verbaut? Dann würde ich ein anderers Programm verwenden, dass mir ein Kopie der gesamten Festplatte erstellt.
 
Guten Morgen Nagilum, Du hättest Dir Deinen absolut sinnbefreiten Kommentar sparen können.

Folgende Situation:
Da kommt jemand in ein Forum (ich), weil er etwas spezielles nicht weiß und stellt dann Fragen. Man selber (also Du) hat absolut gar keine Ahnung, aber haust erst mal drauf. Dass Du keine Ahnung hast, unterstelle ich hier, weil ich sonst davon ausgehen würde, dass Du auf meine Fragen geantwortet hättest (Acronis vs. den Rest, hilft eine Partition für Wiederherstellungsmedien? Workaround für Clonezilla etc.).


Nein, stattdessen wird mantra-artig nachgebetet was in diesem Forum jeder sagt "ein Raid ist kein Backup". Diese Aussage ist vlt. isoliert betrachtet richtig, nur in meinem Kontext einfach falsch (merke hier auch der Unterschied zwischen Raid0 und Raid1). Da das Raid nicht ausschließlich das Backup ist, sondern 1 Teil von 3-5 (Du sagst ja selber die Strategie sei paranoid).


Wenn also ein Raid hier falsch wäre, dann wäre es schön, wenn man darauf eingeht warum es falsch ist, aber davon hast Du scheinbar keine Ahnung. Bspw. hättest Du sagen können, dass bei einem Raid mit SSDs die TRIM Befehle problematisch sein können, und worauf hier zu achten ist.

Auch nehme ich das Raid nicht wegen der Geschwindigkeit (sage ich auch nirgendwo), sondern weil ich einfach zwei der SSDs schon rumliegen habe und mir Silent-Aspekte wichtig sind und ich davon ausgehe, dass sie langlebiger sind als herkömmliche HDDs. Auch hier könnte man sein eigenes Wissen, sofern gegenteilig (in dem Fall Deines) in einem höflichen Ton unterbringen. Aber dazu fehlt Dir das Verständnis und der Anstand. Genauso wie Du nicht in der Lage bist mitzurechnen. Ich habe Bedarf für 1TB an Backup und zwei 500 GB SSDs und möchte nicht unbedingt eine neue HDD dazu kaufen.


Und warum ein NAS plus drei externe Festplatten die an unterschiedlichen Orten gelagert sind, unsicherer sein sollen als Windows kannst Du mir vlt auch mal erklären...


Ist ja auch egal, solche Typen wie Du sind jedenfalls die Totengräber der Forenkultur. In einem Forum sollte ein höflicher Grundton herrschen und der gegenseitige Wissens-Transfer stattfinden, stattdessen plappert jeder irgendwelche Halbwahrheiten nach und versucht anderen klar zu machen wie wenig Ahnung sie haben, um sich selber besser zu fühlen...

Danke für nichts.

P.S.: Wie man es richtig macht, sieht man schön an Wookie81s Beitrag, der liest das Problem und gibt stichhalte Tipps.


Ergänzung ()

@Wookie: Danke für die Tipps. Dass man die Backups regelmäßig überprüfen sollte, ist ein guter Hinweis, den ich so noch nicht auf dem Schirm hatte. Duplicity werde ich checken. Ja Clonezilla geht leider nicht, ich nehme daher momentan AOMEI und Paragon 2017 (gabs ja für umme). Werde auch mal checken was Parted Magic so kann...
 
Zuletzt bearbeitet:
Noch ein Hinweis zu Deiner Backup-Strategie: Testest Du auch die erstellten Backups, ob sie sich tatsächlich wiederherstellen lassen? Dafür brauchst Du natürlich auch entsprechende Infrastruktur, also eine HDD/SSD.
 
@Faust: Diesen Aspekt hatte ich bisher noch nicht auf m Schirm, werde ich aber machen! Danke für den Hinweis.
ab heute ne neue 1TB HDD mit 7.200 und SATA 6 Gb/s für 30 EUR geschossen :)
 
Deine Strategie ist aber wirklich absoluter Overkill.

Grundsätzlich musst du dir erstmal im klaren sein für WAS du Backups machst.
I.d.R. sind das Hardwareausfall, Virenbefall, Brand-/Wasserschaden und versehentliches Löschen/System vermurksen.

Insbesondere beim Versehentlichen Löschen musst du dir überlegen wie lange zu zurück gehen können willst. Das nennt sich Retention.
Wenn du vor 3 Wochen was gelöscht hast aber nur 2 Wochen Retention hast ist es weg.

Virenbefall kann auf alle aktiven und angeschlossenen Datenträger übergreifen. Also meist auch auf angeschlossene externe HDDs und auch auf ein NAS, wenn es online ist. Auch Dropbox etc. kann von Viren und Verschlüsselungstrojanern befallen werden, weil Dropbox ja live ist. Okay, Dropbox hat ne Versionierung, aber ob die hilft wenns hart auf hart kommt?

Du brauchst also auf jeden Fall ein Backup welches räumlich getrennt gelagert wird (hier bietet sich die Cloud an wenn du genug Upstream hast) und ein Backup was logisch getrennt ist dass ein Virenbefall nicht durchgreifen kann. Auch hier bietet sich die Cloud an, nur eben nicht live angebunden.

Du kannst z.B. deine Cloud vor dem Backup verbinden und nach dem Backup (+ einige Zeit) wieder trennen.

Bei dir lokal kannst du eigentlich jede x-beliebige Software nehmen. USB HDDs würde ich vermeiden, weil der Mensch ist ja faul. An- und abstöpseln sind also hier wichtig.
Daherhaft angeschlossen hilft nicht gegen Schadcode, dann kann man sie auch gleich intern lassen und hat mehr Speed.
Ideal wäre hier schon ein Backup auf ein Netzwerkmedium, welches vorzugsweise auch nicht dauerhaft gemappt ist. Aber das lässt sich entgegen USB auch einfach per Script erledigen.


Bei mir läuft es so (sind nur 300MB wichtige Daten bei mir, aber die sind dafür sehr wichtig)
Am Wochenende läuft ein Fullbackup auf den Homeserver der in einem anderen Raum steht.
Täglich läuft ein inkrementelles Backup auf den Homeserver.
Bevor das neue Fullbackup am WE ansteht schiebt der Homeserver das letzte Fullbackup in die Cloud.
Ich habe also 1-2 Wochen Retention, 1 Woche in der Cloud und die laufende Woche inhouse.
 
Zuletzt bearbeitet:
Hallo h00bi, vielen Dank für diesen qualifizierten und ausführlichen Beitrag. Genau so stelle ich mir ein gutes Forum vor. Danke!
 
Zurück
Oben