Backup-Strategie und Kaufempfehlung

Enzian!

Cadet 1st Year
Registriert
Jan. 2022
Beiträge
13
Hallo Leute,

ich schlage mich seit Tagen mit einem Problem herum und komme doch nicht auf einen grünen Zweig. Jetzt hatte ich gehofft, dass mir vielleicht jemand mit mehr Erfahrung in der Materie ein paar gute Denkanstöße geben könnte. Deshalb bin ich hier im Forum gelandet.

Gleich vorweg, ich bin kein IT-Profi. Bitte um Nachsicht. Mein "Wissen" habe ich mir in Forenbeiträgen und Wikipedia-Artikeln angelesen und ist rein theoretischer Natur. Mir ist auch bewusst, dass meine bisherige Lösung nicht optimal ist. Es ist halt eine Heimanwenderlösung, die sich über die Jahre als für mich praktikabel erwiesen hat, ob sie auch sinnvoll ist, sollt ihr mir sagen.

Meine aktuelle Situation schaut so aus, dass mein Hauptrechner an seine Speicherkapazitätsgrenze stößt. Alle Laufwerke sind über 90% voll. Wenn ich zusätzliche Speicherkapazität in meinem Hauptrechner hinzufüge, reicht auch die Kapazität meiner Backup-Laufwerke nicht mehr aus. Also muss ich auch da Geld in die Hand nehmen. Kurzum, es wird Zeit zu investieren und das ganze Speicher- und Backupkonzept neu zu überdenken.

Ich beschreibe mal kurz, wie ich bisher vorgegangen bin und hätte dann gerne Feedback, ob die Strategie grundsätzlich in Ordnung ist bzw. wo noch Verbesserungspotential besteht. Dann würde ich meine Strategie entsprechend anpassen und passende Hardware anschaffen.

Auf meinem Hauptrechner (reines Linux Mint-System) liegen ca. 4 TB Daten. Teilweise archivierte Videos und Fotos, an denen sich eigentlich nichts mehr ändert, und teilweise Nutzdaten, wo ständig was dazu und weg kommt. Bisher hatte ich für jedes Laufwerk mit Daten eine mindestens gleich große Festplatte im Rechner verbaut, die nur zum Datensichern gemountet wurde. Verwendet wird dafür das Programm BackInTime, das mit Hardlinks arbeitet. Es erzeugt Snapshots, wo nur die geänderten Dateien neu gesichert werden müssen, auf die unveränderten Daten werden Hardlinks gesetzt. Vorteil: jeder Snapshot enthält alle Daten und kann mit einem normalen Dateimanager durchsucht werden. Einzelne Dateien oder ganze Ordner können einfach kopiert und wiederhergestellt werden. Die Festplatte mit den gesicherten Daten kann an jedes System angestöpselt und ohne spezielle Hardware (z.B. Raidcontroller) oder Software ausgelesen werden. Die Sicherungsdaten sind aktuell unverschlüsselt und unkomprimiert. Durch die Snapshots habe ich hier immer zumindest eine, meist mehrere Stände der Originaldaten. Da jede Datei durch die Verwendung von Hardlinks nur ein Mal tatsächlich gespeichert wird, weiß ich nicht, was z.B. bei bit rot passieren würde. Das Sicherungsintervall liegt hier bei ca. 1x je Woche.

Zusätzlich habe ich für jedes Datenlaufwerk noch eine externe, über eSATA-angeschlossene externe Festplatte mit mindestens 3-facher Kapaziät der Datenplatte. Hierauf werden min. 1-2x im Monat die Daten gesichert. Aufgrund der Größe der Sicherungsplatten, verfüge ich über Snapshots mehrerer Monate oder sogar Jahre.

Bei jedem Sicherungsvorgang kontrolliere ich die SMART-Werte der Festplatten. Auffälligkeiten werden notiert, um einen Plattenausfall vielleicht vorhersagen zu können.

Bisher fühlte ich mich mit der Strategie halbwegs sicher, das Ganze hat aber auch so seine Nachteile:
  • Die Backups müssen manuell angestoßen werden, d.h., man muss daran denken und Zeit dafür einplanen. Das beste Backup ist das, das man auch gemacht hat ;-)
  • Derzeit keine Backups off-site, d.h., außerhalb meiner Wohnung.
  • Die Sicherungsintervalle sind relativ groß. Auch wenn ich PC-intern jede Woche die Daten sichere. Hat der Hauptrechner einen Totalausfall, verliere ich möglicherweise die Daten eines gesamten Monats, was auf jeden Fall sehr ärgerlich, im schlimmsten Fall auch eine mittlere Katastrophe sein könnte.
  • BackInTime sichert nur veränderte Dateien, diese aber zur Gänze. Virtual Machines werden somit immer neu gespeichert und belegen viel Speicherplatz.
  • Derzeit überprüfe ich nicht, ob die kopierten Daten auch richtig auf dem Backupmedium ankommen (Stichwort Prüfsummen) oder sich gesicherte Daten durch bit rot verändert haben.
  • Ich nutze als Dateisystem überall ext4, kein BTRFS oder ZFS, weil ich mich schlichtweg zu wenig damit auskenne und Angst habe, etwaige Vorteile durch Fehler meinerseits zunichte zu machen. Gleiches gilt für RAID-Konfigurationen, die ich bisher vermieden habe. Ich kann bei einem Plattencrash warten bis ich eine Ersatzplatte besorgt habe. Die höhere Verfügbarkeit würde ich mir, aus meiner Sicht, durch höhere Komplexität erkaufen und müsste wahrscheinlich auch in bessere Hardware investieren. Oder sehe ich das falsch?
Wie soll es nun weiter gehen? Wenn ich bei bisherigem Konzept eine zusätzliche Festplatte in meinen Hauptrechner einbauen würde, bräuchte ich eine weitere Festplatte für interne Sicherungen und eine dritte externe Festplatte. Das wird mir dann langsam zu unübersichtlich. Vor allem, da auch mein Hauptrechner schon richtig in die Jahre gekommen ist und ehestbald durch einen neuen Rechner ersetzt werden soll.

Mein erster Gedanke war also, ein externes Gehäuse mit 4 Laufwerksschächten, das über eSATA angeschlossen werden kann (z.B. gibt es bei Fantec ein 4-fach Gehäuse mit eSATA und USB 3.0 für ca. 110 €). Laut Handbuch muss der eSATA Controller allerdings Port Multiplier unterstützen, um alle Festplatten zu erkennen. Meine bisherigen Recherchen deuten darauf hin, dass meiner das nicht tut. Außerdem unterstützen neuere Rechner nur mehr selten eSATA. Also bliebe noch USB. Früher hieß es ja, dass USB fürs Datenübertragen eher fehleranfällig sei - speziell bei längeren Kabeln, also für Backups nicht unbedingt ideal. Stimmt das bzw. hat sich das inzwischen geändert? Auch die Reviews des externen Gehäuses sind nicht 100% vertrauenserweckend, um diesem meine gesamten Daten anzuvertrauen.

Nächster Gedanke war, meinen jetzigen Rechner möglichst rasch zu ersetzen, in den alten Rechner 1-2 große HDDs rein geben und quasi als Backup Server zu verwenden. Wobei Server etwas übertrieben ist, da ich den Rechner nur zum Backup-Erstellen hochfahren würde. Falls ich dann im Hauptrechner in Zukunft wieder mal eine neue Datenplatte hinzufügen würde, könnte ich nach bisheriger Manier auch in diesem Rechner wieder entsprechende Backup-Platten hinzufügen.

Da ich zukünftig keine Sicherungen mehr im Hauptrechner machen möchte, müsste ich mir noch einen zweiten Backup-Server (neben meinem alten Rechner) zulegen. Schön wäre natürlich eine Lösung, die vollautomatisch Backups macht - lokal auf einem Server und vielleicht sogar extern in der Cloud oder auf einem anderen Server. Am besten täglich oder sogar alle paar Stunden.
Dafür bräuchte ich Hardware für einen Server, der zumindest immer läuft, wenn mein Hauptrechner eingeschaltet ist, sich vielleicht sogar automatisch damit hoch und runter fährt. Das Teil müsste nicht 24/7 laufen.
So ein Server wäre auch praktisch zum Bereitstellen von Mediadaten (Musik, Fotos, Videos) und zum Aufnehmen von TV-Sendungen. Oder würdet ihr davon abraten, Backup- und Medienserver auf dem gleichen Rechner zu mischen? Wie beschrieben ist eine zuverlässige Backup-Lösung mein Hauptziel. Alles andere wäre nice-to-have.

Ich habe mal so rumgesucht, für ca. 5-600 € könnte man sich einen schönen "Selbstbau-Server" mit B560M-Mobo (6 x SATA + 2,5 Gigabit-Lan), einer Intel i5-10400 CPU, 16 GB RAM und einem Gehäuse für min. 6 x 3,5" HDDs mit ausreichend Lüftung anschaffen. Leider noch ohne ECC-Unterstützung, mit ECC-Unterstützung wird's dann deutlich teurer. So ein Rechner könnte dann sicher schon deutlich mehr als nur Backups machen und hätte immer noch einen vertretbaren Stromverbrauch ;-)

Was denkt ihr? Was wäre für meinen Heimanwender-Fall eine vernünftige Backupstrategie, die mit vertretbarem Aufwand möglichst hohe Sicherheit bietet. In welche Hardware macht es für mich Sinn zu investieren, um eine vernünftige Backup-Strategie hinzubekommen?

Gedanken, Anregungen und Vorschläge sind herzlich willkommen! Vielen Dank schon mal im Voraus!

Viele Grüße
Enzian
 
Enzian! schrieb:
Ich habe mal so rumgesucht, für ca. 5-600 € könnte man sich einen schönen "Selbstbau-Server" mit B560M-Mobo (6 x SATA + 2,5 Gigabit-Lan), einer Intel i5-10400 CPU, 16 GB RAM und einem Gehäuse für min. 6 x 3,5" HDDs mit ausreichend Lüftung anschaffen. Leider noch ohne ECC-Unterstützung, mit ECC-Unterstützung wird's dann deutlich teurer.

Eigentlich nicht: https://geizhals.de/amd-ryzen-5-pro-4650g-100-100000143mpk-a2336716.html

Dazu ein Mainboard von ASRock nach deinen Anforderungen und ECC-RAM dazu.

Sechs Kerne brauchst du eigentlich auch nicht, soweit ich das überflogen habe. Wenn es Intel sein soll, wäre das eine Möglichkeit:

https://geizhals.de/intel-core-i3-8100-cm8068403377308-a1699937.html?hloc=at&hloc=de
https://geizhals.de/fujitsu-d3644-b-s26361-f5110-v162-a1904781.html?hloc=at&hloc=de
 
Zuletzt bearbeitet:
Schau Dir mal die QNAP TS-473A-8G an - unterstützt nicht nur ECC, sondern bietet auch ZFS an.

Vor einer RAID-Konfig in einem NAS braucht man keine Angst haben, das ist nicht schwer u. wenig fehleranfällig.

Auf ein RAID im NAS würde ich persönlich nicht verzichten wollen
  • durch BTRFS zumindest ein gewisser Schutz vor bit-rot (soll wieder mit ZFS abgelöst werden)
  • Ausfall 1 HDD führt nicht zum Totalausfall - man kann in Ruhe reagieren
Ich habe auf den Clients gar keine Daten (im Regelfall - nur Arbeitskopien) u. halte alles auf dem NAS vor.
Das NAS ist das einzige Gerät, um dessen Backup ich mich kümmern muss - kann man noch automatisieren.

Eine Trennung muss nicht unbedingt erforderlich sein, aber ich warne davor, sein NAS mit Portweiterleitungen u. ähnlichen Leichtsinnigkeiten ins Internet zu stellen - Zugriffe einzig u. allein per VPN.
 
  • Gefällt mir
Reaktionen: lochmueller
Kurz zum "Urschleim":
  • Backup-Strategie nach 3-2-1 Regel konzipieren. Google hat eine brauchbare Erklärung bei IONOS gefunden (keine Werbung oder Empfehlung für den Laden)
  • Um den Speicherplatz zu optimieren, lies Dich mal ins in "Generationenprinzip" oder auch "Großvater-Vater-Sohn-Prinzip" ein. Das hilft, weil einige Backup-Systeme entsprechende "Backup-Rotationen" anbieten, die man dann individuell konfigurieren kann.
  • Back in Time nutze ich selbst zwar nicht, aber heise.de behauptet, dass man die Backups auch automatisieren kann

zur Umsetzung:
  • Viele Menschen nutzen ein NAS als Backup-Server (hier wie immer der obligatorische Hinweis: RAID ist kein Backup, sondern schützt vor Festplattenausfall und damit verbundenem Datenverlust).
  • Wenn Du eh Geld in die Hand nehmen willst, ist das vielleicht eine Idee. Ob Selbstbau oder Kauf ist schon fast ne Glaubensfrage, daher... keine Meinung dazu von mir
  • Das NAS kann dann als Backupziel (z.B. via WebDAV) dienen und je nach Umsetzung auch als HomeServer für andere Dinge dienen
  • Das NAS könnte dann auch (gem. 3-2-1-Regel) nochmals ein Cloudbackup machen.
Hier führen auch viele Wege nach Rom;
- einer kann sein: Beim Provider nach Wahl Speicherplatz mieten, Daten durch das NAS verschlüsseln lassen, Daten "in die Cloud laden" (z.B. via WebDAV)
Wichtig hier: oft begrenzt der eigene Upload und man sollte den Speicherverbrauch im Auge behalten
Und nicht zu vernachlässigen: wie komme ich an die Clouddaten falls das NAS nicht verfügbar ist?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rickmer und Drahminedum
Ich finde es gut, dass du dir so ausführlich Gedanken machst :)

Wie carnival schon verlinkt hat, sind 3-2-1 und GFS die Zauberwörter gegen Datenverlust.

3-2-1 gegen Zerstörung / Verlust eines Backup-Mediums
GFS gegen versehentliche Löschung oder auch Ransomware

Die Kombination von beiden (Offline-Fullbackup außer Haus) gegen katastrophales Versagen wie z.B. falls die Bude abfackelt oder eine Ransomware gut genug ist um deine Backups gleich mit zu verschlüsseln.

Enzian! schrieb:
Bisher fühlte ich mich mit der Strategie halbwegs sicher, das Ganze hat aber auch so seine Nachteile:
  • Die Backups müssen manuell angestoßen werden, d.h., man muss daran denken und Zeit dafür einplanen. Das beste Backup ist das, das man auch gemacht hat ;-)
Ja - die fehlende Automatisierung meiner Backups hat mich mal beinahe viele Daten gekostet weil ich das Backup zu lange vernachlässigt habe.

Jetzt sind nur noch die off-site Backups nicht automatisiert und überwacht, weil ich dafür externe HDDs per Hand anschließen muss. (Und die HDDs auch mitnehmen muss, wenn ich zu meinen Eltern fahre. Im Gegenzug bringe ich auch eine HDD mit einem Backup von meinen Eltern zu mir zurück.)

Enzian! schrieb:
Derzeit keine Backups off-site, d.h., außerhalb meiner Wohnung.
Die Chance auf einen Hausbrand, den Diebstahl aller HDDs oder Ähnlich ist zwar gering, aber nicht vernachlässigbar... wenn man schon sonst alles verloren hat ist es besser wenn man wenigstens noch die wichtigsten Daten im Backup hat.

Enzian! schrieb:
  • BackInTime sichert nur veränderte Dateien, diese aber zur Gänze. Virtual Machines werden somit immer neu gespeichert und belegen viel Speicherplatz.
  • Derzeit überprüfe ich nicht, ob die kopierten Daten auch richtig auf dem Backupmedium ankommen (Stichwort Prüfsummen) oder sich gesicherte Daten durch bit rot verändert haben.
Persönlich nutze ich Veeam.
Das kann Backup-Daten gegen Prüfsummen checken (nennt sich bei Veeam health check).

Beim Umgang mit VMs gibt es zwei Möglichkeiten:
1) Veeam Agent: Die Dateien die zur VM gehören werden inkrementell gesichert und brauchen wenig Speicherplatz, solange der Volume-Level Backup genutzt wird. Im File-Level Backup würde das nicht funktionieren. Der Betriebszustand der VM kann nicht mitgesichert werden.
Den Veeam Agent kann man im Zweifelsfall auch in jeder VM einzeln installieren wenn der Betriebszustand wichtig ist.
2) Veeam Backup and Replication (Community Edition): Benötigt ein Windows-OS zur Installation. Das ist die Server-Variante von Veeam, welche mehr Möglichkeiten bietet, insbesondere für unterstützte Hypervisoren wie Hyper-V und vmware ESXi.

Enzian! schrieb:
Mein erster Gedanke war also, ein externes Gehäuse mit 4 Laufwerksschächten, das über eSATA angeschlossen werden kann (z.B. gibt es bei Fantec ein 4-fach Gehäuse mit eSATA und USB 3.0 für ca. 110 €). Laut Handbuch muss der eSATA Controller allerdings Port Multiplier unterstützen, um alle Festplatten zu erkennen. Meine bisherigen Recherchen deuten darauf hin, dass meiner das nicht tut. Außerdem unterstützen neuere Rechner nur mehr selten eSATA. Also bliebe noch USB. Früher hieß es ja, dass USB fürs Datenübertragen eher fehleranfällig sei - speziell bei längeren Kabeln, also für Backups nicht unbedingt ideal. Stimmt das bzw. hat sich das inzwischen geändert? Auch die Reviews des externen Gehäuses sind nicht 100% vertrauenserweckend, um diesem meine gesamten Daten anzuvertrauen.
Das hat den Nachteil, das weiterhin ständig per Hand die HDDs umgesteckt werden müssen.

Außerdem ist SATA nicht für häufiges ein- und ausstecken designed, welches auch zu Problemen führen kann.

Enzian! schrieb:
Nächster Gedanke war, meinen jetzigen Rechner möglichst rasch zu ersetzen, in den alten Rechner 1-2 große HDDs rein geben und quasi als Backup Server zu verwenden. Wobei Server etwas übertrieben ist, da ich den Rechner nur zum Backup-Erstellen hochfahren würde. Falls ich dann im Hauptrechner in Zukunft wieder mal eine neue Datenplatte hinzufügen würde, könnte ich nach bisheriger Manier auch in diesem Rechner wieder entsprechende Backup-Platten hinzufügen.
Kann man machen.

Ich mache mit meinem QNAP NAS was ähnliches - die wird um 01:50 per WOL aufgeweckt, das Backup fängt um 02:00 an und das NAS wird entweder um 05:00 oder wenn das Backup fertig ist wieder heruntergefahren - je nachdem was später kommt.

Enzian! schrieb:
Was denkt ihr? Was wäre für meinen Heimanwender-Fall eine vernünftige Backupstrategie, die mit vertretbarem Aufwand möglichst hohe Sicherheit bietet. In welche Hardware macht es für mich Sinn zu investieren, um eine vernünftige Backup-Strategie hinzubekommen?
Persönlich habe ich folgende Backups:

1) Backup per Veeam Backup & Replication des Heimserver auf mein NAS. Hier ist auch eine Versionierung implementiert, die per GFS bis zu einem Jahr zurück reicht. (In einem iSCSI Volume gespeichert, das dem Backup-Server eingehängt wird.) Häufigkeit: Täglich.
2) Replizierung der Dateien auf meinem Fileserver und in der Nextcloud-Instanz auf ein separates Volume (mit eigenen Credentials) auf demselben NAS. Häufigkeit: Täglich.
3) Ich habe zwei USB-HDDs, auf die Kopien der Dateien auf dem Fileserver und der Nextcloud-Instanz abgelegt werden. Eine der HDDs ist immer bei meinen Eltern im Tresor. Häufigkeit: Grob monatlich, je nachdem wie häufig ich zu Besuch bin.
4) Backup-Kopie des aktuellsten Veeam B&R Backup auf LTO-5 Tape. Aktuell bewahre ich beschriebene Bänder in einer Schublade in meinem Büro auf. Häufigkeit: Alle paar Monate weil es relativ aufwendig ist und ich auch nicht soooo viele Bänder habe.

Alle Backups sind natürlich verschlüsselt. Veeam über sich selbst und die USB-HDDs per BitLocker.
In der Summe von Fileserver und Nextcloud ist eigentlich alles wichtige an Daten enthalten - dafür sorge ich u.A. durch Verwendung von SyncBackPro, einem Datei-Synchronisierungs-Programm.

Hiervon würde ich 1&3 als wichtig erachten, 2&4 sind Luxus weil ich's kann.

carnival55 schrieb:
Das NAS könnte dann auch (gem. 3-2-1-Regel) nochmals ein Cloudbackup machen.
Da muss aber auch die Internetleitung stimmen. 4TB mal 'so eben' in die Cloud schieben ist nicht. Bei meiner 100/40 Leitung würde der Initial-Upload 11 Tage brauchen.

Außerdem ist Cloud-Speicher nicht grade günstig.
 
  • Gefällt mir
Reaktionen: carnival55
Rickmer schrieb:
Da muss aber auch die Internetleitung stimmen. 4TB mal 'so eben' in die Cloud schieben ist nicht. Bei meiner 100/40 Leitung würde der Initial-Upload 11 Tage brauchen.

Außerdem ist Cloud-Speicher nicht grade günstig.
Das habe ich -zumindest versucht- anzudeuten.
Hier gilt es einfach pragmatisch ranzugehen: vielleicht müssen ja nicht 4TB in die Cloud, vielleicht reichen ja auch 2TB. Und da gibt's Angebote zwischen 10-15€/mon (ja, das kostet, aber abgesoffene Kinderfotos kosten emotional ein Vielfaches -> so zumindest meine Rechnung)
 
Danke schon mal für die Antworten! Die verlinkten Seiten werde ich mir alle anschauen.
 
Du kannst dir einen "Backup-Server" zusammenstellen, es gibt Mini-ITX Gehäuse mit ausreichend Festpattenplatz. Vielleicht auch mit ECC, aber das ist meiner Meinung nach eigentlich nicht nötig. Denn kannst du in dein Netzwerk hängen und mit rsync so oft du willst ein Backup erzeugen. Da reicht ein einfaches Skript und ein cronjob. Das Ganze kann auch mit Wake-On-Lan funktionieren, dann geht alles automatisch. Wenn du dann noch eMail-Benachrichtigungen einrichtest um immer zu erfahren ob alles geklappt hat oder ob der Platz langsam knapp wird usw. dann kann ja fast nichts mehr passieren.
 
Zurück
Oben