Fragen zur Einrichtung eines NAS

Bei der Verschlüsselung bleiben dir noch clientseitige Lösungen, wurden bereits weiter oben genannt.

"Laien" sollten aber nicht mit nicht belastbaren Zahlen und Einzelschicksalen in die Irre treiben lassen.

Ich weiß ja nicht, was du als übertrieben ansiehst aber schönreden von Ausfallwahrscheinlichkeiten ist halt witzlos. Entweder man ist sich der Gefahr bewusst und geht die Wette ein oder eben nicht. Vergleichbar zu einer Versicherung. Wie wahrscheinlich ist ein Blitzeinschlag im eigenen Haus? Warum sollte ich einen Blitzableiter verbauen? Wie oft ist denn bei dir der Blitz eingeschlagen (vs wie wahrscheinlich ist ein Blitzeinschlag im Vergleich zu allen Häusern ähnlicher Bauart- & höhe im Radius 10km). Da wirst doch wohl auch eher auf die statistisch relevanten Werte zurück greifen anstatt auf die eine Meinung des Nachbarn 3 Häuser und eine Straße weiter, oder?
Ergo gibt es 3 Hauptprobleme:
- Korrupte Daten/Virus/Menschlicher Fehler, der Dateien beschädigt > Backup hilft
- Ausfall einer nicht zentralen Komponente, wie z.B. einer Disk > Raid erhöht Verfügbarkeit, ansonsten Backup
- Ausfall einer zentralen Komponente, wie z.B. Mainboard. Sei es durch defekte ElKos oder äußere Einflüsse (Brand, Wasser, was-auch-immer) > Backup hilft bedingt bzw nur wenn dieses außerhalb der Faktoren aufbewahrt wird. Brand-/Wasserschaden o.ä. ist halt doof, wenn das Backup daneben liegt und nicht im sogenannten guten alten anderen Brandabschnitt/Nachbar/Cloud/wo-auch-immer.

Warum ein komplettes Raid beim Rebuild zerfällt wenn du einen unrecoverable error hast kannst du z.B. hier nachlesen: https://holtstrom.com/michael/blog/post/588/RAID-5-URE-Failures.html
Tl;dr: Ein Raid kennt Blockdevices und hat keine Ahnung von Dateisystemen, geschweige denn einzelnen Dateien. Ein Fehler und das Blockdevice ist somit hinüber, da ursprünglicher Wert nicht mehr errechenbar.

Eben aus diesem Grund empfiehlt ja auch kein vernünftiger Mensch ein Raid 5 bei solchen Datenmengen.
 
Also habe jetzt mal das Duplicati angetestet - ist recht anwenderfreundlich und schnell eingerichtet. Allerdings mache ich mich damit natürlich auch sehr abhängig von einem dritten Softwareanbieter. Würde Duplicati eingestellt (rein hypothetisch), wären die Backups ja wertlos.

Wie macht ihr das eigentlich, wenn ihr mehrere Clients habt? Duplicati auf jedem Client installieren und laufen lassen?

Ich habe nun noch mal Tests mit aktiver Verschlüsselung laufen und werde mal abwarten, wie es sich damit arbeiten lässt, wenn die initiale Synchronisierung abgeschlossen ist. Irgendwie habe ich da ein besseres Gefühl...

Welche Cloud-Dienste empfehlt ihr eigentlich?
Google Drive scheint recht teuer zu sein - 2TB für 10EUR/Monat
Office365 - hier gibt es nur 5x 1TB/Benutzer - man müsste sein Backup also splitten und die NAS müsste es unterstützen sich mit mehreren Benutzern anzumelden - dafür bekommt man für 10 EUR/Monat noch das komplette Officepaket
 
So eine Abhängigkeit hast du mit jedem OS/Software/etc, genauso wie Netgear vermutlich kaum bis gar nicht Sicherheitslücken in seinen etwas älteren NAS-Geräten schließt. Bei Duplicati ist der Vorteil: Der Code ist opensource. Selbst wenn also ab morgen niemand mehr das Projekt weiter entwickelt, kannst du den Code noch übersetzen und nutzen und wenn es, z.B. für ein Unternehmen, überlebensnotwendig ist eben einen Entwickler einstellen, der dies weiter entwickelt.
Aber ja generell entwickelt und verändert sich die IT ja immer und selten hat etwas "für immer" Beständigkeit.

Edit: Auf den Win- & Linux-Clients habe ich überall den kostenlosen Veeam-Agent laufen, der schreibt, komprimiert und verschlüsselt gleich die Backups aufs zentrale Storage und wichtige Daten von da aus per verschlüsseltem (file & transport) Sync zu Backblaze der eine gute API bietet. (Deren B2 Lösung, nicht die limitierte "personal" Lösung; pay per use, gute API, günstiger als andere S3 Anbieter und Speicherplatz wächst mit).
Server, die sowieso alle Dienste nur per Container hosten, sichere ich per duplicity bzw schiebe da nur (ebenfalls verschlüsselt) die compose-files und docker-volumes zu dem eben genannten Storage-Anbieter. Nicht crash-konsistente Container wie z.B. mariadb, machen per cron regelmäßig Dumps.
 
Zuletzt bearbeitet:
@snaxilian
Habe den Veeam-Agent ausprobiert - funktioniert hervorragend! Bei entsprechender Verschlüsselung des Backups kann ich doch die Verschlüsselung der NAS beruhigt weglassen oder?

Hast Du Tipps zu Veeam?
Habe Backup auf Dateiebene gewählt, im Expertenmodus die Komprimierung auf Maximum gesetzt und die Verschlüsselung aktiviert...

@porenbeton
Thx für die Info
 
Solange das Kennwort für die Backups nicht abhanden kommt: ja aber dann sind auch nur die Backups verschlüsselt, nicht eventuell weitere Dateien, die du auf dem NAS ablegst.
Wichtig: Ich hoffe, du hast die Freigabe so erstellt, dass nur ein Benutzer Schreibrechte hat und nur dieser sollte bei Veeam eingetragen sein. Mit diesem Nutzer solltest du die Freigabe sonst nie mounten damit ein Cryptolocker eben nicht auch deine Backups in Mitleidenschaft zieht. Alternativ eben noch eine offsite Kopie der Backups.

Warum hast du File level backup gewählt anstatt "Entire computer" wo doch explizit file level als langsamste und unsinnigste Variante genannt wird. Das ist totaler Unfug. Was wenn dir morgen ein Win-Update oder $Virus dein System grillt? Download & Erstellung aktuelles OS-Image und dann Installation OS. Download aller(!) zuvor genutzten Anwendungen und Programme. Diese dann alle auch wieder einrichten und konfigurieren. Dann die einzelnen Dateien wiederherstellen. Herzlichen Glückwunsch, du bist 2 Stunden oder eher mehr beschäftigt. Oder Recovery Medium brennen/auf Stick, davon booten, Backupziel angeben, Backupstand wählen, bisschen warten und parallel Kaffee trinken und nach kurzer Zeit hast dein System wieder lauffähig wie man es gewohnt ist. Musst nur einzelne Dateien wieder herstellen, so kannst dies natürlich auch problemlos aus der Sicherung wieder herstellen.

Je nachdem wie viele Sicherungspunkte du aufbewahren willst macht es noch Sinn, regelmäßige Full-Backups zu erstellen damit die Kette der Sicherungspunkte nicht zu lang wird.
Zur Komprimierung und Optimierung stehen die Erklärungen ja direkt dadrunter, da muss jeder für sich entscheiden was er braucht. Hast CPU-Ressourcen im Überfluss aber knappen Storage macht höchste Komprimierung Sinn aber auch da gilt: Nix ist "unendlich" komprimierbar. Teste es halt aus bis du die für dich optimalen Einstellungen hast zwischen Dauer der Erstellung eines Sicherungspunktes und verwendetem Speicherplatz.
Ansonsten schadet es natürlich auch nie, sich mal ein Handbuch durch zu lesen: https://www.veeam.com/veeam_agent_windows_2_2_user_guide_pg.pdf
 
snaxilian schrieb:
Solange das Kennwort für die Backups nicht abhanden kommt: ja aber dann sind auch nur die Backups verschlüsselt, nicht eventuell weitere Dateien, die du auf dem NAS ablegst.
Wichtig: Ich hoffe, du hast die Freigabe so erstellt, dass nur ein Benutzer Schreibrechte hat und nur dieser sollte bei Veeam eingetragen sein. Mit diesem Nutzer solltest du die Freigabe sonst nie mounten damit ein Cryptolocker eben nicht auch deine Backups in Mitleidenschaft zieht. Alternativ eben noch eine offsite Kopie der Backups.
Habe ich genauso konfiguriert - einen Ordner für Veeam mit eigenem Nutzer und einen Ordner für Daten mit eigenem Nutzer. Auf beide Ordner hat nur jeweils der eigene Nutzer und der Sys-Admin der NAS Zugriff
Die Nutzerdaten für den Ordner Veeam sind auf keiner Maschine hinterlegt und nur in den Backup-Settings der jeweiligen Veeam-Agents eingetragen.

Warum hast du File level backup gewählt anstatt "Entire computer" wo doch explizit file level als langsamste und unsinnigste Variante genannt wird. Das ist totaler Unfug. Was wenn dir morgen ein Win-Update oder $Virus dein System grillt? Download & Erstellung aktuelles OS-Image und dann Installation OS. Download aller(!) zuvor genutzten Anwendungen und Programme. Diese dann alle auch wieder einrichten und konfigurieren. Dann die einzelnen Dateien wiederherstellen. Herzlichen Glückwunsch, du bist 2 Stunden oder eher mehr beschäftigt. Oder Recovery Medium brennen/auf Stick, davon booten, Backupziel angeben, Backupstand wählen, bisschen warten und parallel Kaffee trinken und nach kurzer Zeit hast dein System wieder lauffähig wie man es gewohnt ist. Musst nur einzelne Dateien wieder herstellen, so kannst dies natürlich auch problemlos aus der Sicherung wieder herstellen.
Verstehe was Du meinst aber:
A) Ich setze Rechner eigentlich grundsätzlich neu auf, dadurch verschleppe ich keine Altlasten und so lange dauert das auch nicht - von USB3-Stick auf SSD geht das doch mittlerweile alles mehr als fix. Entwicklungsumgebung habe ich auf einer VM die gesichert wird - das spart mir am meisten Zeit bei einem Ausfall, da ich die VM auf jedem belieben Rechner starten kann und alles habe, was ich wirklich brauche
B) Viele Daten brauche ich nicht in den Backups (würde mir auch die NAS zum überlaufen bringen). Wenn die verloren wären ist "Schade" aber eigentlich egal - nichts, was sich nicht wieder beschaffen ließe oder wirklich wichtig wäre.

Je nachdem wie viele Sicherungspunkte du aufbewahren willst macht es noch Sinn, regelmäßige Full-Backups zu erstellen damit die Kette der Sicherungspunkte nicht zu lang wird.
Zur Komprimierung und Optimierung stehen die Erklärungen ja direkt dadrunter, da muss jeder für sich entscheiden was er braucht. Hast CPU-Ressourcen im Überfluss aber knappen Storage macht höchste Komprimierung Sinn aber auch da gilt: Nix ist "unendlich" komprimierbar. Teste es halt aus bis du die für dich optimalen Einstellungen hast zwischen Dauer der Erstellung eines Sicherungspunktes und verwendetem Speicherplatz.
Ansonsten schadet es natürlich auch nie, sich mal ein Handbuch durch zu lesen: https://www.veeam.com/veeam_agent_windows_2_2_user_guide_pg.pdf
Mit den Sicherungspunkten muss ich tatsächlich mal herum spielen und schauen, wie die Datenmenge mit der Zeit wächst.

Vielen Dank für Deine Info`s! Ich werde dabei nicht dümmer - freudt mich immer, wenn sich User für User engagieren - vielleicht kann ich Dir und den anderen ja mal in einer anderen Sache weiterhelfen.

Werde mir das mal einverleiben aber ich glaube ich habe jetzt schon eine ganz gute Basis:

  • NAS ist unverschlüsselt, Backup und Datengrab (und entsprechende Berechtigungen) sind getrennt, AV ist deaktiviert, Speed ist wirklich OK
  • Auf allen Clients läuft der Veeam-Agent. Server wird voll gesichert, alle anderen Rechner (Gründe siehe oben) nur ausgewählte Daten
  • Veeam Agent verschlüsselt und komprimiert (Komprimierung ist auf "Extreme", spart mir insgesamt knappe 0,5TB, Speed ist noch OK, werde aber mal "herumspielen")
  • Auf HTPC findet sich ein zusätzliches, einfaches Backup aller Clients, bzw. der wichtigen Daten, Dokumente und Bilder (BitLocker verschlüsselt)
  • Werde mir mittelfristig überlegen, ob ich mir einen Zusätzlichen Datenträger kaufe und damit regelmäßig eine Art Snapshot von der NAS mache oder ob ich mir ein Cloud-Konto bei Anbieter XY hole
 
Zuletzt bearbeitet:
noch ein Hinweis zum Thema Verschlüsselung. Beim NAS hilft dir die Verschlüsselung "nur" gegen Diebstahl. Ein Einfaches Kensington Schloß oder andere bauliche Masßnahmen haben da oft einen besseren Schutz.

Bedenke auch die Nachteile der Verschlüsselung. Falls mit USB Stick oder Passwort verschlüsselt wird -> kann vergessen/verloren/zerstört werden.
Den Fall hatte ich neulich bei Bekannten. Das ist nicht lustig wenn alle Daten zwar da sind, aber man das Passwort nicht mehr hat....
Oder durch Bugs in der Verschlüsselungssoftware..... Alles schon da gewesen.
 
Zurück
Oben