Eure Meinung zu meiner Backup Strategie

Nunja wie immer sind die letzten Prozente an Sicherheit sehr "teuer" und auch wenn 99% schön wären wird meine Lösung sicher Schwachstellen in Bezug auf "KISS" haben. Denn je mehr Skripte für die Magie sorgen, desto mehr Fehler Potential in der Backup Strategie. Ich bin wirklich überrascht wie komplex das Thema 2023 noch ist. Und wie Leute sehr komplizierte scripte und Architekturen wählen für ihre wichtigsten Daten.

@Bohnenhans ich werde mal ein paar Tests mit zfs machen. Merkt man in der auslastung der CPU hier merklich was? Ist ja immerhin 128 bit was die 64bit CPU da verarbeiten muss.
 
Ne CPU ist nicht so wirklich wichtig. auch Ram ist alles ab 8 GByte ok ,wenn man nicht Sonderfunktionen wie Deduplication nutzt.

Mein kleinster Rechner mit ZFS ist aktuell ein N6005 ein "Celeron", die CPUs meiner Server sind 11 Jahre alt ...
Ich hab das sogar mal vor Jahren auf einem Odroid compiliert und genutzt - also Raspberry Klasse.

Einzige was man braucht wenn man die interne Verschlüsselung von ZFS nutzen will sollte die CPU AVX(2) haben, AESNI reicht da (leider) nicht für Super Perfomance.

Ich habe nur ein kompliziertes Script, das mir unsere Kerndaten verschlüsselt zusammenpackt und 1x die Woche zusätzlich eine ISO für die M-Disc erzeugt mit PAR2 Daten, die muss ich dann nur bruzzeln.

Der Rest geht über rsync und SyncThing.
 
Zuletzt bearbeitet:
Also ich habe gerade mein neues Backupsystem vom Backupsystem am Laufen

CPU ist ein nicht mehr so ganz frischer i7-3610QM (Sockel 988) RAM 8 GByte DDR3
OS: Ubuntu 23.04 Server, Dateisystem ZFS mit Crypt (256bit AES), OnTop darauf MergeFS, aktuell 4*22 TByte, Netzanbindung 10 GBit

Kopiergeschwindigkeit sind so bis zu 350 MByte / sec (bei kleinen Dateien natürlich weniger)

HTop zeigt das - alles finde ich im grünen Bereich - bei maximaler Datentransfer Belastung
 

Anhänge

  • 804_system.jpg
    804_system.jpg
    496,7 KB · Aufrufe: 62
@Bohnenhans

Auf die 10GBit bin ich neidisch :) da bin ich noch mit 2,5 unterwegs.

Lässt du das 24/7 laufen oder arbeitest du auch mit WOL etc?

Für mich spielt der Strom Verbrauch / Effizienz ne recht große Rolle. Ist auch der Grund weshalb ich noch keine NAS angeschafft habe.
 
das nur Backup vom Backup der läuft vielleicht 2h im Monat.


Unsere grossen Server laufen auch kaum - das was durchläuft ist ein sehr sparsamer Intel N6005 mit einer 4 TB SSD (< 8 Watt, im Monatsschnitt meist bei ~ 6W) fast auf Raspberry mit SSD Niveau.

2,5 GBit reicht doch eigentlich auch bei uns sind auch nur wenige Rechner im 10 GBit Netzwerk die meisten sind im 2,5er. Die 10 GBit Switches sind auch nicht 24/7 an.

Ne WOL geht nicht weil meine Netzwerkkarten das nicht unterstützen ich mache das über WIFI Steckdosen und im BIOS "On after Power Loss" Auch benutze ich das PC Netzteil teilw um die 10 GBit Switche mit Power zu versorgen, so dass die automatisch ausgehen wenn nicht gebraucht.

So sind unser grosser Server (10 Tage Ansicht) an (der 2. ist nur 1:1 Kopie der läuft alle 7 Tage ~ 1h)

server.jpg
 
Zuletzt bearbeitet:
Zurück
Oben