Offsite Backup mit Proxmox wie realisieren?

Lenny88

Lt. Commander
Registriert
Dez. 2002
Beiträge
1.861
Hallo zusammen,

kurz die Ausgangssituation:
  • Proxmox System im heimischen Netzwerk mit 2x3 TB Datenplatten
    • Netzwerkspeicher wird aktuell per einfacher SMB Freigabe von einer Debian VM, zu der die beiden 3 TB Platten durchgereicht sind, nur im heimischen Netzwerk bereitgestellt
    • Großteil der Daten sind statische Mediendaten, ca. 400 GB sind sonstige Daten (Persönliche Daten, Backups der VMs/CTs etc.)
    • Verlust der Mediendaten wäre verschmerzbar - die restlichen Daten sind wichtig
    • VMs und Container werden alle drei Tage per Proxmox Snapshot gesichert
  • Grundsätzlich greifen zwei Windows PCs auf das NAS zu, die von einer anderen Proxmox VM per UrBackup einmal die Woche gesichert werden
  • Fritzbox 7490 zu Hause + 1&1 "Fritzbox" bei der Arbeitsstelle meiner Frau
  • die zwei 3 TB Platten werden einmal monatlich auf externe Platten gespiegelt
  • die Backups der VMs werden zusätzlich bei jedem Start auf meinen Desktop PC gesichert
Ich denke grundsätzlich bin ich damit nicht schlecht aufgestellt, aber es spielt sich halt alles in einem Haushalt ab.

Meine Partnerin ist selbstständig und muss grundsätzlich auch von ihrer Arbeitsstelle aus auf die Daten zugreifen.
Aktuell ist es so gelöst, dass die Daten auf ihrem Laptop gespeichert sind und sobald sie sich zu Hause einloggt auf das NAS synchronisiert werden.

Grundsätzlich würde ich gerne bei ihrer Arbeitsstelle ein Offsite Backup , zumindest der sonstigen Daten, einrichten weiß aber nicht wie man das am besten angeht.

Wie würdet ihr das angehen?
  • ich möchte nicht mit externen Festplatten hin und her pendeln
  • demnach müsste mein NAS über Internet erreichbar sein
  • was müsste bei meiner Frau für Hardware hingestellt werden? Reicht eine einfache SSD an der 1&1 Fritzbox oder lieber ein fertiges NAS?
Danke für eure Tipps!

Gruß
Fabian
 
eine synology nas (die herrgottswo irgendwo steht) zusammen mit dem synology client auf dem jeweiligen rechner ... automatische datensicherung wenn daten sich ändern/dazukommen. fertig.

so hab ich das bei mir gelöst (auch selbstständig). und habe egal ob zuhause, im studio oder mobil immer alle daten zur hand. auch im auto, wenn man mal beim kunden ist.
 
Nimm Veeam Backup und R. dort sind 10 Workloads free.
Dann kannst du dir die alles an wilden Targets ausdenken.
 
@lazsniper

Danke.

Aber es geht ja auch darum, die Daten zwischen den beiden NAS synchron zu halten. Optimalerweise würde ich ja keine Daten direkt auf den PCs speichern wollen, sondern immer auf dem zentralen NAS (mein Proxmox) welches dann auf das andere gesichert wird.

Also z.B. meine Frau arbeitet und greift Remote auf Proxmox zu. Dann erfolgt eine Synchronisation zwischen Proxmox und dem NAS bei ihrer Arbeitsstelle. Bei den paar Excel Dateien mit denen sie arbeitet von der Dateigröße kein Thema.
 
  • Gefällt mir
Reaktionen: lazsniper
Und wie machst du dann ein Backup?
Also wenn du eine Datei versehentlich löscht, wie kommst du dann wieder dran?
 
Ich bin gerne für andere Vorschläge offen.

Auf den Windows PCs nutze ich z.T. SynckBackFree mit dem man bspw einstellen kann, dass keine Daten auf dem Ziel gelöscht werden wenn sie auf der Quelle gelöscht werden.
Eine manuelle Lösung mit externen Platten oder so führt aus meiner Sicht dazu, dass man es irgendwann schleifen lässt.
 
Lenny88 schrieb:
Aber es geht ja auch darum, die Daten zwischen den beiden NAS synchron zu halten
Nein nein nein, dumme Idee und gefühlt einmal pro Quartal kommt jemand um die Ecke und würfelt wild synchrone Datenhaltung an mehreren Orten/Geräten und Backups durcheinander.
Das sind zwei getrennte Anforderungen mit vollkommen unterschiedlichen Zielen die unterschiedliche Lösungen ergeben. Alles andere ist murks und hat ein wunderbares Potential um in einem Desaster zu enden.

Lenny88 schrieb:
demnach müsste mein NAS über Internet erreichbar sein
Nein muss es nicht zwingend, bzw. wenn dann würde ich das über ein VPN erledigen zwischen den beiden Fritzboxen sofern die notwendigen Voraussetzungen dazu erfüllt sind.

Ziel 1: Backups der Daten und Snapshots der VMs sollen im Büro der Frau gesichert werden, im besten Fall
versioniert.

Du stellst Zeitplan und Retention in Proxmox ein: https://pve.proxmox.com/wiki/Backup_and_Restore
Dort kann man Hook Scripte verwenden. Damit könntest du dann an der Büro-Fritzbox eine HDD anschließen und (durch das VPN) per hook script die gesicherten Daten auf die Büro-Fritzbox-externe-HDD schicken. Das geht z.B. mit rsync und Versionierung oder restic oder diverser anderer schöner Tools.
Dieses Szenario ist absolut low budget und vor allem wird das wunderbar lahm sein. VPN Durchsatz der alten IKEv1 VPNs der Firzboxen ist bescheiden, ebenso der Durchsatz von externen HDDs an einer Fritzbox. Alternativ ein kleines NAS im Büro und Backups da drauf und fürs VPN einen Raspi + Wireguard. Limitierender Faktor dürfte dann dein Upload sein.
WICHTIG: Teste den Restore. Ein Backup ohne verifizierte und erfolgreiche Wiederherstellung ist absolut nutzlos!

Ziel 2: Daten zwischen Debian-NAS-VM und Laptop-Frau synchron halten. Seafile, Syncthing, Nextcloud, such dir etwas aus womit du die Daten zwischen Laptop und Debian-VM-NAS. Korrekt eingerichtet, kannst du von überall aus die Daten synchron halten und nicht nur im heimischen Netz.

Scirca schrieb:
Veeam Backup und R
Ist prinzipiell ein sehr gutes Tool aber in diesem Fall eine absolut sinnlose Empfehlung. Veeam unterstützt weder KVM/Qemu noch LXC.
 
  • Gefällt mir
Reaktionen: Hörbört
Ein Backup ist kein Backup bis es erfolgreich wiederhergestellt worden ist.
 
Sorry für die späte Rückmeldung.

Backup mit Zeitplan und Retention läuft bei mir schon. Ich sichere die VMs alle 3 Tage und bewahre die letzten 5 Snapshots auf.
Wiederherstellung habe ich auch schon 2-3 mal erfolgreich getestet.

Zum Thema Backup und den genannten Scripts. Ich bin Linux Anfänger und habe aktuell auch nicht die Ambitionen mich tief in die Materie einzuarbeiten. Ich habe mich zwar ein wenig eingearbeitet um meine Anforderungen zu lösen, (z.B. mit mergerfs in der Storage VM beide Platten zu einem "virtuellem" Speicher zusammenfassen), aber ich merke, dass ich sehr schnell wieder vergesse wie ich was eingerichtet habe.
Bedeutet: ich suche eher auf einer GUI basierende Lösungen als mit Skripts zu hantieren.

Daher habe ich mir überlegt, meine Debian Storage VM durch TrueNAS zu ersetzen - genügend Ressourcen, insb. RAM für ZFS steht eh ungenutzt zur Verfügung. Würde mir vermutlich eine 8 TB Platte besorgen und diese zusammen mit TrueNAS neu aufsetzen.
So wie ich gesehen habe, gibt es dort bspw. die Möglichkeit, verschlüsselte Cloud Backups direkt per Web Interface einzurichten - wäre aus meiner Sicht eine charmante Lösung, oder was meint ihr dazu?

Ansatz wäre dann die wichtigsten Daten in der Cloud zu sichern. Ich würde dann auch nicht versuchen, die Daten mit dem Laptop meiner Frau synchron zu halten, sondern eher per VPN ihr einen Zugriff von außen zu ermöglichen.
Weiterhin wäre ja ein komplett Backup über die vorhandenen 3 TB Platten möglich.

Was sagt ihr zu dem Ansatz?
 
Lenny88 schrieb:
sehr schnell wieder vergesse wie ich was eingerichtet habe.
DAS ist aber kein Problem von wenig Linux Kenntnissen sondern liegt an der mangelnden Bereitschaft, seine eigene Umgebung zu dokumentieren. Zettel & Stift, ein eigenes kleines Wiki oder irgendetwas dazwischen.
Lenny88 schrieb:
genügend Ressourcen, insb. RAM für ZFS
Hach ich lieb's ja immer wenn Leute irgendwelche Buzzwords lesen und herumphantasieren und ihre Fieberträume kundtun^^
In deinem beschriebenen Szenario ist die Menge des RAM vernachlässigbar.

Lenny88 schrieb:
verschlüsselte Cloud Backups direkt per Web Interface einzurichten - wäre aus meiner Sicht eine charmante Lösung
Machbar aber je Speicherplatz kostet Geld und das in der Regel wiederkehrend. Je nach Datenmenge wird's da schnell teuer. Vorher durchkalkulieren damit du hinterher nicht zu sehr weinst wenn die Kreditkarte glüht.

Lenny88 schrieb:
Ich würde dann auch nicht versuchen, die Daten mit dem Laptop meiner Frau synchron zu halten, sondern eher per VPN ihr einen Zugriff von außen zu ermöglichen.
Das kannst du jetzt doch aber auch schon so machen. ABER erfüllst du die dafür notwendigen bzw. sinnvollen Voraussetzungen?
Hat dein Internetanschluss eine adäquate Bandbreite (auch bzw. vor allem im Upload)? Wie schaut's mit der IPv4 Konnektivität aus?
Da deine Partnerin ja selbstständig ist: In den Daten sind hoffentlich keine (personenbezogenen) Kundendaten enthalten oder wissen alle Kunden, dass du potentiellen Zugriff auf die Daten hast als Außenstehender und wurde dem zugestimmt? Wenn du Backups "in die Cloud" schieben willst: Wissen die Kunden, dass die Daten bei Dritten abgelegt werden sollen?

Lenny88 schrieb:
Was sagt ihr zu dem Ansatz?
Der Ansatz ist nicht wirklich durchdacht bzw. du willst weite Teile deines Setups ändern wenn es auch mit weniger Aufwand möglich wäre das eigentliche ursprüngliche Ziel zu erreichen, z.B. mit Syncthing was auf deiner Debian Storage VM mit laufen könnte.
 
Ich würde die snapshots per duplicati auf den remote storage schieben.

Wir nutzen duplicati für offsite Datenbanken mit mehreren hundert GB. Läuft einwandfrei.

Alternativ könntest du auch drüber nachdenken per duplicati auf File Level zu sichern und die nicht so wichtigen und selten veränderten Mediendaten einfach auch nur selten sichern. Würde das Backup massiv beschleunigen.
Oder du lässt diese eher unwichtigen Daten einfach aus dem offsite Backup raus.
 
So, nach langer Zeit mal wieder ein Update von meiner Seite.

Ich habe TrueNAS aufgesetzt und damit eine, aus meiner Sicht, zufriedenstellende Lösung erreicht.

In TrueNAS habe ich einen 8 TB Pool mit verschiedenen Datasets angelegt, auf die z.B. unterschiedliche Regeln zur Snapshot Erstellung/Archivierung angewandt werden.
Zudem habe ich das Duplicati und Syncthing Plug-In installiert. Über Duplicati werden die wichtigsten Daten (<30 GB) täglich verschlüsselt in der Cloud gesichert.
Über Syncthing werden die verschiedenen Windows Clients im heimischen Netzwerk synchronisiert, wobei die Arbeitsweise so ist, dass lokal auf dem Laptop bearbeitet wird und die Änderungen dann, wenn mit dem heimischen W-LAN verbunden aufs NAS synchronisiert werden - somit benötige ich erst einmal keinen externen Zugriff auf das NAS (und nein, kundenspezifische Daten liegen dort nicht).

Dadurch habe natürlich noch kein separates Backup der gesamten Daten. Ich habe hier nun noch folgendes liegen und überlege was ich damit mache.
4x 3 TB Platten
ASROCK QC5000M Board mit 8 GB RAM

1. Sicherung der Daten einfach auf 2 externe 3 TB Platten über SMB Freigabe (ca. 4 TB der Daten sind absolut statisch und verändern sich nicht)
Vorteil: von jedem System lesbar, einfach auszulagern Nachteil: keine ZFS spezifischen Features (insb. Snapshots, Verschlüsselung)
2. Sicherung der Daten per TrueNAS Replikation auf externe Platten
Vorteil: lassen sich einfach auslagern zu einem anderen Ort; Nachteil: im "Fall der Fälle" nicht von jedem System einfach lesbar
3. Aufbau eines Zweitsystems mit eigener TrueNAS Instanz und Replikation von "Haupt-System". Käme dann vermutlich in den Keller, also nicht Offsite
Vorteil: könnte das Haupt-System im Fall der Fälle ohne größere Ausfallzeit ersetzen; ausreichend großer Pool möglich ohne mit mehreren externen Platten zu hantieren Nachteil: Gehäuse + Netzteil kaufen, zusätzlicher Wartungsaufwand, kein Offsite

Wozu würdet ihr raten?
 
Lenny88 schrieb:
Über Duplicati werden die wichtigsten Daten (<30 GB) täglich verschlüsselt in der Cloud gesichert.
Hier kannst ggf. prüfen ob du hier extra Aufwände bzw. Abhängigkeiten einsparen kannst. TrueNAS ScaleCore (?) bieten ja von Haus aus Cloud Sync Tasks mit vielen Anbietern. Falls ja brauchst nicht noch extra Duplicati. Falls du Angst vor Abhängigkeiten hast (die so oder so unbegründet ist): Auch TrueNAS hat das Rad nicht neu erfunden sondern nutzt dafür rclone.

Lenny88 schrieb:
von jedem System lesbar
Nein, lediglich von jedem System lesbar, was das Dateisystem und dessen Features lesen kann welches du auf den externen HDDs verwenden willst.

Lenny88 schrieb:
TrueNAS Replikation auf externe Platten
Die in TrueNAS Scale/Core (?) per GUI angebotene ZFS Replikation bietet keine schöne einfache "Replikation to USB Devices" an da ZFS-basierte Systeme in der Regel so viel Speicher beheimaten, dass einzelne externe Laufwerke mit der Datenmenge überfordert wären...
Also ja du kannst so etwas machen aber dann nur mit viel manuellem Aufwand oder basierend auf Scripten von Dritten denen du blind deine Daten anvertrauen müsstest sofern du diese Scripte nicht selbst prüfst und nachvollziehen kannst.

Lenny88 schrieb:
im "Fall der Fälle" nicht von jedem System einfach lesbar
Von jedem System aus lesbar, wo du ein *BSD oder ein (fast beliebiges) Linux deiner Wahl starten kannst da alle davon idR mit ZFS umgehen können.

Lenny88 schrieb:
Aufbau eines Zweitsystems mit eigener TrueNAS Instanz und Replikation [...] Keller, also nicht Offsite
Warum stellt ihr das zweite System nicht zur Arbeitsstelle deiner Frau? Site-to-Site VPN zwischen den Fritzboxen oder per Wireguard auf den TrueNAS Scale/Core (?) Systemen, dann ist auch Offsite erfüllt.
 
snaxilian schrieb:
Hier kannst ggf. prüfen ob du hier extra Aufwände bzw. Abhängigkeiten einsparen kannst. TrueNAS ScaleCore (?) bieten ja von Haus aus Cloud Sync Tasks mit vielen Anbietern. Falls ja brauchst nicht noch extra Duplicati. Falls du Angst vor Abhängigkeiten hast (die so oder so unbegründet ist): Auch TrueNAS hat das Rad nicht neu erfunden sondern nutzt dafür rclone.

Bei der eingebauten Version ist das Thema Versionierung/Backup so wie ich es verstehe schwierig. Man kann entweder nur auswählen, dass nur neue Daten dazu kommen ohne zu löschen (Cloud Speicher läuft irgendwann voll) oder, dass synchronisiert wird (also Dateien direkt gelöscht werden).
Duplicati habe ich so eingestellt, dass immer die letzten 5 Versionen behalten werden.
snaxilian schrieb:
Nein, lediglich von jedem System lesbar, was das Dateisystem und dessen Features lesen kann welches du auf den externen HDDs verwenden willst.
Das stimmt natürlich. Die sind mit NTFS formatiert also ist das das kleinste Problem, da ich sonst nur Windows Systeme einsetze.

snaxilian schrieb:
Die in TrueNAS Scale/Core (?) per GUI angebotene ZFS Replikation bietet keine schöne einfache "Replikation to USB Devices" an da ZFS-basierte Systeme in der Regel so viel Speicher beheimaten, dass einzelne externe Laufwerke mit der Datenmenge überfordert wären...
Also ja du kannst so etwas machen aber dann nur mit viel manuellem Aufwand oder basierend auf Scripten von Dritten denen du blind deine Daten anvertrauen müsstest sofern du diese Scripte nicht selbst prüfst und nachvollziehen kannst.
TrueNAS Core nutze ich. Stimmt aber so nicht ganz - heute getestet. Auf dem externen Laufwerk wird ein Pool angelegt. Dieser Pool lässt sich dann ganz komfortabel über die Replication Tasks als Ziel nutzen. Pool wird dann anschließend über "Export/Disconnet" "ausgeworfen" und die externe Platte kann entfernt werden. Ist im Grunde genommen vom Ablauf genau so aufwendig wie mit einem zweiten TrueNAS auf das repliziert wird.

snaxilian schrieb:
Warum stellt ihr das zweite System nicht zur Arbeitsstelle deiner Frau? Site-to-Site VPN zwischen den Fritzboxen oder per Wireguard auf den TrueNAS Scale/Core (?) Systemen, dann ist auch Offsite erfüllt.
Das Problem ist der Upload Speed. Ich nutze auch noch UrBackup um von den Windows Clients einmal wöchentlich Image Backups zu erstellen. Zusammen mit den Snapshots der Proxmox VMs kommen da schon einige GB zusammen die mit meinen 10 MBit/s Upload ziemlich lange dauern würden.
 
Lenny88 schrieb:
Bei der eingebauten Version ist das Thema Versionierung/Backup so wie ich es verstehe schwierig.
Ach ja stimmt das hatte ich nicht bedacht. Hab das bei mir so gelöst, dass das Ziel, wo ich die zu sichernden Daten hinschiebe, geänderte Daten versioniert und für eine gewisse Zeit vorhält.

Lenny88 schrieb:
Ist im Grunde genommen vom Ablauf genau so aufwendig wie mit einem zweiten TrueNAS auf das repliziert wird.
Wenn du einmaliges Update mit remote replication vergleichst dann ja und jetzt stöpsel die externe HDD morgen im laufenden Betrieb wieder an, dann musst den externen Pool wieder importieren und kannst dann erst ggf. zwischenzeitlich entstandene Snapshots da hin schieben und am Ende wieder manuelles auswerfen.
Bei fertigen NAS-Lösungen für Endkunden gibt's halt praktischere Methoden, die z.B. automatisch anfangen ein Backup zu erstellen sobald die externe HDD angeschlossen ist und diese ggf. nach Abschluss des Backups auch wieder unmounten können.

Lenny88 schrieb:
von den Windows Clients einmal wöchentlich Image Backups zu erstellen.
Jede Woche ein Full Image eines Systems? Warum nicht ein Full, dann nur noch Incremental? In Kombination mit forever incremental ist die Anzahl der sich ändernden Daten überschaubar und mit zfs replication überträgt man nach einem einmaligen Full auch nur noch die geänderten Daten.

Über welche Datenmengen reden wir denn konkret? Also wirklich konkrete harte Fakten und keine Vermutungen über die sich real wöchentlich geänderten(!) Daten? Kannst ja jetzt mit ZFS jede Woche einen Snapshot erstellen und dir die Größe anzeigen lassen, dann weißt du konkret, wie viele Daten sich geändert haben.

Selbst mit 10 MBit/s sind das 35 GBit/h bzw. 35 GByte in einer durchschnittlichen Nacht von 8h.
 
snaxilian schrieb:
Wenn du einmaliges Update mit remote replication vergleichst dann ja und jetzt stöpsel die externe HDD morgen im laufenden Betrieb wieder an, dann musst den externen Pool wieder importieren und kannst dann erst ggf. zwischenzeitlich entstandene Snapshots da hin schieben und am Ende wieder manuelles auswerfen.
Bei fertigen NAS-Lösungen für Endkunden gibt's halt praktischere Methoden, die z.B. automatisch anfangen ein Backup zu erstellen sobald die externe HDD angeschlossen ist und diese ggf. nach Abschluss des Backups auch wieder unmounten können.
Das stimmt natürlich - etwas Aufwand ist es. Für mich aber erstmal i.O.

snaxilian schrieb:
Jede Woche ein Full Image eines Systems? Warum nicht ein Full, dann nur noch Incremental? In Kombination mit forever incremental ist die Anzahl der sich ändernden Daten überschaubar und mit zfs replication überträgt man nach einem einmaligen Full auch nur noch die geänderten Daten.

Über welche Datenmengen reden wir denn konkret? Also wirklich konkrete harte Fakten und keine Vermutungen über die sich real wöchentlich geänderten(!) Daten? Kannst ja jetzt mit ZFS jede Woche einen Snapshot erstellen und dir die Größe anzeigen lassen, dann weißt du konkret, wie viele Daten sich geändert haben.

Selbst mit 10 MBit/s sind das 35 GBit/h bzw. 35 GByte in einer durchschnittlichen Nacht von 8h.
Nein, kein Full Image. Das meine ich einmal monatlich (kenne die Standard Einstellung von UrBackup gerade nicht), wöchentich nur ein inkrementelles Backup.
Ich habe gestern noch einmal auf die externe repliziert - warte jetzt mal ne Woche ab und schaue dann, um wie viel größer die neue Replikation ist. Dann weiß ich ja was in etwa anfällt.
 
Lenny88 schrieb:
Für mich aber erstmal i.O.
Stell dir mal ne Erinnerung in den Kalender für in 6 und 12 Monaten und beantworte dir selbst ehrlich diese Frage dann nochmal. Die allermeisten Menschen haben für solche manuellen Schritte nicht das Durchhaltevermögen. In den meisten kleineren KMUs scheitert es z.B. schon daran wenn einmal die Woche die Tapes/Laufwerke getauscht werden sollen für das Backup und da rede ich nur vom tauschen, der Rest funktioniert ohne menschliche Interaktion.
 
Frohe Weihnachten erst einmal!

Die letzten Wochen habe ich einmal wöchentlich die externe Platte angeschlossen und die Datenmengen die sich hier wöchentlich ergeben dürften ziemlich überschaubar sein.
Eigentlich dachte ich, mit den Hardware Resten ein TrueNas Zweitsystem aufzubauen, überlege aber mittlerweile ob das nicht schon "too much" ist für das was ich brauche.
Ob ich im Fall der Fälle nun unbedingt alle vergangenen Snapshots etc. wiederherstellen muss bezweifel ich.

Mittlerweile nutze ich mit FritzOS auch Wireguard mit dem Smartphone. Daher tendiere ich aktuell zu einer der ersten von Snaxilian vorgeschlagenen Ideen. Fritzbox-zu-Fritzbox VPN Verbindung (sollte auch mit der gebrandeten 1&1 Box gehen oder?) mit 8 TB USB Festplatte.
Die alte Hardware wird verkauft. Stromsparender und sollte mir reichen.

Ich überlege nur noch wegen der Software - würde es eigentlich analog zum Google Drive Backup mit Duplicati verschlüsselt machen nur mit dem Unterschied, dass der gesamte Pool gesichert wird.
Wäre dann im Fall der Fälle an jedem System lesbar auf dem Duplicati installiert ist, verschlüsselt für den Fall, dass jemand die Platte in die Finger kriegt und wenig Aufwand + stromsparend (externe Platte sollte dann Auto-Standby machen).

Was meint ihr dazu? Andere Ideen zur Software?
 
So, 8 TB Platte ist da und nun wollte ich mich an die Umsetzung machen - scheitere aber momentan noch bzw. bin mir unschlüssig über den richtigen Weg.
Ziel Setup: Platte an Remote Fritzbox und verschlüsselte Backups des gesamten TrueNAS Pools per Duplicati auf die Remote USB Platte.

Zum Test möchte ich das Szenario erst mal im Heimnetz an der eigenen Fritzbox testen.

Duplicati läuft im Jail auf Truenas, damit ich also die Platte dort als Ziel nutzen kann muss ich aus meiner Sicht:
1. das Fritz Box Netzwerk Laufwerk (die 8 TB Platte) in TrueNAS mounten
2. den Mount Point aus 1. an den Duplicati Jail durchreichen (sollte kein Problem sein)

Leider scheitere ich schon bei 1. da der Befehl mount cifs immer "operation not supported by device" auswirft.
Bevor ich mich da jetzt in die Fehlersuche stürze, wollte ich lieber noch mal nachfragen, ob der genannte Weg überhaupt der sinnvollste ist?
Oder wie würdet ihr das abbilden?
 
Lenny88 schrieb:
damit ich also die Platte dort als Ziel nutzen kann muss ich aus meiner Sicht
Hier hast du bereits den Denkfehler und Knoten im Kopf.

Deinen Weg musst du nur gehen wenn Duplicati dermaßen beschränkt und limitiert wäre, dass Sicherungen nur auf lokale Pfade bzw. Ordner möglich wären. Duplicati kann aber auf diverse 'entfernte' Ziele sichern wie z.B. FTPS, SFTP, SSH oder SMB um nur ein paar Beispiele zu nennen.
 
Zurück
Oben