Suche RDX-ähnliches Docking-System // G-DOCK o.Ä.?

rchr

Lt. Commander
Registriert
Okt. 2006
Beiträge
1.319
Hallo zusammen,

Ich bin auf der Suche nach einem Docking-System, ähnlich wie RDX von Tandberg.
Für die regelmässige (grosse) Sicherung meines Servers benutze ich eine Tape Library und lagere die LTO-5-Bänder im Bankschliessfach. Die Tape-Library ist zwar ganz praktisch, um jeweils eine Vollsicherung mit 40 TB zu machen, aber um die kleineren, inkrementellen Sicherungen (so um die 3 TB) regelmässig wegzuschreiben, dann doch etwas overkill. Da würde ich ganz gerne HDDs verwenden und zwar, wegen der Handlichkeit, gerne 2,5"-Laufwerke.

Und keine Angst: das ist nicht das einzige Backup! Auf dem Arbeitsserver werden die Daten schon mal im RAID60 vor HDD-Ausfällen geschützt, dann wird ein Backup auf den Backup-Server gemacht, der die Festplatten wiederum mit RAID5 vor HDD-Ausfällen schützt und vom Backup-Server gibt es dann eben noch ein Backup, das ausser Haus gelagert wird und genau um dieses geht es hier.

Ich möchte nun nicht ständig Kabel ein- und ausstecken, weshalb ich mich nach einer Lösung mit einer Docking-Station umsehe. Ich kenne diese kleinen Dockingstationen, wo man die HDDs nackt reinsteckt, das gefällt mir aber nicht so gut, weil dann die HDDs halt wirklich völlig ungeschützt sind.

Ich bin auf Tandbergt RDX gestossen und das System wäre eigentlich genau das, was ich mir vorstellen würde, nur die Preise für die Medien sind einfach exorbitant. Über 400 € für eine 4TB-Disk ist mir dann doch etwas zu viel. Ausserdem ist das System halt wirklich als Ersatz zu Bandlaufwerken gedacht und wird dementsprechend auch angesprochen, gemanaged, etc.
Auf der Suche nach Alternativen bin ich auf G-Technology gestossen und dort auf die Docking-Station "G-DOCK ev Solo" und die passenden Platten "G-DRIVE ev RaW". Laut Beschreibung sollen die Platten selbst ohne den grossen Gummibumper noch "rugged" sein und sicher nicht so empfindlich wie nackte Platten. Ausserdem finde ich die Preise ganz ok.

Ich frage mich aber, ob es noch andere Alternativen gibt? Von mir aus auch leere Systeme, wo ich die Platten selbst einbauen kann.

Ich hoffe, dass ihr noch den einen oder anderen Tipp für mich habt.

Vielen Dank und Gruss
Christoph
 
rchr schrieb:
Da würde ich ganz gerne HDDs verwenden und zwar, wegen der Handlichkeit, gerne 2,5"-Laufwerke.
Bedenke nur, dass es 2.5" HDDs nur mit maximal 5TB gibt, während gerade die erste 3.5" HDD mit 18TB vorgestellt wurde, mit SMR sogar mit 20TB und alle 2.5" HDDs mit 4TB und 5TB ebenfalls SMR haben. Alternativen zu den RDX von Tandberg wären mir keine bekannt.
 
Wie gesagt - es geht nur um die kleineren, inkrementellen Backups zwischendurch. Meine Tape Library arbeitet noch mit LTO-5, mein einzelnes Tabletop-Laufwerk mit LTO-6. Da ist auch bei 3 TB Schluss. Da müsste ich schon ein LTO-7 Laufwerk kaufen, was mich aktuell im günstigsten Fall etwa 2500.- kosten würde...
Nur um 2-3 TB inkrementelle Daten zu sichern, ehe es dann wieder ein grosses Voll-Backup über die Library gibt...
 
So wie ich das sehe, musst den Gummi/Silikon Bumber der G-Drives auch abmachen während du das Laufwerk nutzt. Dann kannst doch genauso dir einfach ein paar einzelne HDDs und Bumber bzw. Schutzhüllen so besorgen. Platte in beliebiges günstiges Dock > inkrementelles Backup > Backup fertig > Disk aus Dock raus > Disk in Hülle rein.

Alternativ wenn es nur um die inkrementellen Sicherungen geht: Hast du mal über $Cloudstorage nachgedacht? Die günstigsten Anbieter wirst mit 0,005 $ pro GB pro Monat finden. Zugriff z.B. per rclone zu mounten und kannst die Daten dann verschlüsselt dort hin schaufeln. Flaschenhals ist dann aber vermutlich dein Internetupload.
 
Der Hersteller wirbt damit, dass die G-Drives auch ohne den grossen Bumper noch immer "rugged" seien. Mit Bumper 1m freier Fall auf Zement. Ohne Bumper immer noch "unsanftes ablegen", umkippen, etc.
Ich denke, ähnlich wie bei den RDX sind die Platten im Gehäuse nochmals in Silikon gebettet.

Cloud: hatte ich schon mal. Das Problem ist nicht mein Upload (der ist bockstabil bei 1 Gbit/s) sondern die Anbindung der Server und "der Weg dahin". Da habe ein Dutzend auf der ganzen Welt probiert und schliesslich habe ich nur einen Anbieter in der Schweiz gefunden, der eine vernünftige Übertragungsrate (konstant 70-100 MB/s) hinbekommen hat. Das günstigste, was ich dort bekommen kann, sind 8TB (ist das kleinste Paket, was angeboten wird) für 60.- pro Monat.
Also nach einem halben Jahr ist die Cloud teuerer als 2x4TB Platten kaufen. Und es ist halt Cloud mit allen bekannten Nachteilen....

Gruss
Christoph
 
rchr schrieb:
Der Hersteller wirbt damit, dass die G-Drives auch ohne den grossen Bumper noch immer "rugged" seien
Leider bleibt es dabei: Es ist Werbung, am Ende zählt was im Datenblatt konkret steht und da ist nirgends von einer besonderen Federung/Lagerung ohne Bumper gesprochen und selbst mit erwähnt der Hersteller (Western Digital btw) nur bis zu 1,5m inklusive Bumber auf "carpeted concrete floor" und das ist eben nicht harter Beton sondern Betonboden auf dem ein Teppich aufgebracht ist.

Ich persönlich nutze backblaze b2 als zweite offsite-location für kritische Daten und komme auf ~90 MBit/s, Latenz ist halt nicht sooo geil weil es einmal um den Globus geht und ich noch nicht auf deren Datacenter in Amsterdam migriert bin aus Faulheit. Zu Testzwecken mit AWS S3 und AWS Glacier hatte ich auch keine Probleme aber da sind mir die Preise einfach zu hoch als Privatperson^^ Beruflich muss ich das ja nicht zahlen, da kann man das ruhig nutzen :D

Aber ja, eine einzelne externe HDD ist natürlich günstiger und wenn man genug Redundanzen an anderer Stelle hat vermutlich auch ausreichend.

Am Ende hat jede Lösung ihre Vor- und Nachteile. Das Produkt bzw. die Fakten dazu überzeugen mich jedoch nicht genug dass ich nicht auch eine normale HDD + Transportcase/Bumber nutzen würde.
 
Ja, darum habe ich ja auch gefragt, ob es noch andere Lösungen gibt, gerne zum selbst Zusammenschrauben.
Ich bein bei IcyDock noch auf das hier gestossen. Die ganz einfachen Dockingstationen, wo man die nackte Platte einfach hochkant reinsteckt...hm...irgendwie traue ich den Dingern einfach nicht. Ich habe von der Sorte hier ein paar verschiedene in Betrieb, u.a. als Medienzuspieler am Fernseher und um mal rasch eine Platte unter Linux auszulesen, ehe sie stirbt, aber irgendwie ist das immer so hakelig. Keine richtige Führung, die Platte steht hochkant auf den Kontakten und wenn man dran stösst, wackelt sie hin und her. Alles nicht gerade so, wie ich es mir vorstelle. Eine gute, saubere, qualitativ hochwertige Dockingstation, wo die Platte drin liegt und etwas geschützt ist, wäre schon das Minimum. Dann könnte ich auch mit der Lösung Docking + Transportcase leben.

snaxilian schrieb:
Ich persönlich nutze backblaze b2 als zweite offsite-location für kritische Daten und komme auf ~90 MBit/s, Latenz ist halt nicht sooo geil weil es einmal um den Globus geht und ich noch nicht auf deren Datacenter in Amsterdam migriert bin aus Faulheit.

Ja, ~90 MBit/s hatte ich damals in meinen Tests auch. Aber das ist einfach ein schlechter Witz! 90 MBit/s das sind gerade mal 11-12 MB/s. Ich rede hier von einer inkrementellen Sicherung mit 3 TB - also über 3'000'000 MB. Bei 11-12 MB/s dauert es im optimistischsten Fall 3 Tage. Für die tägliche Sicherung 3 Tage...irgendwas beisst sich da.

AWS S3 und Glacier hatte ich auch probiert. Die waren aber auch nicht wirklicher performant. Ich rede davon, dass ich einen Glasfaseranschluss mit 1000 MBit/s konstanter Up- und Download habe. Mein Netzwerk hier zu Hause intern läuft durchgängig mit 10 GBit/s. Mein Internetprovider hat mir angeboten, ab Febraur auf eine 10 Gbit (also 10'000 MBit) Leitung zu wechseln, allerdings gibt es aktuell leider noch keinen passenden Router. Der einzige Router, der an diesem Anschluss läuft, verteilt die 10 GBit auf 1x 2,5 GBit und 3 x 1 GBit und WLAn. Also alles eine ziemliche Mogelpackung.

Anyway: Alles cloudmässige, was unter 60 MB/s (~500MBit/s) Dauertransfer hat, ist ein schlechter Witz und für meine Zwecke nicht akzeptabel. Der Anbieter, den ich hier mal getestet hatte, hat meist immerhin etwa 80 MB/s (gegen die 600 MBit/s) Dauertransfer hingekriegt. Eigentlich hätte ich gerne eine Lösung mit >100MB/s.

Am schönsten wäre SAS, da ist alles schon vorhanden - bis auf die externe Festplatte :D

Gruss
Christoph
 
Das verlinkte icyDock arbeitet mit HDD-Trays und ein bisschen geschützt ist da das Laufwerk an sich, nicht aber die eigentlichen wechselbaren Laufwerke in ihren Trägern. Bei Systemen mit Trägern wirst keine eigenen generischen Bumper nutzen können oder willst du dieses externe Laufwerk nur als Transporthülle verwenden? Dafür ggf. etwas teuer^^
Da würde ich dann schon eher zu den IcyDock FlexiDock Lösungen greifen. Da kannst nackte Disks einstecken und zum Transport dann in generische Bumber/Cases. die unterstützen dann auch sogar SAS aber "nur" bis SAS 3.0 Single Channel, also 6 Gbps, dann kannst auch Sata nutzen...
2,5" und SATA bekommst mit 3 und 4 TB aber die sinnvollen, sprich ohne SMR, haben nur 5400 rpm und sind 15mm hoch, da musst beim Dock drauf achten, dass dies damit umgehen kann.

Wenn du doch sowieso ein LTO-6 Laufwerk hast und es dir um die inkrementellen Sicherungen geht und diese laut deiner Beschreibung bis 3 TB gehen, warum dann nicht LTO-6 Bänder verwenden?

Ansonsten wird vermutlich wirklich RDX der nächstmögliche Schritt sein... Oder du besorgst dir nen gebrauchten Server/PC, stellst den in ein RZ, Stichwort Housing, mit ebenfalls 1G oder höherer Anbindung und speicherst dort die inkrementellen Sicherungen zwischen.
 
Hm...ich glaube, wir reden da etwas aneinander vorbei.

Also ich habe ja gesagt, dass ich mich mit einer Lösung "Docking-Station für nackte HDD und generischer Bumper/Koffer für den Transport" anfreunden kann. ABER: Die bekannten Docks sehen ja alle irgendwie so aus. Und das gefällt mir nicht. Das sind alles so Wackel-Dackel-Modelle. Die HDD steht hochkant auf den Kontakten und wackelt fröhlich hin und her. Das will ich nicht. Darum habe ich geschrieben, dass so ein Dock wie eben das von icyDock (egal ob mit oder ohne Tray) mir besser gefällt. Es darf auch gerne ohne Tray sein, also genau so, wie die FlexiDocks. Nur das ist dann wieder intern und dort habe ich keinen Platz mehr, ganz abgesehen davon, dass dort wohl kein HotSwap unterstütz wird (vom Server her). Da müsste ich mir noch was einfallen lassen.

Wegen SAS meinte ich nicht, dass ich SAS-Platten verwenden will, sondern dass ich im Server schon einen SAS HBC mit externen SFF-8088-Anschlüssen habe, wo ich das einfach nur noch einstecken könnte und dann auch eine ordentliche Übertragungsgeschwindigkeit habe. Klar benutze ich SATA-Platten, aber der Anschluss eines externen Laufwerks über SAS wäre halt sauberer als über USB (arretierte Stecker, kein zusätzlicher Converter dazwischen, etc.).

Was ist denn so schlimm an SMR? Es werden keine kleinen Einzeldateien hin und her kopiert. Es sind Dateien, die bereits von einem Backup-Programm erzeugt wurden und die zusätzlich extern gespeichert werden. 100 GB pro Stück. Die werden entweder komplett geschrieben oder gelöscht. Sie werden nicht geändert und es wird nur lienar geschrieben oder gelesen. Fertig. Ich würde sagen, das ist doch genau der Zweck, wofür SMR geschaffen wurde, oder?

Puh...LTO...kennst du dich damit aus?
LTO hat ggü. einer HDD diverse Nachteile. Nur schon der Zugriff. Ein LTO-Band kann man nicht einlegen und dann einfach mal im Explorer die Dateien rüberziehen (ausser mit LTFS, was aber wieder ein Treibermurks ist und nur unter Windows funktioniert und dann nur genau mit diesem Laufwerk lesbar ist, womit man die Bänder formatiert hat, etc.). Ansonsten: LTO-Laufwerk einschalten und 5 Minuten warten, bis der Bootvorgang abgeschlossen, das Laufwerk getestet und ready ist. Dann Band einlegen. Band wird gespult, gelesen, kontrolliert, auf Anfang gesetzt,...nach weiteren 5min ist das Band bereit. Dann brauchst du eine spezielle Backup-software, die auf das Band schreiben kann. Das geht nicht mit Bordmitteln. Anschliessend das Band zurückspulen, auswerfen und das Laufwerk herunterfahren. Nochmals 10min wie zu Beginn. Wie ich schon ganz zu Beginn geschrieben hatte: LTO ist super, um ein 40 TB-Vollbackup einmal pro Woche vollautomatisch über Nacht wegschreiben zu lassen. Für die tägliche "Kleinsicherung" zwischendurch fast etwas heftig.
Und eben: LTO-6 unkomprimiert 3 TB. Nur die 3 TB reichen mir nicht ganz. Es sind (sehr konstant seit Jahren) 3,3 bis 3,5 TB. Also 2 Bänder. Somit Aufwand x 2. Eine Lösung wäre auf LTO-7 oder LTO-8 zu wechseln, dann reden wir aber über Investitionskosten von 2500.- bis 3500.- einfach noch zusätzlich.

Server habe ich hier mehr als genug rumfliegen. Damit könnte ich ein halbes Rechenzentrum aufmachen :D
Aber Housing kostet auch wieder etwas mehr - zumindest hier in der Schweiz.

Gruss
Christoph
 
Ich hab beruflich paar Jahre lang größere VMware-Farmen inklusive Primärstorage als auch Backupstorage administriert. sowohl Tape Libraries mit LTOs als auch virtual tape libraries die intern mit HDDs laufen sich extern als Tape Library ausgeben als auch reine große Server mit NFS und zwei-Wege-Replikation also gewisses Grundverständnis ist vorhanden, ja :) Aber wir hatten auch mehrere 10G Interconnects zwischen den RZs^^

Tapes funktionieren auch unter Linux mittels dem guten alten tar brauchbar. Ist zwar schon ~10 Jahre alt aber noch als Start brauchbar: https://www.cyberciti.biz/faq/linux-tape-backup-with-mt-and-tar-command-howto/ oder https://wiki.ubuntuusers.de/Sicherungskopien_auf_Streamer/
Das man auf Tapes nicht 1:1 zugreifen kann wie auf ein "normales" Dateisystem ist mir bewusst.

Zu den SMRs: Grundlegend ja, aber. Solange du nur Daten anhängst und hinzu fügst, ist die Performance in Ordnung. Problematisch kann es beim löschen und dann wieder hinzufügen werden. Kleines Beispiel was ich meine:
Gehen wir von einer 8 TB HDD aus mit SMR.
Erstes Backup: 3,3 TB > Schreiben mit normaler Geschwindigkeit, da die folgenden Spuren leer sind.
Zweites Backup: 3,3 TB > Schreiben weiterhin mit normaler Geschwindigkeit, da er hinter dem ersten Backup anfängt und "vor dem Schreibkopf" nur leere sich überlappende Spuren liegen.
Platte jetzt zu 6,6 TB von 8 TB gefüllt.
Jetzt löscht du das erste Backup und willst das dritte Backup schreiben.
Drittes Backup ist aber 3,4 oder 3,5 TB groß (oder was auch immer aber auf jeden Fall größer als das erste, was gelöscht ist) > Die ersten 3,3 TB schreiben noch mit normaler Geschwindigkeit, danach schreibt er am Ende der HDD weiter, ist ja schließlich noch Platz.

Das Problem ist: die letzten Spuren der ersten 3,3 TB überlappen sich mit den ersten Spuren des zweiten Backups. Somit müssen auch diese Spuren erneut geschrieben werden und diese neu geschriebenen Spuren überlappen sich mit den folgenden Spuren und so weiter und sofort. Sofern das neue Backup kleiner ist als das zuvor gelöschte ist das kein Problem aber in der Regel werden es mehr Daten und nicht weniger^^
Viele SMR-Disks haben zwar regelmäßig "Lücken" in den Spuren sodass sich so ein neu schreiben nicht bis zum Ende durchzieht aber keine Ahnung ob diese groß genug sind für deinen Anwendungsfall denn gerade häufige, quasi tägliche inkrementelle Backups sind regelmäßige Zugriffe.
SMRs sind wunderbar für WORM-Systeme wo nur selten bis nie gelöscht wird (Videos, DMS, Datengräber, etc) aber für deinen Fall meiner Meinung nach nicht geeignet, zumindest würde ich es nicht riskieren. Wenn die 200-300€ verkraftbar sind, wäre es ansonsten einen Versuch wert.
 
Okay, dann weisst du ja, wie unpraktisch das tägliche Handling von Tapes ist und dass LTO-6 mit 3 TB Kapazität nicht reicht, um mein 3,3 TB-Backup zu speichern. Klar, die Hersteller werben mit 6,x TB komprimiert. Nur die Daten sind halt schon komprimiert, da gibt es nix mehr zu komprimieren :D

Und: wir reden von HDD mit 4 bis max. 5 TB. Backup von 3,3-3,5 TB. Da gibt es auch nix mit "anhängen" oder "zweites Backup auf die HDD" oder was auch immer. Backup drauf, HDD weg. HDD löschen, neues Backup drauf, HDD weg. Problem SMR gelöst :D

Edit: Wobei ich mich langsam gerade anfange zu fragen, ob ich nicht etwas übers Netzwerk dafür überlegen soll/könnte. Die Server stehen im Keller. Die Tape Library (aufgrund SAS-Anschluss direkt an den Server und Lärmproduktion) natürlich ebenfalls. Also einmal pro Woche wandere ich eh in den Keller, bestücke die Library mit Tapes, hole sie am nächsten Tag wieder raus, etc.
Für das tägliche Bakcup würde es ja vielleicht ein kleines NAS tun? Da müsste ich nur schauen, ob es welche gibt, wo man eine Festplatte einfach austauschen kann, um abwechselnd auf verschiedene Platten das Backup zu machen. Sonst muss es ein Kleinst-PC werden mit 3,2"-Schacht für das Dock...? Hm....
 
Zuletzt bearbeitet:
Ah ja richtig, hatte ich übersehen, dass du 2,5" nutzen willst und ja damit dann natürlich ein inkrementelles pro Disk. Dann ist SMR höchstwahrscheinlich kein Problem.

QNAP hat fertige NAS mit 10G, eine Disk rein > OS drauf und in Schacht zwei Backup-HDD. Du müsstest nur jeweils wipe, create volume, mount same path, trigger backup, umount verskripten.

Das Handling sind identische repetitive Aufgaben, sowas wird automatisiert^^ Am Ende bleibt "Tape manuell einlegen" vs. "HDD manuell einlegen" in deinem Fall oder übersehe ich etwas? :)
 
snaxilian schrieb:
damit dann natürlich ein inkrementelles pro Disk. Dann ist SMR höchstwahrscheinlich kein Problem.
Die Frage ist halt wie viele Daten dabei geschrieben werden. Dazu hat der TE nur geschrieben:
rchr schrieb:
Nur um 2-3 TB inkrementelle Daten zu sichern
Bei 2 bis 3TB die zu schrieben wären, reißen die paar GB OnDisk Cache auch nichts raus, da hängt es dann volständig davon ab wie die Schreibzugriffe genau erfolgen, ob es also viele kurze oder wenige lange sind.
 
snaxilian schrieb:
Das Handling sind identische repetitive Aufgaben, sowas wird automatisiert^^ Am Ende bleibt "Tape manuell einlegen" vs. "HDD manuell einlegen" in deinem Fall oder übersehe ich etwas? :)

Hm...fast... :D
Es bleibt "HDD manuell einlegen" vs "3 Stockwerke in den Keller rennen, Tape manuell einlegen, 3 Stockwerke hochrennen, Backup anstossen, warten bis Tape voll, 3 Stockwerke in den Keller rennen, Tape wechseln, 3 Stockwerke hochrennen, warten bis Backup fertig, 3 Stockwerke in den Keller rennen, Tape entladen, 3 Stockwerke hochrennen".

Ein Backup muss - IMHO - einfach und "dumm" sein, sonst macht man es nicht.

QNAP hat fertige NAS mit 10G, eine Disk rein > OS drauf und in Schacht zwei Backup-HDD. Du müsstest nur jeweils wipe, create volume, mount same path, trigger backup, umount verskripten.

Hm...da ist halt genau die Frage, ob das überhaupt geht. Also dass man die HDD einfach wechseln kann, ohne dass das NAS dann durchdreht und nur noch Alarme spuckt von wegen "Laufwerk fehlt" oder "defekt" oder was auch immer.

Holt schrieb:
wie die Schreibzugriffe genau erfolgen, ob es also viele kurze oder wenige lange sind.

30 bis 35 Dateien à 100 GB.
 
Zuletzt bearbeitet:
Persönlich würde ich das (sekundäre) Backup auf 'ne NAS machen die in einem anderen Brandschutz (sonstwas) Bereich steht und dann über die Backup-Software von dort aus einen Copy-Job auf's Tape für die Wochensicherung.

Warum willst du das inkrementelle Backup überhaupt täglich wechselbar offline haben? Beim Incremental muss doch eh die ganze Backup-Kette online sein, was du schreibst klingt für mich mehr nach Differential...
 
@Rickmer:
Könnte es sein, dass du den Thread nicht komplett durchgelesen hast? Irgendwie klingt deine Antwort leider sehr, sehr danach.
Also: Bei mir zu Hause steht im Keller ein Server. 60 TB im RAID60 (Geschwindigkeit & Schutz gegen HDD-Ausfall).
Daneben steht noch ein Server, 48TB im RAID5 (Schutz gegen HDD-Ausfall).
Der erste Server ist der Arbeitsserver, der zweite Server ist der Backup-Server.
Der Arbeitsserver macht täglich ein Backup auf den Backupserver und zwar Inkrementell. Die Backups werden einmal pro Woche konsolidiert und auf Tape geschrieben. Die Tapes kommen dann ins Bankschliessfach.
Das ganze Netzwerk läuft auf 10GBit.

Aber was ist mit den Backups, die jeden Tag gemacht werden? Die würde ich gerne auf eine möglichst bequeme (bequemer als auf Tape) Art zusätzlich extern sichern.

Das einfachste wäre, eine USB-Platte an meinen PC im Home-Office anzustecken und eine Netzwerkfreigabe einzurichten, damit die Sicherung einfach vom Server via Netzwerk und meinen PC auf die externe Platte geschrieben wird. Ich finde nur die Netzwerkfreigabe vom Backup-Server auf meinen PC nicht sonderlich klug, denn ansonsten habe ich alles getan, um den Backup-Server vom restlichen Netz zu isolieren. Die einzige Verbindung besteht aus einem FTP-Zugriff vom Hauptserver auf den Backup-Server zum Speichern der Backups und auf dem Hauptserver sind die Zugangsdaten nur im Backup-Programm hinterlegt.

Gruss
Christoph
 
Da hatte ich wohl einiges überflogen, sorry.

Solange die read-only Netzwerkfreigabe ihren eigenen lokalen User bekommt mit 20-Ziffer-Kennwort (oder mehr) und einzig hinterlegt wird in einem Kopierprogramm das sich direkt mit dieser verbindet um das neuste Backup direkt auf die Externe abzulegen würde ich das Risiko für sehr überschaubar halten.

Backup-Server vom Netzwerk isolieren - klar, sehr sinnvoll. Aber man muss ja nicht die Freigabe dauerhaft auf dem Desktop-PC hinterlegen um sie zwecks Backup nutzen zu können.

Dann sollte einzig noch gewährleistet sein, dass die Konfigurationsdatei vom genutzten Backup-Programm die Credentials für den Zugriff auf den Backup-Server nicht im Klartext speichert.


Für meinen Teil benutze ich SyncBackPro: https://www.2brightsparks.com/syncback/compare.html
Dort sind Passwörter in den .ini-Dateien nicht offen hinterlegt auch ohne weitere Vorkehrungen (da ist stattdessen ein langer Zahlencode - ich bin mir nicht sicher ob das ein Hash ist oder was) aber das Programm bietet auch die Möglichkeit alle sensiblen Einstellungen mit 256-Bit AES zu verschlüsseln.
 
Trotzdem bin ich der Meinung, dass es konsequenter (und schlussendlich auch bequemer und weniger fehleranfällig) wäre, das über eine dedizierte Lösung zu machen.
Entweder ein NAS, was das unterstützt, was ich will. Also quasi die Datenplatte zu tauschen ohne zu murren und ohne Initialisierung oder was auch immer das dann einfach zu fressen und die Daten zu schreiben (gibt es das)?. Oder halt doch irgend einen kleinen, billigen Mini-PC mit einer Wechselplatte (intern via Dock oder extern mit USB3) hinstellen und quasi als NAS für diesen zweck missbrauchen und darauf dann nur die eine Freigabe für den Server einrichten...

Da wir dann hier nur über eine Festplatte reden, muss das Gerät auch keine 10GB-NIC haben, was es etwas vereinfacht. 100MB/s bekomme ich über normales 1GB und viel mehr schreibt die Platte auf Dauer auch nicht weg.
 
Zurück
Oben