Backup Verschlüsselung für die Cloud

Testa2014

Lieutenant
Registriert
Dez. 2014
Beiträge
1.019
Mahlzeit Community,

durch den Beitrag Cloud Speicher Backup: https://www.computerbase.de/forum/threads/suche-neuen-cloudanbieter-fuer-backup.2035034/ stellte sich mir die Frage, wie verschlüsselt/schützt die Community die Daten vor dem Upload?

Was sind eure/die aktuellen Standardtools oder nutzt Ihr eigene Skripte (falls ja, wie sind die aufgebaut)?
Ich würde eine Umfrage draus machen, nur kenn ich dazu viel zu wenige Tools. Einfallen würde mir AdHoc SSL, PGP, die Archiveigenen, Veracyrpt, HashBackup, rclone, Boxcryptor ... Ich will aber von euch Wissen was Ihr nutzt. Ob für Desktop, NAS oder Server mit oder ohne GUI ist erstmal zweitrangig.

Bisher verzichte ich Dank 2 Speicher an getrennten Orten auf ein Cloud Backup, und bei 60$ unlimited im Jahr werd ich echt schwach meine gesamte Datensammlung hochzuschieben. Das ist verdammt günstig, da kann ich mir für eine Platte 5 Jahre Cloud Speicher kaufen ;)


Bis Post #12:
ToolNutzer
Duplicati1
Boxcryptor1
7zip1
Veeam1
restic1
rclone1

AnbieterNutzer
Google1
Onedrive1
Webspace1
 
Zuletzt bearbeitet:
Aufgrund der Preise (die ich bisher gesehen habe) ist es bisher für mich keine Option ein Backup in die Cloud zu legen, aber nach aktuellem Infostand würde es entweder darauf hinauslaufen das Backup direkt zu verschlüssen mit der Backup-Software oder Boxcryptor.

Boxcryptor benutze ich zumindest aktuell, um meine Daten auf Onedrive zu verschlüsseln.
 
  • Gefällt mir
Reaktionen: Testa2014
xammu schrieb:
Welcher Anbieter ist das? Amazon ist ja nur noch 1TB?
Backblaze, aber bei dem Preis m.W.n nur für Win/Mac-Desktop

Testa2014 schrieb:
Was sind eure/die aktuellen Standardtools oder nutzt Ihr eigene Skripte (falls ja, wie sind die aufgebaut)?
Für Daten: täglich mit robocopy unverschlüsselt und lokal. Für OS-Sicherung: gelegentlich mit Macrium.

Am Desktop läuft das verschlüsselte Datei-Backup der mir wichtigen Daten einmal im Monat. Es wird manuell angestoßen und erzeugt per Batch-File ein 7zip-Archiv mit Passwort.

Da ich keine >500 MBit/s Upload habe sondern noch rückständige 100/40, wird der Upload auf meinen Webspace manuell gestartet und braucht für ca. 13 GB An Arhciven schon knapp eine Stunde.

NAS/Server Backups müssten automatisiert laufen, und dafür meine Internetleitung viel zu lahm (oder der FTTH-Anbieter unfähig, je nach Sichtweise). Wenn ich ein OS-Image mit 50-100 GB auf das NAS schiebe, dann muss das auch in endlicher Zeit im Backup landen. Also allerspätetens bevor ich am kommenden Tag wieder HomeOffice mache und die Leitung dafür benötige.

Testa2014 schrieb:
und bei 60$ unlimited im Jahr werd ich echt schwach meine gesamte Datensammlung hochzuschieben.
Tja, mal "eben" 16 TB nochschieben über die in Deutschland meist üblichen tröpfel Uploads? Mag aber sein, dass Du einen vernünftoigen FTTH-Anschluss mit >250 MBit/s Upload hast und gerane dafür auch zahlst (außer in ausgewählten Gegenden, wo man 1000/1000 für 50€/Monat bekommt)

Bei mir würde der Upload, bei gleichzeitiger Nutzung der Leitung, locker zwei Monate dauert (77 Tage bei 20 Mbit/s Dauerupload). Damit wäre ich auf Jahre an diesen Anbieter und seine Preispolitik gebunden. Erhöht der Anbieter übermorgen die Preise um 100% ist es halt so. Streicht er, wie nicht nur bei MS schon geschehen, sein "unlimited"-Angebot, muss man reagieren und mit Pech wieder ein paar Monate auf das Backup warten.

Außerdem garantiert Dir niemand (erst recht nicht für den Preis) die Wiederherstellbarkeit der Daten zu 100%. Mir nützt es nichts, wenn nur 0,1% der Kunden von einem Ausfall/Brand betroffen waren, wenn ich genau zu den 0,1% gehört hätte. Also benötige ich weiterhin mind. ein zweites Backup.

Und jetzt rechne ich zum Zeitaufwand mein individuelles Risiko eines Brand-/Hochwasser-/Einbruchschadens in meiner Wohnung dazu und komme darauf, dass mir zur Absicherung in Offline-Backup der meisten statischen Daten neben dem Offline-Backup hier im Haus genügt. Mit Ausnahme der jetzt manuell gesicherten Daten muss ich auf keine Daten nach einem Brand/HW-Defekt umgehend zugreifen können. Die ext. gelagerten HDDs sind bis zu 10 Jahre alt und liefern bis heute bitgenau meine Daten.
 
  • Gefällt mir
Reaktionen: Testa2014
Persönlich nutze ich für Backups Veeam und alle Backups werden mit dem Programm verschlüsselt, egal ob lokal oder nicht.

Allerdings mache ich kein Cloud-Backup. Das 60€/Jahr Angebot von Backblaze wäre interessant - ich muss dann allerdings checken, ob sich das bei mir überhaupt anwenden lässt, wenn das nur für Desktop-Geräte gedacht ist. Mein 100/40 Mbit/s DSL wäre da auch noch eine Hürde.
 
  • Gefällt mir
Reaktionen: Testa2014
Je nach Anwendungsfall restic oder rclone.

@gymfan falls ein Anbieter aus $Gründen nicht mehr gewünscht ist, migriert man eben. Gegen Probleme beim restore hat man mehr als eine Sicherung.
Niemand wird dir jemand 100% garantieren, auch du selbst wirst dies nie hinbekommen, v.a. nicht wenn man alles selbst machen will/muss denn der Aufwand liegt in keinem Verhältnis zum Nutzen.
Ein gewisses Restrisiko wird immer bleiben.
 
  • Gefällt mir
Reaktionen: Testa2014
@gymfan falls ein Anbieter aus $Gründen nicht mehr gewünscht ist, migriert man eben. Gegen Probleme beim restore hat man mehr als eine Sicherung.[/quote]Ich habe ja geschrieben, dass ein initialer Upload (oder Migration, falls der neue Anbieter das nicht zufällig und kostengünstig für einen übernimmt) für die 16 TB an Archivdaten ca. 77 Tage dauert. Auch ohne Betrachtung der Energiekosten dafür (mein lokales Archiv läuft keine 24/7) ist das für mich alle 1-2 Jahre inakzeptabel. Mit einem 1000/500 Anschluss würde ich viel eher migrieren wie mit einem 1000/40 (mehr ist hier derzeit nicht buchbar).

Von daher wird für mich ein solches Backup erst interessent, wenn ich mal keine ext. Lagermöglichkeit für mein Backup mehr habe. Oder wenn es bedeutend günstiger wäre wie mir alle 5-6 Jahre eine zusätzliche HDD für die eigene ext. Sicherung zu kaufen.
 
gymfan schrieb:
Tja, mal "eben" 16 TB nochschieben über die in Deutschland meist üblichen tröpfel Uploads?
:D ich rede hiervon einer größeren Datenmenge bei gleicher Geschwindigkeit. Wäre mir aber grundlegend schnuppe wie lange er läuft. Daten von vor 10 Jahren werde ich heute nicht bearbeiten. Genauso wenig wie die Fotos/Videos des letzten Jahres. Bandbreite kann limitiert werden. Ob das nu 5 Tage, 100 oder 300 dauert ... irgendwann ist er fertig. Falls ich darauf keinen Bock habe, nehm ich mir das Auto und einen Monat Colocation.
gymfan schrieb:
Außerdem garantiert Dir niemand (erst recht nicht für den Preis) die Wiederherstellbarkeit der Daten zu 100%.
Ist mir auch schnuppe, die Daten liegen auf mindestens 2 Systemen, die auch ein paar Hundert Kilometer auseinander liegen. Mir würde es um den Extremfall gehen, System 1 wird entwendet und System 2 steht in Flammen. Wenn dann 0,5% der Bilder weg sind ... dann ist es halt so. Würde fragen: davon haben wir auch Fotos gehabt? ;) Wann schaust du den in alte Bilder, relativ selten, eher wenn du mal was suchst. und 0,5% < 100%, also auf jeden Fall besser. Das wichtigste ist außerdem noch anderweitig gesichert. Dafür sind die 60$ wirklich günstig, zumal es als Backup vermarktet wird. Da geh ich dann auch von Redundanz aus (habe dazu aber nichts gefunden), jedenfalls bei b2. Dazu dann noch die 1 Jahresspeicherung für 2$.
Rickmer schrieb:
ich muss dann allerdings checken, ob sich das bei mir überhaupt anwenden lässt
Japp, genau das wäre das einzige wo ich mir tatsächlich auch Gedanken machen würde. Entweder muss ich ein System umbauen und die Laufwerke als ReadOnly an Windows reinreichen oder man bekommt das mit NFS irgendwie hin (Proxmox kann das wohl auf meine kurze Recherche heute Vormittag). Es geht mir auch nicht unbedingt um das Angebot von denen, Google bietet angeblich im Business Paket für geteilte Daten auch unlimited (9,36€/Monat) neben den 2TB für den User. Auch wenn ich davon Null halte. Auf jeden Fall besser als im Jahr 2k€ für Cloudspeicher (b2) zu blechen. Da kann ich mir auch einen Root bei Hetzner mieten, komm günstiger weg und habe gleichzeitig noch ein Server der irgendwas anderes machen kann. Klar Administration von noch einem System, worauf ich eigentlich keine Lust habe und der Preis mir dann im Verhältnis zu teuer ist.

Das ist aber erstmal nicht die Frage, möchte gerne nur Wissen was die Community nutzt. Das würde sowieso weder heute noch nächsten Monat umgesetzt werden.
 
Beim unlimited Google gibt's glaube ich aber eine tägliche Upload-Begrenzung, Linus Tech Tips hatte irgendwann mal dazu ein Video gemacht
 
Testa2014 schrieb:
Da geh ich dann auch von Redundanz aus (habe dazu aber nichts gefunden), jedenfalls bei b2.
https://www.backblaze.com/blog/vault-cloud-storage-architecture/
Testa2014 schrieb:
Da kann ich mir auch einen Root bei Hetzner mieten, komm günstiger weg und habe gleichzeitig noch ein Server der irgendwas anderes machen kann. Klar Administration von noch einem System
Neben der Administration, die Kosten bzw. Zeit benötigen, wird dein Stück Blech bei Hetzner vermutlich keine 3fache Redundanz bieten, oder? Solche Vergleiche hinken halt ziemlich und am Ende muss halt jeder für sich überlegen wie viel er bereit ist zu zahlen für $Datenmenge X.

Testa2014 schrieb:
Google bietet angeblich im Business Paket für geteilte Daten auch unlimited (9,36€/Monat) neben den 2TB für den User.
Gibt auch noch 1-2 andere Wege bei Google für mehr oder weniger unlimited Storage aber wie @Rickmer schon sagte gibt es dort ein Uploadlimit pro Tag (irrelevant bei den privaten Anschlüssen in DE^^) und die Nutzung basiert auf nicht durchgesetzten Policies bei Google. Legal und rechtlich sauber benötigt es aktuell 5 x oder 6x G Suite Basics Accounts. Aber wie bei allen Anbietern kann es da genauso sein, dass das Produkt jederzeit mit gewisser Vorlaufzeit aufgekündigt werden kann.
 
Rickmer schrieb:
750GB laut einem Forenbeitrag, soll aber durch Gastbenutzer mit Schreibberechtigung ausgehebelt werden können. Dadurch das ich mit meinem Internet "nur" auf 432GB/Tag komme das geringste Problem.

snaxilian schrieb:
Gibts da einen Unterschied zu Personal Backup? Habe das jetzt nicht rauslesen können, bei b2 steht es auf der Beschreibungsseite dabei.

snaxilian schrieb:
keine 3fache Redundanz bieten, oder?
So unbedingt benötige ich die auch nicht, wie gesagt es gibt bereits 2 Systeme welche die Daten untereinander abgleichen. Für 2 Jahre Kosten stell ich mir irgendwo noch ein 3. hin. Es würde mir nur um den "Extrem-Extrem"-Fall gehen, dafür sind 60+24$ ein schnapper. Letzten Endes ist es auch nur Bequemlichkeit und noch mehr Sicherheit. Hätte ich nur 1 System und nicht die Möglichkeit ein 2. zu Betreiben, sehe die Situation anders aus. Ich seh auch ein das b2 das bessere Produkt ist, allein durch die API und das Berechtigungsmangement (Verschlüsselungstrojaner). Ob die beim Personal Backup sehr große Datenmengen zulassen, ist auch fraglich. Was wäre den normal? 6-8TB? Meine Rechner haben nur zwischen 0,5-1TB Festspeicher, da würde mir auch Onedrive reichen. Das große liegt im Netzwerk.

snaxilian schrieb:
am Ende muss halt jeder für sich überlegen wie viel er bereit ist zu zahlen für $Datenmenge X.
Limit wäre bei 200€ im Jahr für ich sage mal 45TB, dann ist noch etwas Reserve vorhanden. Alles darüber lebe ich dann halt damit. Ist halt rein privat. Ich könnte noch n bissl was rauswerfen, was ich nicht mitsichern müsste. Das macht am Ende den Braten nicht fett. Bis heute Vormittag, als ich den Post las, wäre ich auch nie auf die Idee gekommen alles in die Cloud zu schieben. Da es halt immer teuer ist. Cloud = klaut = Taschen leer. Es interessiert mich aber auch im allgemeinem, wie die Community im Kontext Cloud und Backup mit den Daten umgeht. Von gar nicht bis verschlüsselt ist jetzt alles dabei gewesen.

snaxilian schrieb:
Aber wie bei allen Anbietern kann es da genauso sein, dass das Produkt jederzeit mit gewisser Vorlaufzeit aufgekündigt werden kann.
Google halt, Produkt auf den Markt schmeißen ... paar Jahre später einstampfen. Wie MS.

Wir kommen von der Frage etwas ab, welche Tools nutzt Ihr? :)
 
Testa2014 schrieb:
Gibts da einen Unterschied zu Personal Backup?
Keine Ahnung, müsste ich genauso wie du recherchieren. Im Zweifel den Support per Mail anschreiben und fragen und danach entscheiden.

Testa2014 schrieb:
Wir kommen von der Frage etwas ab, welche Tools nutzt Ihr?
Zentrales NAS zuhause schiebt Daten inkl. Dateinamen per rclone regelmäßig weg. Serverchen schieben relevante Nutzdaten per restic weg.
 
  • Gefällt mir
Reaktionen: Testa2014
Ich nutze die Storage Box von Hetzner. (Keine Werbung, dient nur der Info!)
Clientseitige Verschlüsselung durch das NAS.
Und auch nur ausgewählte Daten (ca. 1,5TB), damit es bezahlbar bleibt.
Warum? Just in Case:
  • Deutsche GmbH
  • WebDAV-fähig (und damit für beliebig viele Geräte nutzbar)
  • kann eigene Snapshot anlegen
 
Ich speichere mit Boxcryptor in die Magentacloud und von diesen Inhalten nochmal eine Kopie in einer verschlüsselten, mit Kennwort gesicherten, 7zip Datei per Webdav in der GMX Cloud.
 
Zurück
Oben