Wo Dokumente, Dateien etc.vor Löschen und verlust speichern, Cloud oder Fileserver ?

Paul09

Lt. Commander
Registriert
März 2009
Beiträge
1.353
Hallo,

Was ist die sicherste Methode, um Dateien, Dokumente etc. vor unabsichtiges Löschen und
Formatieren von USB-Sticks und SSD's und verlust zu sichern ?

Ich habe in meinem PC zwei SSD's, auf der ersten ist openSUSE Tumbleweed KDE und auf der
zweiten hatte ich an der openSUSE Server Distribution Tumbleweed gedacht, oder ist eine Cloud doch die bessere Wahl ?

Ich muß von meinem openSUSE Tumbleweed KDE auch Zugriff auf meine Daten etc, haben,
heist, wenn ich ein Dokument benötige, muß ich es auch vom Server holen können.

Mir ist es schon öfter passiert, das ich ausversehen Dokumente etc. auf der bzw. die SSD's und
USB-Sticks mit Dokumenten etc. gelöscht und formatiert habe, jetzt suche ich eine sichere Methode, sie vor versehentlichen Löschen und Formatieren zu sichern.

Oder wäre der kostenlose Cloud-Speicher von Proton Drive ehr das richtig für mich ?

https://proton.me/de/drive
https://proton.me/de/drive/pricing

Ich habe auch an Fedora 43 gedacht, auf der ersten SSD installiere ich Fedora KDE Plasma
Desktop und auf der zweiten SSD Fedora Cloud oder Fedora Server.

Was ist besser bzw. empfehlenswerter, Cloud oder Server, um Dokumente, Dateien etc. vor
unabsichtigen Löschen zu schützen und zu sichern ?

Ich muß aber von openSUSE Tumbleweed oder Fedora KDE zugriff auf die Daten haben.
 
  • Gefällt mir
Reaktionen: mchawk777
Ich würde nicht "oder" sagen sondern "und".
An 3-2-1 Regel halten.
 
  • Gefällt mir
Reaktionen: JPsy, BFF, TorenAltair und eine weitere Person
3 2 1 Backup Prinzip anwenden zusammen mit den vorher verschlüsselten Dateien in der Cloud.

Cloud Backups alleine sind extrem unsicher
 
  • Gefällt mir
Reaktionen: TorenAltair und mchawk777
Man schützt den Datenträger physikalisch vor zugriff, z.b. wegschließen. In der Cloud sind die Datenträger ja auch geschützt. Idealerweise arbeitet man produktiv dann immer mit ner Kopie.
 
  • Gefällt mir
Reaktionen: TorenAltair, Dat IT Nerd, gforce4711 und eine weitere Person
@Sebbi
Auch Clouds sind vor physischen Zugriff geschützt. Ein Brand kann auch die privaten Backups zerstören, auch bei der 1/2/3 Regel, oder durch einen Anwender/Prgrammfehler. Ich sehe da erstmal nicht viel Unterschied ob Cloud oder private Vorsorge.
 
  • Gefällt mir
Reaktionen: Banned und Incanus
bei mir 2tb icloud und ein nas im keller - ist das eine kaputt, verliert zumindest die cloud nix ;)
 
1. Es gibt keine sichere Methode
2. Es gibt keine sichere Methode
3. Es gibt keine sichere Methode

Das wichtigste ist Daten mehrmals sichern und auch überprüfen ob man das gesicherte wieder lesen kann.
Vor allem Daten die über längere Zeit Archiviert werden müssen, müssen gelegentlich auf neue Datenträger bewegt werden.
 
  • Gefällt mir
Reaktionen: Spawn182 und TorenAltair
Fujiyama schrieb:
Auch Clouds sind vor physischen Zugriff geschützt.

ach meinste weil die paar hundert m über dem Erdboden schweben?
Sry der musste sein aber nein, das stimmt nicht! Nur weil die in zutrittsbeschränkten Räumlichkeiten betrieben sind, sind die weder von logischen noch physikalischen Zugriff geschützt.
Nur wie die Cloud betrieben wird entscheidet darüber, ob ein Zugriff von jemand anderen als dem Datenbesitzter auf die Daten auch verwertbare Inhalte erzeugt.
 
Der Vorteil bei Cloud ist mMn, dass dort idR professionelle Hardware zum Einsatz kommt und die Leute dort wissen, was sie tun. Das ist auf jeden Fall sicherer als das stumpfe Anlegen von Backups zu Hause, ohne erweiterte Möglichkeiten zu haben, die Integrität der Daten sicherzustellen.

(Man sollte natürlich schon einen halbwegs vertrauenswürdigen Anbieter wählen.)

Ich habe es schon oft gesagt, aber ich wieder gerne noch einmal: Backups haben einen eingeschränkten Wert, wenn man nicht die Möglichkeit hat, die Integrität der Daten zu testen bzw. fehlerhafte Dateien zu identifizieren.

Paul09 schrieb:
Was ist die sicherste Methode, um Dateien, Dokumente etc. vor unabsichtiges Löschen und
Formatieren von USB-Sticks und SSD's und verlust zu sichern ?

Also unbeabsichtigtes Löschen sollte da wirklich das kleinste Problem sein. Sowas passiert auch eigentlich nicht, wenn man seine Daten halbwegs strukturiert hat und etwas aufpasst. Aber falls das nicht gegeben ist, könnte man einfach den Schreibzugriff nach jedem Backup-Vorgang wieder entziehen. Oder man könnte Backups nur über Pull durch das Ziel zulassen.

Um wie viele Daten geht es denn und wie oft verändert sich der Datenbestand?


PS: Fedora ist schon mal super. Hier könntest du ZFS als Dateisystem nutzen. Über Scrubs könntest du dann die Integrität der Daten checken (auch der Backups, wenn diese im ZFS-Dateisystem liegen).
 
Zuletzt bearbeitet:
Sebbi schrieb:
Sry der musste sein aber nein, das stimmt nicht! Nur weil die in zutrittsbeschränkten Räumlichkeiten betrieben sind, sind die weder von logischen noch physikalischen Zugriff geschützt.
Müssen wir jetzt noch den aktuellen Schließfachraub bei einer Sparkasse als Beispiel aufführen? 😉
 
Fujiyama schrieb:
In der Cloud sind die Datenträger ja auch geschützt.
Ja und nein. Hetzner sagt auch nochmal zusätzlich, dass die Daten nicht Server-Übergreifend repliziert werden in der Storage Box. Für mich persönlich ausreichend, Backup 1 liegt hier lokal am NAS und Backup 2 schiebt das NAS in die Storage Box. Das jetzt NAS und Storage Box gleichzeitig kaputt sind, halte ich für unglaublich unwahrscheinlich. Aber sollte man beim Konzept schon auch im Hinterkopf behalten.
 
  • Gefällt mir
Reaktionen: Banned
Bei einfachem versehentlichen Löschen können Snapshots helfen. Diese sind eine sehr elegante Methode, weil sie keinen betrieblichen Aufwand auslösen, also z.B. aufwändiges Kopieren/Synchronisieren aller Dateien auf einen anderen Datenträger. Dazu muss man allerdings ein snapshot-fähiges Dateisystem wie btrfs nutzen.
 
Banned schrieb:
Um wie viele Daten geht es denn und wie oft verändert sich der Datenbestand?
Um wieviele Daten es geht weiß ich spontan nicht, aber es sind weniger als 2GB, und
der Datenbestand ändert sich in unregelmäßigen Abstand, höchstens aber alle zwölf Monate.

Es handelt sich hauptsächlich um pdf und odt Dateien.
Ergänzung ()

Donnerkind schrieb:
Bei einfachem versehentlichen Löschen können Snapshots helfen. Diese sind eine sehr elegante Methode, weil sie keinen betrieblichen Aufwand auslösen, also z.B. aufwändiges Kopieren/Synchronisieren aller Dateien auf einen anderen Datenträger. Dazu muss man allerdings ein snapshot-fähiges Dateisystem wie btrfs nutzen.
Und wo werden die Snapshots gespeichtert ? Wenn man die Snapshots auf der selben SSD
speichert wo man den snapshot getätigt hat, macht es doch keinen sinn, zumal man Gefahr
läuft, auch den snapshot zu löschen.
 
Zuletzt bearbeitet:
Paul09 schrieb:
Wenn man die Snapshots auf der selben SSD speichert wo man den snapshot getätigt hat, macht es doch keinen sinn
Doch, bei Snapshots geht es um versehentliches löschen/bearbeiten, nicht Datenträgerausfall. Davor schützt nur ein Backup.
Paul09 schrieb:
zumal man Gefahr läuft, auch den snapshot zu löschen.
Im Alltagsbetrieb absolut nicht, zumindest nicht bei ZFS. Das liegt nicht einfach als Kopie des Files ab.
 
  • Gefällt mir
Reaktionen: JPsy
kartoffelpü schrieb:
Ich würde nicht "oder" sagen sondern "und".
An 3-2-1 Regel halten.
Das ist ja das Problem was ich hatte, ich hatte die Originalen Dokumente auf einen externen
USB-Stick gespeichert, den ich aber ausversehen gelöscht und formatiert hatte, weil ich den
USB-Stick versehentlich verwechselt hatte.

An dem Tag, wo ich die SSD, wo die Kopien der Dokumente gespeichert waren, gelöscht
und formatiert hatte, wußte ich noch nicht, das ich den USB-Stick mit den Dokumenten
ausversehen gelöscht und formatiert hatte, das ist mir erst aufgefallen, wo ich auf den
USB-Stick mit den Dokumenten zugreifen wollte.
 
Ein USB-Stick ist da imho auch ein denkbar schlechtes Medium. Zum einen wenn nicht richtig gekennzeichnet wie in deinem Fall, zum anderen halten die die Daten auch nicht ewig. Wenn die für Zeit X stromlos sind dann ist der Flash irgendwann einfach mal leer.

Je nachdem wie wichtig die Daten sind, würde ich das zusätzlich zu lokalen Snapshots definitv noch extern in eine Cloud auslagern, für den Fall das Backup-Medium kaputt, geklaut, abgebrannt, abgesoffen etc. Die Storage-Box macht bei mir dann auch nochmal Snapshots vom eigenen Inhalt.
 
Fujiyama schrieb:
@Sebbi
Auch Clouds sind vor physischen Zugriff geschützt. Ein Brand kann auch die privaten Backups zerstören, auch bei der 1/2/3 Regel, oder durch einen Anwender/Prgrammfehler. Ich sehe da erstmal nicht viel Unterschied ob Cloud oder private Vorsorge.
Unterscheidet man hier nicht auf externe und interne Clouds ?

Ich meine, wenn ich Daten auf einer externen Cloud speichere, kann ich die doch nicht
so einfach löschen, wie zum Beispiel auf einer internen Cloud auf meinem PC, oder ?
 
Paul09 schrieb:
Und wo werden die Snapshots gespeichtert ?
Die landen versteckt im selben Dateisystem wie deine normalen Daten.

Paul09 schrieb:
Wenn man die Snapshots auf der selben SSD
speichert wo man den snapshot getätigt hat, macht es doch keinen sinn
Snapshots sind eine schnelle und unkomplizierte Methode, auf frühere Versionsstände von Dateien zuzugreifen. Wenn du Hardwareausfall vorbeugen möchtest, dann brauchst du ein klassisches Backup.

Paul09 schrieb:
zumal man Gefahr
läuft, auch den snapshot zu löschen.
Die Snapshoterstellung wird einmal per Systemdienst eingerichtet, sodass die Snapshots root "gehören". Als normaler Nutzer im Alltagsbetrieb hast du also keinen Schreibzugriff auf die Snapshots. Einmal angelegt sind sie unveränderlich (bis auf löschen und umbenennen ganzer Snapshots).


PS.: Beim Versuch, deinen Text per Tripel-Klick zu markieren, ist mir aufgefallen, dass du jede Zeile in deinem Text mit einem manuellen Zeilenumbruch beendest. Das sieht man dann auch an den seltsam kurzen Zeilen in meinen Zitaten. Warum?
 
Zurück
Oben