News Cloudspeicher: Datenverluste bei Google Drive bleiben wohl teils irreversibel

TomH22 schrieb:
Und auch Leute die einen PC oder Mac haben, wären mit üblichen Backups komplett überfordert. Meine Frau schafft es bis heute nicht zuverlässig zu erkennen, wann Windows eine Datei kopiert und wann verschiebt....
Selbst wenn Leute eine USB Platte haben und sie gelegentlich mal nutzen, scheitert es meistens an solchen Bedienungsfehlern.
Meine Mutter ist auch so ein Fall. Sie kann es nicht, weil sie sich damit nicht beschäftigen will.

Das gibt solchen Personen aber keinen Freischein, alle Probleme blind auf den Anbieter oder sonst wen anderen zu schieben.

Das ist genauso wie beim Heimbesitz oder mit dem Auto oder sonstwo: Wer selber nicht kann, muss jemanden finden, der es macht - auch wenn es dann Geld kostet. Oder alternativ: mit den auftretenden Problemen leben.

davidzo schrieb:
Google lügt um sich den Rücken freizuhalten. Es gibt genug Berichte von Usern die das erfolgreiche hochladen bestätigen. Ich nutze selber Google drive um zwischen Rechnern Dateien hin und her zu schieben (auch zwischen win und mac), in dem Fall aber zum Glück nicht mit wichtigen Daten.
Das ist natürlich ekelhaft.

andy_m4 schrieb:
Klassische inkrementelle Sicherungen sind eher suboptimal, da Du beim Restore die vorherigen Zustände wiederherstellen musst.
Man kann das anders lösen, so das man versioniertes Backup hat + die Möglichkeit Diffs zu sichern (zwecks Reduktion der übertragenen Daten) + die Möglichkeit mit einem Durchgang ein beliebigen Versionsstand wiederherzustellen.
Kann man zum Beispiel mit Dateisystemen wie ZFS auch mit Bordmitteln realisieren ohne irgendeine spezielle Software zu benötigen.

Es gibt aber natürlich auch fertige Tools die das unabhängig vom Dateisystem realisieren. Sogar ganz hübsche Lösungen mit rsync, was dann den Charme hat, das Du an einzelne Dateien und Dateiversionen ran kommst ohne irgendein spezielles Tool zu benötigen weils alles nur normale Dateien/Verzeichnisse sind.

Wer heute noch inkrementelle Backups macht, sollte anderen Leuten lieber keine Vorhaltungen über deren Datensicherung machen. Das sieht ein bissl peinlich aus. :-)
Diffs sind scheiße, die verbrauchen im Vergleich zu Incrementals viel zu viel Speicherplatz.
Wenn du dich um die Datenkonsistenz einer Incremental-Kette bangst: Wenn dein Backup-Programm nicht fähig ist, das zu überprüfen, hast du das falsche Backup-Programm.

Bezüglich rsync: Na viel Spaß, wenn du da raus mal etwas komplexeres (z.B. eine Active Directory Domäne) wiederherstellen darfst.
Wie gut kannst du damit eine Datei finden, wenn der User der die gelöscht hat nicht weiß wann die gelöscht wurde und auch nicht genau weiß, wo die zu finden war?

Deine 'Datensicherung' halte ich für absolut unzureichend.

Muntermacher schrieb:
1. Wie oft brennt Dein Haus?
Ernsthaft?
Dir ist schon klar, dass 'die Bude fackelt' exemplarisch für eine ganze Liste an möglichen Problemen wie Diebstahl, Wasserschaden, 'oops, das NAS ist runtergefallen' und noch viel mehr steht, oder?
 
  • Gefällt mir
Reaktionen: Drummermatze
Rickmer schrieb:
Wer selber nicht kann, muss jemanden finden, der es macht - auch wenn es dann Geld kostet.
Genau. Und genau das versprechen die Cloud Anbieter. Und so schlecht sind sie dabei in der Regel ja auch nicht. Ich habe bisher z.B. noch jedes iPad und iPhone aus dem iCloud Backup wiederhergestellt bekommen. Meine wichtigen Daten liegen trotzdem nich, oder zumindest nicht ausschließlich in der iCloud. Die Wiederherstellung aus dem Backup ist eher Bequemlichkeit und Verfügbarkeit. Manuell würde ich wahrscheinlich einen Tag brauchen und vermutlich würden auch ein paar weniger wichtige Daten verloren gehen.
Rickmer schrieb:
Dir ist schon klar, dass 'die Bude fackelt' exemplarisch für eine ganze Liste an möglichen Problemen wie Diebstahl, Wasserschaden, 'oops, das NAS ist runtergefallen' und noch viel mehr steht, oder?
Nur sehr wenige Katastrophen zerstören alles auf einmal. Anderseits wenn mein Haus abbrennen würde, hätte ich wirklich wichtigere Probleme als der Verlust meiner alten Urlaubsfotos.

Die Menge an wirklich wichtigen Daten ist in der Regel sehr überschaubar. Bei den meisten davon ist das Original immer noch analog und sollte ggf. in einem Bankschliessfach gelagert werden. Das Problem mit der zunehmenden Digitalisierung ist, dass man Giga- oder gar Terabytes an mehr oder weniger unwichtigem Daten hat, mit ein paar hundert Megabytes an wichtigem Daten dazwischen versteckt.
 
TomH22 schrieb:
Nur sehr wenige Katastrophen zerstören alles auf einmal. Anderseits wenn mein Haus abbrennen würde, hätte ich wirklich wichtigere Probleme als der Verlust meiner alten Urlaubsfotos.

Die Menge an wirklich wichtigen Daten ist in der Regel sehr überschaubar. Bei den meisten davon ist das Original immer noch analog und sollte ggf. in einem Bankschliessfach gelagert werden.
Gut, ich scanne alle wichtigen Akten und verzichte auf das Bankschließfach...

Kontoauszüge, Gehaltsabrechnung und vieles mehr bekomme ich auch (teils schon länger) nur noch digital. Der Totalverlust dieser wäre alles andere als trivial.

Abgesehen davon halte ich die Familienfotos auch nicht für unwichtig. Ein Haus kann wieder aufgebaut werden, aber ein Verlust der dokumentierten Familienhistorie wäre (zumindest für mich) schon ziemlich schwer zu verdauen.
 
  • Gefällt mir
Reaktionen: andy_m4 und Drummermatze
Erst habe ich Panik geschoben, als ich las "Cloudspeicher: Datenverluste". Dann habe ich mich daran erinnert, dass ich eine eigene Nextcloud @Home habe :smokin:
 
KeLcO schrieb:
Wie immer, es kommt darauf an.
Ich weiß ehrlich gesagt nicht, was Du von mir willst.
Ich habe ja beschrieben was man üblicherweise gerne haben will.
Vielleicht solltest Du mal ein Szenario beschreiben bei dem inkrementelle Backups sinnvoll sind anstatt nur zu sagen, das die manchmal nützlich sind.
Das man aus Effizenzgründen nur geänderte Dateien sichern will ist mir klar. Nur braucht man dafür nicht zwangsläufig so typisch inkrementelle Backups. Hab ich aber alles schon gesagt. Von daher ist mir nicht klar, worauf Du eigentlich hinaus willst.

rg88 schrieb:
Genau das und die Tatsache, dass Daten in der Cloud im Grunde nie wirklich ausreichend geschützt sind, ist der Grund, warum man sowas definitiv nicht nutzen sollte.
Man kann ja beides haben. Sowohl ein Self-Storage-Backup als auch ein Cloud-Backup. Und wegen Datenschutz: Man kann das Backup verschlüsseln.
Gut. Eine Verschlüsselung kann theoretisch auch geknackt werden, weil die Implementierung sich als fehlerhaft herausstellt oder durch künftige technische Entwicklungen. So Geheimnisse a-la "Atomraketencodes" die würde ich auch nicht in ne Cloud stecken. Aber für die typischen privaten Daten sollte es genügen.
Insofern gibts noch ein paar Grauschattierungen zwischen: "Nutzen" und "definitiv nicht nutzen".

davidzo schrieb:
Und wieviel aufwand hast du da reingesteckt deinen "reinstall" zu bauen?
Gar keinen. Weil die Installationsdatenträger sind ja sowieso vorhanden. Softwareinstallation lässt sich auch gut wegautomatisieren. Settings und Eigene Dateien wiederherzustellen sind ein simpler Dateikopiervorgang.
Das ist jetzt alles keine besondere Magie.

davidzo schrieb:
denn die Bordmittel von Windows sind da leider mehr als unzureichend.
Wie gesagt: Windows macht die Sache sicher komplizierter. Da müsste man tatsächlich etwas Aufwand reinlegen. Das Problem (Windows) hab ich nicht, kann ich nicht viel zu sagen.
Wie ist es denn eigentlich mit der WIndows-eigenen Backup-Funktion? Die bietet doch meines Wissens nach die Sicherung eigener Dateien + Einstellung usw. Und das kann man dann doch auf einem frisch installierten Windows wieder importieren.

davidzo schrieb:
Mal time machine benutzt? Das ist sehr performant und auf einer SSD ist nichts zu spüren von langsamem Restore.
Von meiner Sicherung merke ich auch nix.
Allerdings sollte man bei solchen automatisiert durchgeführten Hintergrundsicherungen vorsichtig sein. Wenn eine Datei gerade geschrieben wird, kann die Sicherung davon inkonsitent sein. Insbesondere Datenbankdateien mögen es meist nicht, wenn die ungeschlossen weggesichert werden.
Wenigstens ab und zu sollte man darauf achten eine Sicherung zu machen, wenn alle Programme "zu" sind. Zum Beispiel wenn man zusätzlich zur zeitgeplanten stündlichen Sicherung noch eine in der Shutdown-Sequence einfügt.

davidzo schrieb:
Was genau für eine Architektur zugrunde liegt, ob inkrementell oder differentiell weiß ich nicht.
Wenn man sich nicht sicher ist, sollte man vielleicht solche Begriffe verwenden. Das erzeugt dann nur Verwirrung. :-)

Drummermatze schrieb:
Ich frage mich eh manchmal von welch sensiblen Daten hier manchmal die Rede ist. (und dann auch noch Terabyteweise)
Ja. Ich priorisiere auch. Wichtige Sachen werden wirklich mehrfach gesichert usw. Dann gibt es aber auch viele Sache, davon habe ich nur eine einfache Kopie. Wenn die wegkommen wäre es zwar ärgerlich aber nicht dramatisch. Und dann gibts noch Dinge die werden gar nicht gesichert.

Man muss aber dazu sagen, sich das alles so hinzuorganisieren usw. das erfordert dann schon etwas mehr Zeit und Know-How. Das ist dem üblichen Benutzer vielleicht nicht zuzumuten. Darum ist pauschal alles als "wichtig" einzustufen schon irgendwo nachvollziehbar.

Rickmer schrieb:
Diffs sind scheiße, die verbrauchen im Vergleich zu Incrementals viel zu viel Speicherplatz.
Kommt doch darauf an, wie Du das ganze speicherst und inwieweit doppelte Daten dedupliziert werden oder nicht.
Wichtig sind für mich, das Backups folgende Kriterien erfüllen. Sie sollen effizient sein (sowohl was den Speicherplatzbedarf als auch was die Geschwindigkeit angeht). Sie sollen versioniert sein. Denn wenn irgendwie mal eine (wegen Ransomware, Bug etc.) geshredderte Datei gesichert wird, will ich auf die vorherige intakte Version noch zugreifen können. Die Wiederherstellung muss auch funktionieren ohne das ich erst vorhergehende Daten einlesen muss (wie bei einer klassisch inkrementellen Sicherung). Das Format in dem das Backup vorliegt sollte nicht irgendein Spezialformat sein wo ich dann erst noch die Backup-Software zu Hand haben muss, um darauf zugreifen zu können. Zumal ich ja auch damit rechnen muss, das das Backup-Medium defekt ist. Und wenn wegen ein kaputten Bytes ein Großteil des Backups nicht mehr zugreifbar ist, dann ist das halt unschön.
Außerdem soll nur das gesichert werden, was unbedingt notwendig ist. Eine Sicherung des Programmordners oder des Systems oder irgendwelcher temporärer Dateien usw. brauch ich nicht. Umso weniger ich mitschleppen muss, umso einfacher wird das Handling.
Und ja. Das Backup muss halt auch funktionieren und zuverlässig sein. Sprich: eine Datei muss auch wirklich im Backup so landen wie sie im Original ist und wenn die Datei im Backup irgendwie kaputt ist, dann soll mir das Backupsystem das idealerweise mitteilen.

Rickmer schrieb:
Bezüglich rsync: Na viel Spaß, wenn du da raus mal etwas komplexeres (z.B. eine Active Directory Domäne) wiederherstellen darfst.
Naja. rsync sichert halt auf Dateiebene. Und auch Dein Active-Directory speichert seinen Kram letztlich in einer (Datenbank-)Datei. Davon mal ab, ist es generell eine nicht so gute Idee Datenbankdateien rein dateibasiert zu sichern. Das geht natürlich irgendwo, ist aber unschön. Genau deswegen bieten Datenbanken ja auch ein Mechanismus für die Sicherung an. Da fällt dann üblicherweise aber wieder eine Datei hinten raus die Du dann wieder dateibasiert sichern kannst.
Ich kenne jetzt Active-Directory nicht im Detail, aber es würde mich wundern, wenn es da nicht was Ähnliches gäbe.

Rickmer schrieb:
Wie gut kannst du damit eine Datei finden, wenn der User der die gelöscht hat nicht weiß wann die gelöscht wurde und auch nicht genau weiß, wo die zu finden war?
Na das Wann ist nicht das Problem. Man kann sich ja relativ gut ein Überblick darüber verschaffen, welche Datei von welchem User irgendwann nicht mehr in der Sicherung auftaucht.
Wenn der User nicht mehr weiß, welche Datei das war und nur noch grob den Inhalt kennt, dann kann man ja die üblichen Desktop-Suchtools drauf werfen. Das ist ja das schöne daran, wenn die Sicherung letztlich auch nur als bloße Dateien im Dateisystem rumliegen. All die Tools die man kennt und üblich sind, funktionieren.

Mal abgesehen davon hatte ich jetzt rsync nur exemplarisch genannt. Mir ist durchaus bewusst, das das keineswegs für alles und jeden Anwendungsfall eine optimale Lösung ist.
 
  • Gefällt mir
Reaktionen: davidzo
TigerNationDE schrieb:
Gibt es wirklich Menschen die meinen das ein einzelnes Backup "in einer Cloud" die beste Lösung is?

Was bringt mir das wenn mir, warum auch immer, das Internet weg bricht?

Das mit dem #Neuland nimmt immer größere Züge an ^^

Naja - der private Durchschnittsuser hat seine Daten ein Mal lokal. Und möglicherweis noch ein "Backup" in der Cloud. In der Diskussion hier schlägt einfach die CB-Bubble durch, in der viele User ihre privaten Daten nach ähnlichen Regeln sichern wie es Unternehmen tun. Das ist in der Regel einfach übertrieben und auch unrealistisch für die Masse an Nutzern.

Meine Strategie:
Hab alles ein Mal lokal aufm Rechner - das dann nochmal in der Cloud und davon ein Backup auf nem kleinen NAS. Das ist für mich ausreichend.
 
andy_m4 schrieb:
Kommt doch darauf an, wie Du das ganze speicherst und inwieweit doppelte Daten dedupliziert werden oder nicht.
Wichtig sind für mich, das Backups folgende Kriterien erfüllen. Sie sollen effizient sein (sowohl was den Speicherplatzbedarf als auch was die Geschwindigkeit angeht). Sie sollen versioniert sein. Denn wenn irgendwie mal eine (wegen Ransomware, Bug etc.) geshredderte Datei gesichert wird, will ich auf die vorherige intakte Version noch zugreifen können.
Klar, Deduplizierung ist geil, aber auch nicht ganz ohne. Die Performance leidet deutlich sofern das System nicht dafür ausgelegt ist.
Wenn mit der dahinterliegenden Datenbank passiert ist auch Schluss mit lustig.

Ansonsten führen hier differential und incremental gleichermaßen zum Ziel...

andy_m4 schrieb:
Die Wiederherstellung muss auch funktionieren ohne das ich erst vorhergehende Daten einlesen muss (wie bei einer klassisch inkrementellen Sicherung). Das Format in dem das Backup vorliegt sollte nicht irgendein Spezialformat sein wo ich dann erst noch die Backup-Software zu Hand haben muss, um darauf zugreifen zu können. Zumal ich ja auch damit rechnen muss, das das Backup-Medium defekt ist. Und wenn wegen ein kaputten Bytes ein Großteil des Backups nicht mehr zugreifbar ist, dann ist das halt unschön.
Naja, ein Fullbackup brauchste so oder so, egal ob differential oder incremental. Und da dieses mit Abstand am größten sein wird, ist die Chance gut, dass Datenkorruption das Fullbackup trifft. Dann ist auch egal, was dahinter steht...
Wenn du dem Medium nicht traust, dann helfen nur mehr Kopien vom Backup. Differential statt Incremental nehmen wird dir den Arsch in den meisten Fällen nicht retten.

Dafür braucht incremental weniger Speicherplatz (sofern man sich nicht darauf verlassen kann, dass eine vollfunktionale Deduplizierung eingerichtet ist) und kann einige Tricks die mit differential nicht möglich sind, z.B. forever forward incremental, reverse incremental oder auch synthetic full Backups.

Was Spezialformate angeht: Kann ich zwar irgendwo nachvollziehen, aber genau diese Spezialformate bringen halt auch meistens große Vorteile mit sich.
Wer wirklich langzeitig archiviert muss auch nicht nur an Software (offline Installer), sondern auch an Hardware vorsorgen...

andy_m4 schrieb:
Außerdem soll nur das gesichert werden, was unbedingt notwendig ist. Eine Sicherung des Programmordners oder des Systems oder irgendwelcher temporärer Dateien usw. brauch ich nicht. Umso weniger ich mitschleppen muss, umso einfacher wird das Handling.
Bei der Notwendigkeit hat natürlich jeder seine eigene Meinung.

Ich würde auf ein Systemlevel-Backup niemals verzichten. Wenn mir ein Rechner wegen, keine Ahnung - defekten Windows Updates - nicht mehr bootfähig ist, will ich nicht die Büchse neu installieren müssen, ich will nur das OS-Backup von gestern einspielen und weitermachen können.
Die Arbeitsdateien sind auf einer anderen Disk und jede mir bekannte Backup-Software kann vermeiden, diese unnötig zu überschreiben.

Das ist für mich das einfachste Handling - und genau das, was ich am Freitag noch am PC vom Vater machen musste weil der sich nach kurzer Zeit immer weggehängt hat. Anscheinend hatte Avira ein sehr mieses Update rausgebracht.
 
Zuletzt bearbeitet:
andy_m4 schrieb:
Gar keinen. Weil die Installationsdatenträger sind ja sowieso vorhanden. Softwareinstallation lässt sich auch gut wegautomatisieren. Settings und Eigene Dateien wiederherzustellen sind ein simpler Dateikopiervorgang.
Das ist jetzt alles keine besondere Magie.
Wie gesagt: Windows macht die Sache sicher komplizierter. Da müsste man tatsächlich etwas Aufwand reinlegen. Das Problem (Windows) hab ich nicht, kann ich nicht viel zu sagen.
Ahh, sag das doch gleich dass du Linuxuser bist! Ja mit einer ordentlichen Paketverwaltung verstehe ich wieso das Programme sichern dir nicht wichtig ist.

andy_m4 schrieb:
Wie ist es denn eigentlich mit der WIndows-eigenen Backup-Funktion? Die bietet doch meines Wissens nach die Sicherung eigener Dateien + Einstellung usw. Und das kann man dann doch auf einem frisch installierten Windows wieder importieren.
Das Problem bei Windows ist dass viele Programme halt nicht ordentlich Einstellungen in den richtigen Pfaden speichern und auch nicht darauf ausgelegt sind wiederhergestellt zu werden. Viele Programme sind einfach manuell oder portable installiert, so dass die gar nicht erst auftauchen. Und viele Windowseinstellungen sind auch so einfach weg weil Microsoft das Format oder die Funktionen gewechselt hat, mit nicht selten teilzerschossener Windowsfunktion als Ergebnis. Zumal ich nicht weiß wie gut das klappt von Win10 auf Win11 wieder einzuspielen. Ich habe da leider kein Vertrauen mehr in Microsoft über die Jahre, die kriegen es hin selbst die Basisfunktionen durch irgendwelche künstlichen Beschränkungen oder Lizenzmanagement zu verkacken. Windows hat auch eine Image-Funktion, aber die ist dermaßen unflexibel dass sie als Backup total unbrauchbar ist. Das Image funktioniert nur auf demselben Rechner auf dem es angelegt wurde. Wenn sich also irgendwas an der Hardware geändert hat, z.B. durch defekt ist häufig schon Fehlanzeige. Das wäre für mich ja der Normalfall, altes Macbook kaputt -> neues kaufen und auf einer anderen Version macOS wieder einspielen. Ich will ja nicht ein zweites 2015er Macbook kaufen müssen nur damit mein Backup so funktioniert wie ich das erwarte. Die Migration klappt mit MacOS über Betriebssytemversionen hinweg zwar auch nicht bei allen programmen reibungslos (ist eher ne x86/ARM Geschichte) aber zumindest "gut". Das fehlt mir bei Windows irgendwie.
andy_m4 schrieb:
Von meiner Sicherung merke ich auch nix.
Allerdings sollte man bei solchen automatisiert durchgeführten Hintergrundsicherungen vorsichtig sein. Wenn eine Datei gerade geschrieben wird, kann die Sicherung davon inkonsitent sein. Insbesondere Datenbankdateien mögen es meist nicht, wenn die ungeschlossen weggesichert werden.
Dafür gibts ja das journal. Wenn solche Hintergrundsicherungen auf Kernel und Dateisystemebene gehandhabt werden und alle Programme darauf ausgelegt sind, sollte das keine Probleme mit Inkonsistenzen geben.
andy_m4 schrieb:
Man muss aber dazu sagen, sich das alles so hinzuorganisieren usw. das erfordert dann schon etwas mehr Zeit und Know-How. Das ist dem üblichen Benutzer vielleicht nicht zuzumuten. Darum ist pauschal alles als "wichtig" einzustufen schon irgendwo nachvollziehbar.
Siehst du, kostet doch Zeit 😉 das wolltest du mir gegenüber aber nicht zugeben dass es schon Arbeit ist.
Ist es mit MacOS aber auch, denn ich verwende ja nicht nur timemachine auf dem NAS, sondern eben zusätzlich wechselnde externe Datenträger. Da gibt es eine für ein zweites time machine Backup, eine nur für Userfolder, einen für die RAW Fotobibliotheken und nochmal eine nur für Filme die man auch mal mitnehmen kann. Ist zwar alles auch auf dem NAS, aber wenn das einen defekten Ram hat und dann einen resync startet kann halt auch mal eben alles weg sein.
Es wäre so verlockend wenn es eine Cloud gäbe die wirklich gute Sicherungen acht ohne dass man sich einen Kopf drum machen muss - 😆 ist aber ne Utopie.
andy_m4 schrieb:
Außerdem soll nur das gesichert werden, was unbedingt notwendig ist. Eine Sicherung des Programmordners oder des Systems oder irgendwelcher temporärer Dateien usw. brauch ich nicht. Umso weniger ich mitschleppen muss, umso einfacher wird das Handling.
Das ist der Luxus der oben source Welt, es ist quasi alles jederzeit verfügbar und auch alte Versionen sind leichter noch zu finden. Bei binary Software kann das durchaus sein dass man es nicht mehr nachinstalieren kann, es den Anbieter nicht mehr gibt oder man das Installationsfile nicht mehr findet. Das Internet ist halt ein schlechter Langzeitspeicher.
 
Eorzorian schrieb:
Allgemein bin ich in letzter Zeit negativ gegen diese Cloud-Lösungen eingestellt, da die Probleme sich häufen und man ist mehr mit der Lösung davon beschäftigt als dass man "arbeitet". Es soll "Comfort" bringen, aber schlägt sich in Stress/Druck nieder.
Letztens auch bei einem anderen Anbieter Probleme gehabt und den Schluss gefasst einen eigenen Speicher in Form von NAS/Cloud zu Hause aufzubauen. Ich konnte zwar die Daten retten, aber der Stress und die ganze Zeitverlust waren echt nicht erträglich.

Für NAS-Empfehlungen (eingebaut als Speicher später werden es 2x8TB von mir) zwischen 200-300 bin ich offen. :daumen:

Naja - das Ding ist halt - auch im "professionellen" Umfeld - zB bei kleinen Firmen - was bringt weniger Downtime? Die all-incl.-Cloud-Lösung von bspw. MS oder die selbst aufgesetzte Cloudumgebung, die vom IT-interessierten Mitarbeiter so neben dem normalen Tagesgeschäft gemanagt wird.
 
  • Gefällt mir
Reaktionen: pseudopseudonym und TomH22
andy_m4 schrieb:
Vielleicht solltest Du mal ein Szenario beschreiben bei dem inkrementelle Backups sinnvoll sind anstatt nur zu sagen, das die manchmal nützlich sind.
  • Windows
  • Ordner mit Dokumenten, Bilder usw
  • Sicherung einer ganzen Festplatte

andy_m4 schrieb:
Das man aus Effizenzgründen nur geänderte Dateien sichern will ist mir klar. Nur braucht man dafür nicht zwangsläufig so typisch inkrementelle Backups.
Okay. Dein vorheriger Beitrag suggerierte ein wenig, dass du von inkrementellen BackUps so gar nichts hältst.
 
Child schrieb:
was bringt weniger Downtime? Die all-incl.-Cloud-Lösung von bspw. MS oder die selbst aufgesetzte Cloudumgebung, die vom IT-interessierten Mitarbeiter so neben dem normalen Tagesgeschäft gemanagt wird.
Genau das übersehen die Cloud-Gegner immer. Als Mitarbeiter willst du nicht das arme Schwein sein, weil du dann auch im Urlaub das Handy anlassen solltest. Als Firma willst du dich auch nicht von einer Person so anhängig sein.

War mal in einer Firma, in der der CTO unbedingt alles selbst machen und hosten wollte. Er hat so viel wertvolle Zeit an Stellen investiert, die für das Geschäftsmodel egal waren. Probleme gab es auch immer wieder, die dann auch Auswirkungen auf's Geschäft hatten. Die Firma gibt's nicht mehr... Auch, weil man sich mit solchen Aktionen so richtig verzetttelt hat.
 
Rickmer schrieb:
Klar, Deduplizierung ist geil, aber auch nicht ganz ohne. Die Performance leidet deutlich sofern das System nicht dafür ausgelegt ist.
Die rsync-basierten Backups machen das i.d.R. auf Dateiebene. Ändert sich eine Datei, wird die halt als neue Datei im System abgelegt. Das bedeutet: Wenn Du eine 1GB große Datei hast und da wird nur ein Byte geändert, dann führt das dazu, das Du halt ein weiteres GB belegst. Das ist in der Tat dann recht speicherplatz-ineffizient. Wobei man dazu sagen muss, das diese rsync-basierten Backups ihren Schwerpunkt darauf haben, das Du ohne besondere Software auf Deine Backups zugreifen kannst und die Übertragung effizient ist.
Die Speichereffizienz kannst Du aber z.B: auch damit erhöhen, in dem Du ein Dateisystem wie ZFS verwendest was Deduplication auf Blockebene anbietet. Da ist dann Dein Verschnitt maximal so groß wie die Blockgröße. Das ist i.d.R. verschmerzbar. Und Du hast ja Verschnitt auch bei klassischer inkrementeller Backup-Software. Auch da bedeutet ja nicht 1 Byte Änderung das Dein Backup um lediglich 1 Byte größer wird.

Noch effizienter bist Du natürlich, wenn Du alles ZFS-only hast. Das Dateisystem selbst führt dann Buch darüber, wo was geändert wird und die Backup-Software muss nicht erst umständlich nachgucken.
Aber sowas lässt sich natürlich nicht überall realisieren.

Rickmer schrieb:
Wenn mit der dahinterliegenden Datenbank passiert ist auch Schluss mit lustig.
Der rsync-basierte Kram legt viel Wert darauf, das Du eben keine Datenbank oder sonstiges im Hintergrund hast. Alles soll so "plain" wie möglich sein ohne das Du für irgendwas spezielle Tools oder spezielle Formate brauchst.

Rickmer schrieb:
Wenn du dem Medium nicht traust, dann helfen nur mehr Kopien vom Backup.
Klar. Nur muss man halt auch aufs konkrete Szenario gucken. Wenn Du ne große Firma bist, wirst Du das Problem natürlich einfach mit mehr Hardware/Kopien erschlagen.
Bist Du kleiner oder gar nur ein Privatmann hast Du wahrscheinlich nicht irgendwie ne gechainte Riege von Backupservern irgendwo rumstehen.
Die Diskussion war mal irgendwie gestartet mit nem PC und der soll irgendwie per Image gesichert werden, was man machen kann ich aber aus genannten Gründen suboptimal finde. Inzwischen ist das aufgeblasen zu Enterprise-Datacenter mit Active-Directoy und allen zipp und zapp, nur um anhand dessen zu "beweisen", das meine Vorschläge ja nicht wirklich gut funktionieren. Das war aber auch nie deren Anspruch.

Rickmer schrieb:
Was Spezialformate angeht: Kann ich zwar irgendwo nachvollziehen, aber genau diese Spezialformate bringen halt auch meistens große Vorteile mit sich.
Ja. Alles hat so seine Vor- und Nachteile. Man muss dann gucken, was für einen selbst wirklich wichtig ist. Daher hab ich ja auch meine Kriterien dargelegt.
Und selbst die können sich ja widersprechen und man muss Kompromisse finden. Wie bei der rsync-Geschichte. Von der Zugreifbarkeit her top. Von der Speicherplatzeffizienz her nicht optimal.

Rickmer schrieb:
Ich würde auf ein Systemlevel-Backup niemals verzichten. Wenn mir ein Rechner wegen, keine Ahnung - defekten Windows Updates - nicht mehr bootfähig ist, will ich nicht die Büchse neu installieren müssen, ich will nur das OS-Backup von gestern einspielen und weitermachen können.
Das verstehe ich. Images und Co sind in der Wiederherstellung natürlich unnacharmlich schnell. Bei mir brauch ich das aber nicht. Es geht schnell genug und es funktioniert auf unterschiedlichster Hardware. Das ist, was für mich mehr zählt.
Das Problem, das Systeme nicht mehr booten und auch nicht mehr dazu zu bewegen sind, ist mir irgendwie fremd (muss aber dazu sagen, das ich mich kaum noch in der Windows-Welt bewege). Aber ja. Updates können manchmal andere Probleme machen. Die Möglichkeit eines step-backs habe ich natürlich auch.

Rickmer schrieb:
Das ist für mich das einfachste Handling
Meine Devise ist eher: Keep it simple and stupid.
Umso einfacher was ist, umso weniger kann auch kaputt gehen. Umso weniger brauche ich irgendein Spezialwissen/Spezialtool um was zu realisieren.
Das bedeutet, das es manchmal zu mehr Aufwand kommt. Es versetzt mich aber in die Lage, das ich mir bei Problemen in der überwältigenden Mehrheit der Fälle auch selbst helfen kann.

davidzo schrieb:
Ja mit einer ordentlichen Paketverwaltung verstehe ich wieso das Programme sichern dir nicht wichtig ist.
Wobei es bei Windows mit dem Microsoft-Store ja vergleichbare Möglichkeiten gibt.
Paketverwaltungen haben natürlich einen großen Nachteil. I.d.R. braucht man eine Internetverbindung, um Programme installieren zu können. Ich hab daher ein Proxy wo dann quasi eine Kopie des Programms liegt. Insofern ist es strenggenommen nicht ganz korrekt, als ich gesagt habe, das ich Programme nicht mitsichere.
Wenn ich jetzt also ein Recovery-Fall hätte, wo sowohl der Proxy kaputt ist als auch die Internetverbindung, hätte ich ein Problem.
Allerdings hab ich dann noch die Möglichkeit ne Notfall-Internetverbindung aufzubauen. Schlägt auch das fehl, hab ich noch ein Zweitgerät. Das ist zwar nicht ganz so leistungsfähig wie mein normaler Arbeitsrechner, aber für den Notfall langt das.
Insofern bilde ich hier jetzt einfach mal ein, das ich für den Fall der Fälle einigermaßen gerüstet bin. :-)

davidzo schrieb:
Das Problem bei Windows ist dass viele Programme halt nicht ordentlich Einstellungen in den richtigen Pfaden speichern und auch nicht darauf ausgelegt sind wiederhergestellt zu werden.
Ja. Und mit der Registry hat man ja zusätzlich noch was im Spiel, was einem das erschwert. Man kann dort zwar Dinge partiell exportieren/importieren. Aber wirklich schön/elegant ist das nicht.
Insofern kann ich Deine Vorgehensweise absolut verstehen.


davidzo schrieb:
Und viele Windowseinstellungen sind auch so einfach weg weil Microsoft das Format oder die Funktionen gewechselt hat, mit nicht selten teilzerschossener Windowsfunktion als Ergebnis. Zumal ich nicht weiß wie gut das klappt von Win10 auf Win11 wieder einzuspielen. Ich habe da leider kein Vertrauen mehr in Microsoft über die Jahre, die kriegen es hin selbst die Basisfunktionen durch irgendwelche künstlichen Beschränkungen oder Lizenzmanagement zu verkacken.
Ich hatte jetzt angenommen, das Windows über die Jahre robuster und auch freundlicher geworden ist, was Wiederherstellung angeht. Liegt vielleicht auch daran, das ich es nicht mehr so häufig benutze. Die Windows-Instanzen die ich habe sind eher Test-Systeme wo es dann auch gar nicht darauf ankommt, ob die funktionieren oder nicht (dementsprechend werden die weder voll- noch teilweise gesichert).

Aber ja. Künstliche Beschränkungen sind natürlich immer besonders nervig. Mit technischen Beschränkungen kann man meist noch gut leben. Aber wenn das nur Ergebnis einer Firmenpolitik ist, dann fühlt sich das natürlich nicht gut an. Ich finde es schon allein bei den Testsystemen nervig, wenn ich da eine "Activate me"-Meldung bekomme. Zumal diese Systeme nicht am Internet hängen und ich auch keine Lust hätte mich an irgendeiner Hotline für irgendwelche Aktivierungsversuche zu rechtfertigen.

davidzo schrieb:
Das Image funktioniert nur auf demselben Rechner auf dem es angelegt wurde.
Ja. Das ist mein großes Problem, was ich mit Images habe.

davidzo schrieb:
Wenn solche Hintergrundsicherungen auf Kernel und Dateisystemebene gehandhabt werden und alle Programme darauf ausgelegt sind, sollte das keine Probleme mit Inkonsistenzen geben.
It depends on. WIndows kennt ein exklusiv-lock. Da merkst Du, wenn ein anderes Programm drauf zugreifst. UNIX-basierte Systeme kennen das nicht. Du könntest natürlich die list-of-open-files durchgehen. Nur nutzt Dir das ja wenig. Als Hintergrund-Backup-Software willst Du ja nicht dauernd Meldungen aufploppen lassen a-la "Mach mal Programm XYZ zu".
Dann hast Du manchmal noch andere Effekte. Nicht wenige Programme überschreiben nicht einfach die Ursprungsdatei. Sondern schreiben zunächst in eine neue temporäre Datei und machen dann ein "mv" zur Orginaldatei. Das wenn beim schreiben was schief geht, man wenigstens noch die alte intakte Kopie hat.

All diese Sachen wirken sich aber i.d.R. nicht dramatisch aus. Wenn es müssen ja zwei Fälle zusammen kommen: Einmal das ausgerechenet genau dann die Backup-Software an der Datei vorbei kommt. Und zum zweiten das Du ausgerechnet die Datei Du dann fürs Recovery brauchst.

Wirklich problematisch sind konstant geöffnete Dateien wie z.B: bei Datenbanken die dann auch noch "in-place" geschrieben werden. Da hat dann auch der Kernel bzw. der Dateisystemtreiber kaum Chancen, weil der den Zustand der Datei nicht sieht. Der kann nur sehen, ob die Datei offen oder geschlossen ist oder ob noch was im Write-Buffer ist. In einem solchen Fall würde ich aber eh nicht die Datenbankdateien direkt sichern, sondern das Programm anweisen ein Dump zu machen und das Dumpfile sichern. Dann hast Du ein konsistenten Zustand und solche Dumps sind in der Regel auch versionsübergreifend lesbar.

davidzo schrieb:
Siehst du, kostet doch Zeit 😉 das wolltest du mir gegenüber aber nicht zugeben dass es schon Arbeit ist.
Naja. Die Arbeit besteht aber nicht darin seine Installatiosndatenträger zurecht zu machen (worum es ging), sondern die Daten entsprechend zu organsieren. Das sind ja unterschiedliche Dinge.
davidzo schrieb:
Ist es mit MacOS aber auch, denn ich verwende ja nicht nur timemachine auf dem NAS, sondern eben zusätzlich wechselnde externe Datenträger.
Klingt ja auch absolut sinnvoll.
Und überhaupt: Ich will Dir da in Dein Backup-Konzept auch gar nicht reinreden. Es soll weniger ein Kampf der verschiedenen Möglichkeiten sein, sondern eher ein Austausch, um so mal über die spezifischen Vor- und Nachteile zu reden.

davidzo schrieb:
Ist zwar alles auch auf dem NAS, aber wenn das einen defekten Ram hat und dann einen resync startet kann halt auch mal eben alles weg sein.
Ja. "Syncen" insbesondere beo Two-Way-Sync ist eine eher schelchte Idee. One-Way und dann noch versioniert (falls es doch mal ne Datacorruption gibt) sollte ein Backup schon bieten.

davidzo schrieb:
Es wäre so verlockend wenn es eine Cloud gäbe die wirklich gute Sicherungen acht ohne dass man sich einen Kopf drum machen muss
Ja. Aber so als Zusatzangebot taugt es schon. Denn die lokale Kopie + die Offside-Kopie + die Cloudkopie mit einmal kaputt geht, ist schon ziemlich unwahrscheinlich.

davidzo schrieb:
Das ist der Luxus der oben source Welt, es ist quasi alles jederzeit verfügbar und auch alte Versionen sind leichter noch zu finden.
Ja. Wobei man sich auch nicht hart darauf verlassen sollte. ZUmal eine alte Programm-Version alleine Dir im Zweifel ja nix nützt, sondern wegen der Abhängigkeiten häufig auch auf ein altes System angewiesen ist.
Man kann ja über die Windows-Programme sagen was man will, aber die bringen das benötigte Zeug im sehr viel stärkeren Maße selbst mit und sind deshalb unempfindlicher gegenüber der aktuellen Gegebenheiten auf dem System.

Wenn man mal so auf alles draufguckt, was hier im Thread zur Sprache kam, sieht man deutlich das Backup ein komplexes Thema ist.

KeLcO schrieb:
Okay. Dein vorheriger Beitrag suggerierte ein wenig, dass du von inkrementellen BackUps so gar nichts hältst.
Naja. Bei inkrementellen Backup hast Du ja zwei Aspekte. Einmal die Tatsache das Du nur Änderungen vom Source-System ziehen musst. Zum zweiten: Das Du das ans Backup anhängen musst, so das Du alles davor einlesen musst damit Du wieder beim Endzustand bist.
Den ersten Aspekt finde ich gut. Den zweiten finde ich nicht so gut. Der Punkt ist, das ich nicht zwangsläufig inkrementelle Backups machen muss um Punkt 1 zu kriegen.

Klassische inkrementelle Backups wurde ja nicht erfunden, weil das Prinzip so geil ist, sondern war auch das Ergebnis von technischen Gegebenheiten. Früher hat man, salopp gesagt, sein Backup auf Band gemacht. Und so ein Band lässt sich nur sequenziell beschreiben. Wenn Du also schnelle Backups haben wolltest in dem Du nur Deltas schreibst, muss das also inkrementel sein. Geht nicht anders.

Heutzutage machen wir unsere Backups aber nicht mehr auf Band. Sondern auf NAS-Systeme, externe Festplatten Cloud-Storages. Es gibt einfach nicht mehr in dem Maße die Notwendigkeit sich der Beschränkung des Inkrementellen zu unterwerfen. Ungeachtet dessen, das es natürlich nach wie vor Fälle gibt, wo das sinnvoll ist.

KeLcO schrieb:
Ordner mit Dokumenten, Bilder usw
Deine Aufzählung ist wenig erhellen. Die Notwendigkeit Ordner mit Dokumenten, Bildern etc. zu sichern habe ich auch. Nur warum sollte ich das in Form eines inkrementellen Backups machen?
Das ist doch die Frage, auf die es ankommt. Nicht die Frage, ob man es machen kann, sondern die Frage nach dem Warum.
 
Rickmer schrieb:
Ernsthaft?
Dir ist schon klar, dass 'die Bude fackelt' exemplarisch für eine ganze Liste an möglichen Problemen wie Diebstahl, Wasserschaden, 'oops, das NAS ist runtergefallen' und noch viel mehr steht, oder?
Ernsthaft? Dir ist schon klar, daß ich all das beinhaltete mit dem Vergleich zu Sicherheit bei der Klaut.
Aber wenn Du Korinthen magst, Du sprichst von Backupsicherheit, hier wird imho von Synch ala Drive gesprochen. Synch ist kein Backup! Von daher ist Bude abfackeln und Co auch irrelvant in dem Zusammenhang.
 
Vor ein paar Wochen erhielt ich eine Mail von Google: meine Drive sei seit zwei Jahren inaktiv und sie würden es bald löschen. Nun ist die Frage beantwortet worden.
 
Rickmer schrieb:
Bezüglich rsync: Na viel Spaß, wenn du da raus mal etwas komplexeres (z.B. eine Active Directory Domäne) wiederherstellen darfst.
Naja...Veeam + Application Aware & AD Backup. Damit sollten sich problemlos auch einzelne Changes bis Zeitraum X zurückholen lassen. Läuft bei uns zumindest so prima. Daheim betreibt man idR keine Domänen, daher lass ich Lizenzkosten als Argument mal aussen vor. :D

Rickmer schrieb:
Wie gut kannst du damit eine Datei finden, wenn der User der die gelöscht hat nicht weiß wann die gelöscht wurde und auch nicht genau weiß, wo die zu finden war?
Dafür machst ja Shadow Copies / Versionierung für sagen wir 30 Tage auf den Filern und zusätzlich noch Daily Increments im Veeam + noch monthly und yearly etc.

Die Frage die ich den Business Units stelle ist nur: möglich ist alles, wieviel ist es euch wert ? Ist auch so daheim anwendbar. Möglich ist viel, zahlen und verwalten muss mans halt können.
 
davidzo schrieb:
Moderne Betriebssysteme haben sowas wie den Volumenschattenkopierdienst.
Der standardmäßig mW nur System/ Anwendungsdateien beinhaltet. Ich jedenfalls habe bei diversen Datenwiederherstellungen in den VSS noch nie etwas brauchbares gefunden.

VSS dient in der Praxis meiner Einschätzung nach eher dazu, auf gesperrte Dateien zugreifen zu können, als zur Versionierung (das schließt die Systemwiederherstellung mit ein).
 
  • Gefällt mir
Reaktionen: rg88 und TomH22

Ähnliche Themen

  • Geschlossen
Antworten
4
Aufrufe
526
Zurück
Oben