News Sicherungen und Backups: Habt ihr schon mal Daten verloren und wie schützt ihr euch?

Komisch dass die Art des Backups irgendwie bei der Umfrage weniger die Rolle gespielt hat, bspw. ob man das System gleich mit sichert, also ein bootfähiges Image sichert, oder ob man nur Dateien sichert.
Und weil selbst CB da keinen Unterschied macht: RAID ist kein Backup, ein Datei- bzw. Dateisystem-Fehler wird einfach redundant gespeichert...
 
  • Gefällt mir
Reaktionen: mchawk777, SeppoE und Euphoria
xy1337 schrieb:
Bei den Fragen gibt es teilweise keine zutreffenden Antwortmöglichkeiten. Bspw. Bei der ersten Frage: Ich hatte noch nie einen Datenverlust und habe Backups. Ich muss aber entweder sagen, dass ich keine Backups anlege oder dass mich meine Backups mindestens einmal vor einem Datenverlust bewahrt haben.
Genau das. Deshalb konnte ich da auch nichts auswählen.
 
Klar sollten Backups und das "HowTo" mehr propagiert werden, aber der ganze Kram ist doch kein Neuland mehr... Da bin ich deutlich mehr Team "Kein Backup, kein Mitleid".
https://www.computerbase.de/news/st...r-deutschen-sichern-daten-regelmaessig.86976/
https://www.bitkom.org/Presse/Presseinformation/Ein-Drittel-verzichtet-auf-Backups
seufz
NoNameNoHonor schrieb:
RAID ist kein Backup
Dies.

E: Auf Computern, Smartphones und Platten sollte ein Hinweis stehen: Ohne Datensicherungen droht Datenverlust. Dann ein Link oder QR zu 3-2-1 oder so, irgendwas einfach erklärt wie 2 mal lokal und einmal in der Wolke oder so und fertig. 🤷
Vlt. noch ein Link mit Videos zu Programmen.

Teilw. wissen die User nicht einmal wo ihre Files liegen und wie überhaupt irgendwas funktioniert, schon Neustarts die einfach viele Probleme beheben würden sind dem Privatanwender häufig nicht bekannt, wenn ich Bedenke dass Win standardmäßig nicht einmal Dateiendungen anzeigt... "hide extensions for known file types" 🥴 Vlt. braucht es wirklich 1-Klick-Lösungen.
 
Zuletzt bearbeitet:
Ich hatte bislang nur einen "kleinen Datenverlust", da meine externe Sicherungsfestplatte altersbedingt aufgab.
Verloren an Daten hatte ich nichts, da ich bereits Sicherungen auf andere und neuere Festplatten vorgenommen hatte.
 
Zum Backup gehört auch, dass man es wieder einspielen kann. Hier meine eigene kleine Recovery-Story von Anfang dieses Jahres aus dem privaten Umfeld.

System-SSD raucht ab
Erst ein Bluescreen, nichts dabei gedacht, Reboot gemacht, noch ein Bluescreen, es gab Windows-Updates, hab diese gemacht, Reboot - SSD tot (nein, ich beschuldige nicht Windows! Ich beschreibe nur was passiert ist, die SSD hat viel mitmachen müssen und war halt durch).

Ersatz wird besorgt und muss eingbaut werden
Ja, kein Problem. Hab ja ein Backup. In den nächsten Laden, neue SSD gekauft.
Die System-SSD ist natürlich im Slot unter der Grafikkarte.
Kein Ding. Mühsam Grafikkarte ausbauen.
Ist ja alles sauber unter'm Tisch verbaut, also erstmal alle Kabel ab, Rechner hervorholen, abstauben, usw. usf.
WER VERDAMMT HIELT ES FÜR EINE GUTE IDEE DIE SSD-SCHRAUBE MIT LOCKTITE ZU SICHER!?!?!?!?!

Recovery-Datenträger
Ich benutze Veeam um ein Abbild des gesamten Datenträgers zu machen. Schön, wenn der Recovery-USB-Stick, der extra für den Rechner erstellt wurde, trotzdem nicht bootet. Ich kann mich nicht erinnern, ob ich das je getestet habe, es ist zu lange her. Mein Fehler.
Dauert, bis ich über einen anderen Rechner das Recovery-Tool booten kann.

Klick-Warten-Fertig!
Ich wähle mein Backup auf dem NAS, ist natürlich vom Anfang des Monats (das war zwei Wochen her, aber gut, habe meine wichtigen Daten nicht auf der System-SSD).
Ja... theoretisch laufen knapp 2TB noch recht zügig über ein 1GB/s Netzwerk, aber er kann anscheinend nicht einfach mit voller LAN-Geschwindigkeit lesen/schreiben/übertragen/berechnen... es dauert.

Nächster Tag
Fehler. Backup kann nicht gelesen werden. WTF? Habe das auf einem ZFS-Raid liegen und habe es regelmäßig auf Fehler überprüft! Denke an einen Netzwerkübertragungsfehler? Einfach nochmal probieren.
Am Abend... selber Fehler. Kann nicht gelesen werden. Lag also nicht an einem Netzwerkfehler.
Muss langsam wieder was mit der Kiste machen können...
Probiere das Backup von einem Monat vorher.

Übernächster Tag
Backup wurde eingespielt! Freude! Ich reboote den Rechner.
Windows kackt ab. Kann nicht booten. Ja, äh... für was mache ich denn System-Volume-Recovery?
Verbringen den halben Tag damit, zu versuchen, Windows zum booten zu bringen.
Geht nicht.
Am Abend beiße ich in den sauren Apfel und installiere Windows und alle Programme neu.

Über-Übernächster Tag
Ich versuche vom frisch installierten Windows die wichtigsten Dateien aus dem Backup zu extrahieren. Es gibt ein Tool von Veeam dafür, welches das Backup öffnen kann wie ein Dateiexplorer.
Ich kann jedes Backup öffnen, nur nicht das allerneuste. Natürlich. Warum auch?

Ende vom Lied
ZFS bzw. eine Festplatte in meinem NAS hatte einen Hardwaredefekt, in einem Sektor, der GENAU in der Datei des neuesten Backups war. Es gab ja noch ungefähr 4 weitere Terabyte zum kaputtgehen, nein, es musste dieser eine Sektor in dieser einen wichtigen Datei sein.
Die kaputte Datei kann das Tool aber nicht öffnen. Neuestes Backup futsch? Kann die Datei in Linux auch nicht kopieren (Vorgang bricht nach ca. 1,5 TB mit Read Error ab...).
Finde ddrescue, welche die Datei auf Blockebene kopiert und fehlerhafte Sektoren mit Nullen ergänzt, bis es wieder sinnvolle Daten lesen kann. GOTT SEI DANK.
Diese Datei kann das Tool dann öffnen und ich komme endlich an meine wichtigen und aktuellsten Dateien ran!

FAZIT (speziell System-Laufwerk)
  • Testet, ob ihr eure Backups auch wieder lesen und wiederherstellen könnt
  • Vermutlich könnt ihr nicht testen, ob das wiederhergestellte Laufwerk auch wieder booten kann... verlasst euch also nicht drauf, dass es einfach wieder bootet
  • 1 GBit LAN ist LAHM
  • Windows + Programme sind schneller installiert als 2TB von einem Netzwerk kopiert und befreit von jahrelangem Ballast :-)
 
  • Gefällt mir
Reaktionen: lochmueller, Drakrochma und AlphaKaninchen
Katzenjoghurt schrieb:
Linux schrieb den Bootsektor auf ne ganz andere Platte als die ausgewählte.
Ja das Dual Boot Systeme sich gegenseitig die Bootsektoren überschreiben passiert leider häufiger auch wenn die Berichte meist andersherum sind (also Windows, teils sogar bei Updates, überschreibt den von Linux)
Katzenjoghurt schrieb:
Blöderweise war die in meinem Fall Truecrypt-verschlüsselt… und das noch mit einer Version, die den TrueCrypt-Header nur an den Anfang
Ich hoffe die Geschichte ist schon etwas älter oder es ist VeraCrypt gemeint...

Generell bevorzuge ich für so etwas aber die Bordmittel des OS oder am besten OPAL (das die Bordmittel in Form von LUKS und Bitlocker auch nutzen können wenn verfügbar) Hätte dir hier aber auch nicht geholfen, zeigt nur einmal mehr mit Verschlüsselung ist Backup nochmal wichtiger. Weshalb ich es bedenklich finde das Windows und MacOS es per default nutzen.
 
Mein Datenverlust beschränkt sich auf alte Minecraft-Welten, wo ich bei einer Windows Neuinstallation den falschen Ordner rüberkopiert habe, bevor ich meine Festplatte formatiert hatte, ironischerweise war der Ordner, den ich stattdessen kopiert hatte, ein Backup-Ordner mit älteren Versionen - der Großteil meines Fortschritts war damit weg. Ansonsten sind mir noch ein paar Fotos abhanden gekommen, die ich in Nicht-Standardordner verschoben hatte und nicht gesichert. Insgesamt nichts dramatisches.
Mittlerweile gehe ich meine Dateiorganisation und Backups deutlich organisierter an. Wichtige Daten liegen bei mir lokal auf dem NAS, extern und automatisiert auf HDD gesichert und teilweise als Kopie in der Cloud.
Fehlende Empathie bei Datenverlust hilft Niemanden. Die richtige Backupstrategie ist ein komplexes Thema und kann technisch wenig-versierte Menschen leicht überfordern.
 
Ein Tipp damit man sich leichter überwindet für Sicherheitskopien. Daten erst gar nicht aussortieren auch wenn viel Müll dabei ist. Ein USB Stick kaufen der Groß genug ist und einfach 2-3 Ordner mit der Festplattenpartitionierung, dann einfach alles Kopieren was man Kopiert haben will.
Schrott löscht sich ja irgendwann von alleine wenn man am Rechner aussortiert und wieder eine Sicherheitskopie macht. Und die Lesezeichen im Browser nicht vergessen. :D
 
  • Gefällt mir
Reaktionen: mchawk777
Einmal passiert vor über 20 Jahren wegen Schadsoftware.

Seitdem multiple Backups auf unterschiedlichen Datenträgern, bisher erfolgreich.

Backup-HDDs werden bei mir regelmäßig überprüft und ggf. ausgewechselt
 
So wahnsinnig viel hab ich zwar nicht zu sichern, weil ich keine tausende Fotos und Videos mache die ich mir sowieso nie wieder anschaue, aber die paar Bilder, ein paar Dokumente und meine Musik, sichere ich 1-2 Mal im Jahr auf eine externe Festplatte und manches davon zusätzlich auch in die Cloud. Bei den Festplatten nutze ich HDD und SSD, wobei ich bei den SSDs alle paar Monate mit einem Skript einen SSD Refresh (oder wie man das nennt) drüberlaufen lasse, da die ja nur rumliegen und so Daten verlieren könnten.

Da ich aber in meinen fast 40 PC-Jahren noch keinen einzigen Datenverlust hatte, sehe ich das Thema generell nicht so eng und deswegen würde ich mir auch niemals irgend so ein automatisiertes Backup-Raid-wasweißichwas-Setup einrichten.
 
Ich habe zu Anfang meiner Linux-Zeit durch rumspielen und Lernen mal die ein- oder andere HDD aus Versehen formatiert. Natürlich hatte ich kaum nennenswerte Backups.

Mittlerweile läuft auf meinem privaten Proxmox-Server auch Proxmox-Backup-Server (ich weiß, sollte nicht auf dem selben System laufen). Die VMs und LXCs werden jede Nacht gesichert und ein BorgBackup sichert einmal pro Nacht alle weiteren Dateien auf einer internen Backup-HDD.
Zusätzlich habe ich auf meinen Schreibtisch eine Festplatte, auf der mind. einmal wöchentlich, sofern ich es nicht vergesse, sämtliche Daten des Heimservers per rsync gespiegelt werden. Die Platte klemme ich nur für das Backup an und nach erfolgreichen spiegeln der Daten klemm ich sie auch wieder ab
 
Der größte Fehler meinerseits war es mal (Mitte der 2000er) ein RAID 0 System aufzusetzen. Wenn ich mich recht erinnere, waren das zwei identische 500GB WD HDDs.
Hat nicht lange gedauert, da fiel eine der HDDs aus und schon war's das.
Die wichtigsten Daten (Dokumente und Bilder) lagen gottseidank noch auf einer externen HDD, aber alle Daten für eine damaliges Webprojekt waren zum großen Teil weg.

Seitdem gibt es eine Festplatte nur für das System Windows+Programme, Festplatten für Spiele und eine Festplatte für Bilder/Dokumente/andere wichtigen Dateien, die extern (keine Cloud) nochmals gesichert wird.
Windows/Programme/Spiele können ja jederzeit neu installiert werden, da muss ich nichts sichern.
 
Letztes Jahr ist mein Dell XPS kaputt gegangen. Leider waren nicht alle Daten gesichert. Der Speicher war fest verbaut, daher konnte ich ihn nicht ausbauen.

Naja ich hoffe einfach es war nichts zu wichtiges drauf.
 
chp schrieb:
"Hast du schon einmal privat digitale Daten dauerhaft verloren?"

"Nein, noch nie – obwohl ich keine systematischen Backups anlege."

Wieso gibt es diese Antwortoption nicht? So passt leider direkt in Frage 1 nichts für mich.

Genau so ist es auch bei mir.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Ben99 schrieb:
FAZIT (speziell System-Laufwerk)
  • Testet, ob ihr eure Backups auch wieder lesen und wiederherstellen könnt
  • Vermutlich könnt ihr nicht testen, ob das wiederhergestellte Laufwerk auch wieder booten kann... verlasst euch also nicht drauf, dass es einfach wieder bootet
  • 1 GBit LAN ist LAHM
  • Windows + Programme sind schneller installiert als 2TB von einem Netzwerk kopiert und befreit von jahrelangem Ballast
Ich habe mich inzwischen davon verabschiedet das Home Verzeichnis oder gar das ganze Laufwerk zu sichern, die Wichtigen Daten landen Sortiert auf einer Externen SSD, und von der gibt es Backups. Wenn etwas passiert würde ich eh neu installieren und dann die Daten aus dem Backup holen.

Bin auch kein Fan von Backup Software, rsync und Snapshots sind inzwischen mein Mittel der Wahl, wenn da ein Sektor stirbt ist max eine Datei kaputt.

Aber sollte ein ZFS RAID nicht genau dafür sorgen das dieser Sektor dann von einer anderen HDD stammt?
 
  • Gefällt mir
Reaktionen: Ben99
Ich habe vor mehr als 20 Jahren schonmal Daten verloren, weil ich sie vergessen habe, mitzunehmen in ein neues System.
Als ich es dann Jahre später bemerkte, war zwar die Festplatte noch vorhanden aber leider nicht mehr lesbar.
Heute fahre ich ein Misch-Masch-System: Ich synchronisiere die wichtigsten Dokumente mit der Cloud und auf mindestens noch 2 zusätzlichen Festplatten. Das läuft teils automatisiert, teils manuell bei weniger wichtigen Dingen.
 
Ich sichere manuell die Daten auf mehrere externe Platten, die nur angesteckt werden wenn ich sichere... wenn ich daran denke - aber so oft kommen keine neuen Daten zustande, also muss ich das nicht regelmäßig machen.

Ein mal im Jahr klonen ich die ganze SSD, wenn mal die SSD ausfallen sollte hält sich der Zeitaufwand in Grenzen.

Einen Datenausfall hatten wir schon mal in der Familie, aber das ist etwa 20 Jahre her, bei einer HDD, seit wir SSDs nutzen nie mehr. Wir sind schon sehr früh auf nur SSDs umgestiegen, fast nur von Samsungs Pro Modelle, die alle heute noch wie ne eins laufen.

Mitleid, naja, hält sich eher in Grenzen, vor allem bei wichtigen Daten.
 
Mir ist während meiner Umschulung mal mein externer Datenträger kaputt gegangen, auf welchem das ganze Schulmaterial lag...

Seitdem habe ich wichtige Daten einmal gebrannt auf CD/DVD/BD und nochmal auf externen Laufwerken.
 
Also schon zu Atari ST Zeiten habe ich Backups angefertigt, seinerzeit auf Diskette von den "Arbeitsdateien", sprich jeden Tag wurden die editierten Dateien einmal dupliziert. Mit einem Floppydrive war das doch etwas lästig. Man musste die geänderte Datei (ob 1st Word+, oder Calamus) einmal auf Datenträger 1 speichern und noch einmal auf Datenträger 2. Nach einer gewissen Zeit ist Datenträger 1 ins Archiv gewandert und es wurde ein neuer angelegt. Diese Datenträger waren auch immer Marken Disketten. Als endlich eine Festplatte eingezogen ist (erst eine MegaFile 30, danach eine 120 MB Connor Platte an einem separaten Controller), war das erstellen der Backups einfacher, auch hier erst auf Disketten, später auf ZiP Disketten, immerhin 100 MB je Medium. Angebunden via SCSI, also vom ST zum ZiP Drive mit einem ACSI auf SCSI Adapter (Link96, wenn den noch jemand kommt). Dann ist mit ein QIC Streamer in die Hände gefallen, ich meine 120 MB je Medium, unkomprimiert. Zu der Zeit werkelte schon eine 540 MB Quantum IDE Platte im ST, erst an einer IDE Karte, später an einem Multiboard, zusammen mit einer HBS. Dann kam der Wechsel zum Mac. Eine 1,2 GB Quantum war verbaut, der QIC Streamer wurde gegen eine größere Variante getauscht, aber immer noch im MB Bereich, aber eine richtige Software zog ein Dantz Retrospect, kurze Zeit später ein Tandberg Travan Steamer 4/8 GB. Den hatte ich recht lange ich meine 8 Bänder für die Datensicherung und noch einmal bestimmt 10 Stück als Archiv, die wurden aber bald obsolet. Es kamen externe Festplatten, größere Festplatten, aber die priv. Daten wurden immer noch Tag täglich Abends auf Band gesichert. Bis der Strammer eben zu klein wurde und gegen externe FireWire Platten gewechselt wurde, aber immer noch mit Retrospect. Erst mit dem Erscheinen von TimeMachine habe ich mich von Retrospect getrennt.

Mittlerweile steht ein HomeServer im Keller, auf einer der VMs läuft napp-it und 5 Platten drehen als ZFS RAID ihre Runden. Darauf wird per TimeMachine halt stündlich gesichert. Der ganze Backup Kram hat auf jeden Fall über die Jahre viel Geld gekostet, alleine die Lizenz für Dantz Retrospect war schon echt eine Ansage für private Anwendung. Aber über die ganzen Jahre konnte ich mehrmal aus den Backups kaputte Daten restaurieren und einmal sogar eine ganze Platte wiederherstellen, die ich fälschlicherweise formatiert hatte. Der Zufall daran. TimeMachine sichert ja automatisch alles was angeschlossen ist, es sei denn, man schliesst es aus. Es war eigentlich eine externe Platte, wurde aber (aufgrund der Anbindung eSATA) als interne erkannt und entsprechend gesichert. Dadurch wurde die komplett ins Backup gezogen und konnte direkt wiederhergestellt werden, nach dem ich bemerkt hatte, dass ich die falsche Platte platt gemacht hatte, dass war ein Moment voller Herzklopfen, einer Dauer EKG hätte bestimmt sehr interessant ausgesehen. Zu der Zeit habe ich schon über ein Jahrzehnt den o.g. Aufwand bei den Backups geführt aber eigentlich nie so wirklich richtig für wichtige Daten benötigt, also nichts was nicht doch noch irgendwo anders lag. Aber diese eine jene Platte wäre schon doof gewesen.


Ein anderer Fall, aber nicht bei mir. Die Frau von einem Arbeitskollegen hatte zwei Platten im Rechner. Beim MediaMarkt gekauft. Ab und an war ich da und musste bei diesen und jeden Problemen helfen, diese typischen Windows Probleme eben, XPired Zeiten. Sie sind regelmässig in den Urlaub gefahren und sei war eine begeisterte Fotographin, schon ne recht anständige Ausrüstung, soweit ich das als Foto-Noob beurteilen konnte. Sie hatte ihre Fotos aber nur auf der System Platte, die Zweite hat sie nie angefasst, die wollte sie nicht, gefiel ihr nicht, kannte sie. Ich habe immer gesagt, speichere deine Fotos in deinem Foto Archiv, dupliziere es auf die zweite Platte und kaufe dir noch eine USB Platte. Irgendwann zickte die Kiste rum, ich war im Urlaub und nicht da, schlurt sie das Ding zum MM. Die gucken gar nicht, sondern machen alles platt und setzen Sinnlos neu auf. Alles weg. Keine Fotos, bis auf ein paar die ich mal auf eine von mir geliehene USB Platte gesichert hatte, aber ihre ganzen Fotos die sie im Ägypten Urlaub gemacht hat, alles weg. Danach hat sie sich eine eigene USB Platte gekauft und alle Fotos direkt auf die zweite Platte gesichert und eben auf dem Rechner behalten. Ist in meinen Augen zwar auch keine echte Sicherung, da gerade Fotos nach einer Zeit X auf einer Festplatte eh kaputt gehen (Bit-Rot). Wenn man eine echte Software verwenden, mit Checksummen und Verifizierung nach dem Backup passiert so etwas nicht. Deswegen habe ich auch das Geld für Retrospect ausgegeben. Oder setze jetzt eben auf ZFS mit regelmässigem Scrubbing. Auch hier bekommt man ab und an mal die Meldung das etwas wiederhergestellt werden musste. Seitdem habe ich keine Fotos mehr verloren.
Zu Zeiten der Sicherung auf Disketten und ZiP Disketten ist es schon ab und an mal aufgetreten, dass gerade JPEGs mit der Zeit Fehler bekommen.

Ich bin schon der Meinung "Kein Backup, kein Mitleid", aber bei obigen Fall war es schon sehr ärgerlich und woher sollte sie es wirklich wissen. Nur weil ein Nerd irgendwas labert muss es ja nicht stimmen und Geld kostet es auch, gut investiertes Geld, aber das ist halt meine Meinung. Einige der Bilder konnte ich mit einigen Tools wiederherstellen. Aber die mussten halt alle von Hand einzeln bearbeitet werden. Waren halt JPEGs, von 10 Bildern waren 3 kaputt, von 100 wurde nur 70 wieder gefunden, da ist einiges verloren gegangen.
Bevor es SSDs gab habe ich immer RAID0 stripes im Mac verwendet, das erste lief mit zwei IBM DDRS an einem UW SCSI Controller. Diese Daten waren auf einer zweiten Platten und eben dem Tandberg gesichert. Das lief damals in einem Umax S900, jaja, jetzt kommt die Nostalgie wieder hoch..
 
cyberpirate schrieb:
Ich habe meine Daten auf sehr vielen Platten und PC verteilt und erstelle regelmäßig Backups. Ich bin nur immer wieder erstaunt wie viele Menschen kein Backupmachen. Wieso die Daten sind doch im PC heißt es meistens. Den dämlichen Spruch kein Bckup Kein Mitleid kann ich nicht mehr hören. Viele wissen einfach nichts davon. Und gerne helfe Ich denen dann weiter.

Mfg

Ich denke man muss bei dem Spruch differenzieren:

Im privaten Umfeld bin ich bei dir.

Im geschäftlichen Umfeld wo IT zum Geld verdienen eingesetzt wird (egal ob "Mittel zum Zweck" oder "als IT Service"):
Kein Backup - kein Mitleid.

Ausreden gibt es hier nicht mehr. Wer im 21. Jahrhundert nicht gelernt hat, dass so etwas obligatorisch ist, der lernt durch Schmerz.

Ich weiß, nächster Spruch... Ich spende auch ans Phrasenschwein ;)
 
  • Gefällt mir
Reaktionen: flowerchild69 und Faluröd
Zurück
Oben