Sicherung voll - weitere oder größere Festplatte?

TWS

Cadet 4th Year
Registriert
März 2019
Beiträge
89
Hi,

ich nutze eine Festplatte intern, die als Datengrab dient (aktiver Zugriff erfolgt eher selten). Ebenfalls habe ich das gleiche Modell noch in einem externen Gehäuse mit denselben Daten zur Sicherung (jeweils 8 TB).

Nun reicht der Speicherplatz aber nicht mehr aus. Meine Beobachtung ist, dass z. B. eine 12 TB Festplatte kaum günstiger scheint als 3x 4 TB.

Gefragt habe ich mich nun:
Ist es in puncto Datensicherheit besser
a) die bestehenden Daten nicht weiter anzutasten und neue Daten auf zwei neue Festplatten zu kopieren, oder
b) die alten Festplatten durch größere zu ersetzen und alle Daten mitzunehmen?

Anders gefragt: Sind die Daten "intakter", wenn sie nicht weiter angetastet und kopiert werden oder wenn sie ab und an kopiert werden?

Freue mich über Feedback. :)
 
Eine Datenkorruption kann immer mal stattfinden - Stichwort Bit Rot. Nur mal als Beispiel.

Kopierst Du die Daten von der alten HDD auf die neue HDD und würdest einen Checksummenvergleich durchführen erkennst Du direkt, ob alles korrekt kopiert wurde.

Ich für meinen Teil habe knapp 8TB Daten und habe lieber eine große HDD als Backup anstatt mir alles zusammensuchen zu müssen. Meine unbedeutende Meinung.
 
  • Gefällt mir
Reaktionen: Cnecky und TWS
theoretisch stellt bit rot immer eine Gefahr da. Es gibt Dateisysteme die mit Prüfsummen im RAID dagegen vor gehen. Für Privatanwender ist das Risiko in Verbindung mit der gängigen 3-2-1 Backup Strategie aber ohnehin überschaubar da man eine beschädigte Datei normalerweise aus einem der anderen vorhandenen Backups wiederherstellen kann.
 
  • Gefällt mir
Reaktionen: H3llF15H
Die Überlegung ist nicht verkehrt.
Im Prinzip kann die Magnetisierung der Festplatte mit der Zeit nachlassen und dadurch Daten uneindeutig werden lassen. Durch erneutes Schreiben erneuert man das.
Bei SSDs passiert das im Idealfall im Hintergrund automatisch, da die Zellen auch ihre Daten verlieren können.

In der Praxis dauert das allerdings sehr lange. Bei der hohen Datendichte Moderner Platten sind die Daten etwas anfälliger, aber ich kann auch gut gelagerte 20 Jahre alte Festplatten noch auslesen (empfehlen würde ich so eine lange Lagerung aber trotzdem nicht).

Beim Kopieren könne natürlich auch Fehler auftreten, aber ordentliche Software sollte die geschriebenen Daten gegenprüfen.

Wenn du aktuell wirklich die kompletten Daten regelmäßig neu schreibst fällt dir zumindest früher auf, wenn eine Backupplatte ausfällt. Wenn die Daten nur herumliegen merkst du das erst, wenn du die Daten auslesen willst.

Ob eine oder mehrere Platten genutzt werden ist aber eigentlich egal. Ob bei einem Ausfall 1/3 der Daten weg ist oder alle interessiert dich normal nicht, da in dem Fall die Originaldaten noch vorhanden sind. Wichtig ist halt die regelmäßige Prüfung, damit ein defekt auffällt bevor man das Backup braucht.
 
  • Gefällt mir
Reaktionen: TWS
Demnach könnte es natürlich trotz Checksummen-Vergleich sein, dass bereits defekte Dateien korrekt kopiert werden - aber natürlich damit nicht nutzbar bleiben. Das Problem ist so ein bisschen, dass die Dateien auf den Festplatten überwiegend nicht gebraucht werden und es demnach auch lange Zeit nicht auffallen dürfte, sollten diese defekt sein; bis ich sie dann benötigen würde.

Aber wenn ich es richtig verstanden habe, kann ein Kopieren nicht verkehrt sein, soweit der Vergleich durchgeführt wird.

Anzumerken ist wohl auch, dass bei einer ganz neuen Festplatte das Ausfallrisiko nicht gering sein dürfte (Badewannenkurve). Ich habe Festplatten mit 24, 26 Tsd. Betriebsstunden (lt. CrystalDiskInfo), die zumindest gefühlt noch keine Probleme haben.

Am besten wären dann vermutlich tatsächlich die größeren Festplatten zu besorgen und die alten zumindest noch wenige Monate nicht neu zu beschreiben.

(da es eben eine 1:1 Sicherung ist, habe ich weniger Angst vor einem Ausfall als vor Datenkorruption)
 
TWS schrieb:
Demnach könnte es natürlich trotz Checksummen-Vergleich sein, dass bereits defekte Dateien korrekt kopiert werden - aber natürlich damit nicht nutzbar bleiben.
Korrekt.

TWS schrieb:
Das Problem ist so ein bisschen, dass die Dateien auf den Festplatten überwiegend nicht gebraucht werden und es demnach auch lange Zeit nicht auffallen dürfte, sollten diese defekt sein; bis ich sie dann benötigen würde.
Man möge mich korrigieren wenn falsch liege, aber das siehst Du richtig.

TWS schrieb:
Anzumerken ist wohl auch, dass bei einer ganz neuen Festplatte das Ausfallrisiko nicht gering sein dürfte (Badewannenkurve). Ich habe Festplatten mit 24, 26 Tsd. Betriebsstunden (lt. CrystalDiskInfo), die zumindest gefühlt noch keine Probleme haben.
In der Regel geht eine HDD nach ca. 200 Stunden kaputt und laufen danach gefühlt bis zu Deinem persönlichen Ableben. Ausnahmen bestätigen die Regel.

TWS schrieb:
(da es eben eine 1:1 Sicherung ist, habe ich weniger Angst vor einem Ausfall als vor Datenkorruption)
Da können Snapshots die Lösung sein, da Daten in regelmäßigen Abständen gesichert werden (vorausgesetzt die Datei ist nicht korrupt). Sollte dann irgendwann mal eine defekte Datei auftauchen besteht die Möglichkeit diese aus einem Snapshot wiederherzustellen. Nachteil: Du hältst Dir keine Snapshots bis zur Ewigkeit auf.

Da auch ich ein wenig der Datenkorruption vorgreifen wollte, habe ich mir seinerzeit ein NAS angeschafft welches als Dateisystem ZFS nutzt:

https://www.qnap.com/de-de/operating-system/quts-hero/5.0.1

Dadurch habe ich die Hoffnung, dass mich die Datenkorruption nicht ereilt.
 
Ich nutze seit FreeBSD 8 ZFS also seit > 10 Jahren und hatte bisher nur Bitfehler wenn die HDD selber wirklich defekt waren. Kann natürlich Zufall sein aber ein paar Petabyte sind da sicher bewegt worden xD

hehe auch wenn das natürlich eher "Meckern auf hohem Niveau" ist - seit OpenZFS der neue Standard gerworden ist denke ich sind Eigenbau ZFS fast noch wichtiger als früher - weil sich einfach viel mehr tut seit Linux + FreeBSD den "ZFS-Standard" setzen und dort natürlich auch 99% der Fixes zeitnah stattfinden.

https://github.com/openzfs/zfs/releases/tag/zfs-2.1.6

Einige Baustellen sind sicher wohl auch beim am weitesten entwickelten ZFS noch offen

https://github.com/openzfs/zfs/issues
 
Zuletzt bearbeitet:
Ich meine mich zu erinnern, dass es vor wenigen (oder doch einigen?) Jahren einmal geheißen hatte, bestimmte Festplattengrößen wären eher zu meiden, da sie sich in der Bauart unterscheiden würden, was nachteilig wäre. Gilt das noch? Oder kann man bedenkenlos auch z. B. zu 10, 12 TB Modellen greifen?

Nachtrag: Die 12, 14 GB scheinen nicht sonderlich einschlägig zu sein. Eine Toshiba 16 GB ist überraschend preiswert (Toshiba Enterprise MG08ACA16TE). Ggf. alternativ eine Seagate Exos X X16 ST16000NM001G (Ausfälle in den Nutzerkommentaren).
 
Zuletzt bearbeitet: (Ergänzung)
Hinsichtlich den Ausfallraten bin ich auf eine Statistik gestoßen, diese ist hier abrufbar:
https://www.backblaze.com/b2/hard-drive-test-data.html

Die Hintergründe und Verlässlichkeit der Statistik kenne ich nicht, die Ausfallraten der beiden Modelle geben sich aber nicht unbedingt was.

Ich habe daraufhin einmal MF kontaktiert, die mich darauf hingewiesen haben, dass bei jedem Produkt eine Reklamationsquote ersichtlich ist. Bei den beiden Beispielen liegen diese bei 1,59 bzw. 1,53% (Hitachi, Seagate).

Nachgefragt, was genau unter Reklamationsquote zu verstehen ist, wurde von MF mitgeteilt:
Hier gehts jede glich um defekte Artikel, da wir nicht sagen können, wenn ein Kunde den Artikel Widerruft, was genau der Grund dafür ist.
Ganz nachvollziehen kann ich die Aussage jetzt nicht - entweder es sind Reklamationen aufgrund eines Defekts; oder auch normale Widerrufe im Rahmen des Fernabsatzrechtes.

Interessant ist das schon: MF gibt an das Toshiba Modell derzeit 11.120 mal verkauft zu haben. Bei einer Ausfallrate von über 1% würde das nicht nur bedeuten, dass eine von einhundert Festplatten Mist ist, sondern auch, dass über 100 defekte Festplatten verkauft wurden (100*250 EUR = 25 Tsd. EUR).

Das kann doch kaum sein, oder? Ich hätte auf eine Ausfallrate von vielleicht eine auf 10.000 Festplatten getippt (oder darunter). Schließlich kommt es doch gerade bei Festplatten extrem darauf an.
 
Ich habe dann kürzlich die Toshiba Enterprise MG08ACA16TE erworben. Seltsamerweise gab es die für einen kurzen Moment für ca. 220 statt 250 EUR. Der Test läuft nun an.

Wenn Festplatten meist, soweit sie kaputt gehen, das tendenziell bei / bis 200 Betriebsstunden tun, ist das natürlich bei einer Backup-Festplatte ein wenig problematisch - schließlich fristet sie bis dahin eher ein Dasein fern des Rechners.

Mit erschrecken hatte ich ansonsten feststellen müssen, dass von 16 TB natürlich nur knapp 14,5 TB bleiben. ;-) Zur Inbetriebnahme verwendete ich (sollte jemand darüber stolpern) mitunter den clean-Befehl bei diskpart (cmd).
 
Mich würde noch interessieren, ob es eine schnelle Möglichkeit gibt den Kopiervorgang von Festplatte 1 auf 2 in Windows 10 auf Richtigkeit hin zu überprüfen?

Beim Kopieren mit der Software TeraCopy ist eine Überprüfung möglich. Dabei wird nach vollendetem Schreibvorgang die Datei gelesen und eine Prüfsumme gebildet und verglichen (welche Prüfsumme konkret weiß ich nicht). Allerdings braucht das dementsprechend lange, scheint so, als würde dazu die ganze Datei eingelesen werden müssen.

Vermutlich geht es aber gar nicht effizienter?
 
TWS schrieb:
Vermutlich geht es aber gar nicht effizienter?
Prüfsummen zu errechnen dauert halt. Da kann man nichts beschleunigen. Sicherheit kostet in dem Fall etwas Zeit, sollte es dir Wert sein :).
 
mae1cum77 schrieb:
Prüfsummen zu errechnen dauert halt. Da kann man nichts beschleunigen. Sicherheit kostet in dem Fall etwas Zeit, sollte es dir Wert sein :).
Ne, Prüfsummen/Hashes werden im Allgemeinen extra so designed (ausgenommen nur Verfahren Anwendung aud Passwörter), dass sie ultraperformant sind. Was dauert ist das wieder einlesen. Und wenn einem die Bestätigung der Platte zum erfolgreichen Schreiben jedes betreffenden Sektors nicht reicht, muss man ihn halt danach neu einlesen. Sobald die Daten erst wieder im RAM liegen geht der Rest blitzschnell. Beschleunigen lässt sich das ab dann quasi kaum noch weiter…
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TWS
Jau, der liest ja praktisch auf Platte 1, schreibt auf Platte 2 und am Ende wird auch auf Platte 2 gelesen, um auch dort die Prüfsumme zu bilden. Insofern dürfte der zusätzliche Zeitbedarf in etwa der Lesegeschwindigkeit von Platte 2 entsprechen (wäre jetzt meine Vermutung).

Interessant wäre jetzt natürlich, wie häufig das vorkommt, dass die Prüfsummen nicht übereinstimmen. Bislang ist es nicht vorgekommen.
Ergänzung ()

Die neue Festplatte hat sich jetzt jedenfalls schon zwei-, dreimal beim Kopieren verabschiedet. D. h. der Kopiervorgang stoppte und sie verschwand aus dem Explorer. Allerdings ist sie über ein externes Gehäuse angeschlossen. Nach einem Neustart von diesem funktionierte es wieder. Schwer zu sagen, ob die neue Platte Schrott ist oder ob es das ext. Gehäuse ist und der Controller nach einer Weile Schreiben (großer Datenmengen) zu viel hat. So oder so fühlt sich das nicht nach einem guten Start an.
 
Zuletzt bearbeitet:
TWS schrieb:
(welche Prüfsumme konkret weiß ich nicht).

MD5. Gibt bessere Hashes wie BLAKE oder xxhash.

2022-12-25_171631.png
 
Das Fenster von TeraCopy hatte ich bislang gar nicht gesehen, Danke für den Hinweis!

Die für den externen Gebrauch vorgesehene neue Festplatte hat sich auch in einem anderen ext. Gehäuse nach einer Weile des Kopierens verabschiedet. Nach einem erneuten Einschalten des Gehäuses ist sie wieder verfügbar. Gut möglich, dass der Controller solcher Gehäuse (ca. 30 EUR) bei großen Schreibvorgängen nach einer Zeit aufgibt, oder?

Dann werde ich die Platte wohl doch vorübergehend einbauen und dort bespielen, zumindest würde CrystalDiskInfo dann ja etwaige Fehler auslesen und anzeigen können.

Ergänzung: Nach dem Einbau der Festplatte(n) in den Computer schien das Kopieren keine Probleme mehr zu bereiten. Demnach steht zu vermuten, dass beide ext. Festplattengehäuse beim Kopieren größerer Datenmengen (in Richtung 1 TB) nach einer Weile aussteigen. Die Kopiervorgänge wurden teilw. per MD5 (Standard) überprüft, Fehler waren keine aufgefallen.
 
Zuletzt bearbeitet: (Ergänzung)
Eine der Festplatten, vermutlich die neue 16 TB Platte, macht recht laute Geräusche. Da ich sie selten tatsächlich benutze ist mir das recht egal wenn es sich nicht so darstellen würde:

Wenn der PC läuft, z. B. eines Downloads wegen, aber ansonsten gerade nicht aktiv bedient wird, fällt nach gewisser Zeit das Festplattengeräusch auf. Sobald ich den PC wieder aktiv nutze, z. B. mit der Maus auf dem Desktop, hört das Festplattengeräusch erstmal auf.

Hat jemand eine Idee wie es dazu kommen könnte? Eigentlich müsste die Festplatte nicht genutzt werden.

Dachte mir ich versuche sie einmal testweise in den Ruhemodus zu versetzen um herauszufinden, ob wirklich sie das ist. Verstehe nur nicht wieso das Geräusch entsteht, wenn gerade nicht wirklich etwas geschieht.
 
TWS schrieb:
Die für den externen Gebrauch vorgesehene neue Festplatte hat sich auch in einem anderen ext. Gehäuse nach einer Weile des Kopierens verabschiedet. Nach einem erneuten Einschalten des Gehäuses ist sie wieder verfügbar. Gut möglich, dass der Controller solcher Gehäuse (ca. 30 EUR) bei großen Schreibvorgängen nach einer Zeit aufgibt, oder?
Hast Du Dir mal die SMART Werte angesehen. Ich hate damals zwar keine Probleme, gut 8 TB am Stück auf eine neue Platte zu kopieren. Trotzdem wurde die (nicht gekühlte) EXOS X X16 dabei so warm, dass sie nahe an den erlaubten Werten lag. Da sie einfach nur in einem alten und offenen USB3-Gehäuse verbaut war, stand halt nachts ein Tischlüfter daneben und hat die Temperatur der HDD dauerhaft um mind. 10°C gesenkt.

TWS schrieb:
Eine der Festplatten, vermutlich die neue 16 TB Platte, macht recht laute Geräusche.
Dass Toshiba Platte (bzw. allgemien Platten >=14 TB) im Betrieb nicht gerade leise sind, ist nichts neues.

TWS schrieb:
Wenn der PC läuft, z. B. eines Downloads wegen, aber ansonsten gerade nicht aktiv bedient wird, fällt nach gewisser Zeit das Festplattengeräusch auf. Sobald ich den PC wieder aktiv nutze, z. B. mit der Maus auf dem Desktop, hört das Festplattengeräusch erstmal auf.
Was ist ein Festplattengeräusch? Drehende Platter oder Zugriff/Kopfbewegung? Eine meiner Gehäuseabdeckungen gerät in Schwingungen, wenn die EXOS läuft. Das ist ausnahmeweise mal meine Sparwut vor 12 Jahren Schuld und ist bis zum Eingach der EXOS nicht aufgefallen.

Zugriffsgeräusche im Idle werden hier im Forum bei Windows-Rechnern immer wieder bemängelt. Windows macht im Zweifel im Idle, was es will (oder was MS mal für "sinnvoll" gehalten hat) und nicht das, was der normale User erwartet (=es tut nichts). M.M.n. wird MS seit Jahren von SSD-Herstellern bestochen, sonst gäbe es schon längst eine einfache Option, um den Hintergrundmist zu deaktivieren.

Da hilft mit Glück der tiefe Blick in den Taskmanager/Ressourcenmonitor, was gerade auf die HDD zugreift.

Mir fallen so nutzlose Dinge wie Defragmentierung, Indizierung oder ein Virenscanner ein. Interne Optimierungen der HDD sollten es wohl nicht sein, da Du sicher keine SMR Platte gekauft hast. Aber am Ende weisst nur Du, was auf Deinem PC für Software läuft, das muss auch nicht alles von MS kommen.
 
Die S.M.A.R.T. Werte scheinen laut CrystalDiskInfo in Ordnung. Leider scheint das Auslesen ja nur intern zu funktionieren.

Schwingungen wären eine Möglichkeit, die großen Platten lassen sich bei den Einschüben meines Gehäuses auch nur mit zwei statt vier Schrauben fixieren (immerhin mit Gummiringen dazwischen).

Es scheinen, dem Geräusch nach, Schreibvorgänge zu sein. Ich habe das Ganze vorhin, nach meiner Rückkehr, sozusagen auf frischer Tat ertappt. Hierzu hatte ich den Ressourcenmonitor (Aufruf via TaskManager) entdeckt. Da war also definitiv etwas los (siehe Anhang).

Vielleicht war es eine Defragmentierung, diese könnte wider Erwartens nicht deaktiviert gewesen sein (jetzt aber auf jeden Fall). Ansonsten hatte ich noch die Vermutung, dass es vielleicht Windows hinsichtlich dieser Search-Indizierung sein könnte.

Welches Tool wäre denn am besten geeignet zu einer entsprechenden Überwachung / Protokollierung? Der genannte Ressourcenmonitor listet unter Datenträgeraktivität zwar auch die Dateien und damit den Pfad auf, doch ist das leider flüchtig, verschwindet also aus der Anzeige, wenn die Aktivität erst einmal zu Ende ist.

Gibt es da etwas empfehlenswertes?
 

Anhänge

  • Zugriff in Abwesenheit.JPG
    Zugriff in Abwesenheit.JPG
    21,9 KB · Aufrufe: 94
Zurück
Oben