Hi,
dafuer hat man ja ein Backup seiner Daten.
Normal gehen Sektoren nicht einfach so kaputt, sondern verschlechtern sich im Laufe der Zeit, was dann VOR dem Ausfall zum Ummappen fuehrt.
Das war frueher nicht unbedingt so. Ich erinnere mich noch an die "legendaere" IBM DTLA, bei der mir oefter mal eine Platte aus dem RAID flog und danach einen "Reallocated Sector" mehr hatte. Danach liess sie sich wieder integrieren, sprich, komplett beschreiben. Folglich hat also der Sektorverlust das Ummappen angestossen, die Daten waren dann aber weg (was im RAID nicht stoert).
Heute laeuft das anders: Meine aktuellen Seagates haben durchaus "reallocated sectors" im SMART, haben aber auch beim RAID-scrubbing nie Fehler geworfen. Von daher sieht das sehr danach aus, als wuerde die Steuerung einen Sektor bereits ummappen, bevor es kracht, sprich, wenn die Fehlerkorrektur in hohem Masse verwendet werden muss.
Auf der anderen Seite sollte die HDD über Checksummen mittels großem Rechenbedarf die Sektoren wieder herstellen können
Das stimmt auf der Ebene nicht. Das tut sie bei jedem Lesen und muss damit auch im ganz normalen Betrieb sehr viel wieder rekonstruieren - moderne Platten "raten + fehlerkorrigieren" dank sehr feinen magnetischen Strukturen oefter mal. Einen Sektorfehler "nach oben", also zum OS, gibt es erst, wenn das nicht mehr gereicht hat. Da kann dann auch nichts mehr getan werden, die Daten sind weg und man sollte das Backup wieder einspielen. Wie oben schon gesagt, spricht aber bei modernen Platten viel dafuer, dass die Fehlerkorrekturrate ein Faktor ist, der darueber entscheidet, wann ein Sektor ersetzt wird. Geschieht das, solange man die Daten noch wiederherstellbar sind, dann hat man Glueck (und das OS merkt davon gar nichts, nur im SMART kann man das an den "reallocated sectors" sehen).
Eine Gefahr dieses Ansatzes ist, dass so ein Mechanismus nur beim Lesen greifen kann. Liegt das ISO also jahrelang ungelesen rum, dann kann es durchaus passieren, dass die Platte nie die Chance hatte, Probleme zu sehen. Gerade in einem RAID kann sowas leicht zu Doppelplattenfehlern fuehren... Gegenmassnahme ist das "disc scrubbing", also das regelmaessige Lesen + Neubau der Checksummen bzw. Checken der Spiegelung).
Wenn man allerdings regelmaessig Backups macht und dabei die Files auch pruefen laesst (Checksummen oder so), dann fuehrt das alleine schon dazu, dass alles ab und an mal gelesen wird und die Platte die Chance bekommt, schleichende Probleme durch Ummappen zu loesen. Und: Man hat ein Backup, es kann einem also egal sein.
Insgesamt: Es gibt nur zwei Sorten von Leuten: Der einen Sorte ist noch nie eine Platte kaputtgegangen und die andere Sorte macht Backups.
Viele Gruesse,
Jan