Festplatte lagern

o0Julia0o schrieb:
Trotzdem halten sie auch mal locker 10 Jahre.
Die von mir im Post #8 zitieren Aussagen der Hersteller sagen aber was anderes, hast Du die nicht gelesen oder glaubst Du es einfach nur nicht?
Oldi-40 schrieb:
Ich habe noch eine 100 MB-Platte die funktioniert, aber die 40 GB-Platten sind fast alle verstorben.
Das wundert mich nicht, die ganz alten HDDs halten sehr viel als die neueren und die heutigen dürfen noch weniger lange halten, die habe ja auch eine ganz andere Technik, sonst könnte sie ja auch nicht diese Kapazitäten haben. Wenn HDD von vor 20 oder 30 Jahren heute noch leben, bedeutet es eben noch lange nicht, dass dies für heutige HDDs in 20 oder 30 Jahren auch noch gilt. Das scheint nur nicht jeder begreifen zu können oder zu wollen.

Oldi-40 schrieb:
Die 100 MB-Platte kann ich nur mit Asbach-Hardware auslesen.
Das ist das nächste Problem der Langzeitdatenspeicherung.
 
Holt schrieb:
Die [...] Hersteller sagen aber was anderes.
Schon. 30 Tage sagen die einen, die anderen 1 Jahr. Beides habe ich noch nie erlebt oder von Leuten gehört, dass es so schnell kaputt war - eine HDD. Gibt ja viele Bereiche wo die Hersteller empfehlen auf den Radgepäcksträger nicht mehr als 20kg zu legen, doch wenn man 30kg drauflegt passiert meistens halt auch nix. Oder nur Profianwender merken etwas. Ich denke, wenn man hier in die Runde fragt, ob Jemand eine HDD, welche er 30 Tage ausgebaut herumligen gelassen hat danach defekt war - werden das die wenigsten bestätigen.

Die Frage ist halt. Bringt das Anschlißen etwas? Von mir aus für HGST-Platten jedes Jahr. Dann würde ich ja der Jahresempfehlung entsprechen.

Holt schrieb:
Das wundert mich nicht, die ganz alten HDDs halten sehr viel als die neueren und die heutigen dürfen noch weniger lange halten, die habe ja auch eine ganz andere Technik, sonst könnte sie ja auch nicht diese Kapazitäten haben.
Das ist natürlich ein interessanter Aspekt. Den hatte ich jetzt auch noch nicht so auf dem Schirm.

Holt schrieb:
Das ist das nächste Problem der Langzeitdatenspeicherung.
Mir geht es ja nicht um Langzeitdatenspeicherung. Sonder Langzeit HDD-Lagerung (ohne Daten).

Oldi-40 schrieb:
Gibt es so etwas auch für Windows?

http://www.hdat2.com/ -> "main function is testing and repair (to regenerate) bad sectors for detected devices" Wäre doch so etwas, oder?

Geht so etwas überhaupt? "HDD Regenerator is a unique program for regeneration of physically damaged hard disk drives. It does not hide bad sectors, it really restores them!"
Q: http://www.dposoft.net/

DriveFitnessTest soll ja auch gut sein, jedoch ist es ja recht alt (2010).

Mit einem lowlevelformat werden defekte Sektoren ebenfalls als defekt markiert. Wie kann ich das auführen. Einfach rechte mausstaste auf HDD>Formatieren & Häkchen bei Schnellformatierung wegmachen? Dateisystem egal, also z.B. NTFS lassen?

Rumo schrieb:
Ist der häufigste Fehler von Leuten die RAID nutzen... testen die die Platten nie und tun dann sehr erstaunt wenn nach einem Totalschaden dann der anschliessende RAID-Resync nicht durchläuft. Das ist dann der Moment wo die ganzen jahrelang unentdeckten Lesefehler der anderen Platten auftauchen.
Chrystal Disk Info zeigt mir den Gesamtzustand nach einer Sekunde an. Deckt das Lesefehler auf? Oder womit am besten testen? Sea Tools?
 
Zuletzt bearbeitet:
Elektrostatische Entladung ist der Feind aller Elektronik, natürlich auch der auf der Controller-Platine der HDD.
Von daher macht so eine Verpackung immer Sinn, aber man sollte sich natürlich auch erden, wenn man es mit elektronischen Baugruppen zu tun hat. Es gibt dafür ua. auch div. Sicherheitsschuhe, die von sich aus eine hohe elektrostatische Aufladung verhindern.

Weiters ist ein natürlicher Feind der Festplatten die Schwerkraft, und dass sie beim Transport (auch wenn man sie online zB. bei Amazon bestellt), auf dem Weg zum Kunden gerne mal auf den Boden fällt. Da hilft eine Verpackung dann auch nur bedingt und eingeschränkt. Die Spindellagerung nimmt einem so einen Absturz übel, und der Plattenstapel läuft dann unter Schwingungen und unruhig, so kann man erkennen, dass die Platte schon einen leichten Schaden hat, und wahrscheinlich bald den Geist aufgeben wird.
Dh. Festplatte immer in Antistatikfolie und in mit Schaumstoff gepolsterten Karton verpackt, transportieren, und natürlich trotzdem bloß nicht fallen lassen!
 
o0Julia0o schrieb:
Chrystal Disk Info zeigt mir den Gesamtzustand nach einer Sekunde an. Deckt das Lesefehler auf?

Nur die, auf die die Platte zufällig gestossen ist. Also nicht ausreichend...

Du brauchst einen aktiven Lesetest. SMART kann das auch (dauert X Stunden je nach Plattengröße/-geschwindigkeit), du kannst es natülrich auch mit einem herkömmlichen Programm testen. Beispiele für WIndows habe ich da leider keine parat.

Unter Linux mit smartctl -t long und dann eben warten...

badblocks sollte man besser nicht verwenden oder wenn dann ohne Parameter (readonly modus). Alle anderen Modi sind nur geeignet wenn die Daten verzichtbar sind (der non-destructive read-write mode ist nicht non-destructive wenns drauf ankommt).

Geht so etwas überhaupt? "HDD Regenerator is a unique program for regeneration of physically damaged hard disk drives. It does not hide bad sectors, it really restores them!"

Ich weiß nicht was dieses Programm macht, Linux hdparm kennt --make-bad-sector um Sektoren künstlich als schlecht zu markieren und analog dazu --repair-sector. Am Ende ist das doch wieder alles Augenwischerei...

Mit einem lowlevelformat werden defekte Sektoren ebenfalls als defekt markiert.

...solchen Platten kann man keine wichtigen Daten mehr anvertrauen... wenn die Garantie schon abgelaufen ist, fürs Backup vom Backup vom Backup vielleicht okay aber als primärer Speicher niemals, da hilft nur neue Platte... eine defekte Platte die Daten verliert ist nicht akzeptabel.

Einer Festplatte kann man vertrauen bis sie den ersten reallozierten/schwebenden/unlesbaren Sektor hat und danach ist sie nur noch für Olympia gut, Disziplin Festplattenweitwerfen...
 
Zuletzt bearbeitet:
Also ein lowlevelformat ist schlecht für die Haltbarkeit der zukünftig gespeicherten Daten?

Rumo schrieb:
badblocks sollte man besser nicht verwenden oder wenn dann ohne Parameter (readonly modus). Alle anderen Modi sind nur geeignet wenn die Daten verzichtbar sind (der non-destructive read-write mode ist nicht non-destructive wenns drauf ankommt).
In meinem Fall sind mir alle Daten Wurst. Ich weiß nichtmal welche Daten darauf sind ;) Aber generell.. warum sollte das Sperren von Sektoren schlecht sein. Im dem Moment wo man auf den nichtgesperrten Sektor zugreift und seine Daten abrufen will, könnte man die Daten ohnehin nicht mehr lesen, da sie ja defekt sind -> nur deshalb würden sie ja gesperrt von dem Tool. Man erfährt es durch das Tool halt nur früher.
 
Zuletzt bearbeitet:
ach supi, und dann einfach den extendet-Self-test da durchführen:


Wie mache ich das mit der badlocks-Sperrung? Gerade für eine nichtgenutzte HDD ist das ja sinvoll. Also bevor ich sie in Nutzung nehme. Einen von diesen Parametern hinzufügen unter Options>General: https://www.technologyblog.de/2014/06/defekte-sektoren-reparieren-unter-linux-mit-badblocks/ Der Autor schreibt ja in der Überschrift etwas von Reparieren. Aber im Text ist dann davon keine Rede mehr. Mir würde ja schon Sperren reicihen. Wobei 1. Reparaturversuch, 2. Sperrung am besten wäre.
Aber welchen?
Code:
badblocks -svvn -c 262144 /dev/sda
Also so?


https://www.youtube.com/watch?v=L_0mDt9E8lc
 
Zuletzt bearbeitet:
warum sollte das Sperren von Sektoren schlecht sein.

Solange du im Hinterkopf behältst, daß eine Festplatte mit defekten Sektoren nun mal defekt ist...

Man kann nicht auf der einen Seite Backup Backup Backup predigen und auf der anderen Seite Festplatten mit Karies betreiben.

Aber da muss jeder seine eigenen Prioritäten setzen.


Du vermischst hier irgendwas, badblocks hat mit SMART nichts zu tun, badblocks kann also nicht bei "Smartctl parameters" oder überhaupt Teil von einer SMART-Eingabemaske sein.

Und .exe und /dev/sda passt auch nicht so recht zusammen, /dev/sda ist die Linux-bezeichnung für das was unter Windows dann z.B. PhysicalDrive0 oder umgangssprachlich C: wäre.

Unter Windows würdest du das mit badblocks lassen und beim Formatieren einfach den Quick-Haken wegmachen so daß die Formatierung dann gleichzeitig auch das Gerät komplett überschreibt, dabei werden Defekte Blöcke ja auch gefunden und zur Not auf Dateisystemebene gesperrt... (oder die Formatierung mit Fehler abgebrochen, das ist auch gut, dann kapiert vielleicht auch der letzte daß die Platte auf den Müll gehört)

Nur das einmalige Badblocks bzw. die Formatierung ist dann der Ist-Zustand zum Zeitpunkt der Formatierung, später hinzukommende Fehler nicht berücksichtigt...
 
Zuletzt bearbeitet:
o0Julia0o schrieb:
Schon. 30 Tage sagen die einen, die anderen 1 Jahr.
Lies doch mal genauer, die Angaben sind für unterschiedliche Platten und unter unterschiedlichen Voraussetzungen.
o0Julia0o schrieb:
Beides habe ich noch nie erlebt oder von Leuten gehört, dass es so schnell kaputt war - eine HDD.
Es ist wie beim Mindesthaltbarkeitsdatum für Lebensmittel, die sind am nächsten Tag auch nicht automatisch verdorben (auch wenn viele das meinen), sondern vielmehr garantiert dann der Hersteller eben nicht mehr, dass sie selbst ein Einhaltung der Lagerbestimmungen nicht verdorben sind und der Kunden muss dann selbst prüfen, ob sie noch genießbar sind. Die Platte kann also auch noch 3 Jahren im Schrank noch funktionieren, vielleicht funktioniert aber auch gar nicht mehr oder nur noch kurz, das Risiko liegt dann alleine bei Dir.
o0Julia0o schrieb:
Gibt ja viele Bereiche wo die Hersteller empfehlen auf den Radgepäcksträger nicht mehr als 20kg zu legen, doch wenn man 30kg drauflegt passiert meistens halt auch nix.
Es wird immer eine gewisse Reserve mit eingeplant, aber wenn man dann mit den 30kg durch Schlagloch fährt und es passiert etwas, dann ist der Hersteller raus und man selbst ganz alleine verantwortlich für die Folgen.
o0Julia0o schrieb:
Die Frage ist halt. Bringt das Anschlißen etwas? Von mir aus für HGST-Platten jedes Jahr. Dann würde ich ja der Jahresempfehlung entsprechen.
Lies doch noch mal genau:
Das eine Jahr gilt nur innerhalb der originale Versandverpackung des Herstellers und aus der hat sehr wahrscheinlich schon der Händler die HDDs rausgenommen, denn das sind für Bulk Ware große Kisten.

o0Julia0o schrieb:
Das ist natürlich ein interessanter Aspekt. Den hatte ich jetzt auch noch nicht so auf dem Schirm.
Trotzdem hängst Du Dich an den Erfahrungen mit den alten Modellen von vor zig Jahren auf, willst aber vermutlich nicht solche Oldtimer einsetzen, die haben ja einmal nur geringe Kapazitäten und dann heute schon viele Jahre runter, sondern hoffst diese Erfahrungen entgegen den Herstellerangaben einfach auf heutige HDDs übertragen zu können.

Aber mach halt wir Du willst, es sind ja nicht meine Daten und ich habe Dich darauf hingewiesen, mehr kann und will ich auch gar nicht machen. Nur wenn die Platten nach 3 Jahren im Schrank alle nicht mehr gehen, dann meckere nicht über die miese Qualität von HDDs, die sind eben dafür nicht gedacht und nicht gemacht um jahrelange in irgendwelchen Schränken zu liegen.
 
Hallo,

Badblocks vernichtet keine Daten per se, es kommt auf die Einstellung an.

Badblocks kann die "Schwebenden Sektoren" in die Kategorie Lesbar/Unlesbar sortieren.

Von den Daten der fehlerhaften Sektoren habe ich nichts geschrieben, denn die sind futsch.

Bei einer Formatierung sind alle Daten im Nirwana.

Tschau
 
Wenn ein Sektor schwebt, dann kann der Controller die Daten dort nicht mehr korrekt lesen und damit sind sie verloren. Jedes Tool kann und wird sie dann nur überschreiben und der Controller der HDD prüft dann die neuen Daten und entscheidet danach ob diese korrekt gelesen werden können, dann verschwindet der schwebende Sektor einfach so und sonst wird er eben durch einen Reservesektor ersetzt.
 
Holt schrieb:
Wenn ein Sektor schwebt, dann kann der Controller die Daten dort nicht mehr korrekt lesen und damit sind sie verloren. Jedes Tool kann und wird sie dann nur überschreiben und der Controller der HDD prüft dann die neuen Daten und entscheidet danach ob diese korrekt gelesen werden können, dann verschwindet der schwebende Sektor einfach so und sonst wird er eben durch einen Reservesektor ersetzt.
Nunja, badblocks versucht den Sektor zu Lesen und beschreibt den Sektor neu, mit verschieden Mustern.

Die Daten in den schwebenden Sektoren sind futsch.

Die Frage ist, ist die Festplatte am Ende?

Tschau
 
Ob die HDD am Ende ist, hängt von der Ursache für den schwebenden Sektor ab, wenn ein mechanischer Defekt die Ursache war und der bald weitere Fehler verursachen wird, dann vermutlich. Aber Schwebende Sektoren sind erstmal einfach nur Sektoren deren Daten nicht mehr zur ECC dahinter passen. Da die korrekten Daten nicht mehr feststellbar sind, gibt die Platte statt falscher Daten einen Lesefehler als Antwort wenn man versucht diese zu lesen. Das kann eben auch anderen Gründe als defekte Oberflächen haben, z.B. einen Stromausfall während eines Schreibvorgang der dazu führt, dass eben nicht die ganze Daten plus der neuen ECC geschrieben wurden oder wegen eines Stoßes oder Vibrationen ist der Kopf beim Schreiben aus der Spur gekommen und hat Daten auf der Nachbarspur überschrieben, dann ist die Platte komplett in Ordnung, aber der Fehler fällt eben erst auf, wenn man versucht den betroffenen Sektor zu lesen, der Vorfall selbst kann lange zurück liegen.

Die Controller merken sich die schwebenden Sektoren und prüfen die Daten nach dem erneuten Schreiben auf diese Sektoren, sonst werden Daten nach dem Schreiben ja nicht noch mal von der Platte geprüft. Dann verschwinden diese einfach wieder, wenn die neuen Daten bei der Prüfung korrekt gelesen wurden oder werden eben durch Reservesektoren ersetzt und dann weiß man, dass es dort ein Problem mit der Oberfläche gibt. Aber auch das muss noch nicht das Ende für die Platte bedeuten, der Schaden muss keine Ursache haben die Folgeschäden und damit den baldigen Ausfall verursacht. Es kann sein und ist vermutlich gerade bei Heimanwendern nicht selten auch so, aber dann liegt die Ursache des Ausfalls entweder im Alter der Platte, wobei HDDs die jenseits ihrer Spezifikationen betrieben werden auch deutlich schneller altern oder in einer mechanischen Misshandlung. Von HGST gibt es dieses Video über die Empfindlichkeit und korrekt Handhabung von HDDs an die sich sicher schon viele Händler/Logistiker nicht halten dürften, mit dem Empfehlung wie die Umgebung aussehen sollte auf denen mit HDDs gearbeitet wird und sie weisen darauf hin, dass die Schäden sich auch erst später bemerkbar machen können. Das sind dann eben meist in kurzer Zeit häufig auftretende schwebende Sektoren und die deuten wirklich auf ernste Probleme hin.

Ein paar schwebende Sektoren sind hingegen sogar normal und werden von den HDD Herstellern auch mit der UBER spezifiziert, die besagt nämlich, dass z.B. bis zu ein Sektor je gelesener 10^14 Bit (was etwa 12TB sind) oder 1:10^15 Bit (etwa 120TB) nicht mehr korrekt gelesen werden kann und die HDD dann noch innerhalb der Vorgaben arbeitet. Wer also seine Platte beim ersten schwebenden Sektor ausrangiert, der hat schlicht von dem ganzen Thema überhaupt keine Ahnung und reagiert daher hysterisch.
 
Holt schrieb:
Wer also seine Platte beim ersten schwebenden Sektor ausrangiert, der hat schlicht von dem ganzen Thema überhaupt keine Ahnung und reagiert daher hysterisch.

Null-Fehler-Toleranz ist nicht gleich Hysterik. Festplatten haben nun mal zu funktionieren (und das tun die meisten auch - über Jahre).

Lesefehler sind nur normal in dem Sinne daß eben alles früher oder später kaputtgeht. Was die UBER angeht, die hat keinerlei praktische Relevanz (insbesondere im Zusammenhang mit den Artikeln die wegen UBER das RAID für tot erklären oder das mit TB-Zahlen verbinden). Alle 120TB gibts einen Lesefehler ist genau das was die UBER nicht besagt.

Man kann ja Ausnahmen machen. Wer seine Platten regelmäßig testet (wöchentlich, oder scheibchenweise täglich) der kann das ja vielleicht noch einordnen wenn ein schwebender Sektor entsteht. Gabs die letzte Woche einen schweren Stromausfall oder nicht, oder hat ein Wahnsinniger auf dem Serverschrank den Radetzky-Marsch getrommelt? Wer sich mit Dateisystemen gut auskennt kann vielleicht auch beurteilen wie alt dieser schwebende Sektor ist / wann dieser zuletzt neu beschrieben worden sein kann.

Aber das ist eine Risikoentscheidung. Muss jeder selber wissen.

SMART ist unter anderem dazu da, frühzeitig auf bevorstehende Plattenausfälle aufmerksam zu machen. Funktioniert natürlich nicht wenn alle sagen: Das ist sowieso normal, ignoriers einfach. Oder wenn erst gar keine Selbsttests durchgeführt werden.
 
Nur schwebende Sektoren eben Fehler die auch bei gesunden HDDs nicht zu vermeiden sind, sonst gäbe es ja auch keine UBER von 1:10^14 oder 1:10^15 bei den üblichen HDDs, die auch jeder Hersteller angibt. Solange die HDD diese einhält, arbeitet sie innerhalb der Herstellervorgaben und man sollte sie natürlich auch innerhalb der Spezifikationen betreiben, sonst könnte es öfter zu schwebenden Sektoren kommen. Und die UBER besagt auch nicht, dass es alle 12TB (bei 1:10^14) oder 120TB (bei 1:10^15) zu einem Lesefehler kommen muss, sondern nur dass es zu einem kommen darf, ohne die Herstellervorgaben zu verletzten! Man muss als je gelesener 12TB/120TB mit einem Fehler rechnen, hat aber eben keinen "Anspruch" darauf, dass der wirklich auftritt. :evillol:

Dieser Angabe die Relevanz abzusprechen, zeigt das Du eben keine Ahnung hast und nicht verstehst, dass die Platte eben nicht automatisch kaputt ist wenn mal ein schwebender Sektor auftritt. Das ist genau der Irrtum der zu der hysterischen Überreaktion einiger Leute führt.

Wer schwebende Sektoren vermeiden will, der setzt auf ein echtes RAID, also eines mit Redundanz und kein RAID 0, denn RAID 0 ist eigentlich AID 0, da das R in RAID für Redundant steht. Dann wird jeder anständige RAID Lösung bei Auftreten eines Lesefehlers die Daten aus der Parity rekonstruieren und den Sektor auf der entsprechenden Platte überschreiben und dann verschwindet er ja bekanntlich, außer man hat ein HW-RAID und ungeeignete Platte (TLER Problem), dann fliegt einem die Platte aus dem RAID. Dann hat man auch keinen Datenverlust bzw. muss nicht das Backup bemühen um die betroffene Datei wiederherzustellen, was auch für ein RAID spricht, nur wird dieser Aspekt viel zu selten erwähnt.
 
Holt schrieb:
Man muss als je gelesener 12TB/120TB mit einem Fehler rechnen, hat aber eben keinen "Anspruch" darauf, dass der wirklich auftritt. :evillol:

Er tritt ja gerade nicht auf, auch nach der zehnfachen oder hundertfachen Datenmenge nicht, soviel zur Relevanz.

Holt schrieb:
Dieser Angabe die Relevanz abzusprechen, zeigt das Du eben keine Ahnung hast und nicht verstehst, dass die Platte eben nicht automatisch kaputt ist wenn mal ein schwebender Sektor auftritt.

Lesefehler = Datenverlust, Datenverlust = inakzeptabel.

Man kann da anderer Meinung sein, das hat dann was mit Risikobereitschaft zu tun, weniger mit Ahnung...

Holt schrieb:
Wer schwebende Sektoren vermeiden will, der setzt auf ein echtes RAID, also eines mit Redundanz

Gerade das RAID lebt davon, daß alle Platten zu 100% funktionstüchtig sind. Defekte Sektoren kann man sich im RAID noch weniger leisten als bei einzelnen Platten. Es hängen eben nicht nur die Daten einer, sondern aller Platten daran. Die gängigen Lösungen, egal ob Software- oder Hardware-RAID, brechen im Rebuild beim ersten Lesefehler ab und dann ist das RAID erstmal tot. Schwebende Sektoren sind hier nicht vorgesehen. Dir stirbt eine Platte und eine andere hat dann einen Lesefehler - Game Over. Du kannst dann auf doppelte Redundanz gehen, aber wenn du Festplatten betreibst denen regelmäßig Sektoren ausfallen, reicht das auch nicht.

Wer ein RAID betreibt und möchte daß es überlebt, der sollte Festplatten beim ersten Fehleranzeichen tauschen und nicht erst wenns zu spät ist. Wer das nicht macht der hat RAID nicht verstanden. RAID ist zum Platten tauschen da und nicht zum Platten nicht tauschen.

Die allermeisten RAIDs gehen an sowas ein. Eine Platte tot - passiert jeder Platte früher oder später - andere Platte "plötzlich" "unerwartet" Lesefehler. Platten nie getestet, SMART nie angeschaut, oder bewusst ignoriert - selber schuld.
 
Rumo schrieb:
Er tritt ja gerade nicht auf, auch nach der zehnfachen oder hundertfachen Datenmenge nicht, soviel zur Relevanz.
Wenn er nie auftreten würde, dann gäbe es ja keine HDDS mit schwebenden Sektoren, aber die gibt es sehr wohl nicht ebenso kommt es auch oft vor, dass diese beim Überschreiben einfach verschwinden und die Platten danach lange problemlos weiter betrieben werden können.

Rumo schrieb:
Lesefehler = Datenverlust, Datenverlust = inakzeptabel.
Dann sorge vor, mit Backups oder RAIDs oder am besten beidem.
Rumo schrieb:
Gerade das RAID lebt davon, daß alle Platten zu 100% funktionstüchtig sind. Defekte Sektoren kann man sich im RAID noch weniger leisten als bei einzelnen Platten.
Nein, das gilt nur für ein RAID 0, aber das ist ja kein echtes RAID und während eines Rebuild eines RAID 1 (aus zwei Platten) oder RAID 5.
Rumo schrieb:
Es hängen eben nicht nur die Daten einer, sondern aller Platten daran.
Nein, der Sinn der Redundanz ist ja gerade, dass man eben bei einem Lesefehler auf einer Platte nicht sofort Datenverlust hat, sondern das RAID mit der Redundanz die Daten sofort wiederherstellen kann und eine vernünftige RAID Lösung dann auch den Sektor den Lesefehler verursacht hat und schwebend ist, überschreibt und damit kann der Controller diesen Prüfen und wird ihn ggf. durch einen Reservesektor ersetzen. Platten in echten RAIDs haben daher auch praktisch nie Schwebende Sektoren, allenfalls wiederzugewiesene. Sollte Deine Beobachtung wonach schwebende Sektoren praktisch nie auftreten also auf Platten beruhen die im RAID laufen, so weißt Du nun auch wieso dem so ist.
Rumo schrieb:
Die gängigen Lösungen, egal ob Software- oder Hardware-RAID, brechen im Rebuild beim ersten Lesefehler ab und dann ist das RAID erstmal tot.
Ein Rebuild ist aber auch eine Ausnahmesituation und da darf es dann wirklich keine Lesefehler (und damit schwebenden Sektoren) geben, weshalb dort die UBER besonders relevant ist. Aber da Du ja selbst weißt, dass es so ist, weißt Du also auch das solche Fehler real sind und nicht wie Du oben behauptest irrelevant. Ein RAID 6 schützt da übrigens weitaus besser, da es dort nur Probleme gibt, wenn zwei Platten an der gleichen Stelle Lesefehler erzeugen, sofern nicht auch gerade 2 Platten ausgefallen sind.
Rumo schrieb:
aber wenn du Festplatten betreibst denen regelmäßig Sektoren ausfallen
Was heißt "regelmäßig Sektoren ausfallen"? Diese Bezeichnung alleine zeigt, dass Du offenbar noch immer nicht verstanden hast, was es mit schwebenden Sektoren auf sich hat.
Rumo schrieb:
Wer ein RAID betreibt und möchte daß es überlebt, der sollte Festplatten beim ersten Fehleranzeichen tauschen und nicht erst wenns zu spät ist.
Er sollte vor allem ein Backup haben und dann definiere mal was denn die Anzeichen dieses ersten Fehlers sein sollen, schwebende Sektoren sollte es wie gesagt nicht geben und wenn doch, dann betreibt man vermutlich Platten ohne TLER (ERC) an einem HW-RAID Controller und hat damit sowieso Blödsinn gemacht.
Rumo schrieb:
Die allermeisten RAIDs gehen an sowas ein. Eine Platte tot - passiert jeder Platte früher oder später - andere Platte "plötzlich" "unerwartet" Lesefehler. Platten nie getestet, SMART nie angeschaut, oder bewusst ignoriert - selber schuld.
Die meisten RAIDs scheitern vor allem daran, dass die Leute die falschen Platte dafür nehmen, denn wenn sie lesen "Redundant Array of Inexpensive Disks", dann meinen sie die billigsten Desktopplatten dafür nehmen zu können und werden noch von Typen bestätigt, die behaupten HDDs wären alle gleich und die Unterschiede im Preis nur Marketing. :freak: Nur haben die eben keine Ahnung von der Entwicklung die HDDs in den letzten Jahren und Jahrzehnten genommen haben, wie es z.B. die Entwicklungsgeschichte der Barracuda Reihe zeigt. Dann werden die womöglich 24/7 laufen gelassen, was sie schnell altern lässt und mit mehr HDDs in einem Gehäuse als sie abkönnen, wobei Desktopplatten alleine im Gehäuse sein sollte, mehr als 2 würde ich jedenfalls nicht verbauen, die haben eben i.d.R. heute keine Vorrichtungen um mit Vibrationen umzugehen, wie sie z.B. die anderen Platten im Gehäuse erzeugen und dann können die Köpfe leichter mal aus der Spur kommen und Daten der Nachbarspur überschreiben, bevor der Controller es bemerkt. Fällt dann die erste aus, sind die andere auch nicht selten schon dem Ende nah und halten oft den Stress des Rebuilds nicht mehr aus und dann kommt dazu, was Du geschrieben hast. HDDs halten ja auch nicht ewig und bei Überlastung nicht einmal die üblichen 5 Jahre und zur Überlastung zählt auch ein Überschreiten des Workloads, der bei Desktopplatten nur 55TB/Jahr sind und gerade bei häufigem Scrubbing der RAIDs schnell überschritten wird.
 
Holt schrieb:
eine vernünftige RAID Lösung dann auch den Sektor den Lesefehler verursacht hat und schwebend ist, überschreibt und damit kann der Controller diesen Prüfen und wird ihn ggf. durch einen Reservesektor ersetzen. Platten in echten RAIDs haben daher auch praktisch nie Schwebende Sektoren, allenfalls wiederzugewiesene. Sollte Deine Beobachtung wonach schwebende Sektoren praktisch nie auftreten also auf Platten beruhen die im RAID laufen, so weißt Du nun auch wieso dem so ist.

*seufz*

Es gibt da mehrere Fälle die zu unterscheiden sind.

Einmal den SMART-Selbsttest. Wenn der einen Fehler findet, gibts eine Mail [und landet ansonsten auch im SMART-Log]. Das RAID macht hier erstmal - gar nichts. Das RAID kann nur auf Fehler reagieren auf die es selbst stößt, SMART-Selbsttests laufen unabhängig davon.

Dann gibts den RAID-Check oder Scrubbing. Da wird nach Festplattenfehlern gesucht, aber auch geprüft ob die Parität stimmt. Wenn es da Fehler oder Mismatches gibt, gibts auch eine Mail.

Die meisten Fehler werden in diesen Tests gefunden und die fallen dann entsprechend auf.

Der Fall von dem du redest ist der am wenigsten wahrscheinliche... das RAID stößt selbst auf einen Fehler und behebt diesen stillschweigend. Mit etwas Glück gibts hier bei Linux eine Meldung im Syslog das keiner liest... ansonsten hat man da dann halt Pech gehabt.

RAID [so wie es privat in der Regel eingesetzt wird] speichert viele viele Daten aber zugegriffen wird auf diese nur selten. Den Bluray-RIP schaut man einmal - und dann vielleicht erst in einem Jahr wieder. Der Test schaut trotzdem jede Woche ob noch alles da ist. Das worauf man selbst innerhalb einer Woche zugreift ist vielleicht 1% oder 5%, der Test macht 100%. Ergo sollten die allemeisten Fehler - beim testen aufschlagen. Vorausgesetzt man macht überhaupt Tests. Wers nicht macht hat sowieso schon verloren.

Holt schrieb:
Ein Rebuild ist aber auch eine Ausnahmesituation und da darf es dann wirklich keine Lesefehler (und damit schwebenden Sektoren) geben, weshalb dort die UBER besonders relevant ist.

Der Rebuild ist keine Ausnahmesituation sondern genau das wofür das RAID letztlich da ist. Wenn das RAID das nicht schafft dann war es irgendwie sinnlos. Man kann sich das RAID sparen und im Todesfall das Backup herstellen. Und mit UBER hat das alles immer noch genau gar nichts zu tun...

Holt schrieb:
Die meisten RAIDs scheitern vor allem daran, dass die Leute die falschen Platte dafür nehmen, denn wenn sie lesen "Redundant Array of Inexpensive Disks", dann meinen sie die billigsten Desktopplatten dafür nehmen zu können und werden noch von Typen bestätigt, die behaupten HDDs wären alle gleich und die Unterschiede im Preis nur Marketing. :freak:

Nichts gegen Premiumhardware aber die hat eben auch ihren Preis. Das muss man sich erst einmal leisten können. Und kaputt geht diese ja auch.

Wer bei der Erstanschaffung seines RAID-Systems kostentechnisch schon an die Schmerzgrenze geht oder diese überschreitet, und gerade deswegen den Festplattentausch hinauszögert, weil das ja so schweineteuer ist, und damit sein RAID aufs Spiel setzt, der wäre mit billiger Desktophardware vielleicht doch besser gefahren.

RAID ist ein System mit Folgekosten die man einplanen muss.

Teure Hardware schützt vor RAID-Ausfällen nicht. Gutes Monitoring ist viel wichtiger.

Und eben die Einsicht daß Festplatten mit Lesefehlern und anderen Problemen im RAID eigentlich nichts verloren haben.
 
Welcher der 3 verbliebenen Hersteller (WD, Seagate und Toshiba) ist denn Deiner Meinung nach der Premiumhersteller? Aber lassen wir es, wir werden nicht auf einen gemeinsamen Nenner kommen, da Du offenbar die Unterschiede zwischen verschiedenen Modellreihen bei den Herstellern nicht kennst oder nicht glaubst es wäre nur Marketing. Klar kosten bessere Modelle mehr, deswegen gibt es ja die ganz einfache Modelle der Desktopplatten, eben damit sie billig sind und billig sind sie, weil auf alles verzichtet wurde was für den Einsatz im Desktop, worunter die HDD Hersteller eine einfachen Bürorechner verstehen der Montags bis Freitags während der 8 Stunden Arbeitszeit und über die Mittagspause hindurch läuft und nur diese eine HDD hat, nicht benötigt wird. Solche extrem kostenoptimierten HDD dann in RAIDs zu verwenden, führt zu Ergebnissen wie denen der ST3000DM001 bei Backblaze, etwas über 2 Jahre macht sie es mehr oder weniger mit, an HW-RAID wegen fehlernder ERC/TLER eher schlecht als recht, dann ist sie einfach aufgeschlissen und die Ausfälle häufen sich.
 
Zurück
Oben