Datensicherheit neuer Festplatten, was ist dran an den Gerüchten?

Klokopf

Lt. Junior Grade
Registriert
Okt. 2009
Beiträge
437
Hallo Community!

In letzter Zeit werde ich immer öfter von Kunden (arbeite als nebenjob bei nem Elektronikhändler) oder Freunden und verwandten gefragt ab den tatsächlich gillt "Je größer die Festplattenkapazität desto mehr Lese/schreib-fehler".
Theoretisch dekt sich die aussage mit meiner Vorstellung wie eine HDD funktioniert, allerdings könnte ich mir auch gut vorstellen das zusammen mit der Datendichte auch die Lese/schreibköpfe und die armmotoren verbessert wurden.

Habt ihr Erfahrungen mit dem Problem gemacht oder ähnliches/widersprüchliches gehört?
Ich für meinen Teil hab Festplatten von 80GB bis 4TB im gebrauch (alle SATA) und rein aus der Erfahrung sind es meist die älteren Platten so im 1 TB berreich die bei mir die meisten Daten zerstückeln (aber auch nur eine von 100k Datein wen überhaupt).

Sind HDDs mit hoher kapazität den dan überhaupt geeignet um Fehleranfällige Dateiformate zu beherbergen?
 
Defekte Sektoren sind völlig normal, die werden von der Software der HDD beim erkennen ausgeblendet und fertig.
 
versteh die frage nicht... aber grundsätzlich funktionieren platten heute wie früher recht zuverlässig. mit ausnahmen..

bei laptops etc gehen sie je nach umgang schneller kaputt.. aber das qar schon immer so.
 
Ganz verkehrt ist es rechnerisch wohl nicht. Je mehr Sektoren es gibt, desto mehr können theoretisch natürlich auch kaputt gehen. Aber die werden ja auch meist ausgeblendet ;).
Und das neue Festplatten schnell kaputt sind, kann ich nicht sagen.

Dürfte wie bei den Autos sein, je mehr Elektronik drin, desto öfter ist irgendwas kaputt. Nen alter Käfer braucht ab und an mal nen Tritt, ein verklemmtes Teil löst sich, und schon fährt er wieder^^.
 
"Je größer die Festplattenkapazität desto mehr Lese/schreib-fehler" - dem kann ich voll und ganz zustimmen und dies deckt sich auch mit meinen Erfahrungen

meiner Meinung nach werden die Festplatten ab 500Gb + sehr anfällig (mal abgesehen von Enterprise Festplatten mit speziellen Zertifizierungen usw..)

Ich habe schon viele alte 40 GB HDDs von WD gesehen, die Laufzeiten von weit über 8 Jahre hinter sich hatten und immer noch einen sehr guten Fesplatten Status aufweisen (S.M.A.R.T Werte alle in Ordnung und keine defekten Sektoren).

Im Vergleich dazu weisen die neueren und größeren Festplatten (Seagate HDDs - hab die Serie nicht im Kopf - sind mir da sehr aufgefallen) oft bereits nach 1,5 - 2 Jahren Laufzeit defekte Sektoren auf und müssen getauscht werden.
 
Zuletzt bearbeitet:
@Smily
meine Aussage zielte mehr auf die höhere Sektorendichte als auf die allgemein größere Anzahl sektoren ab. Ich hab mal Spaßeshalber via Benchmark eine 300GB HDD aus meinem Server und meine 4 TB Seagate getestet und die 4TB HDD hatte um den Faktor 1000 mehr lesefehler als die 300GB HDD (war aber auch ein unfairer Kampf weil mein Server nur SAS Festplatten verwendet und die ja allgemein weniger Fehler Produzieren).

@Ehomer
Ich hab auch noch so eine alte 40GB Western Digital hier rumliegen, die geht einfach nicht kaputt^^


Um meine Frage etwas genauer zu stellen:
Führt eine höhere Datendichte automatisch zu mehr Fehlern? Oder liegt das nur an den Herstellern? Lustigerweise ist es tatsächlich so das meine 1TB Samsung HDD die mit abstand meisten Fehler produziert (und das ist bei weitem nicht die älteste).

Welche Festplatten würdet ihr den gerade für Sensible daten empfehlen? (Das SAS hier besser geeignet ist ist mir bewusst^^)
 
Klokopf schrieb:
Ich hab mal Spaßeshalber via Benchmark eine 300GB HDD aus meinem Server und meine 4 TB Seagate getestet und die 4TB HDD hatte um den Faktor 1000 mehr lesefehler als die 300GB HDD
War die Platte aus deinem Server denn auch eine von Seagate? Wenn nein, kannst du die beiden Werte nicht direkt miteinander vergleichen, da Seagate eine eigene "Zählweise" verwendet. Der Rohwert dieses Attributes zeigt bei Seagate Festplatten nicht die tatsächliche Zahl der Lesefehler an. Es können auch gar keine aufgetreten sein und trotzdem ist der Wert immer sehr hoch. Schau mal hier (etwas weiter unten wird die Raw-Read-Error-Rate behandelt).
 
Zurück
Oben