Brauche "Reklamations"-Beratung: Toshiba MQ01ABD100 neu und gebr. mit 1 def. Sektor.

Apfelorange

Lieutenant
Registriert
Dez. 2009
Beiträge
870
Hallo,

vorweg, sorry für die dumme Frage. Ich weiß...

zwei Platten, zwei Fragen: ZURÜCK oder BEHALTEN.

1. Habe bei Ebay eine 2,5" 1TB Toshiba aus einem externen Gehäuse mit 0 Betriebsstunden ersteigert. Ich habe dann auf der Platte an meinem PVR-Satelliten-Receiver aufgenommen. Bei der Wiedergabe viel mir irgendwann auf, dass ein Klackern zu hören war. Ich weiß nicht, ob mir das erst nach gut 3 Stunden aufgefallen ist, oder ob es auch erst dann aufgetreten ist.
Die Platte war keine rezertifizierte oder so.

Toshiba sagt, das ist nichts schlimmes, Betriebssysteme greifen auch auf Platten zu, wenn gerade nicht gelesene/geschrieben wird und die Geräusche können bei einer neuen Platte davon kommen. Naja, bei mir war es während der Receiver die Filmdatei gelesen hat, also abgespielt hat. Da kann ja sonst nix kommen.

Bei Geizhals habe ich gelesen, dass zwie von mehreren Usern das auch hatten, aber sie es auf das häufige Kopfparken wegen Energiesparfunktion zurückführen. Aber wieso Kopfparken, während ich einen Film anschaue?

Kopf-Parken stelle ich mir vom Geräusch so vor wie ein Rad, dass man auslaufen hört. Das Geräiusch hört sich eher so an, als würde man ein Pendel, an dem ein mini Stück Plastik hängt, vor einen Gegenstand halten und man würde ab und an das dagegen Tippen hören.

2. Hitachi 2TB, 7200rpm, August 2009.
Ich habe 1 defekten Sektor gefunden. Laut einer Google Studie überleben Platte, wenn sie die ersten 3 Jahre überstanden haben mit viel höherer Wahrscheinlichkeit noch viele weitere Jahre.
Prinzipiell würde der eine defekte Sektor für mich ein Rückgabegrund sein, andererseits, kann einem das ja auch bei einer Platte vom Händler passieren... Zudem endete die Auktion zu einer dummen Uhrzeit an einem "Zwischen"-Tag, deshalb hab ich sie für 50,50EUR inklusive Versand bekommen, normalerweise gehen die so für 70,- inkl. Versand weg. Der geringe Preis würde einen ja fast dazu verleiten es riskierne zu wollen, weil man ja eh alles nochmal gespeichert hat.
Aber, wenn sie es nicht überlebt, dann sind 50,-EUR weg. Dann wiederum, die 50,-EUR wären bei einer vom Händler mit Garantie nach 3 Jahren auch weg (naja, da wären es sogar 80,-EUR).


Was würdet ihr machen? Beide Verkäufer würden die Platte zurücknehmen. Beide hatten 100% positive Bewertungen. Hatte wohl einfach 2x Pech und würde es jetzt nicht auf meine Dummheit schieben ;) Bei der Toshiba war sogar ein Ausdruck des SMART-Protokolls dabei.
 
Ein einziger defekter Sektor ist überhaupt kein Problem.
Lade dir mal Crystal Disk Info runter und poste Screenshots der SMART-Werte der HDDs, dann kann man sehen, ob die O.K. sind oder nicht.
 
Danke!

Ich lasse gerade einen "long offline" Test einer anderen Platte laufen, deshalb komme ich erst gleich an die SMART-Werte der beiden neuen HDDs. Werde Sie später posten. Laut Programm läuft der Test noch 94 Minuten, könnte aber eher fertig sein.

(Edit: )
wobei ich mich frag, was die SMART-Werte bei der Beurteilung des Klackerns helfen können:(

Hitachi (gebraucht, 1 def. Sektor) und Toshiba (neu, Klackern):
 

Anhänge

  • hit.jpg
    hit.jpg
    123,4 KB · Aufrufe: 317
  • hit2.jpg
    hit2.jpg
    330,1 KB · Aufrufe: 324
  • Tosh1.jpg
    Tosh1.jpg
    113,3 KB · Aufrufe: 267
  • Tosh2.jpg
    Tosh2.jpg
    173,8 KB · Aufrufe: 284
  • Tosh3.jpg
    Tosh3.jpg
    411,1 KB · Aufrufe: 288
Zuletzt bearbeitet:
Die Toshiba MQ01ADB Serie scheint generell bei Zugriffen zu klackern.
Ansonsten sind die SMART Werte gut. Zur Hitachi: 1 nicht lesbarer Sektor wurde durch einen Reservesektor ersetzt, in Anbetracht ihres Alters in Ordnung.
 
Danke!

Ist halt fraglich, ob das Klackern (auch wenn es serienbedingt ist) gesund für die Langlebigkeit der Platte ist.?.

Ich habe aber mal grad mein Ohr an meine 2,5" Samsung gehalten, währendd die am PVR-SAT-Receiver nen Film abspielt. Da sind Positionierungsgeräusche zu hören (obwohl sie komplett gelöscht wurde, bevor ich was aufgenommen habe). Das hört sich etwas dumpfer an. Vielleicht ist das einfach normal und bei der Toshiba hört man es einfach nur sehr gut.
Ich dachte nur, wenn eine Datei "am Stück" abgespielt wird und die einzelnen Bestandteile der Datei nicht fragmentiert vorliegen, dann müsste man nichts hören.


Zur Hitachi: Also, kann ich es bei der Hitachi drauf ankommen lassen, mit vertretbarem (bzw. geringem) Risiko, ja?

.
 
Festplatten, ob Alt oder Neu, können jederzeit ohne Vorwarnung ihren Geist aufgeben. Hier wäre unmittelbar nach dem Kauf ein möglichst weitgehendes Befüllen mit Daten (z.Bsp.) Filmen sinnvoll gewesen, dann könnte man sehen, ob weitere Sektoren nicht lesbar werden oder nicht.
 
Danke!

Das kann ich ja jetzt immer noch, also mit Daten befüllen. Problem ist nur, ich müsste sie vorher Formatieren, damit ich darauf schreiben kann. Wenn ich sie formatiere, dann remapped das Formatierungsprogramm aber automatisch, sodass eventuelle weitere defekte Sektoren, die bisher bloß nicht beschrieben waren einfach auf die Reserve-Sektoren umgewidmet werden. Seltsamerweise sagt mir SMART bei ner Platte, wo ich 4 schwebende Defekte Sektoren hatte, nach dem Formatieren nicht, dass es wiederzugewiesene Sektoren gibt, sondern alle Angaben, die sich auf schlechte Sektoren beziehen sind auf Null gesetzt. (also wo vorher "pending: 4" stand, steht dann nicht "reallocated: 4".

Naja, aber es kann ja nichts schaden, sie auch nach dem notwendigen Formatieren mal komplett mit Daten zu füllen, wenn dann noch was auffällig sein sollte, dann weiß ich es wenigstens mit Sicherheit.

Sorry, ich will nicht nerven mit meinen Ergänzungen.
 
Sektoren werden beim Überschreiben oder Formatieren nur dann remappt, wenn sie vorher als pending oder offline uncorrectable geführt wurden, denn nur die werden nach dem Überschreiben probegelesen. Bei beiden HDDs sind aber keine pendings oder offline uncorrectables vorhanden.
Beschreibe die HDD mit Daten und lese diese dann wieder aus. Dazu kannst du h2testw verwenden. Wenn die Daten wieder gelesen wurden, prüfe nochmal die SMART-Werte und wenn sich diese nicht verschlechtert haben, ist alles O.K.
Wenn beim Probelesen der Daten Fehler auftreten, dürfte h2testw auch eine Meldung anzeigen.

Edit:
Es müssen auch nicht alle pendings zwangsläufig defekt sein. Wenn die nach dem Überschreiben wieder normal gelesen werden können, dann werden sie nicht remappt und auch aus der Pendingliste entfernt.
 
Zuletzt bearbeitet:
@SilenceIsGolden
Apfelorange ist kein Windows-Nutzer sondern hat einen Mac mit MacOS als Betriebssystem. Kurz mal h2testw drüber laufen lassen ist da nicht.

@Apfelorange
Mir würde die Raw Read Error Rate der Hitachi schon etwas sorgen mache. Wenn bei einer Hitachi Festplatte dort in der Raw Values Spalte keine 0 steht, bedeutet das, dass sie Leseprobleme hat und gezwungen war manche Sektoren erneut anzufahren um die Daten lesen zu können. Ich würde dieses Platte daher etwas näher untersuchen. Wie und mit welchen Programmen du das unter MacOS machen kannst, kann ich dir aber nicht sagen. Wie ich dir in einem anderen Thread schon mal geschrieben habe, kenne ich mich mit Apple Rechnern nicht aus.
 
@Apfelorange, ich würde generell niemals Datenträger gebraucht kaufen, das wäre mir zu riskant. So billig können die gar nicht sein und so unwichtig sind mir meine Daten nicht, als das ich wenig ein paar Euro da ein Risiko eingehen würde. Da beginnt mit dem Verkäufer und endet beim Transport, wo man auch nie sicher sein kann, dass die Platte ordentlich verpackt wurde. Datenträger, gerade HDDs, kauft man am besten im Lagengeschäft großer Versandhändler (wie Mindfactory oder Alternate), denn da kommen sie in den großen Packungen der Hersteller direkt an und man bekommt sie ohne weiteren Posttransport in die Hand.
 
@Madnex: beachte den Hexadezimalwert bei Hitachiplatten, 65.539 dez. = 0x10003 = 3 Lesefehler.
 
@Inzersdorfer
Hitachi Festplatten sind keine Seagate Festplatten. Wenn das wirklich nur drei Lesefehler wären, würde beim "Value" und "Worst" keine 98 stehen.
 
Doch.
 
Bei Hitachi Festplatten kann sich der Rohwert wieder erholen, sodass dort wieder durch die Bank eine 0 steht. Das gleiche gilt für die normalisierten Werte. Selbst der "Worst" Wert wird wieder zurückgesetzt, wenn eine Zeit lang keine Lesefehler auftreten (die ja auch positionsbedingt sein können). Der Rohwert dieses Attributes ist weder kumulativ, wie beim "UDMA CRC Error Count"-Attribut, noch lässt sich dieser so oder so ähnlich lesen wie bei Seagate Festplatten.

Schau mal hier: klick!

Schau dir bitte mal die zwei Bilder im verlinkten Beitrag an. Wenn bei 3 Lesefehlern der normalisierte (aktuelle) Wert um 2 Punkte fällt, müsste das, linear hochgerechnet, bei 15 Punkten (siehe CDI Graph im verlinkten Beitrag) bedeuten, dass ca. 19 Lesefehler passiert sind. Würdest du derartige Einbrüche in der Leserate (h2benchw Zonenmessung) bei nur 19 Lesefehlern für möglich halten? Am Ende des Tests durch h2benchw war der Rohwert wieder auf 0 sowie der aktuelle und der schlechteste Wert wieder auf 100. Leider habe ich versäumt davon ein Screenshot zu machen, sodass ich das nicht belegen kann.

Deshalb rate ich immer bei solchen Tests ein Programm im Hintergrund mitlaufen zu lassen, dass die Veränderungen der Smart-Werte protokolliert.
 
Zuletzt bearbeitet:
riesen Dank! Bitte seid mir nicht böse, dass ich ein Apple-User bin. Ich nutze auch nur PowerPCs und keine Intel-Maschinen ;)

@ Madnex:
nachdem, was ich das unten stehende durchgeführt habe (siehe Text unten), ist der "raw value" für "raw read error rate" auf 7 gefallen. ??? Sollte das zutreffen, was du gesagt hast, dass sich der Wert wieder erholt? Aber innerhalb von zwei Bootvorgängen.
hit3.jpg

Holt schrieb:
@Apfelorange, ich würde generell niemals Datenträger gebraucht kaufen, ...
Ja, das ist halt so ne Sache. Geht die neue vom Händler kaputt, sind auch die (wertvollen) Daten weg. Die meisten Platten gehen in den ersten 3 Jahren kaputt (heißt es), wenn ich jetzt ne Platte habe, die die Zeit schon überstanden hat, würde ststistisch gesehen, angeblich die Wahrscheinlichkeit steigen, dass sie auch noch viele weitere Jahre hält und nicht dann im vieerten Jahr kaputt geht. Von wegen "die paar EUR", zur günstigsten 7200rpm Platte sind es 30,-EUR Unterschied (eine Toshiba übrigens), zur günstigsten WD Green und Seagate 7200rpm, sowie Hitachi (5400rpm) sind es 40,-EUR. Aus irgeendeinem Grund sind es zur Baugleichen (davon bin ich aber nicht ausgegangen) 120,-EUR Unterschied.
Hatte ursprünglich vor ne komplett neue zu holen, aber dann hab ich es doch wieder riskiert.

------------------
@ die anderen:

Programme, die ich benutze:
- Festplattendienstprogramm (im OS-Paket): repariert Sachen auf SW Ebene, Katalogsystem, Dateihierarchie, Bootsektor etc.
- SMART Utility von Volitan Software: kann logischerweise SMART-Werte auslesen und wie oben darstellen. Daneben gibt es eine "long offline" Test Funktion. Scheinbar werden dabei Daten gelesen (evtl. auf freie Bereich auch geschrieben und wieder gelöscht?). Beispiel: eine Platte, die hatte 4 def. Sektoren, Test ergab dann
"Test status: completed: read failure,
Remaining: 90%,
LBA of first Error: 466612." und in der Übersicht steeht dann: Sprich er sagt einem wo, der erste defekte Sektor aufgetreten ist, oder?
Laut der Mac-Foren, werden defekte Sektoren neu zugewiesen, wenn man im Festplattendienstprogramm "mit Nullen überschreiben" wählt. ACHTUNG! Danach habe ich den "long offline test" laufen lassen, und nach mehreren Stunden war er fertig und meldete
"Test status: completed without error,
Remaining: 0%,
LBA of first error: -"
SIEHE: Sam640 4.jpg


SO JETZT KOMMTS:

ich hab den "long offline test" laufen lassen, übrigens bevor ich mit Festplattendienstprogramm alles mit Nullen beschrieben habe (sprich geremapped habe).

Die Anzeige zeigte 255Minuten, am Ende dieses heutigen Tages, dann 16Minuten und dann sprang sie wieder auf 255Minuten. Ich dachte, dann, vielleicht hat er die 2TB aufgeteilt für den Test.
Irgendwann hatte ich es satt zu warten, da die Anzeige bei 255min. stehen blieb und habe "rescan drives" geklickt, so ne Art Rundruf. Dabei ist er hängen geblieben. Dann hab ich am Rechner reset gedrückt. Das hat beim Mac normalerweise keine Auswirkungen, was man zuletzt gearbeitet hat wird gespeichert und wieder hergestellt (die Datei "recovered files" liegt dann im Papierkorb, weil schon alles automatisch "recovered" wurde).
Nachdem Neustart hat es irgendwie nen Wackler am Stromkabel gegeben, denn die Hitachi ist ausgegangen und der Rechner hat sich aufgehangen. Nochmal gestartet.
SMART abgefragt.

Jetzt sind es 4 defekte Sektoren.

Dann hab ich mal auf den Wert geschaut, der angibt, wie oft Strom im Betrieb entzogen wurde. Der sollte ja um 1 angestiegen sein. Da ist mir aufgefallen, dass der bei 6697 steht (vorher bei 6688, habe ich dann auch gesehen). --> "power off retract count, ID# 192, Flag 0x0032".

Das bedeutet, die muss mehrmals Stromprobleme gehabt haben (vor mir). Oder?

Bei meinem Startvolume (WD), sind auf einmal "26 reallocated bad sektors" (sonst immer 0 gewesen). Der Reset (ist was anderes als Stecker ziehen, oder Startknopf gedrückt halten), hat wohl nicht gut getan. Was aber seltsam ist, weil ein reset normalerweise ohne Probleme ist. Naja, es scheint immer ein erstes Mal zu geben.


Ich werde mal den Schreiber dieser SMART-GUI (basiert auf smartmontools) anschrieben, was der "long offline test" genau macht.
Ich lasse jetzt diesen Test nochmal laufen...
 
Zuletzt bearbeitet:
Apfelorange schrieb:
Ja, das ist halt so ne Sache. Geht die neue vom Händler kaputt, sind auch die (wertvollen) Daten weg.
Die Ausfallraten aller technischen Geräte beschreiben eine Badwannenkurve. Zuerst ist die Ausfallrate recht hoch, fällt aber schnell stark ab um eine Weile, die üblicherweise der Nutzungsdauer entsprechen sollte, auf geringen Niveau stabil zu bleiben. Dann steigt die in der Wear-Out Phase wieder langsam aber kontinuierlich an. Nach 3 Jahren ist man diesem Anstieg wohl schon sehr nahe, wenn nicht schon in dem Bereich. Der hohen Ausfallrate entgeht man durch einen Burn-In, bei dem die Platte zuerst eine Weile gestresst und damit getestet wird. Kein Profi setzt eine neue HW sofort produktiv ein!

Kaufe also besser neue Platten und lass die ein paar Wochen intensiv arbeiten, ohne wirklich Daten darauf zu packen, dann solltest Du die gefährliche Anfangsphase wohl überstanden haben.
Apfelorange schrieb:
Die meisten Platten gehen in den ersten 3 Jahren kaputt (heißt es), wenn ich jetzt ne Platte habe, die die Zeit schon überstanden hat, würde ststistisch gesehen, angeblich die Wahrscheinlichkeit steigen, dass sie auch noch viele weitere Jahre hält und nicht dann im vieerten Jahr kaputt geht.
Wenn es wirklich stimmt, dann liegt vielleicht daran, dass einen ihre Platten dauerhaft benutzen und diese somit nach den 3 Jahren in der Wear-Out Phase angekommen sind (Consumer Hardware halt) und die anderen diese so selten, dass die dann gerade den Burn-In hinter sich haben. Aber welche von beiden ist die, die Du gebraucht bekommst?
Apfelorange schrieb:
Laut der Mac-Foren, werden defekte Sektoren neu zugewiesen, wenn man im Festplattendienstprogramm "mit Nullen überschreiben" wählt.
Bei allen HDDs werden die schwebenden Sektoren dann neu zugewiesen, wenn sie überschrieben werden und die dabei geschriebenen Daten nicht korrekt gelesen werden konnten, egal in was für einem Rechner die Platte steckt oder womit man den Sektor überschreibt. Die schon als defekt markiert und ausgetauschten Sektoren werden davon sowieso nicht berührt, sofern nicht der Austauschsektor wieder schwebend ist.
Apfelorange schrieb:
ich hab den "long offline test" laufen lassen, übrigens bevor ich mit Festplattendienstprogramm alles mit Nullen beschrieben habe (sprich geremapped habe).
Das remappen schwebender Sektoren kann man nicht erzwingen, das wird dadurch nur ermöglicht. Solange ein Sektor nicht fehlerfrei (nach der ECC) gelesen werden kann, bleibt es schwebend und kann nur ersetzt werden, wenn er neu beschrieben wird.

Apfelorange schrieb:
Jetzt sind es 4 defekte Sektoren.
Glückwunsch, da ging die Strategie mit den Ausfallraten nach 3 Jahren wohl doch nicht auf. :D

Apfelorange schrieb:
Bei meinem Startvolume (WD), sind auf einmal "26 reallocated bad sektors" (sonst immer 0 gewesen). Der Reset (ist was anderes als Stecker ziehen, oder Startknopf gedrückt halten), hat wohl nicht gut getan.
Wohl nicht. Ob es was anderes ist als wenn man den Stecker zieht, hängt auch vom Rechner ab, es gibt z.B. Notebook, bei denn werden die Laufwerke dabei wirklich kurz von der Stromversorgung getrennt.
Apfelorange schrieb:
Ich werde mal den Schreiber dieser SMART-GUI (basiert auf smartmontools) anschrieben, was der "long offline test" genau macht.
Das musst Du den Hersteller der Platte fragen, denn Tool löst diesen Test bei der Platte ja nur aus, der Controller führt den Test dann durch und nicht das Programm. Das ist bei allen Platten so und auch die S.M.A.R.T. Werte gibt der Controller so aus, also Nummer, Name, Aktueller Wert, Schlechtester Wert, Grenzwert, Rohwert und die Flags, das alles gibt der Controller aus. Die Programme geben allenfalls den Attributen noch Namen, denen der Controller keine gibt.
 
Erstmal riesen Dank und sorry, wenn ich so naiv rüber komme. Ich hoffe, ich nerve nicht allzu sehr mit meiner Unwissenheit.


Wie genau sollte man den Brun-In durchführen, ohne damit zu arbeiten. Einfach Strom drauf, drehen lassen und in Ruhe lassen?


Holt schrieb:
(...) dauerhaft benutzen und diese somit nach den 3 Jahren in der Wear-Out Phase angekommen sind (Consumer Hardware halt) und die anderen diese so selten, dass die dann gerade den Burn-In hinter sich haben. Aber welche von beiden ist die, die Du gebraucht bekommst?
Kann man das nicht von "Power-On hours" und "Start/stop cycle" ableiten? OK, ich verstehe, es könnte sein, jemand hat in Jahr 1 24/7 laufen lassen und dann in zwei Jahren nur 1x eingeschaltet, die Durchschnittszeit, gibt dann mit einem Drittel den falschen Eindruck.

Holt schrieb:
(...) Wohl nicht. Ob es was anderes ist als wenn man den Stecker zieht, hängt auch vom Rechner ab, es gibt z.B. Notebook, bei denn werden die Laufwerke dabei wirklich kurz von der Stromversorgung getrennt.
Im Fall der Desktop-Macs mit PowerPC und RISC Architektur ist es so, dass wenn man den "reset"-Knopf drückt, man die Festplatten weiterlaufen hört. Das System startet übrigens dabei auch schneller, als wenn man sonst ganz normal den Rechner hochfährt. Wohingegen bei Startknopf gedrückt halten, alles ausgeht, wie bei Stecker ziehen und das System länger zum Booten braucht.

Hierrüber sollte ja der Wert "Power Off Retract Count" Auskunft geben. Übrigens scheint das auch ohne reset und Stecker/Akku ziehen bei Laptops oft ein höherer Wert zu sein und nicht ungewöhnlich. Zitat: "Typische Werte: 0 (neu), einige 10 (normal), wenige 100 (Laptops, da kein Reset-Taster vorhanden), einige 100 (externe Festplatten, die nicht korrekt abgemeldet werden)" Quelle:
Bei meinem PVR-Teil am TV, ist es übrigens leider so, dass man nicht aktive abmelden oder auswerfen kann. Da beendet man dei Aufnahme oder die Wiedergabe und geht aus dem Menü raus. man hört die Platte dann immer noch Drehen. Man muss dann den Ausschalter an der externen Festplatte drücken. Das hat mich erst sehr gestört. Dann hba ich mal geguckt, ob nach so einem Ausschalten der obige Wert steigt, er stieg nicht, also scheint der PVR die Platte irgendwie abzumelden. Seltsam aber, dass die Platte nach drücken von "Exit" trotzdem noch schnell reagiert, wenn man dann doch nochmal drauf zugreift.

Holt schrieb:
Das musst Du den Hersteller der Platte fragen, denn Tool löst diesen Test bei der Platte ja nur aus, der Controller führt den Test dann durch und nicht das Programm. Das ist bei allen Platten so und auch die S.M.A.R.T. Werte gibt der Controller so aus, also Nummer, Name, Aktueller Wert, Schlechtester Wert, Grenzwert, Rohwert und die Flags, das alles gibt der Controller aus. Die Programme geben allenfalls den Attributen noch Namen, denen der Controller keine gibt.
Achso, das heißt SMART beinhaltet nicht nur, dass es auf der Festplatte selber mitdokumentiert, sondern es kann auch selber ausführliche Tests durchführen? Warum merkt man davon nichts? Denn, wenn ich diesen "long offline" Test laufen lasse, dauert es sehr lange. Das kann ja wohl nicht selbstständig passieren, während man grad mit der Platte arbeitet.

PS: was ist denn deine Meinung zu intern und extern, bezügl. der Schädlichkeit von Ein-/Ausschaltzyklen, Kopfparken, Temperatur, etc. bezogen auf die Lebensdauer von Datenplatten, auf die nicht ständig zugegriffen wird?
 
Zuletzt bearbeitet:
Apfelorange schrieb:
Wie genau sollte man den Brun-In durchführen, ohne damit zu arbeiten. Einfach Strom drauf, drehen lassen und in Ruhe lassen?
Nur dem Strom anzuschließen bringt nicht so viel denn dabei wird ja nur der Motor bewegt, man sollte sie schon arbeiten lassen, damit auch die Mechanik zur Bewegung der Köpfe arbeitet und man die Oberfläche testet. Ich beschreiben alle Medien immer erst einmal mit h2testw, lasse sie dann eine Weile im Idle laufen und testet erneut. Dann prüfen ich die S.M.A.R.T. Werte mit CrystalDiskInfo, lese die Dateien erneut (i.d.R. als Dauertest für einen Tag oder ein Wochenende, um auch die Temperaturen zu sehen) und lösche sie erst danach. Danach wiederhole ich das ganze noch mindestens einmal, so dass die Platten schon über 100 Stunden gelaufen haben, bevor sie wirklich genutzt werden. Ein Backup der wichtigen Daten ersetzt aber auch das nicht.

Apfelorange schrieb:
Kann man das nicht von "Power-On hours" und "Start/stop cycle" ableiten? OK, ich verstehe, es könnte sein, jemand hat in Jahr 1 24/7 laufen lassen und dann in zwei Jahren nur 1x eingeschaltet, die Durchschnittszeit, gibt dann mit einem Drittel den falschen Eindruck.
Im Prinzip ja, aber da gibt es noch die Energiesparoptionen wie LPM und zumindest bei einigen SSDs ist es so, dass diese wenn sie aktiv sind durchaus dazu führen können, dass der Betriebsstundenzähler sehr viel langsamer läuft als normal. Auch der Cycle Count lässt sich von solchen beeinflussen, das hängt aber alles wieder von der jeweiligen Platte ab.

Dann bleibt aber noch immer die Frage der Manipulierbarkeit der S.M.A.R.T. Werte. Bei den SSDs mit dem alten Indilinx Barefoot Controller wurden die Zähler sogar bei einigen der FW Updates einfach komplett wieder zurückgesetzt.

Apfelorange schrieb:
Im Fall der Desktop-Macs mit PowerPC und RISC Architektur ist es so, dass wenn man den "reset"-Knopf drückt, man die Festplatten weiterlaufen hört. Das System startet übrigens dabei auch schneller, als wenn man sonst ganz normal den Rechner hochfährt.
Der Reset geht dann nur an die CPU und nicht an die restliche Hardware.

Apfelorange schrieb:
Achso, das heißt SMART beinhaltet nicht nur, dass es auf der Festplatte selber mitdokumentiert, sondern es kann auch selber ausführliche Tests durchführen?
So ist es, wobei das wieder eine Frage der Implementierung im der FW des jeweiligen Controllers ist.
Apfelorange schrieb:
Warum merkt man davon nichts? Denn, wenn ich diesen "long offline" Test laufen lasse, dauert es sehr lange. Das kann ja wohl nicht selbstständig passieren, während man grad mit der Platte arbeitet.
Wieso merkt man davon nichts? Du sagst doch selbst, dass es sehr lange dauert (deshalb ja auch "long"), also merkst Du doch was. Und offline heisst der, weil die Platte so lange offline ist, Du sie also nicht normal nutzen kannst. Der long Test ist ein ausführlicher Test und scannt u.a. die ganze Oberfläche der Platte auf Fehler ab. Das kann der Controller selbstständig machen, so schlau ist der schon.
Apfelorange schrieb:
was ist denn deine Meinung zu intern und extern, bezügl. der Schädlichkeit von Ein-/Ausschaltzyklen, Kopfparken, Temperatur, etc. bezogen auf die Lebensdauer von Datenplatten, auf die nicht ständig zugegriffen wird?
Das hängt sehr vom jeweiligen Gehäuse und der Platte ab. Gerade in den engen USB Gehäuse aus Plastik und ohne Lüftung können Platten schnell recht warm werden, aber größere Temperaturschwankungen sind alles andere als gut für HDDs und bei Enterprise HDDs wird daher i.d.R. auch angegeben, wie viele Grad pro Stunde die Temperatur maximal schwanken darf. Dazu kommen bei externen Gehäusen noch mechanische Belastungen, die vor allem im Betrieb zu vermeiden sind, aber wenn das Plattengehäuse ruhig auf dem Schreibtisch steht, während Du den Rechner unterm Schreibtisch dauernd mit den Füßen trittst, dann ist das externe halt doch die bessere Wahl :D

Wie oft die Köpf geparkt werden, hängt von viele Faktoren ab und auf die hat man bei externen Gehäuse i.d.R. weniger Einfluss als bei intern verbauten Platten, denn einige davon bestimmt der USB-SATA Bridge-Chip in dem Gehäuse. Platten auf die ich ständig zugreife, verbaue ich intern und Datensicherungen oder Datengräber (archivierte Daten) liegen auf externen Platten, denn die Platten auf denen die Sicherungen liegen, sollten nie im gleichen Gehäuse sein oder gar ständig mitlaufen, da ja auch Dinge wie Viren oder Blitzschlag, Netzteilausfälle die Daten(träger) bedrohen.
 
Vielen Dank für deine Ausführungen, ich weiß es sehr zu schätzen, wenn sich Leute so viel Zeit für einen nehmen!

Holt schrieb:
Zitat von Apfelorange:
Warum merkt man davon nichts? Denn, wenn ich diesen "long offline" Test laufen lasse, dauert es sehr lange. Das kann ja wohl nicht selbstständig passieren, während man grad mit der Platte arbeitet.
Wieso merkt man davon nichts? Du sagst doch selbst, dass es sehr lange dauert (deshalb ja auch "long"), also merkst Du doch was. Und offline heisst der, weil die Platte so lange offline ist, Du sie also nicht normal nutzen kannst. Der long Test ist ein ausführlicher Test und scannt u.a. die ganze Oberfläche der Platte auf Fehler ab. Das kann der Controller selbstständig machen, so schlau ist der schon.
Das muss ich präzisieren. Der "long offline test" wird ja nur durchgeführt, wenn ich die SMART-Software aufmache und dort "run long offline test" anklicke. Ich dahcte, du meinst, dass die Platte sich auch selbst ausführlich testet (also über das, was normal an Fehlern mitgeschrieben wird hinaus), ohne, dass man es selbst anstößt.
 
Das macht sie doch, wenn Du den "long offline test" auswählst. Die bekommt dann den Befehl das zu tun und das Programm kann dann nur noch auslesen, was der Controller angibt. Z.B. wie lange es noch dauern wird, denn auch diese Ausgabe kommt vom Controller der Platte und nicht vom Programm selbst. Das Programm "sitzt nur da und schaut zu".
 
Alternate 2
Zurück
Oben