NAS HDD Test mit H2testw läuft ewig

losthdd

Ensign
Registriert
Aug. 2007
Beiträge
182
Hallo zusammen

ich habe mir ein synology ds 216 play geholt und dort 2 wd reds mit 8 TB verbaut
bevor ich meine Daten alle aufspiele wollte ich die platten testen, ob sie soweit OK sind

Dazu habe ich das tool h2testw geladen und über 2-3 Tage testdaten schreiben lassen (was trotz gigabit m.E. ziemlich lang gedauert hat)
Nun geht es ans prüfen mit Hilfe des tools doch da meldet er mir aktuell raten von 10,8Mbyte/s was doch eigentlich viel zu langsam sein dürfte oder?

Restlaufzeit gibt er dadurch mit 7 Tagen an, was bei reinem lesezugriff? doch nicht normal ist

Habt ihr dazu tipps? ist doch etwas defekt oder warum dauert das prüfen so lange?

losthdd
 
mal ne dumme frage, das h2testw ist doch für USB Sticks ?

WD-Diagnoseprogramm mal benutzen.
 
Zuletzt bearbeitet:
Kann es sein daß deine Netzwerkschnittstelle nur mit 100Mbit/s läuft?
 
Mit h2testw kann man alle möglichen Datenträger testen, auch HDD oder Freigaben eines NAS wie es in diesem Fall eine sein wird, ob das sinnvoll ist ist eine andere Frage.
Das WD Tool wird hier nichts bringen, da das die im NAS enthalten Platten nicht als WD-HDD erkennt, das greift nur auf die Hardware im PC direkt zu.

Würde wie HominiLupus auf 100MBit LAN tippen, das passt von der Geschwindigkeit genau.
Müsste man im DSM mal nachschauen wie die Verbindung besteht.
 
Wozu die mühe? Daten draufschreiben und prüfen, ob dabei fehler aufgetreten sind.

Wenn HDDs Fehler aufweisen, dann meist bald zu anfang oder erst nach sehr langer zeit.

Soll heißen, die Platte kann dir auch eine Woche nach deinem Test abkacken.
 
1000 MBit/s, Vollduplex, MTU 1500

zeigt mir das synology an

hier am pc steht auch 1 GBit/s

@MrJules

wie würdest du dann nach dem schreiben prüfen ob die daten ok sind?
 
MrJules, dann weiß man aber auch nicht ob die Daten korrekt auf der Platte stehen, genau das Prüft ja eben h2testw nach dem Schreiben. HDDs prüfen Daten nur, wenn ein vorher als schwebend markierter Sektor überschrieben wird, sonst gewöhnlich nicht.
 
Sobald bei mir schwebende sektoren oder sonstige "schwerwiegende" fehler auftreten, fliegt die platte raus. Ein backup im nas oder extern sollte eh vorhanden sein.

Wie will man nach so einem test denn in zukunft die daten prüfen, ohne gesondert prüfsummen zu erstellen? Bei zfs ist das natürlich komfortabel. Sonst eher nicht.
 
Zuletzt bearbeitet:
Schwebende Sektoren sind Sektoren deren Daten nicht mehr zur ECC passen und noch nicht automatisch "schwerwiegende" Fehler, denn das kann auch anderen Gründe als defekte Oberflächen haben, z.B. einen Stromausfall während eines Schreibvorgang der dazu führt, dass eben nicht die ganze Daten plus der neuen ECC geschrieben wurden oder wegen eines Stoßes oder Vibrationen ist der Kopf beim Schreiben aus der Spur gekommen und hat Daten auf der Nachbarspur überschrieben. Da die korrekten Daten nicht mehr feststellbar sind, gibt die Platte statt falscher Daten einen Lesefehler als Antwort wenn man versucht diese zu lesen.

Die Controller merken sich die schwebenden Sektoren und prüfen die Daten nach dem erneuten Schreiben auf diese Sektoren, dann verschwinden diese einfach oder werden eben durch Reservesektoren ersetzt und der jeweils überschriebene schwebende Sektor sollte dann in jedem Fall verschwunden sein.
 
Schon richtig. Nur einen stromausfall sollte man eigentlich bemerken können und vibrationen, die so stark sind, sollten sich doch höchstwahrscheinlich in den g-sense errors widerspiegeln.
Falls nichts dergleichen aufgetreten ist, würde ich davon ausgehen, dass da was faul ist.

Naja, worauf ich eigentlich hinaus will, ist, dass die smart werte großteils (nicht vollständig) ausreichen, um einen überblick über die integrität der daten und der platte zu erhalten.
 
Nein, der G-Sensor misst nur schwere mechanische Schocks die eine HDD zerstören können, aber nicht die "gewöhnlichen" Vibrationen im Betrieb werden von dem nicht erfasst. Natürlich geben die S.M.A.R.T. Attribute eine Menge her was den Zustand der HDD angeht, aber damit diese aussagekrüftig sind, muss die HDD auch ein wenig gearbeitet haben und das kann man mit h2testw als einen kleinen BurnIn-Test schon gleich mit erledigen, außerdem fallen aber z.B. Adressierungfehler auch gleich auf, wie sie vor allem bei Platten mit mehr als 2TB gerne mal in alter HW aufreten.
 
Zuletzt bearbeitet:
wie würdet ihr dann vorgehen? abbrechen oder 7! tage weiterlaufen/fertig prüfen lassen?

oder ist so eine prüfung überflüssig bei neuen platten?
 
M.E. ist so eine Prüfung nicht unbedingt notwendig. Wenn die Platte Mist machen sollte, merkst du das idR eh bald.


Falls du es trotzdem noch prüfen willst, könntest du es mal mit HDTune versuchen. Dort kann man einen Surface Scan machen.

Vllt. läuft es damit ja besser über's Netzwerk.
 
Zurück
Oben