WD My Book 8TB: Fehler in h2testw (Offset 0x1a200000)

user324543

Lt. Junior Grade
Registriert
Jan. 2020
Beiträge
264
Morgen,
ich habe mir eine neue WD My Book gekauft (WD80EDAZ-11TA3A0). Wie es so üblich ist, habe ich erstmal h2testw laufen lassen. Leider bekam ich folgenden Fehler:
Fehler beim Schreiben der Datei 'D:\4907.h2w', Offset 0x1a200000.
Bis hierher geschriebene Testdaten können trotzdem geprüft werden.
(Ein nicht vorhandenes Gerät wurde angegeben. Code 433)
Achtung: Nur 7630546 von 7630882 MByte getestet.
Schreibrate: 173 MByte/s
H2testw v1.4
Jetzt ist die Frage, was ich mit dieser Information anfangen kann? Ist die HDD defekt oder gab es einfach nur einen Disconnect? (Ein nicht vorhandenes Gerät wurde angegeben. Code 433)

Mir ist auch aufgefallen, dass die Platte lt. CrystalDiskInfo 8.10.0 58°C warm ist, was ja nicht so optimal ist. Die HDD werde ich eh ausbauen und aktiv kühlen, ist es dann schlimm für den Benchmark höhere Temps zu haben? Ich mein das Teil wird ja so mit dem Case verkauft, es sollte daher auch so betrieben werden können...
 
H2testw ist nicht wirklich für (so große) Festplatten optimiert. Diese Frage mit solchen Logs habe ich schon öfters gelesen von Leuten, die das Ding auf große HDDs losgelassen haben.

Da das Ding bis kurz vor Schluss durchgelaufen ist, sollte alles OK sein. H2testw ist auf China-Fakeflash ausgelegt wo nur ein Bruchteil der gemeldeten Kapazität real vorhanden ist. Das Risiko, dass WD Dir ne Platte geschickt hat, wo tatsächlich ein paar MB weniger Speicher vorhanden sind als vom Controller gemeldet, dürfte gegen Null gehen. Ist ein Bug in H2testw...
 
Purche schrieb:
H2testw ist nicht wirklich für (so große) Festplatten optimiert.
das stimmt so nicht, habe damit schon einige HDDs mit 8, 10, 12 und 14TB getestet. Lief auch immer problemlos durch.
Purche schrieb:
Das Risiko, dass WD Dir ne Platte geschickt hat, wo tatsächlich ein paar MB weniger Speicher vorhanden sind als vom Controller gemeldet, dürfte gegen Null gehen.
Ich nutze das Tool eigentlich hauptsächlich dafür, um a) Bad Blocks zu erkennen und b) die HDD grundsätzlich "zu beschäftigen", um so einen potentiellen "DOA" zu provozieren. Ob da jetzt ein paar MB flöten gehen, spielt eher die untergeordnete Rolle....

Ich gehe eher davon aus, dass mein USB Port einen Wackler hat, zumindest konnte ich durch leichtes Wackeln am USB Port einen Disconnect auslösen, mit dem selben Fehlercode wie zuvor.
 
Mach mit dem WD Dashboard noch einen erweiterten SMART Test und gut ist, dabei wird ja auch noch mal Read/Verify der gesamten Festplatte ausgeführt.
 
user324543 schrieb:
Mir ist auch aufgefallen, dass die Platte lt. CrystalDiskInfo 8.10.0 58°C warm ist, was ja nicht so optimal ist.
Das ist ein Problem. Meiner Meinung nach brauchen Hdds immer eine Kühlung. Ein ganz leicher Luftstrom hilft da sehr viel. Ich habe mir einen USB Mini-Lüfter gekauft und ihn etwas durch die Lüftungsschlitze pusten lassen, die Temps waren gleich 10C niedriger.
 
user324543 schrieb:
das stimmt so nicht, habe damit schon einige HDDs mit 8, 10, 12 und 14TB getestet. Lief auch immer problemlos durch.

Ich nutze das Tool eigentlich hauptsächlich dafür, um a) Bad Blocks zu erkennen und b) die HDD grundsätzlich "zu beschäftigen", um so einen potentiellen "DOA" zu provozieren. Ob da jetzt ein paar MB flöten gehen, spielt eher die untergeordnete Rolle....

Ich gehe eher davon aus, dass mein USB Port einen Wackler hat, zumindest konnte ich durch leichtes Wackeln am USB Port einen Disconnect auslösen, mit dem selben Fehlercode wie zuvor.
Doch, siehe hier:
https://www.heise.de/ct/hotline/H2testw-Fehlermeldung-volle-Festplatte-2812616.html

Aussage von Heise:
Kein Grund zur Panik: Bei sehr großen Festplatten verrechnet sich H2testw manchmal bei der Größe der Metadaten.
Die Fehlermeldung rührt daher, dass H2testw zu Beginn abfragt, wie viel Platz frei ist, und dann diese Datenmenge zu schreiben versucht. Bei den Metadaten, die das Dateisystem für die Verwaltung dieser vielen Dateien braucht, verkalkuliert es sich bei sehr großen Platten leider manchmal knapp. Als das Tool entstand, waren 1-GByte-USB-Sticks Stand der Technik.

Die Meldung ist kein Grund zur Sorge, sofern die geschriebene Datenmenge sehr nah an der zuvor ermittelten Gesamtkapazität ist, der Fehler also ganz am Ende des Schreibvorgangs auftritt. Sie können die Daten dann verifizieren und bei Erfolg von einer intakten Platte ausgehen.
 
Purche schrieb:
Bei den Metadaten, die das Dateisystem für die Verwaltung dieser vielen Dateien braucht, verkalkuliert es sich bei sehr großen Platten leider manchmal knapp
Das hatte ich auch, aber mein Fehler ist ja ein anderer gewesen. Wie auch immer, es lag mit hoher Wahrscheinlichkeit am Wackler des USB Ports
 
Zurück
Oben