Suche Tool zum Testen der Festplattenkapazität

Krypton schrieb:
Dieses Tool scheint aber wohl keiner zu kennen :D

Ist halt die Frage welches Spezielle Tool du meinst.
http://www.hdsentinel.com/hard_disk_case_capacity_is_not_correct.php
Wie gesagt wurde irgendwann, glaube dank dem CB User Ernst@at, bei Hard Disk Sentinel eine Überprüfung implementiert.

​Davor war es aber eben mit HD Tune ganz einfach möglich die HDD zu testen, da die Adressierungsfehler schon beim Zugriffszeiten test, oder beim Low Level Lese Benchmark sichtbar waren, also ohne Stundenlanges Warten durch vollschreiben der HDD.
 
Zuletzt bearbeitet:
Man darf aber nicht die Freeeware Version 2.55 von HD Tune nehmen, die kann nur bis 2TiB adressieren und daher auch keine Fehladressierungen erkennen.
 
So, habe die Platte gestern Abend in mein externes Sharkoon Quickdeck, das via SATA mit meinem PC verbunden ist, in Betrieb genommen. Platte wurde sofort in der Datenträgerverwaltung mit 7451,91 GB erkannt.

Da die Platte neu war, hätte das also schon ausgreicht, um mir zu sagen, dass der Fehler nicht auftreten wird, oder?

Habe trotzdem noch H2testw laufen lassen .. nach ziemlich genau 23h hab ich nun folgende Meldung bekommen:

Datenträger schneller als erwartet voll!
Zu Beginn waren 7630433 MByte frei, aber es konnten nur
7630424 MByte geschrieben werden.
Achtung: Nur 7630433 von 7630755 MByte getestet.
Schreibrate: 92,2 MByte/s
H2testw v1.4

Muss ich mir wegen diesen 9MByte Sorgen machen?
 
Nein, das Verhalten ist normal, die Metadaten von NTFS werden ja in Spare Files abgelgt und diese wachsen bei so großen Volumen eben stärker als es heise bei der Entwicklung des Tools vorausgeahnt hat, das ist ja auch schon recht alt und schlägt von sich aus bei NTFS schon vor weniger als maximal frei ist zu testen. Das ist also kein Problem der HDD, sondern von h2testw und normal. Du solltest Du Daten aber nicht nur schreiben, sondern auch noch prüfen lassen, bei einer Fehladressierung kann vermutlich auch noch fehlerfrei geschrieben werden, das Prüfen der Daten ist daher erst die Phase in der die Fehler sich zeigen.
 
Holt schrieb:
Nein, das Verhalten ist normal, die Metadaten von NTFS werden ja in Spare Files abgelgt und diese wachsen bei so großen Volumen eben stärker als es heise bei der Entwicklung des Tools vorausgeahnt [...]

Achso, die von dir angesprochenen Dateien befinden sich nicht in den verbliebenen 322 MByte?
Weil als Gesamtspeicher wird 7630755 MByte angegeben. Schon zu Beginn des Tests kam eine Meldung, dass wegen NTFS nur 7630433 MByte (also 322 MByte weniger) getestet werden können und dies normal sei. Letztlich konnten dann aber nur 7630424 MByte tatsächlich getestet werden, also nochmal 9 MByte weniger. Passt aber trotzdem alles?

So .. bin nun am überprüfen der Dateien. Ergebnis kommt dann in 20h :D
 
Doch. die machen den Unterschied zwischen: "Zu Beginn waren 7630433 MByte frei, aber es konnten nur
7630424 MByte geschrieben werden.
Achtung: Nur 7630433 von 7630755 MByte getestet." Die Partition ist 7630755 MiB groß, es wurden aber nur 7630424 MiB geschrieben obwohl am Anfang 7630433 MiB frei waren, der Unterschied ergibt sich aus den Metadateien vom NTFS Filesystem. Die sind Spare angelegt, also anfangs relativ klein (322MiB) und wuchsen mit der Nutzung auf 331MiB.
 
Alles klar, Danke für die Erklärung :daumen:
Ergänzung ()

So .. der Vollstädnigkeit halber hier noch die Ergebnisse nach 20,5h Prüfung:

Achtung: Nur 7630424 von 7630755 MByte getestet.
Fertig, kein Fehler aufgetreten.
Leserate: 103 MByte/s
H2testw v1.4

Also alles im Grünen Bereich. Dann kann ich die Platte nun nutzen :)
 
Zuletzt bearbeitet:
Zurück
Oben