Kostenloses Tool für Burn-In-Test

Miuwa

Commodore
Registriert
Dez. 2011
Beiträge
4.888
Hallo allerseits,

ich habe mir eine neue externe Festplatte gekauft (WD My Book 14 TB) und bevor ich anfange ihr meine Daten anzuvertrauen (Primärere Einsatzzweck Backups) würde ich gerne zumindest einen grundlegenden Burn-In-Test machen. Sprich: die ganze Platte einmal voll schreiben und danach verifizieren, dass sich alles auch wieder auslesen lässt.

Könnt ihr für diesem Zweck ein möglichst kostenloses, möglichst einfach zu nutzendes Tool für Windows empfehlen? Da das komplette Beschreiben und Lesen vermutlich locker 2-3 Tage dauert wäre es gut, wenn man den Test unterbrechen und dann später fortsetzen könnte.

Ich denke BurnInTest von Passmark kann das prinzipiell, aber ehrlich gesagt erschlägt mich das Tool mit seinen Einstellungen etwas und die Testversion ist wohl auf 15min Testsläufe limitiert.

Vielen Dank schon mal und Sorry, falls das schon irgendwo beantwortet wurde, aber meine Suche hier hat erstmal nur generelle Toollisten hervorgebracht. Ich bin mir auch nicht ganz sicher, ob das Thema hier oder ins HDD Unterforum gehört, aber hier habe ich mehr zu Diagnosetools gesehen weshalb mir das passender erschien. Falls ich falsch lag, bittee verschieben.
 
  • Gefällt mir
Reaktionen: recu, Matthias80 und Baal Netbeck
Burn in für HDDs ist mir neu.

Eigentlich erkennen die Laufwerke selbstständig wenn sie Probleme hatten.
CristalDiskInfo kann das z.B. auslesen.

Wenn du dir da Sorgen machst, würde ich die Platte einmal komplett voll schreiben(wie ist egal) und danach mit CrystalDiskInfo sehen ob es neu zugeweisene Sektoren oder andere Warnhinweise gab.
 
  • Gefällt mir
Reaktionen: Demon_666 und madmax2010
Möglicherweise reicht es schon aus bisschen was auf die HDD zu schreiben und die HDD mal 1 oder 2 Tage laufen zu lassen. Anhand der S.m.a.r.t Werte solle ein Problem recht schnell ersichtlich sein.
 
  • Gefällt mir
Reaktionen: kartoffelpü und Baal Netbeck
Smartwerte auslesen, Platte einmal mit h2testw von heise beschreiben, Smartwerte nochmal auslesen.
Wenn dann alles gut aussieht kannste die ohne Probleme verwenden.
 
  • Gefällt mir
Reaktionen: recu und Miuwa
kartoffelpü schrieb:
War zwar ursprünglich für Flashlaufwerke, kann aber auch für HDDs genutzt werden: https://www.heise.de/download/product/h2testw-50539
Fortsetzen geht allerdings nicht, wenn ich mich nicht ganz täusche.
Danke, ich glaube das ist genau das was ich gesucht habe.

Was das Fortsetzten angeht müsste ich mal schauen, aber notfalls hab ich hier auch ne kiste, die ein paar Tage durchlaufen kann.
Ergänzung ()

Fujiyama schrieb:
Möglicherweise reicht es schon aus bisschen was auf die HDD zu schreiben und die HDD mal 1 oder 2 Tage laufen zu lassen. Anhand der S.m.a.r.t Werte solle ein Problem recht schnell ersichtlich sein.
Es geht mir ja vor allem darum, dass a) die ganze Oberfläche überprüft wird und b) auch gecheckt wird ob die Daten danach auch wieder korrekt ausgelesen werden können.
Selbst wenn die Festplatte selbst erkennt, dass beim Schreiben oder lesen was schief gelaufen ist bräuchte ich ja trotzdem erstmal 14TB Testdaten um die Platte voll zu bekommen und müsste die dann auch wieder irgendwie auslesen - das lässt sich manuell mit Dateienrumkopieren (bzw. einem entsprechenden Skript) schon machen, aber ein Tool finden, dass das alles selbstständig erledigt funktioniert da (hoffentlich) schneller.
 
Zuletzt bearbeitet:
bei unRAID gibt es da ein Plugin das heißt "pre-clear", das macht im Grunde genau was du suchst :) ich weiß aber nicht ob das auch so läuft ... vielleicht ist ja die unRAID Demo was für dich und dann kannst du das Pre-Clear nutzen.
 
Diskpart mit clean all unter Windows.
Das wird auch meckern wenn Fehler.
Oder z.B. mit DBAN nullen. Auch das zeigt was schief geht.
 
@Miuwa

Nimm anstatt h2testw lieber etwas, was auf Sektorebene arbeitet.
Unter Windows würde ich da hddscan oder Victoria oder Veracrypt empfehlen. Mit letzterem kannst du die ganze Platte verschlüsseln, wodurch ja auch jeder Sektor beschrieben wird. Hddscan und Victoria können natürlich auch lesen (nach dem Beschreiben).

Alternativ kannst du danach einen SMART extended selftest anstoßen, welcher auch die gesamte Platte ausliest. Ich bin mir aber nicht sicher, ob der bei diesen externen WD-Platten hinhaut. Ich meine das probiert zu haben, aber dann geflucht, weil das Gehäuse die Platte in Standby versetzt.
Für den Controller zählt wohl ein SMART selftest nicht als Zugriff.
Also dann entweder wieder mit den ersten zwei Programmen arbeiten, oder Platte ausbauen und intern betreiben.

Alternative wäre badblocks unter einem LiveLinux. Das dauert aber sehr lange, da vier verschiedene Muster auf die Platte geschrieben werden. Danach musst du ebenfalls die Platte irgendwie auslesen. Theoretisch reicht da einfach ein dd mit den richtigen Parametern. Das kommt dann einem „richtigen“ Burn-In schon näher.
Im Tuenas Forum findet sich irgendwo ein Burn-In-Script, welches sogar noch ein bisschen mehr macht (vor und nach badblocks einen SMART extended selftest).

Im Anschluss natürlich die SMART-Werte checken :daumen: Versteht sich;)

Solltest du die Platte im USB-Gehäuse testen, wäre vielleicht ein 5V-USB Lüfter nicht verkehrt 👍
Ergänzung ()

Miuwa schrieb:
Da das komplette Beschreiben und Lesen vermutlich locker 2-3 Tage dauert wäre es gut, wenn man den Test unterbrechen und dann später fortsetzen könnte.
Das widerspricht irgendwie dem Burn-In Gedanken. Dabei soll ja der Prüfling belastet werden. Also in Hddscan und Victoria kann man den Start-LBA bestimmen, aber wie gesagt: Ist nicht Sinn eines Burn-In.
 
Zuletzt bearbeitet:
Danke für die schnellen Antworten

BFF schrieb:
Diskpart mit clean all unter Windows.
Das wird auch meckern wenn Fehler.
Oder z.B. mit DBAN nullen. Auch das zeigt was schief geht.


Die beiden Methoden zeigen aber nur Fehler, die das Laufwerk beim Schreiben selbst erkennt. Korrekt?

LieberNetterFlo schrieb:
bei unRAID gibt es da ein Plugin das heißt "pre-clear", das macht im Grunde genau was du suchst :) ich weiß aber nicht ob das auch so läuft ... vielleicht ist ja die unRAID Demo was für dich und dann kannst du das Pre-Clear nutzen.
Mittelfristig wollte ich mir unRAID eh mal ansehen, weil bald mal ein neuer Server ansteht. Von daher Danke! Aber auf die schnelle hab ich davon zumindest keine Standalone Lösung gefunden.

Fusionator schrieb:
Hddscan und Victoria können natürlich auch lesen (nach dem Beschreiben).
Bei Hddscan hab ich nur Lesen und Erase Optionen gefunden, aber kein schreiben + verify. Victoria muss ich mir noch anseehen

Was die anderen Vorschläge angeht: Grundsätzlich hatte ich sowas auch im Überlegt, aber ich hätte halt idealerweise gerne ein tool, dass weiß, welche Daten es beim Lesen erwartet und nicht nur darauf angewiesen ist, dass das Laufwerk erkennt, wenn es die ursprünglichen Daten nichtmehr korrekt wiedergeben kann (mir ist klar, dass das aufgrund der internen Fehlerkorrektur der absolute Ausnahmefall sein dürfte, aber ich bin wohl etwas paranoid).

Fusionator schrieb:
Solltest du die Platte im USB-Gehäuse testen, wäre vielleicht ein 5V-USB Lüfter nicht verkehrt 👍
Naive wie ich bin dachte ich, dass sich die externe Platte schon selbst drum kümmert, dass die Temperaturen niedrig bleiben (drosselung) aber dank deines Hinweise hab ich grad nochmal SMART gecheckt und sie ist auf 49°C. Von demher: Danke!

Fusionator schrieb:
Das widerspricht irgendwie dem Burn-In Gedanken. Dabei soll ja der Prüfling belastet werden.
Naja, ich denke wenn man das auf 2-3 Runs aufteilt, die dann jeweil 15h dauern sollte das keinen allzugroßen Unterschied machen oder?
 
Miuwa schrieb:
Fehler, die das Laufwerk beim Schreiben selbst erkennt.
Wenn du da eine Fehlermeldung bekommen solltest, ist die Platte eh Schrott, weil die Mechanik einen Schaden hat. Von daher: ignorieren bzw. DOA.

Miuwa schrieb:
Bei Hddscan hab ich nur Lesen und Erase Optionen gefunden
Korrekt. Beides nur einzeln. Victoria habe ich jetzt nicht vor mir.
HD-Tune in der Vollversion kann Erase und Verify.

Miuwa schrieb:
idealerweise gerne ein tool, dass weiß, welche Daten es beim Lesen erwartet und nicht nur darauf angewiesen ist, dass das Laufwerk erkennt, wenn es die ursprünglichen Daten nichtmehr korrekt wiedergeben kann
H2testw macht das auf Filesystem Ebene. Mit mehreren Partitionen kannst du dir da behelfen. Oder das Programm lässt eine Größenangabe zu? Keine Ahnung. nie benutzt 🤷‍♂️
Badblocks sollte dann genau richtig sein, aber das dauert Tage. Man müsste mal ins Manual schauen, ob man dem Programm Start- und Ende LBA übergeben kann.

Da machst dir da zu viele Gedanken meiner Meinung nach. Wenn du in einen Sektor beispielsweise lauter AA reinschreibst und bei lesen gibt es plötzlich ein A0, dann stimmt ja die Checksumme nicht mehr und der Sektor ist fehlerhaft.
Miuwa schrieb:
SMART gecheckt und sie ist auf 49°C.
Die Temperatur geht noch höher, wenn man die Platte stundenlang mit Schreiben oder Lesen beschäftigt. Ich habe mir da selber Etwas aus einem alten USB2.0-Kabel und einem 80mm-Lüfter gebastelt.
Den kann man oben auf die Platte legen.
Oder man legt die Platte auf einen dünnen Schaumstoff oder Moosgummi und stellt den Lüfter vor die Schlitze.
120mm-Lüfter passt dann für zwei Platten :daumen:

Miuwa schrieb:
wenn man das auf 2-3 Runs aufteilt, die dann jeweil 15h dauern sollte das keinen allzugroßen Unterschied machen oder?
Ja, solange du das nicht immer nur Stundenweise machst, geht das schon in Ordnung. Nicht Jeder lässt einen Rechner gerne unbeaufsichtigt laufen.
Und wenn du nur eine Kiste hast, ist die mit Linux und badblocks eben Tagelang geblockt (für einen Windowsuser).
 
Hallo Miuwa!

Miuwa schrieb:
würde ich gerne zumindest einen grundlegenden Burn-In-Test machen. Sprich: die ganze Platte einmal voll schreiben und danach verifizieren, dass sich alles auch wieder auslesen lässt.

Unter einem Burn-In-Test verstehe ich einen thermischen Lasttest. Was Du willst, ist eher ein Integritätstest.
Vermutlich verfügt Dein WD MyBook über ein Plastikgehäuse, und so entwickelt sich Dein Integritätstest zwangsläufig zum ungewollten Burn-In-Test.
Der Vorschlag von Fusionator, einen Lüfter zu nutzen ist sinnvoll. Zu seinen anderen Empfehlungen komme ich gleich.

h2testw ist das, was Deinen Anforderungen am nächsten kommt. Das einzige, was nicht geprüft wird, sind ein paar Metadaten. Ein Programm, das den Testumfang von h2testw auf Sektorebene durchführt, ist mir nicht bekannt. h2testw schreibt ja nicht immer dieselben Muster, sondern nutzt einen Pseudozufallsgenerator. Beim Lesen kann der erwartete Sektorinhalt rekonstruiert werden (technisch durch Nutzung des selben Startwerts oder Auswertung der Dateinummer, ich kenne das Verfahren nicht).



Hallo Fusionator!

Fusionator schrieb:
@Miuwa

Nimm anstatt h2testw lieber etwas, was auf Sektorebene arbeitet.

Das ist prinzipiell richtig, aber der Unterschied erscheint mir vernachlässigbar.

Fusionator schrieb:
Unter Windows würde ich da hddscan oder Victoria oder Veracrypt empfehlen. Mit letzterem kannst du die ganze Platte verschlüsseln, wodurch ja auch jeder Sektor beschrieben wird.

Zwar beschreiben Truecrypt und Veracrypt im entsprechenden Modus alle Sektoren einer Festplatte.
Es gibt aber dazu kein lesendes Gegenstück in den beiden Softwareprodukten - wozu auch!

Fusionator schrieb:
Hddscan und Victoria können natürlich auch lesen (nach dem Beschreiben).

Alternativ kannst du danach einen SMART extended selftest anstoßen, welcher auch die gesamte Platte ausliest. Ich bin

Ein "extended selftest" weiß nicht, was in jedem Sektor zu finden sein soll und kann die Überprüfung des Geschriebenen nicht abbilden.

Fusionator schrieb:
mir aber nicht sicher, ob der bei diesen externen WD-Platten hinhaut. Ich meine das probiert zu haben, aber dann geflucht, weil das Gehäuse die Platte in Standby versetzt.

Wirklich?! Das finde ich erstaunlich.

Fusionator schrieb:
Für den Controller zählt wohl ein SMART selftest nicht als Zugriff.
Also dann entweder wieder mit den ersten zwei Programmen arbeiten, oder Platte ausbauen und intern betreiben.

Alternative wäre badblocks unter einem LiveLinux. Das dauert aber sehr lange, da vier verschiedene Muster auf die Platte geschrieben werden.

Bei mir benötigt eine 4 TB-Festplatte mit 5400 rpm circa 8 Stunden für das Schreiben mit h2testw, macht in der Summe 16 Stunden für einmal lesen und Schreiben. Für Deine 14 TB-Festplatte dürften es 3,5 mal so lang dauern, also 28h.
Der Schreibmodus bei badblocks schreibt 4 unterschiedliche simple Muster in jeden Sektor und überprüft die zugleich. Im Gegensatz zu h2testw macht das dann 4x Lesen und 4x Schreiben. Bei Deiner Festplatte würde der Spaß dann circa 4 x 28h = 4 Tage und 16 Stunden dauern.

Fusionator schrieb:
Danach musst du ebenfalls die Platte irgendwie auslesen.

Nein, Erklärung siehe oben.
Quelle:
https://linux.die.net/man/8/badblocks

Fusionator schrieb:
Theoretisch reicht da einfach ein dd mit den richtigen Parametern.

Nein. Dazu müsste eine Datei mit einer Länge von 14 TB vorliegen. Ich finde in der dd-Syntax keine Wiederholgruppen. Des Weiteren fehlt auch ein Parameter zum Vergleich.
Quelle:
https://man7.org/linux/man-pages/man1/dd.1.html

Fusionator schrieb:
Das kommt dann einem „richtigen“ Burn-In schon näher.
Im Tuenas Forum findet sich irgendwo ein Burn-In-Script, welches sogar noch ein bisschen mehr macht (vor und nach badblocks einen SMART extended selftest).

Der "extended selftest" ist bei Nutzung von badblocks im Schreibmodus vollkommen sinnlos!
Wenn ich jeden Sektor schon viermal beschrieben und ausgelesen habe, wieso sollte ich dann noch einen
"extended selftest" laufen lassen? Das Schreiben von spezifischen Werten und Überprüfen derselben ist ein besserer Test, als ein "extended self-test" vorab, der nur die Lesbarkeit der die typischerweise mit Nullwerten gefüllten Sektoren überprüft.
Das würde für den Frager 4 Tage und 16 Stunden + 2x 28 Stunden dauern, also ingesamt 7 Tage. :rolleyes:

Sinnvoll hingegen ist der Vorschlag von Masamune2 weiter oben:
https://www.computerbase.de/forum/threads/kostenloses-tool-fuer-burn-in-test.2093627/post-27085371

Das Auslesen der SMART-Parameter geht ganz schnell, das dauert allenfalls ein paar Sekunden, wenn die Festplatte noch anlaufen muss.
Das zweite Auslesen der SMART-Parameter zeigt dann, ob es Leseprobleme bei Sektoren gegegeben hat, was sich in einem Anstieg des "Pending Sector Count" niederschlagen würde.

Fusionator schrieb:
Das widerspricht irgendwie dem Burn-In Gedanken. Dabei soll ja der Prüfling belastet werden. Also in Hddscan und Victoria kann man den Start-LBA bestimmen, aber wie gesagt: Ist nicht Sinn eines Burn-In.

Es gibt keinen Mechanismus, der den Test abbricht, wenn die Festplatte die in der c't gerne genannten 55°C überschreitet und selbst die Annäherung an diese Betriebstemperatur erhöht die Ausfallwahrscheinlichkeit.
Die aktuellen Sommertemperaturen verschärfen das Problem noch.

Eine Festplatte, die bei Volllast 60°C erreicht,
Quelle: https://techtest.org/western-digital-wd-my-book-14tb-kurz-review/
darf getrost als Fehlkonstruktion bezeichnet werden. (Der Autor schreibt leider nicht, bei welcher Umgebungstemperatur getestet wurde)
Dauerlast bei Backup- und Restore-Aktionen stellen das Erreichen dieser Temperatur sicher.
Zu dieser Festplatte wird ja ein 18W-Netzteil mitgeliefert und selbst wenn die Festplatte nur 9W benötigt, muss diese Wärme auch abgeführt werden.

Aus diesem Grund betreibe ich externe Festplatte entweder offen (ohne Deckel eines externen Gehäuses) oder in Metallgehäusen, in Towergehäusen immer mit davor montiertem 120mm-Lüfter.
 
Zuletzt bearbeitet:
recu schrieb:
Der "extended selftest" ist bei Nutzung von badblocks im Schreibmodus vollkommen sinnlos!
Ok, ok. Du hast mich schon überzeugt. Ich habe mich wohl zu sehr von dem Burn-In-Script aus dem Truenas-Forum blenden lassen, ohne weiter nachzudenken.
Dann habe ich also die Funktionsweise von badblocks doch richtig verstanden. Eigentlich ja simple Logik 🤦‍♂️

recu schrieb:
Ein "extended selftest" weiß nicht, was in jedem Sektor zu finden sein soll und kann die Überprüfung des Geschriebenen nicht abbilden.
Aber wozu gibt es dann diesen Test überhaupt? Dann wäre ja jeder Lesetest in einer Software sinnlos.
Nach meinem Verständnis erkennt die Platte sehr wohl, ob sich der Inhalt eines Sektors verändert hat und zwar anhand der Checksumme, die dann nicht mehr passt. Das sind dann die berühmten schwebenden Sektoren.

Also um es kurz zu machen: Für mich persönlich taugt Veracrypt und anschließendes Lesen nach wie vor für den Zweck. Ich habe aber ebenso hddscan/Victoria/HD-Tune benutzt.
badblocks hatte ich mal bei zwei 2 TB probiert, was auch sehr lange gedauert hat.
Verstehe nicht, warum der Programmierer da nicht einen "einfachen" Modus einbaut.

h1testw steht dann noch aus, bei eine der nächsten Platten ;)

recu schrieb:
Eine Festplatte, die bei Volllast 60°C erreicht,
Quelle: https://techtest.org/western-digital-wd-my-book-14tb-kurz-review/
darf getrost als Fehlkonstruktion bezeichnet werden.
Ja, es ist ein bisschen eine Fehlkonstruktion. Deshalb ist da ein Lüfter Pflicht, wenn man die Platte dauernd belastet.
Die Seagate Expansion Desktop wird unter Last zwar auch über 50°warm, aber erreicht nicht die WD Temperaturen. Außerdem sind die Platten im Idle kühler, als die WD Elements/MyBook.
 
Fusionator schrieb:
Aber wozu gibt es dann diesen Test überhaupt? Dann wäre ja jeder Lesetest in einer Software sinnlos.
Nach meinem Verständnis erkennt die Platte sehr wohl, ob sich der Inhalt eines Sektors verändert hat und zwar anhand der Checksumme, die dann nicht mehr passt. Das sind dann die berühmten schwebenden Sektoren.

Den Test gibt es vielleicht, um einen einfachen, nicht destruktiven Sektortest zu haben.
Zwar ist dann klar, wieviele hängende Sektoren es gibt, aber ihren Ort gibt der Selbsttest leider nicht preis.
 
Erstmal als Statusupdate für euch bzw. für zukünftige Leser des Threads:

Ich hab den Test jetzt mit dem vorgeschlagenen H2testw von Heise gemacht. Einfach zu bedienen, scheint genau das zu tun was ich möchte und mit ~160MBytes/s (am Anfang glaube ich noch >200) vermute ich, das es auch so schnell gearbeitet hat, wie mit der Festplatte halt möglich.

Pausieren/unterbrechen geht zwar nicht, aber was geht ist folgendes:
Das Tool schreibt einfach X-GB an normalen Dateien in den freien Bereich einer Partition und überprüft die dann (bedeutet zwar auch, dass es nicht wirklich alle Sektoren testen kann, aber close enough). Was man also machen kann ist z.B. erstmal 5TB testen, anschließend die Testdateien nicht löschen sondern umbenennen, damit das Tool sie nichtmehr erkennt und dann wieder 5TB testen, die das tool dann in die neuen bereiche schreibt. Nicht perfekt, aber imho good enough (ich habs trotzdem auf einemal durchgezogen).


Vielen Dank @kartoffelpü für den Hinweis und Danke auch an alle anderen für die Vorschläge (insbesondere @Fusionator auch wegen dem Temperaturhinweis).


Fusionator schrieb:
Aber wozu gibt es dann diesen Test überhaupt? Dann wäre ja jeder Lesetest in einer Software sinnlos.
Nach meinem Verständnis erkennt die Platte sehr wohl, ob sich der Inhalt eines Sektors verändert hat und zwar anhand der Checksumme, die dann nicht mehr passt. Das sind dann die berühmten schwebenden Sektoren.

Gibt meines Wissens zwei Fehlerquellen, die der "interne" Test (Passt die Prüfsumme für den Block zu den Bits im Block) im Gegensatzt zum Ende-zu-ende Test (kann ich das auslesen, was ich geschrieben habe?) nicht erkennen kann:

1) Theoretisch gibts ja von einem Datenträger zum anderen ne ganze Reihe anderer Stellen, an der Datenkorruption auftreten kann - nicht nur beim physikalischen Schreibvorgang. Jetzt mal nur auf den Zieldatenträger bezogen: USB-Übertragung (ist natürlich theoretisch auf andere Art und Weise abgesichert), Laufwerkselektronik, Firmwarefehler.

2) Gefährliches Halbwissen aus Hörensagen, als evtl. nicht korrekt: Bei modernen Lafuwerken mit der enormen Speicherdichte ist es ganz normal, dass einzelne Bits falsch ausgelesen werden und dann anahand der "Checksumme" korrigiert werden (genau genommen werden Daten sowieso nicht Bit für Bit geschrieben, sondern als größere Blöcke codiert abgelegt, aber das führt zuweit, bzw. fehlt mir das Detailwissen, welche Techniken da genau verwendet werden). Es könnte also theoretisch sein, dass die Bits gerade so falsch sind, der der Korrekturmechanismus falsche Daten wiederherstellt statt einfach nur zu sagen "Datenkorruption".

Ob bei einem der beiden auch nur eine halbwegs realistische Chance besteht, dass es Auftritt und nicht sofort bemertk wird: K.A. Und ich würde vermuten, dass 99, ...% der Fehler durch die interne Diagnose erkannt werden.

Der für mich (evtl. leicht Paranoid) entscheidende Punkt ist aber:
Beim Ende-zu-Ende Test muss ich nicht darüber spekulieren, was der interne Test erkennen kann oder nicht, ob das nur eine Werbemaßnahme des Herstellers ist oder nicht - etc. Ich prüfe direkt das ab, was mir wichtig ist: Kann ich Daten erst auf den Datenträger schreiben und danach korrekt wieder auslesen?
 
Miuwa schrieb:
Erstmal als Statusupdate für euch bzw. für zukünftige Leser des Threads:

Ich hab den Test jetzt mit dem vorgeschlagenen H2testw von Heise gemacht. Einfach zu bedienen, scheint genau das zu tun was ich möchte und mit ~160MBytes/s (am Anfang glaube ich noch >200) vermute ich, das es auch so schnell gearbeitet hat, wie mit der Festplatte halt möglich.

Pausieren/unterbrechen geht zwar nicht, aber was geht ist folgendes:
Das Tool schreibt einfach X-GB an normalen Dateien in den freien Bereich einer Partition und überprüft die dann (bedeutet zwar auch, dass es nicht wirklich alle Sektoren testen kann, aber close enough). Was man also machen kann ist z.B. erstmal 5TB testen, anschließend die Testdateien nicht löschen sondern umbenennen, damit das Tool sie nichtmehr erkennt und dann wieder 5TB testen, die das tool dann in die neuen bereiche schreibt. Nicht perfekt, aber imho good enough (ich habs trotzdem auf einemal durchgezogen).

Wie umständlich! Einfach h2testw starten, Laufwerk auswählen und h2testw beschreibt den freien Speicherplatz und liest ihn wieder aus. Warum so kompliziert?

Miuwa schrieb:
Vielen Dank @kartoffelpü für den Hinweis und Danke auch an alle anderen für die Vorschläge (insbesondere @Fusionator auch wegen dem Temperaturhinweis).

Hinweis: Der folgende Text ist von mir. Über die richtige Nennung des Autors würde ich mich freuen!

recu schrieb:
Eine Festplatte, die bei Volllast 60°C erreicht,
Quelle: https://techtest.org/western-digital-wd-my-book-14tb-kurz-review/
darf getrost als Fehlkonstruktion bezeichnet werden. (Der Autor schreibt leider nicht, bei welcher Umgebungstemperatur getestet wurde)
Dauerlast bei Backup- und Restore-Aktionen stellen das Erreichen dieser Temperatur sicher.
Zu dieser Festplatte wird ja ein 18W-Netzteil mitgeliefert und selbst wenn die Festplatte nur 9W benötigt, muss diese Wärme auch abgeführt werden.

Aus diesem Grund betreibe ich externe Festplatte entweder offen (ohne Deckel eines externen Gehäuses) oder in Metallgehäusen, in Towergehäusen immer mit davor montiertem 120mm-Lüfter.



Miuwa schrieb:
Gibt meines Wissens zwei Fehlerquellen, die der "interne" Test (Passt die Prüfsumme für den Block zu den Bits im Block) im Gegensatzt zum Ende-zu-ende Test (kann ich das auslesen, was ich geschrieben habe?) nicht erkennen kann:

1) Theoretisch gibts ja von einem Datenträger zum anderen ne ganze Reihe anderer Stellen, an der Datenkorruption auftreten kann - nicht nur beim physikalischen Schreibvorgang. Jetzt mal nur auf den Zieldatenträger bezogen: USB-Übertragung (ist natürlich theoretisch auf andere Art und Weise abgesichert), Laufwerkselektronik, Firmwarefehler.

Es gibt auch noch den Speicher des Computers. h2testw kann zwischen den verschiedenen Fehlerquellen nicht unterscheiden, findet aber prinzipbedingt jeden Fehler, bis auf die vom Anteil her kleinen Bereich mit Metadaten auf der Festplatte, die es nicht prüfen kann.

Miuwa schrieb:
2) Gefährliches Halbwissen aus Hörensagen, als evtl. nicht korrekt: Bei modernen Lafuwerken mit der enormen Speicherdichte ist es ganz normal, dass einzelne Bits falsch ausgelesen werden und dann anahand der "Checksumme" korrigiert werden (genau genommen werden Daten sowieso nicht Bit für Bit geschrieben, sondern als größere Blöcke codiert abgelegt, aber das führt zuweit, bzw. fehlt mir das Detailwissen, welche Techniken da genau verwendet werden). Es könnte also theoretisch sein, dass die Bits gerade so falsch sind, der der Korrekturmechanismus falsche Daten wiederherstellt statt einfach nur zu sagen "Datenkorruption".

Ob bei einem der beiden auch nur eine halbwegs realistische Chance besteht, dass es Auftritt und nicht sofort bemertk wird: K.A. Und ich würde vermuten, dass 99, ...% der Fehler durch die interne Diagnose erkannt werden.

Der für mich (evtl. leicht Paranoid) entscheidende Punkt ist aber:
Beim Ende-zu-Ende Test muss ich nicht darüber spekulieren, was der interne Test erkennen kann oder nicht, ob das nur eine Werbemaßnahme des Herstellers ist oder nicht - etc. Ich prüfe direkt das ab, was mir wichtig ist: Kann ich Daten erst auf den Datenträger schreiben und danach korrekt wieder auslesen?


Was ist ein "Ende-zu-Ende Test"?
 
recu schrieb:
Wie umständlich! Einfach h2testw starten, Laufwerk auswählen und h2testw beschreibt den freien Speicherplatz und liest ihn wieder aus. Warum so kompliziert?
Es ging um die Frage, wie/ob man den Test unterbrechen und später wieder fortsetzten kann, wenn man halt keinen Computer hat, den man mehrerer Tage am Stück durchlaufen lassen kann.


recu schrieb:
Hinweis: Der folgende Text ist von mir. Über die richtige Nennung des Autors würde ich mich freuen!
Ging um folgendes:
Fusionator schrieb:
Solltest du die Platte im USB-Gehäuse testen, wäre vielleicht ein 5V-USB Lüfter nicht verkehrt 👍
Das war halt der post, der mich dazu veranlast hat noch schnell die SMART werte zu checken. Ohne den möchte ich garnicht wissen, wie heiß die Platte im Verlauf des Tests geworden wäre.



recu schrieb:
Es gibt auch noch den Speicher des Computers. h2testw kann zwischen den verschiedenen Fehlerquellen nicht unterscheiden, findet aber prinzipbedingt jeden Fehler, bis auf die vom Anteil her kleinen Bereich mit Metadaten auf der Festplatte, die es nicht prüfen kann.
Jup. Und es gibt noch tausend andere Stellen im Computer, wo theoretisch was schief gehen kann. Deshalb hab ich ja geschrieben "Jetzt mal nur auf den Zieldatenträger bezogen" - es geht ja schließlich darum de Festplatte zu testen.

recu schrieb:
Was ist ein "Ende-zu-Ende Test"?
Mir ist auf die schnelle kein besserer Begriff eingefallen, aber ich dachte das war aus dem Kontext klar. Von der Datenquelle zur Datensenke. In diesem Fall vom erzeugen der (Test-) Daten im Anwenderprogramm bis zum Auslesen der Daten im Anwenderprogramm - wie eben z.B. mit h2testw. Die Fehlererkennung der Fesplatte kann - wie du ja selbst geschrieben hast - nur einen Teil er möglichen Fehler erkennen, die theoretisch zwischen diesen beiden Enden auftreten können.
 
Zurück
Oben