neue HDD: nach Formatierung noch Datenträgerprüfung sinnvoll ?

Ekki-LM1

Lt. Junior Grade
Registriert
Aug. 2012
Beiträge
372
Hallo an Alle,

ich habe grad meine fabrikneue SATA-Platte (Toshiba 14TB) am Rechner angeschlossen (Win7, offline).

Bei der normalen Formatierung wird die Platte ja auf fehlerhafte Sektoren geprüft, die ggf. dann auch repariert werden.
Demnach wäre eine anschließende Datenträgerprüfung mit Option "fehlerhafte Sektoren wiederherstellen" also überflüssig.

Sehe ich das richtig oder hätte eine vollständige Datenträgerprüfung doch noch Vorteile ?

DANKE für kurzes feedback :)
 
Ich mach' das meistens, SMART-Werte und evtl. ein Check mit dem Herstellertool, ist aber kein Muss.
Ekki-LM1 schrieb:
Demnach wäre eine anschließende Datenträgerprüfung mit Option "fehlerhafte Sektoren wiederherstellen" also überflüssig.
Bei einer neuen, und leeren Festplatte das Dateisystem mit chkdsk überprüfen? Da seh' ich keinen Sinn drin.
 
nein, das hast du mit dem "langformat" bereits gemacht.

und richtig gemacht! eine platte sollte, mMn, geprüft werden, wenn neu.
meist wird aus zeitgründen schnell formatiert.
 
Ekki-LM1 schrieb:
Bei der normalen Formatierung wird die Platte ja auf fehlerhafte Sektoren geprüft, die ggf. dann auch repariert werden.
Nein, wird sie nicht. Bei der normalen Formatierung (bei abgewählter Schnellformatierung) werden die Sektoren innerhalb der ausgewählten Partition genullt. Es findet keine Leseüberprüfung statt. Bis einschließlich Windows XP war das noch anders. Bis dahin hat sich Windows bei der normalen Formatierung so verhalten, wie du beschrieben hast. Mit der Einführung von Vista wurde das von Microsoft geändert.
 
  • Gefällt mir
Reaktionen: Smartbomb, Wolfgang359, Ekki-LM1 und eine weitere Person
oh, dann bin ich wohl veraltet....

/edit: und schwer...
wer zu teufel kommt bei ms auf den gedanken, sowas zu ändern?
merde!
 
Zuletzt bearbeitet:
es ist ja so:
"ganz früher" (zur Zeiten der ersten IBM PC/AT) waren die "Mechanik" und die Controller noch getrennt. Da musste man in einen PC noch eine extra Karte (HDD-Controller) einstecken und das ganze wurde per Shugart Bus verbunden. Die Platte wurde da noch ganz direkt angesprochen, es gab sogar ein extra Kabel für die Köpfe.

Damals hatte quasi jede Platte bei Auslieferung Fehler. Es war wirtschaftlich gar nicht möglich, eine 100% fehlerfreie Platte auszuliefern.
Da MUSSTE man die HDD als erstes "richtig" formatieren, dabei hat der Controller "sein" Format auf die Platte geschrieben und dabei die Platte auch intensiv getestet (das hat auch bei den damals üblichen 20MB (kein Tipp-Fehler) schonmal eine Weile (Nacht...) gedauert.
Der Controller hat sich einen Reserve-Pool angelegt und die bei der Formatierung gefunden schlechten Stellen darauf umgemapped, damit die HDD für das System fehlerfrei aussieht. Einigen Platten lag auch ein Zettel mit einer Liste der schlechten Stellen bei.

Im Prinzip ist heute ja noch alles gleich, nur gehören Controller und Mechanik seit IDE (Integrated Device Electronics heißt ja nichts anderes, als dass Elektronik und Platten zusammen in einem Gehäuse sind) zusammen und werden schon in der Fabrik getestet. Das o.g. Mapping (sofern bei den modernen Fertigungsprozessen überhaupt noch nötig) finden schon bei der Herstellung statt.

was bedeutet das für heute?
man sollte eine neue HDD einmal wirklich komplett testen!
Theoretisch reicht dabei einmal beschreiben und wieder auslesen aus, weil ja die integrierte Elektronik intelligent genug ist (sein sollte), dabei Fehler/Schwachstellen zu erkennen und in den SMART Parametern abzulegen. Daher muss man "eigentlich" auch nicht mehr "so formatieren wie früher", schaden würde es aber wohl trotzdem nicht....

Sowie eine neue Platte irgendwelche Fehler (an)zeigt, ist damit etwas oberfaul und es deutet auf einen (massiven) Transportschaden hin. Wie gesagt, heute verlässt jede HDD die Fabrik "nach außen hin" zu 100% fehlerfrei.

etwas ähnliches gilt, wenn sich im Betrieb "neue" Fehler zeigen. I.d.R. deutet das auf einen nahenden Ausfall hin, weil ein HDD heute bei normaler Behandlung nicht wirklich altert und ein Privat-Mensch die übliche Lebensdauer nicht ausreizt. Kommt es zu Fehlern, dann ist die vermutlich erreicht und wer dann (noch immer) keine Backups hat, dem ist wirklich nicht zu helfen.
eine HDD, die im neuen Zustand schon Fehler zeigt, würde ich niemals einsetzen.

nur als Joke am Rande, was ich in einer Firma gesehen habe: da war eine 500GB HDD verbaut, die nur eine 200GB Partition hatte, die langsam voll war. Beim Erstellen einer weiteren Partition hat sich heraus gestellt, dass die Platte knapp "oberhalb" der 200GB Marke massive Fehler hatte und vermutlich deshalb so partitioniert wurde. Wer so etwas macht (professionell!!!), den sollte man teeren und federn ;)
 
  • Gefällt mir
Reaktionen: Wolfgang359, TorenAltair und Ekki-LM1
@Madnex
Danke erstmal für den Hinweis.

Bei vielen Tips, die Google so anzeigt, werden bei der "Voll-Formatierung" auch defekte Sektoren gesucht u. wiederhergestellt, nur steht nie dabei, auf welche Win-Version sich das bezieht.
Bei Win-7 könnte also eine Formatierung ohne Fehlermeldungen reibungslos durchlaufen u. die Platte hätte evtl. trotzdem fehlerhafte Sektoren ?

@Mickey Mouse
Vielen Dank für Deine ausführliche Erklärung ! (muß das in Ruhe nochmal alles Lesen...)
Normalerweise lasse ich neue USB-Sticks mit einem Tool von heise.de vollständig beschreiben u. auslesen, was schon eine Ewigkeit dauert, bei einer 14TB-Platte kann das ja mehrere Tage in Anspruch nehmen...

Meine HDD ist eine noch unformatierte "Toshiba MG07ACA14TE": laut CrystalDiskInfo Zustand "gut", ohne Auffälligkeiten. Formatieren (kein Schnell) werde ich sie ohnehin.
Sollten (versteckte) Fehler auf der Platte sein, würde die Datenträgerprüfung das anzeigen ?
 
Du kannst zum Testen z.B. Victoria nehmen, das ist kostenfrei.
 
Ekki-LM1 schrieb:
Bei Win-7 könnte also eine Formatierung ohne Fehlermeldungen reibungslos durchlaufen u. die Platte hätte evtl. trotzdem fehlerhafte Sektoren ?
Ja. Dabei können keine defekten Sektoren gefunden werden, da kein Lesezugriff erfolgt.

Allerdings, wenn bereits schwebende Sektoren vorhanden sind, wird die Festplattenlogik durch den Schreibzugriff auf die betroffenen Sektoren dazu veranlasst, diese nach dem Schreibzugriff zu prüfen und eventuell zu ersetzten (oder als nicht mehr "defekt" anzusehen, sofern der anschließende Lesezugriff fehlerfrei erfolgt).

Das Testen einer neuen Festplatte durch h2testw ist sicherlich sinnvoll. Meiner Meinung nach kannst du dir die langsame Formatierung dabei sparen. Denn die bringt dann keinen wirklichen Mehrwert. Außer, du möchtest die Festplatte zusätzlich belasten. Wobei sich das beim reinen linearen Lesen und Schreiben in Grenzen hält. Deutlich belastender für die Festplattenmechanik wäre ein Random-Access-Test über mehrere Stunden.

Tipp: Lass CrystalDiskInfo während des Tests mitlaufen um die Veränderung der Smart-Werte zu protokollieren. Warum ich das empfehle, kannst du hier nachlesen.
 
Zuletzt bearbeitet:
Also meine Toshiba ist ja frabrikneu, war gut verpackt u. gleich beim ersten Anstöpseln zeigte CrystalDiskInfo Zustand "gut".

Wenn ich nun die Platte langsam formatiere, dann die Datenträgerprüfung drüber laufen lasse u. danach CrystalDisk weiterhin "gut" anzeigt, wie groß ist die Wahrscheinlichkeit, dass die Platte dennoch Defekte hat ? kann man das sagen ?

Ansonsten befolge ich halt doch Deinen Tip mit dem (langen) h2testw u. Monitoring mit CrystalDisk.
(14TB vollständig beschreiben u. wieder auslesen ist ja auch nicht ganz ohne...)
 
Ich empfehle dafür hddscan.
Einmal kompletter Erase(Write)-Test. Der funktioniert nur ohne Partitionen drauf! SMART-Werte anschauen.
Einmal kompletter Lesetest. SMART Werte anschauen.
Alternativ kann man nach dem Beschreiben auch einen extended SMART-Selftest anstossen -> GSmartcontrol oder Toshiba hat dafür ein Herstellertool.
Das wäre wirklich das Mindeste, was man tun sollte.
Vollständiges Formatieren kannst du dir wirklich sparen.

Im TRUENAS Forum wird sogar ein richtiger BURN-In empfohlen. Da gibt es ein Script mit mehreren Durchläufen. Dauert bei der Größe halt eine Woche 😂
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ekki-LM1
@Fusionator
Die Smart-Werte anschauen, jeweils nachdem ein Test durchgelaufen ist, reicht nicht aus. Die Veränderung der Smart-Werte, bzw. bestimmter Attribute, muss während des Tests protokolliert werden (z.B. durch Crystal Disk Info). Ansonsten können bestimmte Probleme, die die Festplatte möglicherweise hat, unter Umständen nicht auffallen (siehe den Link in meinem vorherigen Beitrag). Zumindest bei Hitachi Festplatten werden manche Smart-Attribute während des Tests regelrecht resetet, wenn nach einem problembehafteten Abschnitt ein fehlerfreier folgt. Da die 3,5" HDDs von Toshiba auf den alten Hitachi-Festplatten mehr oder weniger basieren, könnte deren Verhalten exakt gleich sein.

Nutzt du HDDScan selbst und das auch schon öfter? Vom Funktionsumfang ist das Programm sicherlich sehr gut. Bei mir hat es aber immer irgendwie rumgezickt, weshalb ich es dann nicht mehr benutzt habe.

@Ekki-LM1
Glaubst du, dass die langsame Formatierung mit anschließender Datenträgeroberflächenprüfung schneller geht, als die Schnellformatierung mit anschließendem Durchlauf von h2testw? In beiden Fällen wird die Festplatte ein Mal (fast) vollständig beschrieben und wieder ausgelesen (oder wie habe ich deinen letzten Satz in Klammern zu verstehen?). Sollte vom zeitlichen Aufwand nicht allzu weit auseinander liegen (beides wird bei einer 14 TB Festplatte ewig dauern)
 
Zuletzt bearbeitet:
Madnex schrieb:
Glaubst du, dass die langsame Formatierung mit anschließender Datenträgeroberflächenprüfung schneller geht, als die Schnellformatierung mit anschließendem Durchlauf von h2testw?
Nein, sorry, war oben etwas mißverständlich geschrieben.
Wie Du sagst, wird beides in etwa gleich lang dauern, schätze pro Vorgang knapp 30 Std.

@Fusionator
Danke für den Tip mit HDDScan, wäre auch noch mal eine gute Alternative
 
Fusionator schrieb:
Ich empfehle dafür hddscan.
Einmal kompletter Erase(Write)-Test. Der funktioniert nur ohne Partitionen drauf! SMART-Werte anschauen.
Einmal kompletter Lesetest. SMART Werte anschauen.

Ist es möglich den Prüftest zwischen zu speichern bzw. anzuhalten?

Damit ich an einen anderen Tag weiter machen kann,
so das der PC über Nacht aus bleiben kann!

Oder gibt es ein HDD Prüf Programm was diese Funktion kann?
Von mir aus kann dieses HDD Prüf Programm auch was kosten.
Es muss ja nicht immer Freeware sein.
Was nützt es, wenn einem Nachts die Bude abfackelt ;)

Weil bei meinen neuen zukünftigen 14 TB SATA Festplatten
würde ich gut 4 Tage Dauerlaufzeit brauchen,
bis die Festplatten vollständig überprüft worden sind :(
 
Rainer1981c schrieb:
Ist es möglich den Prüftest zwischen zu speichern bzw. anzuhalten?
So viel ich weiß, nein. Aber schau dir doch einfach das Programm an.
Dann weißt du es.
Rainer1981c schrieb:
Oder gibt es ein HDD Prüf Programm was diese Funktion kann?
Spontan würde mir HD-Tune einfallen. Bestimmt können das noch andere auch. Eigentlich reicht es ja, wenn man einen Bereich angeben kann.
Nur ist das nicht so einfach abzuschätzen, wie lange das dann dauert.

Schon mal Victoria angeschaut?
Unter Linux mit dd oder badblocks kann man ja bestimmt auch eine Range oder Größe oder Startsektor angeben.

Rainer1981c schrieb:
Was nützt es, wenn einem Nachts die Bude abfackelt.

So wenig Vertrauen in deinen Rechneraufbau? Dann stimmt was nicht, wenn du da Angst haben musst. Kritisch sind vor allem vergossene Molex-SATA-Adapter.
Vielleicht kennst du die gleichen Bilder wie ich? Die Teile würde ich unbedingt vermeiden :skull_alt:
Ansonsten sollte ein Qualitätsnetzteil Standard sein.
 
Fusionator schrieb:
Schon mal Victoria angeschaut?
Vielen Dank, werde ich mir mal anschauen :)

Fusionator schrieb:
So wenig Vertrauen in deinen Rechneraufbau?
Habe seit kurzem nur noch einen Laptop aus Platzgründen.

Mache mir schon Sorgen, wenn das Lappi Netzteil so lange durch arbeiten muss
und zu dem hat das externe Festplattengehäuse wo die Festplatten drin verbaut sind,
ja auch noch ein zusätzliches Netzteil was dann im Dauerbetrieb laufen muss.

Fusionator schrieb:
Kritisch sind vor allem vergossene Molex-SATA-Adapter.
Vielleicht kennst du die gleichen Bilder wie ich? Die Teile würde ich unbedingt vermeiden :skull_alt:
Ansonsten sollte ein Qualitätsnetzteil Standard sein.
Die Molex SATA Adapter kenn ich noch.
Damit hatte ich vor 15 Jahren keine Probleme.
Waren auch nur kurz im Betrieb zu der Umstellung wo gerade IDE zu S-ATA anfingt.

Aber ich hatte schon mal den Fall im laufenden PC Betrieb.
das mir ein Netzteil kurz angefangen hat zu Qualmen!

Es war ein verbrannter Geruch aus dem Netzteil.
Irgendwas im Netzteil (irgendein Bauteil) was sich wohl verabschiedet hatte.
Liefen tat der PC noch, aber ich habe es schnell ausgebaut
und gegen ein anderes Netzteil getauscht.

Das war sogar ein gutes Marken Netzteil von Raptoxx damals.
 
Zuletzt bearbeitet:
Rainer1981c schrieb:
Die Molex SATA Adapter kenn ich noch.
Damit hatte ich vor 15 Jahren keine Probleme.
Gibt auch verschiedene Bauweisen. Nicht alle sind problematisch, siehe hier:
 
neue Festplatten sollte man generell prüfen, wenn man Wert auf Datensicherheit legt:

Beispiel:

Test mit H2TestW 1.4:

Achtung: Nur 11443688 von11444205 MByte getestet

Datenträger ist wahrscheinlich defekt

699,4 GByte OK (1466777596 Sektoren)

2 KByte DATEN VERLOREN (4 Sektoren)

Details:

2 KByte überschrieben (4 Sektoren)

0 KByte leicht verfälscht (<8 Bit/Sektor, 0 Sektoren)

8 KByte mit Datenmüll (0 Sektoren)

2 KByte mehrfach genutzt (4 Sektoren)

Erster Fehler bei Offset: 0x0000003a1fb8a800

Soll: 0x0000003a1fb8a800

Ist: 0x0000003a1fb88800

H2Testw Version 1.3



Wer würde so einer HDD noch vertrauen, wenn man die als Datensicherung im ein NAS einbauen will ??

Ekki-LM1 schrieb:
Ansonsten befolge ich halt doch Deinen Tip mit dem (langen) h2testw u. Monitoring mit CrystalDisk.

das mache ich auch genauso, siehe oben :D ... und ja die Dauer wird auch belohnt.
 

Anhänge

  • CrystalDiskInfo_20220121180639.png
    CrystalDiskInfo_20220121180639.png
    71,7 KB · Aufrufe: 191
Zuletzt bearbeitet:
Was ihr euch alle anstellt…
Quick format, Smart Werte amschauen, Zeug draufkopieren, Smart Werte anschauen, fertig.
WENN dann chkdsk /f um zu sehen, ob das DATEISYSTEM einen Schaden hat.
Aber ALLES wieder einlesen…
Geht durch kopieren wo anders hin, da muss ja auch alles wieder gelesen werden, oder chkdsk /r
Aber wer macht sowas?
Bei >14TB?
Die Consumer SATA Platten haben eh eine BitFehlerwahrscheinlichkeit von 1 zu 1*10^14. Also beim Schreiben von 100TB hast du eine 100%ige Wahrscheinlichkeit, dass 1 Bit falsch ist (im Durchschnitt).
Bei 10TB 10% und bei 1TB 1%.
Nun kannst du mit diesen statistischen Werten machen was du willst.

Seine Daten hat man eh MINDESTENS doppelt, sonst waren sie zu 100% trashdaten!

Wer das nicht hat, hatte NUR trash daten!
Kein Backup, Kein Mitleid!
Beachte die 3-2-1 Regel! Googlen wer dies nicht kennt!
Bei einer 14TB Platte (ich hab auch so eine) würde ich 3 Stk kaufen.
2 Stk würde ich in ein NAS mit RAID1 geben, um eben solche Bitfehler abzufangen. Wenn es nur einer pro Datei ist (oder pro Sektor? Weiß ich jetzt nicht). Zudem sind die Daten ja doppelt, also wenn eine Platte den Geist aufgibt, sind sie ja auf der zweiten noch drauf und ich kann ganz nornal weitermachen, als wenn nix gewesen wäre.
Warum dann eine 3. Platte?
Backup!
Ein RAID ist KEIN Backup!
Ein Raid ist für Datenverfügbarkeit.
Wovor ein RAID aber nicht schützt:
Absichtliches oder unabsichtliches Datenlöschen, Verschlüsselungstrojaner(!!), Überspannung, Diebstahl, Gebäudebrand, Wasserrohrbruch, etc.
Denn: du hast einen SINGLE POINT OF FAILURE.
Darum: Backup! Verschlüsselt! Mindestens eins an einem anderen Ort!
Meine Arbeitskollegen vor mir haben schon bei 2 Kunden existenzbedrohenden Datenverlust erlebt.
Einmal gelang es in einem spezialisierten Labor noch die Daten (oder die meisten) von der hdd zu retten. Kostete ein paar Tage und glaub 80.000€.
Beim anderen…

Seitdem sind wir voll hinter dem Datensichern und der Kollege hat sogar ein eigenes Programm geschrieben, weil KEIN backup Programm ALLE Anforderungen von ALLEN unserer Kunden erfüllt (bzw was wir als Betreuer haben wollen).
Ich kann nur sagen: Super!
Jeden Morgen Backup Mails durchgucken und wenn irgendwo irgendwas ist:
Per Knopfdruck wiederherstellen.
Auch die Client PCs!
Die Serversicherung läuft in der Nacht, die Clients am Tag.
Besser gehts für kleine und maximal Mittelbetriebe nicht.
Natürlich: so Größen wie Amazon etc brauchen mehr als nur 1x am Tag eine Datenbanksicherung, sonst sind keine Ahnung wieviel hundert Mio € verloren.
Aber das spielt in ganz anderen Größenordnungen ;)
 
Zurück
Oben