Check neue Festplatte - H2testw & NTFS

Incanus schrieb:
Wo genau verrät er, dass das Tool dafür gedacht ist?
Genau in der von dir zitierten Passage. Eigentlich erstaunlich, wie du es schaffst, diese zu lesen und trotzdem durch eingestreute eigene Interpretationen das Gegenteil herauszulesen...

Incanus schrieb:
die aktuelle Version stammt von 2008, da waren 6TB im privaten Bereich noch Zukunftsmusik oder nicht bezahlbar.
Daraus lässt sich nicht ableiten, dass "das Programm dafür nicht gemacht wurde"

Denkst du, der Entwickler dachte damals, dass es niemals Festplatten mit 6TB geben wird? Warum hat er das damals nicht direkt dazugeschrieben? "Achtung, nur für Datenträger bis 2TB gedacht"?
Ergänzung ()

KnolleJupp schrieb:
Die ist nicht für solche Dauerlast ausgelegt
Also laut WD-Datenblatt gibt es keine spezifierte write load, weder über den Garantiezeitraum noch als DWPD.
 
  • Gefällt mir
Reaktionen: madmax2010
Halbwissen schrieb:
Genau in der von dir zitierten Passage.
Nein, dort steht nichts davon.
Halbwissen schrieb:
Warum hat er das damals nicht direkt dazugeschrieben? "Achtung, nur für Datenträger bis 2TB gedacht"?
Weil es damals schlicht nicht nötig war. Das Tool wurde entwickelt speziell zum Entlarven von gefälschten Flashspeichern.
 
  • Gefällt mir
Reaktionen: MountWalker
Incanus schrieb:
Weil es damals schlicht nicht nötig war. Das Tool wurde entwickelt speziell zum Entlarven von gefälschten Flashspeichern.
Ja und als langjähriger ct-Leser bist du dir über den Umstand bewusst, dass dort auch schon Artikel über gefälschte HDDs waren?
 
  • Gefällt mir
Reaktionen: madmax2010
HDDs kann man prüfen mit dem, was dein Fehlerscan mit HD Tune Pro gemacht hat oder mit GSmartControl: Extended Selft-Test - das gleiche, nur mit freier Software. Hinterher auf SMART-Werte gucken, nichts schlimmes eingetragen, kein Problem.

Incanus' Vermutung klingt für mich plausibel. Blue, Black und Green sind halt nicht für 24/7 empfohlen und vielleicht liegts an sowas banalem wie, dass die HDD bei so langem Schreiben einfach überhitzt. Eine Red Pro hält laut Produktheft dauerhaft 60°C Betriebssttemperatur und vereinzelte Temperatur-Spitzen von 70°C aus, bei Blue ist die Temperaturspanne knapper.
 
Zuletzt bearbeitet:
Eine unnötige Diskusion, h2testw moniert hier 8 MB fehlende Kapazität! Das ist übrigens der Grund warum mit diesem Tool Massenspeicher im TB Bereich nicht über die gesammte Größe getestet werden sollen., zusätzlich zeigt h2testw anscheinend MiB an ("5.722.862 frei").
 
Danke für die Hilfestellungen/Infos.
Ich habe die Platte nun in Betrieb genommen.
Es ist richtig das es nur eine einfache WD blue ist.
Nur eine leisere einfache Desktop Platte (anscheinend aussterbender Ast) für Fotos und Daten konnte ich nicht finden.
Zumal WD die 4 & 6 TB jetzt endlich wieder in CMR anbietet. Also wurden es diese beiden.
Gibts was besseres fürn Desktop Rechner? (leise und CMR)
On Top muss ich mir für das Backup des Backup noch eine Große holen (~10-12 TB) höchstwahrscheinlich mit Helium da sonst nen Rasenmäher ;-)
 
Zuletzt bearbeitet:
schau was gerade in wd elemts / mybook verbaut wird. Sind ab 12tb in der regel die guten Datacenter HDDs
Auf Reddit gabs eineen Thread in dem die genauen Modelle getrackt werden
 
Zuletzt bearbeitet:
Alles klar, danke. Beim externen Backup spielt die Lautstärke für mich kaum eine Rolle.
 
Halbwissen schrieb:
Daus lässt sich nicht ableiten, dass "das Programm dafür nicht gemacht wurde"

Denkst du, der Entwickler dachte damals, dass es niemals Festplatten mit 6TB geben wird? Warum hat er das damals nicht direkt dazugeschrieben? "Achtung, nur für Datenträger bis 2TB gedacht"?
Doch, so in der Art war es und das hat Heise auch mal auf eine sehr ähnliche Frage zu solchen Fehlermeldungen bei größeren Festplatten kommuniziert. Leider ist der Link inzwischen offline. Antwort war:

Kein Grund zur Panik: Bei sehr großen Festplatten verrechnet sich H2testw manchmal bei der Größe der Metadaten.
Die Fehlermeldung rührt daher, dass H2testw zu Beginn abfragt, wie viel Platz frei ist, und dann diese Datenmenge zu schreiben versucht. Bei den Metadaten, die das Dateisystem für die Verwaltung dieser vielen Dateien braucht, verkalkuliert es sich bei sehr großen Platten leider manchmal knapp. Als das Tool entstand, waren 1-GByte-USB-Sticks Stand der Technik.

Die Meldung ist kein Grund zur Sorge, sofern die geschriebene Datenmenge sehr nah an der zuvor ermittelten Gesamtkapazität ist, der Fehler also ganz am Ende des Schreibvorgangs auftritt. Sie können die Daten dann verifizieren und bei Erfolg von einer intakten Platte ausgehen.
 
  • Gefällt mir
Reaktionen: up.whatever, MountWalker, Incanus und eine weitere Person
Ja, genau der Link. Wie ich gerade sehe, ist der Text im dort ladbaren PDF sogar noch drin. Mir war, als hätte diese Frage samt Antwort früher auch noch auf der Webseite selbst gestanden, ohne dass man das PDF laden musste. Vielleicht täuscht aber meine Erinnerung nur...
 
Die Platte läuft übrigens 1a (bisher).
Mal sehen ob der kleine Bruder mit 4TB sich ebenso verhält.
Einen Test mit Sentinel kann ja nur durchgeführt werden wenn man sich die PRO holt.

Da einige hier gesagt haben das der Test den ich gefahren habe etwas overdressed war die Frage wie euer Ablauf/DER Ablauf am besten wäre - mit welchen Tools.
 
-dominique- schrieb:
Da einige hier gesagt haben das der Test den ich gefahren habe etwas overdressed war die Frage wie euer Ablauf/DER Ablauf am besten wäre - mit welchen Tools.
Ich baue die Festplatte ein und benutze sie ohne jegliche Tests oder Tools.
Wenn sie von draussen aus der Kälte kommt, lasse ich sie erst eine Stunde warm werden, bevor ich sie in Betrieb nehme.

USB-Sticks und Speicherkarten hingegen werden komplett mit h2testw geprüft.
 
  • Gefällt mir
Reaktionen: Incanus
Halbwissen schrieb:
Ich baue die Festplatte ein und benutze sie ohne jegliche Tests oder Tools.
Wenn sie von draussen aus der Kälte kommt, lasse ich sie erst eine Stunde warm werden, bevor ich sie in Betrieb nehme.
Genau so (mache ich es auch).
 
Ich poste mal in diesem Thread, da er mir ganz passend zu meiner Frage erscheint und ich nicht direkt einen neuen aufmachen wollte. Ich hoffe das passt. Habe mir eine Seagate Exos x20 18 TB Platte für Backups angeschafft. Bevor ich die Platte aktiv nutze, dachte ich mir ich lasse, wie hier im Thread beschrieben, einen Error Scan mit HDTune laufen. Sonst habe ich mit der Platte bisher nichts gemacht. Intern im PC angeschlossen und los gings. Der Scan läuft noch und der Smart Wert für Lesefehlerrate schnellt nach oben. Wie ist das zu interpretieren, muss ich mir Gedanken um die Gesunfheit der Platte machen?

Vor dem Scan:
Exos18TB_SMART_erster Betrieb_werte in dec.png


Aktuell während des Scans:
Exos18TB_SMART_erster Betrieb_Werte in dec während Messung_2.png
 
Seagate HDD die drölfzigtausendste:

Seagate verwendet für Lese- und Suchfehler einen geteilt auszuwertenden 12-Stelligen hexadezimalen Rohwert. Die dezimale Anzeige der Rohwerte ist hier irreführend.

Bsp.:
Lesefehler: 19.118.774 dez. = 0000 0123 BAB6 hex. = 0 Lesefehler (erste 4 Stellen), 19.118.774 Lesevorgänge (letzte 8 Stellen).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fusionator und earlines
Vielen Dank für die Erläuterung! Hatte bisher keine Seagateplatten verbaut und war daher doch arg überrascht über die anderen Werte. Mir war nicht bewusst, dass diese hier schlicht anders ausgebeben werden und somit auch anders zu lesen sind. Hatte in meinem Panikmoment vorhin nicht die Idee, nach Smartwertinterpretation speziell für Seagate zu suchen und hatte mir nur allgmeine Infos angesehen.
Wieder was gelernt, entschuldigt wenn die Frage zum zichsten mal gestellt wurde.
 
Die Frage war schon in Ordnung, es ist halt manchmal mühsam wie ein Leierkasten zu klingen, daher mußte die kleine Spitze sein!
 
  • Gefällt mir
Reaktionen: earlines
Verständlich ;).
Falls hier noch jemand zu dem Thema drüber stolpern sollte, habe ich hier noch eine, wie mir scheint, ganz gute Zusammenfassung gefunden, wie die Smartwerte bei Seagate zu verstehen sind.
 

Ähnliche Themen

Antworten
8
Aufrufe
3.187
H
G
Antworten
23
Aufrufe
2.826
G
Zurück
Oben