Das_Biebo schrieb:
Also meine ganzen wichtigen Daten sind sowieso immer auf einer externen.
Hoffentlich nicht nur auf
einer externen, denn nur Backups geben wirklich Datensicherheit. Stell Dir vor die externe fällt mal runter.....
Das_Biebo schrieb:
Übrigens, wenn ich in CrystalDiskInfo über die "Vorsicht" Anzeige fahre, zeigt er mir zusätzlich zu den 2 schwebenden Sektoren noch die Meldung: "Vorsicht [05] Anz. wiederzugewiesener Sektoren: 40
Deswegen steht da auch Vorsicht, was bedeutet, dass man die Werte gut im Auge behalten soll und nicht schlecht, was dann erscheint wenn der Aktuelle Wert oder ggf. der Schlechteste Wert die Grenzwerte erreicht bzw. unterschreitet.
jtsn schrieb:
Ein paar Dutzend Grown Defects sind nach fünf Jahren Dauerbetrieb ganz normal, das weiß der Autor der Software "CrystalDiskInfo" offenbar nicht.
Unsinn, die schreiben ja Vorsicht und das ist bei so einem Zustand auch angebracht. Lasse bitte Dein unsinnige Gebashe gegen CrystalDiskInfo sein, das brignt niemandem etwas.
jtsn schrieb:
Ausfallen tun die Teile immer ohne Vorankündigung.
Auch falsch, denn bei Fehlern auf dem Medium zeigen die S.M.R.T. Werte durchaus die erhöhte Gefahr eines Ausfalls an, auch bei SSDs. Schau Dir
diese Plextor M5 Pro an, auch wenn der Controller entweder schamlos bei den Lese- und Programmfehlern lügt, so gibt er wenigstens an alle Reserveblöcke schon vebraucht zu haben. Eines von beiden kann eigentlich nicht stimmen, aber wer danach einen Ausfall erlebt, sollte nicht von einem Ausfall ohne Vorankündigung reden, er hat sie vielleicht nur nich gesehen oder ignoriert.
jtsn schrieb:
Reallocated Sectors (Grown Defects) sind längst durch Reserve-Sektoren ersetzt worden und beeinträchtigen den Betrieb nicht weiter, sie werden nur gezählt.
Das ist richtig, aber die geben einen Hinweis darauf, dass es bei der Oberfläche der HDD schon Probleme gab, was auch nicht ganz ohne Bedeutung ist und die Ursache oder die Folge dieser Oberflächenschäden können eine HDD auch mal schnell komplett killen, etwa wenn Staub oder Abrieb in der Platte sind.
jtsn schrieb:
Pending Sectors sind präventiv zum Ersetzen vorgemerkt, genau damit es eben keinen Datenverlust gibt.
Das ist Unsinn, die Pending Sectors können nicht mehr fehlerfrei gelesen werden und werden dann beim nächsten Beschreiben geprüft und ggf. ersetzt.
jtsn schrieb:
Das ganze nennt sich transparentes Defektmanagement und ist bei Festplatten seit ungefähr 30 Jahren im Einsatz.
Bei einige Platten kann, teilweise je nach Einstellung bestimmter Parameter, ein Ersetzen auch schon erfolgen, wenn die Platte Probleme hat einen Sektor zu lesen und es dann vor dem Timeout doch noch schafft, aber nur dann. Aber vor 30 Jahren musst man noch die Listen der Fehlerhaften Sektoren von Label der HDD ablesen und selbst eingeben, weil der Controller (MFM oder RLL) noch außerhalb der Platte war. Du hast diese Zeit sehr wahrscheinlich nicht erlebt, ich schon.
jtsn schrieb:
Wenn das Betriebsystem wegen defekter Sektoren einfriert, ist das Defektmanagement selbst ausgefallen (was sich mit einem Selbttest herausfinden läßt)
Wieder mal Unsnn, denn bei jedem schwebenden Sektor versuchen die Platten bis zum Timeout (TLER, ERC) diesen Sektor doch noch zu lesen (SAS/SCSI/FC an RAID Controller mal ausgenommen, wenn diese mit 520/528 Byte pro Sektor formatiert sind). Der Timeout ist ab Werk bei Desktopplatten schon spürbar lang, bei der WD Gren z.B. 14s, bei NAS und RAID Platten i.d.R. einstellbar (nichts anderes bedeutet das TLER was diese haben, denn einen Timeout haben alle Platten) und ab Werk kürzer voreingestellt, bei der WD Red 7s. Das ist eine spürbar Verzägerung und ein Windows wird solange wahrscheinlich einfrieren und bei Misserfolg einen Fehler melden.
jtsn schrieb:
und die Festplatte reif für den Austausch. Darauf gibt es hier aber keinerlei Anzeichen.
Da widersprichst Du Dir je selbst, denn Du sagst ja, dass die Platte nicht ausgetauscht werden muss, wo ich durchaus zustimmen kann, aber das die kein Einfrieren hervorrufen kann, ist falsch und ebenso, dass es dafür keine Anzeichen gibt, denn wenn jetzt schon schwebenden und wieder zugewiesene Sektoren da sind, werden es sehr wahrscheinlich auch noch mehr werden und dann kann das passieren.
jtsn schrieb:
Falsch. Transparentes Defektmangement ersetzt Sektoren, bevor Datenverluste auftreten.
Falsch liegst nur Du, denn so ein transparentes Defektmangement haben die meisten Consumer Platten gar nicht und die können auch nicht erkennen, wann ein Sektor Probleme macht, solange er gar nicht gelesen wird. Stöße könne die Köpfe aus der Spur bringen und beim Schreiben kann das reichen um so viele Bits auf der Nachbarspur zu überschreiben, dass deren Daten nicht mehr von der ECC wiederhergestellt werden können, da kann auch kein noch so tolles transparentes Defektmangement irgendwas machen. Dagegen hilft nur Redundanz im einem RAID und das Überprüfen der Daten, Srubbing genannt. Das ist dann ein transparentes Defektmangement für das RAID und dabei fallen solche Fehler auf und werden korrigiert, sofern das möglich ist. Aber hier geht es nicht um ein RAID.
jtsn schrieb:
80 % der Festplatten, die Festplattenhersteller zur RMA eingesendet bekommen, sind perfekt in Ordnung.
Belege? Und ab wann ist demnach eine Platte nicht mehr perfekt in Ordung?
jtsn schrieb:
Es ist durchaus solchen Kaffeesatzleser-Tools zuzurechnen, daß die Garantiefristen nun auf 1-2 Jahren verkürzt wurden.
So ein Blödsinn aber auch wieder, die Ausgaben von Tools wie CDI sind kein Kaffeesatzlesen und für die Garantie auch nicht relevant, da verlangt z.B. Seagate die Fehlernummer seines eigenen Tools um einen Garantiefall anzuerkennen.
jtsn schrieb:
In Servern wird deshalb fehlerkorrigierender ECC-Speicher verwendet, also ein Arbeitsspeicher mit integriertem Defektmanagement.
Wieder nur gefährliches Halbwissen: Die ECC RAMs haben kein integriertes Defektmanagement, das sitzt im Speicherkontroller, also heute meist in der CPU. Die ECC RAMs bieten einfach nur 9 statt 8 Bits Datenbreite und erlauben damit Prüfsumme um Fehler zu erkennen und ggf. zu beheben.
jtsn schrieb:
Als weitere typische Ursachen kommen defekte USB- oder SATA-Kabel
Noch mehr Blödsinn von Dir, lernst Du es nicht? Alle Übertragungen über SATA werden mit einer CRC pro FIS gesichert und da ein FIS maixmal 8k Daten enthält, ist das schon sehr sicher und vermeidet Fehler bei der Übertragung, ebenso ist es beim USB Bulk Protokoll, auch da gibt es genug Prüfsummen um Übertragungsfehler zu erkennen und dann eine Wiederholung der Übertragung zu veranlassen. UASP hat weniger Prüfsummen und weniger Sicherheit, aber soweit ich weiß ist auch dort etwas vorhanden.
Gefährlicher sind da schon die internen Datenpfade der Platte und auch des Host Controllers, die sind bei Consumer Platten oft nicht geschützt, im RAM Cache gekippte können dann nicht erkannt werden. Enterprise Platten haben da entsprechende Schutzmechanismen durch Prüfsummen, aber auch einige Consumer HDD erkennen offenbar inter Datenkorruption, denn die haben auch diese Ende-zu-Ende Fehler Attribut in den S.M.A.R.T. Werten, bei Seagate ist das meist der Fall, aber auch Samsung hier hat es (B8).
jtsn schrieb:
natürlich allerlei Probleme mit diversen Kapazitäts-Grenzen (2 TB), wo Windows auch gern mal unangekündigt Daten zerstört.
Da ist aber auch nicht Windows schuld, sondern i.d.R. die Treiber von den Chipsatz- bzw. SATA Host Controller Herstellern. Der Microsoft MSAHCI Treiber hat von Anfang an auch Platten über 2TB unterstützt, der RST von Intel z.B. erst der Version 10.1. Hier Windows die Schuld zu geben ist also nicht angebracht.
jtsn schrieb:
Eine Festplatte, die selbst ECC verwendet, aber unbemerkt Daten von sich aus verfälscht, habe ich hingegen noch nie gesehen.
Das sind dann aber auch meist Enterprise Platten die den oben beschriebenen Schutz der internen Datenpfade besitzen. Wer wert auf Datenintegrität legt, der achtet auch auf solche Features bei den HDDs und sollte dann eben ggf. mehr ausgeben um diese zu bekommen. Allerdings wäre das alles ohne ECC RAM im Rechner sowieso unsinnig, denn das RAM ist meist die größte Fehlerquelle im Rechner und da hilft nur ECC RAM, was bei allen Rechner Pflicht sein sollte, aber leider immer mehr nur auf Enterprise HW beschränkt bleibt. Die alten AMD AM3(+) Plattformen haben das ja noch unterstützt, wenn auch nur auf wenigen Board von ASUS und Gigabyte, aber die CPU konnten alle mit ECC RAM umgehen, die FM Plattformen können das nicht mehr.
jtsn schrieb:
Und ich habe schon viel Schrott auf dem Tisch gehabt.
Leg doch den Kopf nicht so oft auf die Tischplatte
Ernsthaft, Du schreibst eine Menge was am Thema total vorbei geht und die meisten TE dann einfach nur verwirrt, weil die eben nur eine einfach Consumer Platte haben und diese hat Probleme, kann noch lange halten, aber auch schon bald komplett kaputt sein. Wir können das alle nicht vorhersagen, S.M.A.R.T. Werte und Selbsttests hin oder her. Es hilft nur die Werte zu beobachten und wenn es einen recht starken Anstieg der schwebenden und/oder wieder zugewiesenen Sektoren gibt, dann ist ein baldiger Ausfall sehr wahrscheinlich, aber jeder neue schwebende Sektor ist mit dem Risiko von Datenverlust verbunden, jenachdem was dort liegt, kann es eine Datei, ein Verzeichnis oder auch die ganze Filesystemstruktur treffen.