Jeder bessere SSD schlägt aber auch die Raptor bei den IOPS und der Zugriffszeit um Längen und die halten viele Hundert TBW aus, HDDs haben bei den heutigen Datendichten auch ein Workload Rating und das bezieht sich auf die gelesenen und die geschriebenen Datenvolumen und liegt bei einfachen Desktopplatten bei 55TB pro 8760 Betriebsstunden, ausgelegt sind sie nur für 2400 Betriebsstunden im Jahr, also 15TB im Jahr. Halten sollten Platten so 5 bis 7 Jahre, also nach 100 übertragenen TB sind solche Platten auf. Das ewige Leben hat eben keine HW, auch HDDs haben es nicht und die modernen haben es weniger als die früheren HDDs, wo die Datendichte noch viel höher war und die Köpfe noch nicht im Teilkontaktbereich betrieben wurden.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Gründe für HDD?
- Ersteller Birni
- Erstellt am
Hallo,
dann würde mich generell mal interessieren, ob ihr Eure HDDs in bestimmtren Zyklen aus Sicherheitsgründen austauscht. Nach dem Motte, "die läuft jetzt seit 5 Jahren, auf die verlasse ich mich jetzt nicht mehr". LG Birni
dann würde mich generell mal interessieren, ob ihr Eure HDDs in bestimmtren Zyklen aus Sicherheitsgründen austauscht. Nach dem Motte, "die läuft jetzt seit 5 Jahren, auf die verlasse ich mich jetzt nicht mehr". LG Birni
Triversity
Captain
- Registriert
- Apr. 2009
- Beiträge
- 3.103
Wenn da Daten drauf sind, die du nicht verlieren willst, hast du ja sowieso (mindestens) ein Backup. Solange du keine Fehler in dem SMART Werten hast, sehe ich also keinen Grund zum auswechseln.
Klar habe ich ein Backup, aber kein Echtzeit-Backup. Ohne GERINGFÜGIGEN Datenverlust komme ich da nicht raus, wenn wir die eingebaute Datenplatte abschmiert...
Okay also SMART Werte sind ne zuverlässige Pronose, dass die HDD noch ne Weile mitmacht bzw. bald tot ist?
Okay also SMART Werte sind ne zuverlässige Pronose, dass die HDD noch ne Weile mitmacht bzw. bald tot ist?
Sorry, aber die Veloci habe ich vor 5 Jahren eingemottet und würde für kein Geld der Welt wieder zurück wollen.WD Veloci Raptor
Wie zuverlässig das ist, darüber kann man streiten, denn einmal kündiogt sich nicht jeder Defekt dort an, es gibt auch bei HDDs und vor allem bei SSDs auch mal spontan Ausfälle und dann kann nicht jeder die Werte korrekt interpretieren, auch nicht jedes Pragramm welches neben dem reinen Auslesen auch eine Bewertung vornommt. Generell gibt es da die sorglosen Programme, die gerne schon mal einige Probleme übersehen und die hysterischen, die bei jeder Kleinigkeit gleich den nächsten Super-GAU vermuten.Birni schrieb:also SMART Werte sind ne zuverlässige Pronose, dass die HDD noch ne Weile mitmacht bzw. bald tot ist?
Birni schrieb:Hallo,
dann würde mich generell mal interessieren, ob ihr Eure HDDs in bestimmtren Zyklen aus Sicherheitsgründen austauscht. Nach dem Motte, "die läuft jetzt seit 5 Jahren, auf die verlasse ich mich jetzt nicht mehr". LG Birni
Eigentlich ja. Eher so nach 3 Jahren.
Bei Laptops eher nach 2 Jahren.
Das war auch meist ein natürlicher Prozess, weil die neuen Platten nicht nur mehr Platz hatten, sondern auch merklich schneller waren.
In der Praxis auch mehr als es die technischen Daten vermuten ließen.
Nun habe ich in den letzten 5,5 Jahren die Platten im Rechner nicht mehr getauscht. Nur SSDs für intern gekauft und die ein oder andere Platte zum Backup (USB oder so).
Tatsächliche mache ich mir gerade Gedanken, ob ein Tausch lohnt bzw. einem Ausfall vorbeugen würde.
Auf den ich keine echte Luste habe.
Lieber jetzt in Ruhe wechseln, als erst, wenn es sein muss.
Nur ist die Motivation mit schneller weg, weil für schneller sind jetzt die SSDs da und größer ist auch nicht s notwendig. Es sind nicht so viele neue Dinge passiert in den letzten 5 Jahren, das viel mehr Platz braucht und ich sammele nicht viel.
"Aktueller" Laptop ist 4, hat eine Custom-SSD drin und die kann man auch eher nicht wechseln.
Meine persönliche Statistik:
- SSDs verreckt: 0 (toi-toi-toi
- 3,5"-Platte verreckt, aber Daten noch rettbar: 4 (von ca. 12 in den letzten 20 jahren)
- Platte verreckt, kompletter Tod: 1 (gleiche Zeitrahmen)
- Bei der habe ich sogar die Elektronik der Ersatzplatte rangeschraubt, aber keine Reaktion mehr.
- Wenn ich 2,5"-Platten in Laptops im täglichen Büroeinsatz bei der Arbeit mitrechne, wird es ganz mau, da ist die Ausfallrate fast 100% nach 2-3 Jahren.
Wenn Dir von 12 Platten 4 verreckt sind aber die Daten noch rettbar waren und eine bei der keine Datenrettung mehr möglich war, dann solltest Du mal so langsam mehr über Deine Backups nachdenken, denn man kann Daten nicht immer retten und gerade bei SSDs sind Ausfälle wenn, dann meist spontan und ohne jede Chance auf Datenrettung. Außerdem sind die Daten nicht nur wegen HW Ausfällen in Gefahr, es gibt genug andere Dinge die für Datenverlust sorgen könne, Backups aller wichtigen Daten sind daher immer Pflicht.
Über Backups habe ich doch gar nichts geschrieben.Holt schrieb:Backups aller wichtigen Daten sind daher immer Pflicht.
Datenrettung ist eher ein Hobby
Man muss ja auch erstmal rausbekommen, ob eine Platte wirklich kaputt ist oder nur muckt.
Ein nicht lesbarer Block heißt ja nicht gleich, dass die Platte verstirbt.
Ich kann mich noch an Laufwerke und SW erinnern, da musste das Remapping von defekten Blöcken von außen ausgelöst werden. Eben mit einer Scanning-SW.
Ich Teile auch bisher nicht die Meinung, das aktuelle Platten weniger haltbar als die Platten früher sind. Das hängt aber wahrscheinlich auch davon ab, wann dieses früher war.
Immerhin war bis vor ein paar Jahren, die gerade gekaufte Platte immer die billigste, die ich je gekauft habe.
Bei Platten vorbei, läuft jetzt bei SSDs so.
Wenn das so istklampf schrieb:Über Backups habe ich doch gar nichts geschrieben.
Datenrettung ist eher ein Hobby![]()
Das ist korrekt, auch wenn viele das so nicht wissen. Die Schwebenden Sektoren sind z.B. erstmal nur Sektoren deren Daten nicht mehr zur ECC passen. Da gibt die Platte statt der Daten einen Lesefehler als Anwort wenn man versucht diese zu lesen, Datenverlust ist damit aber schon mal recht sicher verbunden, je nachdem was auf diesem Sektor gestanden hat. Das kann eben auch anderen Gründe als defekte Oberflächen haben, z.B. einen Stromausfall während eines Schreibvorgang der dazu führt, dass eben nicht die ganze Daten plus der neuen ECC geschrieben wurden oder wegen eines Stoßes oder Vibrationen ist der Kopf beim Schreiben aus der Spur gekommen und hat Daten auf der Nachbarspur überschrieben, dort gibt es dann die schwebende Sektoren.klampf schrieb:Ein nicht lesbarer Block heißt ja nicht gleich, dass die Platte verstirbt.
Die Controller merken sich die schwebenden Sektoren und prüfen die Daten nach dem erneuten Schreiben auf diese Sektoren, dann verschwinden diese einfach oder werden eben durch Reservesektoren ersetzt und erst wenn das passiert ist, weiß man das wirklich ein Defekt vorlag. Trotzdem muss deswegen nicht gleich die ganze Platte sterben, es genug Fälle wo ein paar Reservesektoren genutzt werden und die Platte trotzdem noch lange weiter funktioniert, erst wenn deren Zahl massiv steigt, steht der Ausfall meist kurz bevor.
In gewisser Weise ist das heute auch noch so, denn wenn ein schwebender Sektor vorliegt, kennt die Platten den korrekten Inhalt diese Sektors nicht und kann solange nichts machen, bis der neu beschrieben wird. Von daher ist das immer noch so, denn man muss das Neubeschreiben erst einmal anstoßen, da es nur bei Platten in einem echten RAID (also keinem RAID 0) automatisch bei einem Lesefehler passieren sollte. Die RAID Controller (bzw. SW) wird dann aus der Parität die Daten rekonstruieren und den Sektor überschreiben, weshalb Platten im RAID eigentlich auch niemals schwebende Sektoren aufweisen.klampf schrieb:Ich kann mich noch an Laufwerke und SW erinnern, da musste das Remapping von defekten Blöcken von außen ausgelöst werden. Eben mit einer Scanning-SW.
Das ist korrekt, die Datendichte ist heute ja auch so hoch, dass die Mechanik am Limit arbeitet und die Köpfe bei nur noch 1 bis 2 nm Abstand im Teilkontaktbereich sind, es gibt daher auch heute Workload Ratings für HDDs, da die Schutzbeschichtungen für die Plattenoberflächen und Köpfe eben teuer sind und daher unterschiedlich aufwendig ausgeführt werden. Deshalb gibt es auch so viele verschiedene Modellreihen, die Enterprise Nearline HDDs sind die am aufwenigsten gefertigten und bieten 550TB/Jahr Workload, aber die kosten auch entsprechend viel und die anderen Modelle werden so abgespeckt, dass sie günstiger aber für den gedachten Einsatzzweck gerade noch gut genug sind. Es will ja nicht jeder 60 bis 100€/TB für eine HDD ausgeben.klampf schrieb:Ich Teile auch bisher nicht die Meinung, das aktuelle Platten weniger haltbar als die Platten früher sind.
Die billigsten sind heute wirklich nur noch für den Desktopbetrieb geeignet, sonst halten sie nicht sehr lange. Unter Desktopbetrieb stellt sich Seagate z.B. 2400 Betreibsstunden pro Jahr und 55TB Workload pro 8760 Betriebsstunden, also am Ende 15TB pro Kalenderjahr vor. Die anderen Hersteller dürften es ähnlich sehen, schreiben es nur nicht so offen hin.klampf schrieb:Immerhin war bis vor ein paar Jahren, die gerade gekaufte Platte immer die billigste, die ich je gekauft habe.
Genau, auch da ist das Race-to-the-bottom voll in Gang, die meisten zuletzt erschienen SSDs sind extrem kostenoptimiert, verwenden also z.B. Sparcontroller ohne DRAM Cache und planare TLC NAND und bieten eine deutlich schlechtere Performance als noch ihre Vorgänger, wie z.B. die Crucial BX200 im Vergleich zu BX100. Der Preis ist eben einfach der Schlüssel um z.B. bei den OEMs und Systembuildern die Nachfrage zu steigern, also für Leute die viele Tausend PCs damit ausrüsten an denen sie dann auch nicht selbst arbeiten müssen. Für Heimanwender und PC-Selbstbauer sind solche SSDs wenig attraktiv.klampf schrieb:Bei Platten vorbei, läuft jetzt bei SSDs so.
Holt schrieb:In gewisser Weise ist das heute auch noch so, denn wenn ein schwebender Sektor vorliegt, kennt die Platten den korrekten Inhalt diese Sektors nicht und kann solange nichts machen, bis der neu beschrieben wird.
Genau
Mit scheint es gibt noch eine Zwischenvariante. Nämlich dass die Platte einen Block gerade noch so lesen kann, aber dabei eine so hohe Fehlerrate hat, dass ein Remap ausgelöst wird.
Jedenfalls bekommt man davon nicht immer was mit. Früher als es sowas wie ZIP-Drives und SyQuest-Wechselplatten gab, war das auf jeden Fall ein Ding.
Wer erinnernt sich noch noch *hüstel* an die IBM Platten (DTLA war das wohl) die auch Reihenweise "verstorben" sind.
Bis IBM dann ein Tool brachte, dass die Lesefehler unter Dos "reparierte" (neu schrieb und damit den Remap auslöste) und einem das immerhin ohne die Platte komplett zu löschen, was vorher angesagt war. Es sagte einem dann sogar welches File den defekten Block enthielt.
Etwas später gab es von Seagate Platten, die sich bei Langeweile selbst gescannt haben.
Toll dieses Früher
Dein "eigentlich" drückt so ein bisschen das aus, was ich auch dazu im Kopf habe.Von daher ist das immer noch so, denn man muss das Neubeschreiben erst einmal anstoßen, da es nur bei Platten in einem echten RAID (also keinem RAID 0) automatisch bei einem Lesefehler passieren sollte. Die RAID Controller (bzw. SW) wird dann aus der Parität die Daten rekonstruieren und den Sektor überschreiben, weshalb Platten im RAID eigentlich auch niemals schwebende Sektoren aufweisen.
Das was Du beschreibst, würde man von einem Raid-1/5/6 erwarten.
Aber eigentlich hört man immer nur von kompletten Rebuilds und bei vielen RaidControllern kann/konnte man auch die SMART-Werte nicht auslesen.
Gibt es irgendwelche Informationen welche RAIDs das wirklich machen.
Macht da ein Intel-Chipsatz-Raid oder eine Windows DynamicDisk SW-Raid?
Das würde mich schon interessieren.
Macht das wenigstens ein "guter" >300€ Areca oder wie die so heißen?
Erwarten würde ich es.
Macht das ein Synology NAS?
Ich weiß es nicht und nicht mal, ob ich das bei denen erwarte.
Von Beschichtungen und dass die dem Einsatzzweck angepasst sind, ist aber auch schon lange die Rede.Das ist korrekt, die Datendichte ist heute ja auch so hoch, dass die Mechanik am Limit arbeitet und die Köpfe bei nur noch 1 bis 2 nm Abstand im Teilkontaktbereich sind, es gibt daher auch heute Workload Ratings für HDDs, da die Schutzbeschichtungen für die Plattenoberflächen und Köpfe eben teuer sind und daher unterschiedlich aufwendig ausgeführt werden.
Früher klebten dann die Köpfe an der Platte und alte Platten liefen nicht mehr an. Das passiert heute nicht mehr, weil die freundlich auf eine Rampe geknallt werden.
Ich habe jedenfalls noch keine neuen Platten gekauft, obwohl ich gerade am gucken bin, ich fürchte ich brauch eigentlich keine ...
NoahFle
Lieutenant
- Registriert
- März 2015
- Beiträge
- 750
Birni schrieb:Ja, Geld spielt eine Rolle. ;-)
Aber ganz allgemein, Geld spielt immer eine Rolle, die Frage ist, wie groß ist diese Rolle?
Wenn der höhere Preis für die SSD der EINZIGE Grund ist, eine günstigere HDD zu kaufen, dann bedeutet das im Umkehrschluss, dass es außer dem Geldsparen KEINEN Grund gibt, eine SSD als reines Datenspeicherlaufwerk abzulehnen.
Wenn du insgesamt mit ca. einem Terabyte auskommst, spricht nichts dagegen, sofern du 100-200 Euro mehr ausgeben kannst, komplett auf HDDs zu verzichten. Dann würde ich es allerdings so machen: Eine schnelle 256GB NVME SSD als Bootdrive und eine 500GB oder 1TB Sata-SSD als Datengrab.
Die Methode die heute in P/L PCs als "norm" gilt ist, eine 250-500GB SSD als Bootdrive zu nehmen und zudem noch eine 1-2TB SSD als Datengrab.
Das ist richtig, aber frag mich nicht welche Platten das unter welchem Umständen (also ggf. bei welchen Einstellungen z.B. zur TLER/ERC) genau machen, da schweigen sich die Hersteller heute leider drüber aus.klampf schrieb:Mit scheint es gibt noch eine Zwischenvariante. Nämlich dass die Platte einen Block gerade noch so lesen kann, aber dabei eine so hohe Fehlerrate hat, dass ein Remap ausgelöst wird.
Ja eben bei echten RAIDs, denn das R in RAID steht für Redundanz und die hat ein RAID 0 eben nicht, daher geht das dort auch nicht und es ist eben eigentlich auch nur ein AID 0 und kein echtes RAID, auch wenn es RAID 0 genannt wird.klampf schrieb:Das was Du beschreibst, würde man von einem Raid-1/5/6 erwarten.
Das hat mit einem Rebuild nichts zu tun, das Überschreiben sollte bei jedem Lesefehler den eine Platte meldet automatisch passieren. Dafür muss natürlich der Timeout der Platte kleiner als der das RAIDs sein, sonst fliegt die Platte als defekt auf dem RAID und dann braucht man ein Rebuild. Aber das passiert nur Leuten die keine Ahnung haben und daher ungeeignete HDDs für ein RAID, vor allem bei einem HW-RAID Controller, verwenden. Die HW-RAID Controller haben nämlich i.d.R. einen Timeout von 8s und die RAID fähigen Platten ab Werk meist einen kürzer eingestellten Timeout und der ist auch noch einstellbar (das macht Platten mit TLER/ERC aus).klampf schrieb:Aber eigentlich hört man immer nur von kompletten Rebuilds und bei vielen RaidControllern kann/konnte man auch die SMART-Werte nicht auslesen.
So hat die WD Red einen Timeout von 7s und die Green einen von 14s, die Green würde also beim ersten Problem einen Sektor zu lesen leicht die 8s des HW RAID Controller überschreiten und als defekt aus dem RAID fliegen, während eine Red dann nach 7s aufgeben und einen Lesefehler melden würde und daraufhin würde ein guter RAID Controller den Sektor überschreiben und allenfalls ein wiederzugewiesener Sektor und das Log des Controllers verraten noch, dass es da ein Problem gab. Während die Green einen schwebenden Sektor hat oder auch nicht, sollte es ihr nach 8s und vor dem Auflauf ihres Timeouts von 14s doch noch gelungen sein den Sektor zu lesen. Dann schaut der Laie dumm aus der Wäsche und fragt sich erst recht, wieso die Platten aus dem RAID geflogen ist.
Das kann ich Dir nicht mit Sicherheit sagen, da musst Du im Zweifel für die jeweilige Lösung selbst nachschauen.klampf schrieb:Gibt es irgendwelche Informationen welche RAIDs das wirklich machen.
Ich auch!klampf schrieb:Erwarten würde ich es.
Frag bei Synology nach, für den Support zahlt man dort doch so viel Geld für billige HW die man selbst teils für die Hälfte kaufen könnte. Es düfte dort sehr vom Modell abhängen, die meisten günstigen RAIDs sind ja Linux basiert und verwenden ein md SW RAID von Linux.klampf schrieb:Macht das ein Synology NAS?
Die gibt es auch schon lange und ebenso eine Lubifizierung, aber mit den heutigen Datendichten und den deswegen nötigen minimalen Kopfabständen im Teilkontaktbereich gewinnt beides heute extrem an Bedeutung, denn da gibt es immer auch Abrieb und damit Verschleiß.klampf schrieb:Von Beschichtungen und dass die dem Einsatzzweck angepasst sind, ist aber auch schon lange die Rede.
Die Enden der Köpfe werden heute erwärmt damit sie nur beim Lesen und Schreiben näher an die Platter kommen, wobei das Bild tauscht, der Unterschied ist von 10nm auf 1 bis 2nm, damit fliegen die dann nicht mehr so locker über die Erhebungen auf den Oberflächen weg wie es dort dargestellt ist:
Wie man sieht mag der eigentlich mobomolukulare Schmierfilm sich gerne mal zu mehreren Layern übereinander auftürmen und so weiter und so fort, da gibt es viel mehr Herausforderungen bei einer modernen HDD als bei den früheren Modellen als die Köpfe noch wirklich frei geschwebt haben. Die Enterprise HDDs mit 15.000 rpm, also die für die höchsten Beanspruchungen, sind deshalb auch bei 600GB Kapazität stehen geblieben, weil man da einfach die Kopfabstände nicht in den Teilkontaktbereich absenken möchte um eben diesen ganzen Problemen aus dem Weg zu gehen.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 22
- Aufrufe
- 5.028
- Antworten
- 15
- Aufrufe
- 923
- Antworten
- 25
- Aufrufe
- 1.827
- Antworten
- 28
- Aufrufe
- 3.127