News HDD-Forschung: Seagate will HAMR-Festplatten ab 2017 ausliefern

Also ich sehe das Problem von HDDs nicht in der Kapazität,sondern eher in der für die Größe fast unverschämt langsamen sequenziellen Datenraten. Was bringt viel Platz, wenn lesen und schreiben langsam sind? Kann man im Sektor Geschwindigkeit mit neueren Technologien einem größeren Sprung erwarten?
 
Ich denke ich weis was Du meinst Triversity.
Die Statistik sollte man nicht so ernst nehmen, da sie unter anderem Consumer-Festplatten für ihre Server benutzen, die weit außerhalb ihrer Spezifikation laufen. Das man das nicht vergleichen kann ist mir bewusst, wollte "Zucksi" bei seinen Gedanke nur auf die Sprünge helfen.
 
Gutgut...hoffe mal, dass sich der Preis auch entsprechend nach unten korrigieren wird. Meine 4TB Platten sind nun knapp 2 Jahre alt und deren Preis (145€) ist im Grunde noch aktuell wenn nicht sogar höher.
 
Dann wird die NSA die gekauften Kohlewerke, die als Datenzentren fungieren werden, eine sehr lange Zeit betreiben ;) Wobei diese sicherlich auch ihre eigenen Forschungen betreiben.
 
wollen Hersteller wie Seagate und Western Digital die Datendichte pro Quadratzoll deutlich steigern

...komisch, wieso nur die beiden???:evillol:
 
Klingt stark nach einer Fehleranfälligen Technik.

Ohne Raid 1 würde ich mit solchen Dingern gar nix machen.
 
Tom_1 schrieb:
400€ kostet momentan 1tb
Und das geben die wenigsten dafür aus.
Bezahlbar ist was anderes.
Und von 2 tb Fang ich erst garnicht an zu reden.
Na und? Eine herkömmliche mit 1GB und SCSI Schnittstelle hat auch mal fast 1.500DM gekostet. Arbeitsspeicher mit 8MB (nicht GB) kosteten auch mal soviel. Trotzdem wurde es verkauft und das nicht gerade wenig.
Die heutigen Preise sind im Vergleich zu früher doch eigentlich ein Witz.
 
freacore schrieb:
Das heißt, mit HAMR gibts 2017 40TB Festplatten.

Nur falls der Hersteller die selbe Anzahl an Platter verbaut u. falls sich HAMR mit SMR kombinieren lässt.
Was ich mich frage ist allerdings ob dann für jede Platter zwei Laserdioden erforderlich sind, pro Seite eine — weil dann z.B. bei vier Platter wären dann bereits acht Laserdioden erforderlich.

Die andere Frage ist die der Schreibgeschwindigkeit. Reduziert sich die Schreibgeschwindigkeit weil das Erhitzen der Oberfläche mit dem Laser eine best. Dauer erfordert?
Ergänzung ()

Chief_Rocker schrieb:
Verbraucht den ein Laser bei CD / BluRay viel Strom?
Viel ist relativ. Ich würde allerdings beim Brennen einer BD-R schon damit rechnen dass die Laserdiode 1 Watt ein elektr. Leistung verbrät, da eine solche Diode nur so 30% Wirkungsgrad haben dürfte, im ultraschnell gepulsten Betrieb.
Ergänzung ()

maccaveli schrieb:
Nein, da bewegen wir uns im Milliwatt bereich.
Falls der Laser die Oberfläche der Platter erhitzen soll dürfte dieser sicherlich mehr als ein paar Milliwatt brauchen.
 
Zuletzt bearbeitet:
Mit dem zunehmendem Aufkommen der 4K Aufnahmegeräten, wird der Speicherbedarf auch wieder deutlich steigen. Selbst eine 4TB ist bei 4K Material schon zu klein.
 
BL@CKM@N schrieb:
Größere Festplatten bringen leider 0 wenn sie auch nach 1,5 - 2 Jahren oder 10.000 Stunden spätestens abrauchen. Gerade Seagate Festplatten gehen oft GENAU zum Ende der Garantiezeit oder kurz danach kaputt. Ich rede da besonders von der ST3000DM001 Serie.

Ich kann aus eigener Erfahrung somit nur jeden davon abraten auf derart große Datengräber zu setzen. Lieber 3 kleinere Platten und wichtige Daten doppelt, sehr wichtige Daten sogar 3 fach spiegeln. Alles andere ist heutzutage nichtmehr sicher. Selbst 2 fach spiegeln halte ich für Platten die ein gleiches Alter besitzen für zu riskant. Mir sind 3 Seagate Platten binnen 3 Monaten abgeraucht. Vor einem Jahr ging eine weitere kaputt auch wieder 2 Jahre und 2 Monate alt. Kulanz bei Seagate gibt es nicht!

Mir ist auch ne ST3000DM001 vor paar Tagen abgeraucht. Aber mal ehrlich, denkst du Leute die 3,4,6,8TB Platten kaufen für die stellen 1TB ne Alternative da? Die Leute kaufen große Platten ja nicht weil se zuviel Geld haben sondern weil sie die auch nutzen. Und zu ner 8TB Platte gibt es nicht wirklich Alternativen. Soll ich 4 2TB Platten kaufen? Wow dann hab ich 4 statt 1 Festplatten und nen Backup muss ja auch her da sind wir dann schon bei 8 Platten was auch 2 tun würden...

SMR schön und gut, aber solange da das Dateisystem nicht mitspielt ist das auch nicht wirklich das gelbe vom Ei. Das Dateisystem müsste wissen welche Bereiche es in welcher Reihenfolge am besten beschreiben kann.

Bei Rebuilds von Raid5/6 gehen die 8TB Seatage Archive Platten auch ziemlich in die Knie. Ein ZFS Server hatte da so um die 10-15MB/s Schreibend als Maximum pro Platte. Würde man das ganze ins Dateisystem integrieren so würden sicherlich sich einige unnötige Schreibarbeiten verhindern lassen oder zumindest in der Reihenfolge ausführen wie sie am schnellsten abgearbeitet werden können, ähnlich wie NCQ.
 
Schnixus schrieb:
habe in den letzten 3 Jahren von knapp 30 Seagate-Platten mindestens schon 10-15 kaputte austauschen müssen.
Da hast Du die HDDs sehr wahrscheinlich nicht bestimmungsgemäß eingesetzt, denn die billigen Barracuda bzw. Desktop Platten von Seagate sind eben genau nur Desktop Platten und nicht für RAID oder NAS in 24/7 Betrieb geeignet. Die haben wie alle ähnlich günstigen HDDs nur ein Workload Rating von 55TB im Jahr und sind auf 2400 Betriebsstunden im Jahr ausgelegt, das schreibt Seagate auch zur Nutzung:
Die 19.000 Stunden die z.B. dieser User bei geizhals hatte, wäre danach erst nach fast 8 Jahren Nutzung also Desktopplatte wie es Seagate vorgesehen hat, erreicht gewesen.

Und zum Workload steht bei Seagate:
Workload-Belastung
Der Einfluss der Workload auf die Zuverlässigkeit ist etwas schwerer verständlich.

Per Definition ist die primäre Funktion von HDDs das Speichern und Abrufen von Daten, wobei Hunderte von Gbits an Daten auf jedem Quadratzoll an Speicheroberfläche aufbewahrt werden. Sie können Daten bei anhaltenden Datenraten in der Größenordnung von 200 MB/s oder mehr aufzeichnen und abrufen.

Um diese hohe Aufzeichnungsdichte und einen hohen Datendurchsatz zu erreichen, werden magnetische Lese- und Schreibkomponenten physisch mehrere Nanometer (1 nm = 0,001 μm) von schnell rotierenden Medien gehalten. Das ist eine komplexe technische Designaufgabe, die erfordert, dass Festplatten für eine bestimmte Arbeitsumgebung entwickelt, getestet und klassifiziert werden, die unter anderem durch den Bereich der Nutzungsdauer und der Benutzer-Workload charakterisiert wird.

Workload ist ein technischer Begriff, mit dem die Größe der Arbeitsbelastung definiert wird, der die Festplatte beim Normalbetrieb ausgesetzt ist. Beispielsweise könnte Festplatte A täglich mehrere GB an Daten lesen und schreiben, während Festplatte B täglich mehrere hundert GB liest und schreibt. In diesem Fall würden wir sagen, das Festplatte B unter viel höherer Workload-Belastung arbeitet.
Um eine Vorstellung zu bekommen, wie viel Workload zu viel ist, betrachten wir drei typische Szenarien (Festplatten A, B und C):

Betrachten wir eine Seagate Constellation ES.3 HDD mit 4 TB. Diese Festplatte ist zu einer anhaltenden Datenübertragungsrate von 175 MB/s fähig. Stellen wir uns drei dieser Festplatten vor, die alle unter ähnlichen Bedingungen arbeiten (und mit demselben Server). Die erste Festplatte (Festplatte A) überträgt stetig 5 MB/s (oder durchschnittlich 158 TB/Jahr), während die zweite (Festplatte B) 10 MB/s (durchschnittlich 315 TB/Jahr) überträgt. Die dritte Festplatte schließlich (Festplatte C) überträgt in diesem Beispiel 100 MB/s (durchschnittlich 3.150 TB/Jahr).

Aus den obigen Szenarien ist einfach zu erkennen, dass Festplatte B einer 2× höheren Workload-Belastung ausgesetzt ist als Festplatte A und dass Festplatte C eine 20× höhere Workload-Belastung als Festplatte A hat.

Unter Annahme einer linearen Abhängigkeit würden die nächsten vernünftigen Schlussfolgerungen annehmen, dass Festplatte B eine 2× höhere Ausfallrate als Festplatte A hat und Festplatte C eine 20× höhere Ausfallrate als Festplatte A. Seagate-Daten legen jedoch nahe, dass die Annahme einer linearen Skalierung der Ausfallrate mit Workload falsch ist.

Jahre an Forschung und Experimenten ermöglichten Technikern von Seagate, die komplexen Effekte von Workload auf Festplattenzuverlässigkeit zu verstehen und die folgenden Schlüsse zu ziehen:

•Jeder HDD-Typ hat eine sichere Workload-Schwelle, die jetzt als das Limit für die Workload-Rate (WRL) definiert wird.
•Solange die Workload das WRL nicht überschreitet, hat die Workload-Belastung sehr wenig bis gar keinen Einfluss auf die Zuverlässigkeit und die Ausfallrate dieses Produkts.
•Wird das WRL überschritten, beginnt die Zuverlässigkeit dieses Produkts nachzulassen.
Man sollte diese Workload Ratings also beachten, sonst wird man mit erhöten Ausfallraten bestraft und das geht nicht linear.

Bei Toshiba ist die MD Serie auch die günstigste HDD und für normale Desktopanwendung gedacht, die ist auch nicht 24/7 zugelassen und nur mit 55 TBW Workload im Jar spezifiziert, während die MC Reihe ist schon eine bessere Enterprise HDD mit 24/7 Zulassung, da kostet aber die 2TB auch ab 115€, also fast so viel wie die 4TB der MD Reihe:
Wer mehr über die Toshiba HDDs und die Unterschied zwischen HDDs für verschiedene Anwendungen lernen will, der sollte im Zitat verlinkte Dokument mal lesen. Highend ist die MG Reihe mit 550TB/y workload und MTTF 1.4Miohrs, dort steht auch was die MTTF bedeutet und das die HDDs für 5 bis 7 Jahren Nutzungsdauer ausgelegt sind.

Im Datenblatt der MG Serie steht auch, das die nicht nur 24/7 laufen, sondern wirklich 24/7 arbeiten darf:
Die darf man also die ganze Zeit mit Arbeit quälen, dafür ist die gemacht. Die 4TB Version kostet aber auch fast 300€, also fast 2,5 mal so viel wie die einfache MD 4TB, wer glaubt er würde die gleiche Haltbarkeit und Qualität für für einen Bruchteil des Preises bekommen und bei der MG Toshiba nur unnötig mehr Geld in den Rachen werfen, der soll hinterher nicht die HDD beschuldigen, wenn er falsch lag. Es gilt immer noch: You get what you pay for!

Das gilt nicht nur bei Toshiba oder Seagate, nur von HGST kostet die billigste 4TB HDD schon 162€, also ein Drittel mehr als die günstigsten 4TB Platten von Toshiba oder auch Seagate, dafür ist es dann von HGST gleich eine NAS Platte mit 24/7 Zulassung.

Rumblejunkee schrieb:
@Zucksi: Ja, da gibt es von Backblaze.
Und die zeigen auch, wie wichtig die Wahl der HDD und die Berücksichtigung der Spezifikationen für die Lebensdauer ist. Es ist ja auch nicht so, dass die Seagate Barracuda einfach so alle ausfallen, die sind in den ersten 2 Jahren sogar durchaus als zuverlässig einzustufen:
Auch wenn Backblaze da scheinbar nicht selbst drauf kommt, aber die HDDs sind für 2400 Stunden pro Jahr und so 5 bis 7 Jahre Betrieb ausgelegt, also darauf 12000 bis 16800 Betriebsstunden problemlos zu überstehen. Im Dauerbetrieb, also bei 8760 Stunden pro Jahr sind diese Betriebsstunden nach 2 Jahren erreicht bzw. überschritten und dann fangen die Ausfallraten an zu steigen. Das Muster findet man auch bei den Reklamationen im Netz wieder, da sind praktisch auch nur HDDs mit hohen Betriebsstundenzahlen von meist über 20.000 Stunden betroffen, die i.d.R. im Dauerbetrieb, oft in einem NAS, genutzt wurden.

Wo ist also das Problem? Da gibt es eine billige und schnelle HDD die aber eben so billig gemacht wie verkauft wird, weil die für Anwender gedacht und gemacht ist, die ihre HDD nicht so massiv belasten, sondern eben 8 Stunden am Tag im Büro und das an etwa 200 Werktagen im Jahr und nach spätestens 5 Jahren bekommen sie sowieso einen neuen Rechner, das verträgt die Platte auch. Vielleicht hätte Seagate das deutlicher kommunizieren sollen, dass sie eben auch nicht viel mehr verträgt, aber auch dann hätte es sicher noch genug Leute gegeben, die entweder die MTBF immer noch für eine Lebenserwartung halten, glauben HDDs wäre alle gleich und bei teuren Modellen werden sie nur mehr abgezockt oder einfach das Risiko eingehen und sich das Geld sparen, weil sie nach ein paar Jahren vom Ersparten dann wieder eine noch größere HDD kaufen können. Das sind unwissende Zocker und diese Zocker sind nun aber eben auf die Nase gefallen. Deren Wetten sind eben oft nicht aufgegangen, denn man bekommt eben keine gleichwertige HDD für nur 40% des Preises hochwertiger Enteeprise HDDs, die MTBF ist nur eine Ausfallwahrscheinlichkeit und die gilt nur bei Einhaltung der Spezifikationen und nur während der vom Hersteller geplanten Lebensdauer (abzügich der Anfangszeit) und auch die Ersparnis kann bei dem ins Stocken geratenen Preisverfall u.U. nicht ausreichen um den Ersatz günstig genug zu beschaffen.

Aber statt sich einzugesehen beim Zocken verloren zu haben, wird nun auf die Seagate geschimpft und die billige HDD wird als Mist hingestellt und untauglich verunglimpft, wobei Backblaze dann immer als Beweis herhalten muss. Klar war die für das untauglich, wofür sie genutzt aber nicht gemacht wurde, ein Uhrmacherhämmerchen taugt nicht dazu Pfähle einzuschlagen, ist er deswegen Schrott?

Dazu wird dann gleich Seagate als ganzes Unternehmen bezichtigt nur Schrott HDDs zu bauen, dabei wird vergessen, dass gerade bei Backblaze Äpfel mit Birnen vergleichen werden, denn die HGST, auch die alten Hitachi Deskstar, haben/hatten ganz andere Spezifikationen, sind und waren, von Abverkaufsangeboten im Rahmen der Übernahme durch WD vielleicht mal abgesehen, auch teurer als die billigen Seagate Barracuda. Die ganzen HGST HDDs, auch die bei Backblaze verwendeten, haben alle eine 24/7 Zulassung, auch deren einfachen Dekstar HDDs und dazu haben die alle eine Technik die HGST Rotational Vibration Safeguard (RVS) nennt. Auch die HGST Megascale die Backblaze verwendet, hat diese RVS, denn das ist eine als OEM vermarktete Enterprise HDD und die ist auch entsprechend teuer, die passt schon preislich nicht zu den Seagate mit denen sie dort verwendet wird.

Was wollen denn die Basher? Auch Seagate hat doch bessere HDDs im Angebot, bei den 2.5" SAS mit 10.000 und mehr rpm wie sie Unternehmen für kritische Anwendungen einsetzen, spielt Seagate neben HGST die Hauptrolle. Aber auch darunter gibt es Enterprise und NAS Platten von Seagate für höhere Belastungen als die Desktop Serie gemacht sind, nur die kosten eben auch mehr. Erwarten die Seagate Basher, allen voran Backblaze, von Seagate nun derart hochwertige HDDs zum Preis der einfach Desktop Modelle anzubieten oder soll Seagate diese billigen Desktop Platten gar nicht mehr anbieten?

Beides käme Backblaze wohl gelegen, im ersten Fall würden sie ihr Geschäftsmodell billige Consumer HDDs für Enterprise Aufgaben zu nutzen mit geringeren Ausfallraten und damit weniger Kosten rentabler gestalten. Im zweiten Fall würden die User dann auf für externe HDDs die sie als Backupplatten verwenden und die niemals hohe Betriebsstunden erreichet, also eine Anwendung für die so eine billige HDD auch bei weniger Haltbarkeit ideal ist, tiefer in die Tasche greifen müssen und vielleicht dann doch Kunden bei Backblaze werden, statt eine Backupplatte im Schrank zu haben. Es gäbe ja noch die WD Green? Vielleicht, aber selbst Backblaze setzt jetzt von WD die Red ein, die ist immerhin 24/7 zugelassen, aber auch teurer als die Green, da verletzen sie wie bei der Megascale ihr Grundprinzip.
 
Zuletzt bearbeitet:
Zucksi schrieb:
Generell gesehen sollte RAID-1 eigentlich ausreichen. Solange man alles im Auge behält...

Wenn dir in deinem RAID1 ein Bit kippt, was bei genügend Zeit und den großen Platten heute sehr wahrscheinlich ist, wird es dir bei einem Leseversuch sofort unreparierbar auseinander fallen. Deshalb die Empfehlung wichtige Daten doppelt zu sichern. Kippt ein Bit in einer Version wird es durch die anderen beiden "überstimmt". Das funktioniert, denn es ist extrem unwahrscheinlich, dass bei drei Versionen das selbe Bit mehr als einmal kippt.
 
Zuletzt bearbeitet:
Die beiden Samsungs bei mir im Rechner laufen seit ~5 und ~7 Jahren ohne Probleme mit über 26000 und 39000 Stunden, siehe Anhang. Die 7 Jahre alte 500er lief bis vor 3 Monaten sogar als Systempartition inkl. Programmen.

Schade, dass Samsung die Festplattensparte an Seagate verkauft hat. WD ist aber leider auch nicht wirklich besser. In meinem Bekanntenkreis waren es immer nur Seagate und WD die verreckt sind, die kann man echt vergessen. Mir is selber auch mal ne WD abgeraucht. Alle Platten bei normaler Beanspruchung.

samsunghdds.png
 
Zuletzt bearbeitet:
"Beim bisher genutzten Perpendicular Magnetic Recording (PMR) soll bei etwa 1 Terabit pro Quadratzoll eine technische Grenze erreicht werden, HAMR soll die Datendichte auf bis zu 5 Terabit pro Quadratzoll anheben. Wird HAMR mit der Technik Bit Patterned Media (BPM) kombiniert, sollen sogar 10 Terabit pro Quadratzoll machbar sein. Diese Lösung wird auch Heated-Dot Magnetic Recording (HDMR) genannt. Die Marktreife dieser Lösung liegt aber noch viel weiter in der Zukunft."


Sehr schön, da liegt noch Potential vergraben. Da könnten sich die CPU-Hersteller mal ein Scheibchen von abschneiden, denn hier fehlen die Ideen, wie man (mal wieder wie früher) einen ordentlich Performancesprung (pro Core) hinlegen könnte.

freacore schrieb:
Das heißt, mit HAMR gibts 2017 40TB Festplatten.

Nein, ab 2017 soll das HAMR-Verfahren marktreif sein. Der Vollausbau (40+ TB) wird dann erst über die Zeit hinweg erreicht.

Tom_1 schrieb:
400€ kostet momentan 1tb
Und das geben die wenigsten dafür aus.
Bezahlbar ist was anderes.
Und von 2 tb Fang ich erst garnicht an zu reden.

Mensch, Tom, das war ja mal ein richtig seriöses Posting von Dir :D Und Du hast vollkommen Recht. 1TB ist einfach noch zu teuer und mit nur einer 512GB-SSD im System (ohne weitere HDDs) kommt eigentlich niemand mehr aus heutzutage.
 
Sorry riDDi, aber das ist Blödsinn³, denn ein Bit kippt kaum mal unbemerkt auf einer Platte, dafür haben die eine ECC hinter jedem Sektor und die Rate der nicht korrigierbaren Bitfehler wird mindestens mit 1:10^14 angegeben, was etwa einem Lesefehler pro 12TB entspricht. Aber das sind keine unbemerkten Lesefehler, da gibt die Platte nicht mal eben heimlich die Daten mit einem falsches Bit zurück, sondern wirft eine Fehler statt die Daten auszugeben und der Sektor ist dann schwebend. Dann hilft ein RAID 1 schon weiter, weil das RAID die Daten von der anderen Platte lesen wird.

Wenn da also heimlich ein Bit kippt, dann passiert das sehr wahrscheinlich im RAM des Rechner, es kann auch auf den internen Datenpfande der HDD sein oder im Host Controller. Dagegen hilft aber das Backup nur beschränkt, da man eben bei den meisten Filesystemen solche Fehler gar nicht erkennt und RAM Fehler, gerade Soft-Fehler also spontan gekippte Bits, hilft nur ECC RAM. Am besten Advanced ECC, denn das einfach ECC lässt immer noch einen kleinen Anteil an Fehlern unentdeckt durch, dann Enterprise Platte mit Schutz der internen Datenpfade vor Datenkorruption und wenn Du es immer weiter treiben willst, landest Du bei einem Mainframe, denn das ist der Grund warum gerade Banken und Versicherungen diese noch heute einsetzen: Was wird jede Ecke überwacht und kein Bit kann unbemerkt mal kippen, die Kerne verrechnen sich niemals usw. Die Dinger sind gegen Fehler so abgesichert, dagegen ist Fort Knox das reinste Disney Land.
 
BL@CKM@N schrieb:
Größere Festplatten bringen leider 0 wenn sie auch nach 1,5 - 2 Jahren oder 10.000 Stunden spätestens abrauchen. Gerade Seagate Festplatten gehen oft GENAU zum Ende der Garantiezeit oder kurz danach kaputt. Ich rede da besonders von der ST3000DM001 Serie.
Na dann ist meine ST3000DM001 wohl eine Ausnahme. Sie hat mittlerweile >20000h auf dem Buckel und auch schon 60TB geschrieben und etwa 115TB gelesen.

BL@CKM@N schrieb:
Ich kann aus eigener Erfahrung somit nur jeden davon abraten auf derart große Datengräber zu setzen. Lieber 3 kleinere Platten
Das mag für kleine Datenmenge gehen, aber bei größeren Datenmengen geht einem dann ganz schnell der Platz im Gehäuse aus. Außerdem sind kleinere Platten verhältnismäßig deutlich teurer. Ein RAID5 mit 5x4TB (16TB netto) kostet etwa 560€. Ein RAID6 mit 10x2TB (16TB netto) kostet etwa 670€. Wenn man bei den kleinen Platten nur RAID5 nimmt, also 9x2TB kommt man zwar nur noch auf 600€, hat dann aber im Vergleich zu den großen Platten die doppelte Ausfallwahrscheinlichkeit. Es ist daher sinnvoller große Platten verschiedener Hersteller zu mischen als auf viele gleiche kleine Platten zu setzen.

BL@CKM@N schrieb:
und wichtige Daten doppelt, sehr wichtige Daten sogar 3 fach spiegeln.
Meinst du spiegeln im Sinne von RAID? Mir persönlich reicht eigentlich RAID5 + Backup. Ist deutlich günstiger als alles 3fach und bietet im Prinzip einen vergleichbaren Schutz.

BL@CKM@N schrieb:
Werde ab sofort alle Platten nach genau 1 Jahr und 10 Monaten mit 2 Monaten Restgarantie verkaufen bei Ebay. (Ja Leute zahlen da noch locker 70 € für ne kurz vor dem Tod stehende 3 TB Platte). Sobald nur ein fehlerhafter Sektor auftritt zu Seagate schicken, manchmal hat man Glück und erhält eine fabrikneue Platte. Die sofort bei Ebay verkaufen mit 10 € Verlust und ne nagelneue kaufen, hat man wieder 2 Jahre Garantie.
Das wäre mir viel zu viel Aufwand, allerdings hatte ich bisher auch noch keinen nicht selbstverschuldeten Ausfall (habe mal eine Falle gelassen :( ).
Bei mir läuft es eigentlich immer so, dass eine alte Platte (ab etwa 40.000h) durch eine neue, doppelt so große ersetzt wird und anschließend nur noch für Backups genutzt wird. Außerdem achte ich auf verschiedene Hersteller und Baureihen. Daher sind die Platten in meinem Rechner allesamt unterschiedlich alt und aus verschiedenen Baureihen.

Benji96 schrieb:
Also ich sehe das Problem von HDDs nicht in der Kapazität,sondern eher in der für die Größe fast unverschämt langsamen sequenziellen Datenraten. Was bringt viel Platz, wenn lesen und schreiben langsam sind? Kann man im Sektor Geschwindigkeit mit neueren Technologien einem größeren Sprung erwarten?

Nein. Die Geschwindigkeit wird im Prinzip seit langem nur noch durch die Erhöhung der Datendichte erreicht und HAMR und BPM ändern daran nichts.

riDDi schrieb:
Wenn dir in deinem RAID1 ein Bit kippt, was bei genügend Zeit und den großen Platten heute sehr wahrscheinlich ist, wird es dir bei einem Leseversuch sofort unreparierbar auseinander fallen. Deshalb die Empfehlung wichtige Daten doppelt zu sichern.
Ein Bitfehler sollte ein RAID1/5/… Array nicht beschädigen, sofern das Array nicht degraded ist. Die Festplatte erkennt Bitfehler beim Lesen und der RAID-Controller kann den Fehler dann korrigieren. Problematisch wird es erst, wenn ein Bitfehler erst entdeckt wird (weil man den Sektor vorher nicht gelesen hat), wenn eine Platte ausgefallen ist und man ein Rebuild macht. Prinzipiell hilfreich sind daher Dateisysteme mit eigenen Checksums wie ZFS oder btrfs. Diese unterstützen sog. scrubbing. Dabei werden die Daten gelesen, mit den Checksums verglichen und falls nötig korrigiert.

Holt schrieb:
was etwa einem Lesefehler pro 12TB entspricht.
Wenn man bedenkt, dass es mittlerweile Platten bis 10TB gibt, ist das gar nicht mehr so viel, also durchaus ein Punkt über den man sich gedanken machen muss, wenn man solche Platten einsetzt.
 
Zuletzt bearbeitet:
Zurück
Oben