News Hitachis Enterprise-HDDs werden zuverlässiger

Parwez

Admiral
Registriert
Jan. 2004
Beiträge
7.472
Zumindest auf dem Papier werden Hitachis neue Enterprise-HDDs der „Ultrastar 7K3000“-Serie zuverlässiger als die bisherigen Modelle. Die bis zu 3 TB großen 3,5-Zoll-Festplatten verfügen nach Angaben des Unternehmens als erste mit 7.200 U/min über eine MTBF von zwei Millionen Stunden und eine eingeschränkte 5-Jahres-Garantie.

Zur News: Hitachis Enterprise-HDDs werden zuverlässiger
 
Also ich hatte bisher immer Glück was HDDs angeht, nutze auch nur Samsung und WD, laufen alle optimal.
Aber gut zu wissen das an den Platten immer noch gearbeitet wird. Bis SSDs die Preise der HDDs erreichen wird wohl noch ein bisschen Zeit vergehen.
 
Gibt es eigentlich irgendeinen Beleg dafür, wie die Hersteller auf diese wahnwitzigen Zahlen kommen.
2 Mio. Stunden entspricht einer Ausfallsrate von unter 0,5% pro Jahr oder 1 von 200. Wenn ich mir die Anzahl der defekten Festplatten meiner Systeme alleine im letzten Jahr ansehe, dann kommt das nicht einmal annähernd hin. Besonders Seagate ist eine Katastrophe. Da geht gefühlt fast jede zweite nach spätestens 3-4 Jahren über den Jordan.
 
andr_gin schrieb:
Gibt es eigentlich irgendeinen Beleg dafür, wie die Hersteller auf diese wahnwitzigen Zahlen kommen.
2 Mio. Stunden entspricht einer Ausfallsrate von unter 0,5% pro Jahr oder 1 von 200. Wenn ich mir die Anzahl der defekten Festplatten meiner Systeme alleine im letzten Jahr ansehe, dann kommt das nicht einmal annähernd hin. Besonders Seagate ist eine Katastrophe. Da geht gefühlt fast jede zweite nach spätestens 3-4 Jahren über den Jordan.

Nachrechnen hilft wenig. In der Regel sind solche Plattenmodelle schon nach einem halben Jahr nach der Einführung aus dem Fokus. Im Konsumbereich kauft man nach Defekt eh eine neue, im professionellen Sektor wird binnen weniger Stunden (oder Tage) anstandslos eine neue Platte bereitgestellt. Beschwert man sich über die Ausfälle, verweist der Regresspflichtige auf das Kleingedruckte - Daten sind von der Garantieleistung ausgeschlossen. Meine Erfahrungen waren vor 12 Jahren mit IBM SCSI-2 Platten hervorragend, bis die Produktion in Mainz ein Ende fand und ein großer Teil nach Ungarn und Rumänien verlagert wurde. Die neuen Typen sind dann bei uns reihenweise ausgefallen, das ging sogar so weit, daß in einem wichtigen RAID-5 System fast gleichzeitig 3 Platten der selben Serie ausgefallen sind. Diese waren neu und haben ältere Modelle ersetzt. Nach nur einer Woche Betrieb im vollklimatierten Serverraum waren dann drei Platten tot. Korreliert man nun die MTBF und die Wahrscheinlichkeit eines instantanen Totalausfalles dreier Platten, erscheinen die Zuverlässigkeitswerte fast schon wie Hohn und Spott. Aber was will man als Kunde tun? DIN ist tot, die EU legt ihre eigenen Normen fest und wer wann womit geschmiert wird, wird immer unübersichtlicher. Wenn man Platten benötigt, kauft man eben jene, die die besten Werte verspricht. Und wonach richtet man sich? Richtig, MTBF Zahlen, Garantie. Das sind einfach nur noch Zahlen, mit denen semantisch nichts mehr reelles verbunden ist, einfacher Kardinalitäten. Je höher, desto besser. Rückläufe werden wie Staatsgeheimnisse behandelt. Es ist nicht möglich, ohne Offenlegung der Rückläufe eine vernünftige Statistik zu machen.

Mit Hitachi hatte ich bisher keine schlechten Erfahrungen, außer, daß diese Platten, egal ob SATA oder SAS, immer ein wenig klackerten oder einfach nur laut waren. Mit Seagate SCSI- und SAS Platten hatte ich auch noch keine Probleme, las allerdings oft, daß die SATA Modelle sehr häufig in Problemlisten auftauchten. Mit Samsung habe ich eigentlich mit SATA die besten Erfahrungen gemacht, die IDE Platten begannen klassischerweise nach drei Jahren zu heulen (Lagerschäden), liefen aber tapfer durch. Und heute schwöre ich auf Western Digital, wobei ich seit Einsatz der ersten SATA 6GB Platten festgestellt habe, daß diese nun deutlich klappriger zu Werke gehen als ihr SATA 3GB Vorgänger (SATA 6GB: 640 GB, SATA 3GB: 500GB).
 
Bei Hitachi ist es meistens so, dass sie die letzten sind, die Neuerungen einführen, dafür hatte zumindets bei mir bisher alles von Hitachi Hand und Fuß. Die Festplatten verursachten nie Probleme. Ich würde sagen, die lassen sich die nötige Zeit, etwas genau zu analysieren bevor es vorschnell auf den Markt kommt.
 
ich bleib bei WD, hab diverse Seagate,Maxtor und Samsung verschrottet, aber noch niemals eine WD, hab zwar ne externe hitachi die auch gut geht, aber so kann mich hitachi auch noch nicht überzeugen ...
 
Zuverlässiger?
Zuverlässigkeit kann nur praktisch ermittelt werden. Es gibt im Netz eine Formel, wie Hersteller Zuverlässigkeit und dergleichen berechen -und das ist Wahrscheinlichkeitsmathematik gepaart mit profesioneller Schätzometrie... sprich extremst genau... => ich geb nix auf Zuverlässigkeit am Papier...

Meine Samsung HD501LJ laufen seit Jahren im Dauerbetrieb ohne 'nen Muckser. Das schaffen die "Enterprise"-HDDs auch nicht besser. RAID-Optimization ist ein andere Kapitel aber eher eine Firmware-Anpassung denn eine Hardware-Anpassung...

MfG, Thomas
 
Ja, heutzutage nur Glück. Ich würde als Admin für ein Stück Papier mitn paar Zahlen drauf nicht mehr bezahlen wollen. Am günstigen fährt man heutzutage wirklich mit einfachen langsamen Desktop Platten im RAID6.
 
Also hitachi HDDs hatte ich bis jetzt nur in ein paar Notebooks und da liefen sie soweit nur gefühlt etwas langsamer als Samsung und WD aber Sie laufen.
Bei Samsung hatte ich bei rund 200 verbauten HDDs nur 2 Defekte. 1x 1TByte nach 2 Monaten und 1x 250Gbyte nach 2,5Jahren (massenweise defekte Sektoren) alles superschnell über den Support (ohen rechnung etc) getauscht.

SATA/IDE Seagate HDDs sind und bleiben ein NoGo. Reihenweise Ausfälle, mieser Support. dürfte aber auch daran liegen das Sie im Massen bei OEM PCs und billig externen HDDs verbaut werden.
Im server Segment scheinen sie gut zu sein (keien Ausfälle bis jetzt in 12 Betreuten Servern).
 
Was nutzen 2 Mio. (vermutlich hochgerechnete) Stunden Lebensdauer, wenn man bereits spätestens nach dem 42. kompletten Lesen des Platteninhaltes damit rechnen muß, Daten aufgrund eines nicht korrigierbaren Fehlers zu verlieren?

Zum Nachrechnen - das Datenblatt:

http://www.hitachigst.com/tech/techlib.nsf/techdocs/EC6D440C3F64DBCC8825782300026498/$file/US7K3000_ds.pdf

beschreibt die "Zuvelässigkeit" dieser Platte u.a. mit:

Error rate (non-recoverable, bits read) = 1 in 10^15

Mit 3TB = 3*10^12 Byte, oder 24*10^13 Bit bedeutet dies, daß man bereits nach:

1*10^15 / 24*10^12 = 41,67

also knapp 42 maligem kompletten Lesens des Platteninhaltes einkalkulieren muß, Daten aufgrund eines nicht-korrigierbaren Fehlers zu verlieren (am Rande: Es wäre sicher interressant zu wissen, wie oft bis dahin bereits Lesefehler auftraten, die lediglich mit Hilfe der standardmäßigen Fehlerkorrektur wiederhergestellt werden konnten).

Ich erlaube mir einmal, die Zuverlässigkeitsberechnung bezüglich der gespeicherten Daten damit fortzuführen:

Mit einer "Sustained transfer rate" von 152 MByte/s dauert es minimal 19737 Sekunden, die kompletten 3 TB einmal zu lesen, also ca. 5,48 Stunden. Multipliziert man dies mit den oben aufgeführten 41,67 "Komplett-Lesungen" folgen daraus rund 228 Stunden bis zum ersten nicht reparabelen Fehler.

Dividiert man jetzt noch die MTBF durch diese minimale Zeit bis zum mehr oder weniger sicheren ersten Datenverlust, erhält man die Summe der in der gesamten MTBF zu erwartenden Datenverluste mit:

2*10^6 / 228 = 8771

Tausende Datenfehler dürften kaum jemanden veranlassen, die fantastische MTBF auch nur anzukratzen, sondern viel wahrscheinlicher wird das Laufwerk spätestens nach wenigen irreparabelen Lesefehlern auf dem Müll landen...

MfG
 
was erwartst du? ist doch trotzdem wunderbar....

auf 41,67*3 TB =125 TB Daten, kommt ein nicht korrigierbares Bit... wo ist da dein problem?
 
Zurück
Oben