News MG05ACA800: Toshibas Server‑Festplatten erreichen 8 TByte

MichaG

Redakteur
Teammitglied
Dabei seit
Juli 2010
Beiträge
7.412
#1
Toshiba hat nun auch in der Klasse der Enterprise-Festplatten die Hürde von 8 TByte Speicherkapazität genommen. Das 3,5-Zoll-Laufwerk nennt sich MG05ACA800 und nutzt die Schnittstelle SATA 6 Gb/s. Eine Eignung für den Dauerbetrieb ist selbstverständlich, zudem ist die HDD auf eine jährliche Transferleistung von 550 TB ausgelegt.

Zur News: MG05ACA800: Toshibas Server‑Festplatten erreichen 8 TByte
 
Dabei seit
Jan. 2005
Beiträge
8.042
#2
Toshibas Platten waren bisher immer die, die bei mir am längsten hielten. Länger als alle WDs und Seagates in meinen vergangenen 20 Jahren. Ich weiß natürlich auch, das jeder andere Erfahrungen gesammelt hat - sich darüber zu unterhalten wer jetzt der bessere oder schlechtere ist, ergibt keinen Sinn. Aber bei mir war es grundsätzlich immer so: Samsung -> Maxtor -> Toshiba -> Seagate -> WD. Und WD war das ganz ganz große Schlusslicht. Meine Maxtor- und Samsung-Platten aus 2001 rödeln immer noch brav vor sich hin, nach 150.000+ Betriebsstunden und unzähligen Load/Unload-Cycles.
 
Dabei seit
Mai 2012
Beiträge
688
#3
Verstehe nicht, dass noch aktiv Geld in die Entwicklung von Festplatten gesteckt wird. Mit SSDs kann man doch eine viel höhere Datendichte erreichen und die Preise werden auch immer weiter fallen
 

decree

Cadet 4th Year
Dabei seit
Juli 2009
Beiträge
118
#4
Ich denke mal, dass es einfach immer günstiger sein wird, nicht zeitkrititische Daten und Backups auf HDDs zu speichern statt auf SSDs. Große Enterprise SSDs sind teuer, HDDs sind sehr erschwinglich und werden das auch lange Zeit noch bleiben.
 
Dabei seit
Feb. 2011
Beiträge
5.361
#5
Mit Toshiba und WD hatte ich bisher auch noch keinerlei Probleme :)
Um eine große Menge an Daten zu speichern sind HDD`s derzeitig einfach immernoch ein muss.
 

damn80

Commodore
Dabei seit
Juni 2008
Beiträge
5.033
#6
^^
ssds werden aber sicher nie auch nur annähernd den preis von festplatten erreichen. zudem braucht man auch nicht immer den speed einer ssd, für einfaches datenarchivieren reicht auch ne stino hdd vollkommen aus.
 
Dabei seit
Apr. 2015
Beiträge
1.199
#7
ich hatte schon egal welche Firma mal nen Festplattenausfall...das schlimmste war damals IBM ..die Klapperfestplatten..2 oder 3 Tage gelaufen..danach defekt..hatte lange damals gedauert bis IBM zugab Konstruktionsfehler gemacht zu haben
 

AAS

Lieutenant
Dabei seit
Juni 2007
Beiträge
864
#8
Verstehe nicht, dass noch aktiv Geld in die Entwicklung von Festplatten gesteckt wird. Mit SSDs kann man doch eine viel höhere Datendichte erreichen und die Preise werden auch immer weiter fallen
-Für grosse Dateien sind Festplatten immer noch praktisch
-Gerade bei grossen Schreibvorgängen, kann es sein, dass eine HDD sparsmer ist als eine SSD
-Eine HDD kann ich in den Schrank legen und 10 Jahre später auslesen, eine SSD die 10 Jahre keinen Strom gesehen hat, wird wohl nicht mehr alles hergeben ;)
-TBW von 500-1000 TB sind einfach lächerlich für eine enterprise Medium
-Datenrettung extrem schwieriger bzw. teilweise unmöglich
-URE sind bei Inbetriebnahme recht hoch und erst mit der Zeit niedriger
 
Dabei seit
Mai 2011
Beiträge
1.010
#9
Dabei seit
Feb. 2012
Beiträge
3.187
#10
Verstehe nicht, dass noch aktiv Geld in die Entwicklung von Festplatten gesteckt wird. Mit SSDs kann man doch eine viel höhere Datendichte erreichen und die Preise werden auch immer weiter fallen
SSDs sind ganz einfach nicht in allen bereichen rentabel, gerade im Enterprisegeschäft nicht. Beim Preis pro GB werden SSDs auf absehbare zeit nicht an festplatten rankommen, erst recht nicht in der Enterpriseklasse. Und es gibt viele anwendungen, wo es auf nichts anderes ankommt, als auf viel günstigen speicher, der einfach zu händeln ist. Das gleiche mit schnellen SAS Platten. Auch diese haben eine berechtigung, da diese beispielsweise super Schreibleistungen abliefern, ohne dass der Speicher dabei verschleißt.

Nur weil Festplatten im privaten umfeld nicht mehr viel Sinn machen (wobei ich auch da nicht den grund sehen würde, ein reines datengrab auf ne sack teure SSD zu packen) heißt es nicht, dass es im enterprisemarkt keine verwendung gibt. Der Professionelle bereich spült viel mehr umsatz in die taschen der Hersteller und spielt auch eine größere Rolle. Für diese einsatzzwecke werden huptsächlich die produkte entwickelt.

@AndrewPoison: Ist eh immer so eine Glückssache. Mir Beispielsweise ist bisher nur eine einzige festplatte abgeraucht und es war eine Samsung. Ich glaube Backblaze hatte mal vor einigen jahren größere Statistiken aufgestellt und da hat Hitachi mit abstand am besten abgeschnitten. Allgemein kommt es eh immer auf die Serie an. Wir haben in der Firma auch mal ne Serie Seagate Platten mit shadhafter Firmware verbaut, die teile sterben wie die Fliegen, andere Serien hingegen sind kaum kaputt zu bekommen. Würde das nie s an den hersteller binden. Jeder hersteller hat gute und weniger gute Serie und Montagsmodelle hat eh jeder mal.

Privat nutze ich hauptsächlich Wester Digital. Bisher gute Erfahrungen und von Preis / Leistung habe ich da immer gute Würfe gemacht.
 

N4zGuL

Lt. Junior Grade
Dabei seit
Feb. 2011
Beiträge
256
#11
SSDs sind ganz einfach nicht in allen bereichen rentabel, gerade im Enterprisegeschäft nicht. Beim Preis pro GB werden SSDs auf absehbare zeit nicht an festplatten rankommen, erst recht nicht in der Enterpriseklasse.
ist nicht korrekt. stacke nur noch Flash only, auch im backup. der Preis Unterschied bei entsprechenden Volumen ist nicht mehr relevant. Gruss
 

Neozone

Cadet 4th Year
Dabei seit
Mai 2005
Beiträge
122
#13
ist nicht korrekt. stacke nur noch Flash only, auch im backup. der Preis Unterschied bei entsprechenden Volumen ist nicht mehr relevant. Gruss
wir haben viele Kunden, die für Backups mehr als 15TB an Speicher brauchen und da wäre eine SSD vollkommen überflüssig und zu teuer.
Auch in Servern würde ich eher SAS Platten anstatt SSDs verwenden.

Für normale Client PCs klar, da sind SSDs erste wahl.
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
46.973
#14
ssds werden aber sicher nie auch nur annähernd den preis von festplatten erreichen.
Zumindest auf lange Zeit nicht, da ja auch bei den HDDs noch neue Technologien wie HAMR kommen, die dann deren Preis pro TB weiter senken werden. Bei NAND ist man schon in die dritte Dimension gegangen, da ist nicht mehr unendlich viel Potential für Kostensenkungen drin.

-Für grosse Dateien sind Festplatten immer noch praktisch
Ja, die spielt die lange Zugriffszeit der HDDs keine so große Rolle.
-Gerade bei grossen Schreibvorgängen, kann es sein, dass eine HDD sparsmer ist als eine SSD
Wobei das die SSD im Idle dann meist wieder ausgleicht und weil die meist schneller schreibt, ist sie auch früher wieder Idle. Man sollte da nicht nur die Watt sondern auch die Zeit betrachten.
-Eine HDD kann ich in den Schrank legen und 10 Jahre später auslesen, eine SSD die 10 Jahre keinen Strom gesehen hat, wird wohl nicht mehr alles hergeben ;)
Da sehe ich bei einer SSD bessere Chancen, zumal wenn sie neu ist und die Lagerung kühl erfolgt. HDDs sind nicht unbeschränkt lagerfähig! Dazu schreibt Seagate z.B. hier und auch in einigen anderen Product Manuals: Wenn also die Lagerbedingungen nicht eingehalten werde, sind 90 Tage und zwar in der ungeöffneten Originalverpackung, sonst bestenfalls 1 Jahr. Nach dem Öffnen sollten HDD nicht länger als 30 Tage stromlos sein.

Bei der neuen Barracuda Pro 10TB mit Heliumfüllung schreibt Seagate: Also hier nur ein halbes Jahr in der ungeöffneten originalen Versandverpackung von Seagate und sonst 2 Monate, nur bei optimalen Bedingungen bis zu einem Jahr.

HGST schreibt für die Megascale: Es kann sein das eine vor 10 Jahren eingelagerte HDD heute nocht geht, verlassen kann man sich darauf nicht und wenn sie noch geht, muss das nicht auch für eine heutige HDD in 10 Jahren genauso gelten. Die Langzeitarchivierung digitaler Daten ist sowieso ein besonderes Problem und weder mit eingelagerten HDDs noch eingemotteten SSDs wirklich zu lösen.
-TBW von 500-1000 TB sind einfach lächerlich für eine enterprise Medium
Wovon redest Du? Die meisten Enterprise SSDs werden nur mit weniger als 0,3 DWPD beaufschlagt und weiter SSDs sich verbreiten, umso mehr werden auch für Anwendungen verwendet so es noch weniger ist. Die HDDs haben auch einen beschränkten Workload (von den 15krpm abgesehen) und da zählt anderes als bei SSDs auch das gelesene Schreibvolumen dazu. Bei den 3.5" ist 550TB/Jahr das Limit, es gibt keine die noch höher spezifiziert sind!
-Datenrettung extrem schwieriger bzw. teilweise unmöglich
Wer Datenrettung braucht, hat vorher schon grobe Fehler bei der Datensicherung gemacht! Für Enterprisekunden sollte das kein Argument sein und hier geht es in der News um eine Enterprise HDD!
-URE sind bei Inbetriebnahme recht hoch und erst mit der Zeit niedriger
Wie bitte? Bei was, HDDs oder SSDs? Die Kurven sehen im Prinzip so aus:



Da sehe ich weder bei HDDs noch bei SSDs eine hohe Rate unkorrigierbarer Bitfehler am Anfang und bei SSDs kommen solche Fehler erst am Ende der Lebenserwartung vor, außer man hat sie z.B. mit unerwarteten Spannungsabfälle provoziert, aber die entsprechenden Enterprise für Data Center sind alle mit eine Full-Power-Loss-Protection versehen und nicht nur so einer Client Lösung wie sie einige Consumer SSDs haben und das Marketing sie anderen nur andichtet.
Das gleiche mit schnellen SAS Platten. Auch diese haben eine berechtigung, da diese beispielsweise super Schreibleistungen abliefern, ohne dass der Speicher dabei verschleißt.
Nein, deren Zukunft ist schon zu Ende, WD hat das Segment selbst schon aufgegeben, Seagate hat kürzlich noch einmal eine neu Generation vorgestellt, aber auch gleich mit den Hinweis das es sie letzte sein wird. Die Teile sind im Vergleich zu SSDs zu lahm, aber die werden eben immer dort eingesetzt wo die Performance eine Rolle spielt und die Kapazitäten sind geradezu lächerlich klein, was für Storage mit großen Kapazitäten zusätzliche Kosten für die Infrastruktur bedeutet.

Die Haltbarkeit der NANDs ist bei SSDs auch nicht das Problem welches manche immer noch dort zu sehen glauben. Erstens sind auch HDDs nur auf eine Nutzungsdauer von 5 Jahren ausgelegt, zweitens gibt es auch SSDs mit 10 und mehr DWPD und drittens liegt es an der intelligenten Verteilung wie viele DWPD die SSDs wirklich haben müssen. Wenn man z.B. für eine DB die Daten auf ein RAID 5 / 6 packt und nur die Tablespaces mit viel Schreibvolumen schon wegen der Performance extra auf ein RAID 1 oder RAID 10, dann wären die SSDs für dieses RAID 1 (RAID 10 bräuchte man bei deren Performance und Kapazität vermutlich nicht) natürlich hoch belastet. Aber man könnte sehr wahrscheinlich einfach nur ein RAID 5 über alle SSDs machen und wäre immer noch schneller, würde aber die hohe Schreiblast damit über alle SSDs verteilen und würde dann für diese auf weit weniger DWPD kommen, da auch Datenbank meist einen gewissen und oft nicht geringen Teil statischer Daten enthalten die sich eben kaum bis gar nicht ändern. Das Know-How wie man es am geschicktesten anstellt, ist aber leider bei vielen der Verantwortlichen nicht zu finden.

Der Professionelle bereich spült viel mehr umsatz in die taschen der Hersteller und spielt auch eine größere Rolle. Für diese einsatzzwecke werden huptsächlich die produkte entwickelt.
Richtig, es geht in der News um eine "Server‑Festplatte", die ist nicht für den Heimanwender gedacht.

Ich glaube Backblaze hatte mal vor einigen jahren größere Statistiken aufgestellt und da hat Hitachi mit abstand am besten abgeschnitten.
Nicht wieder Backblaze, die haben Anwendungen für die sie genau solche Server-Festplatten einsetzen müssen, nehmen aber stattdessen von Seagate und Toshiba nur die einfachsten Desktopplatten und damit ist es auch kein Wunder, dass diese nicht so lange durchhalten. Die einzelnen Kategorien von HDDs unterschieden sich intern viel stärker als man es ihnen von außen ansieht, die billigsten Desktopplatten haben zum Beispiel nur 55TB/Jahr Workload Rating, also ein Zehntel dessen was die Enterprise Nearline HDDs haben. Die HGST Megascale die Backblaze einsetzt, sind übrigens Enterprise HDDs der Cloud Klassen, also mit 180TB/Jahr Workload, aber 24/7 Zulassung und aufwendiger Technik gegen Vibrationen, die sind für unendliche viele HDDs im gleichen Gehäuse zugelassen. Von WD werden dort die Red verbaut, einfache NAS Platten die zwar 24/7 Zulassung haben, aber nur für bis zu 8 HDDs in einem Gehäuse gedacht und zugelassen sind, die frühen Red sogar nur für bis zu 5.

Die alten Hitachi waren übrigens alle mit 24/7 Zulassung und der aufwendigen Technik gegen Vibrationen versehen, selbst die einfache Deskstar! Mit den einfachen Desktopplatten von heute oder auch schon von vor Jahren bei Seagate wie der ST3000DM001, haben die also nichts zu tun, waren aber von einige guten Angeboten in der Zeit der Übernahme durch WD auch immer deutlich teurer und wurden danach direkt nur als Deskstar NAS weiter geführt, die einfachen Deskstar gab es nach der Übernahme lange gar nicht mehr im HGST Programm.
Man muss die für die jeweilige Anwendung passende Platte kaufen und nicht einfach die, die in der Kapazität am günstigsten ist! Würde Backbalze von Seagate und Toshiba auch Enterprise HDDs verwenden wie von HGST, wäre ein Vergleich der Ausfallraten der Hersteller möglich, so ist er dort wegen der unterschiedlichen Arten von HDDs aber einfach nicht legitim!
stacke nur noch Flash only, auch im backup. der Preis Unterschied bei entsprechenden Volumen ist nicht mehr relevant.
Gerade wenn es um große Datenvolumen geht, ist der Preisunterschied von HDDs und SSDs relevant und keiner kann sehr viele TB als SSDs zu ähnlichen Preisen wie als HDDs verbauen, außer der Lieferant verkauft die HDDs total überteuert :evillol:
 

Anhänge

Dabei seit
Nov. 2006
Beiträge
8.327
#15
^^
ssds werden aber sicher nie auch nur annähernd den preis von festplatten erreichen. zudem braucht man auch nicht immer den speed einer ssd, für einfaches datenarchivieren reicht auch ne stino hdd vollkommen aus.
So. Da wette ich mal einfach 50 EUR dagegen und behaupte, dass Flash in einigen Jahren alle HDDs ersetzen wird. Diese Entwicklung ist doch sowas von eindeutig!

 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
46.973
#16
Die 50€ dürftest Du verlieren, eben weil das Potential für Preissenkungen bei NAND immer eingeschränkter wird. Bisher hat man die Strukturen verkleinert, womit auch die Größen und vor allem Abstände der Zellen immer kleiner wurden, was zu Problemen wie geringen Zahl der Elektronen pro Zelle und der Beeinflussung der Nachbarn führt. Daher geht man gerade in die dritten Dimension, aber auch hier gibt es Grenzen, für jeden Layer braucht man eine Menge Bearbeitungsschritte und die kosten Geld und erhöhen das Risiko den ganze Wafer bei einem Fehler zu verlieren. Die Kosten der Fertigungsanlagen sind auch um ein Vielfaches höher als bei planaren NANDs.

Derzeit geht man davon aus, dass so bei 128 Layern die wirtschaftliche Grenze sein dürfte, die wird man sicher noch nach oben verschieben, aber in diesem Jahr schon dürften 64 Layer normal sein. Dann kann man noch entweder die Zellen und deren Abstände wieder verringern, oder eben mehr Bits pro Zelle speichern, nur leider schließt das eine das andere eben mehr oder weniger aus, da in kleinen Zelle eben nicht so viele Elektronen und damit Bits gespeichert werden können. Die Zeit der schnellen Kostensenkungen ist bei NAND vorbei und auch über immer größere Fertigungskapazitäten kann man die Kosten nicht endlos weiter senken.

Bei HDDs wird es im Gegenzug auch noch neue Technologien wie HAMR geben und man erwartet die Datendichte noch einmal um den Faktor 6 bis 10 steigern zu können, wobei die Kosten zwar auch steigen werden, aber bestimmt nicht in der gleichen Proportion. Das Wettrennen ist also zwar noch offen, aber so schlecht stehen die Karten für HDDs nicht, zumindest wenn die neuen Technologien wie HAMR endlich serienreif sind, dies zieht sich ja schon eine ganze Weile hin.
 
Top