News Festplatten: Marktanteile von Seagate, Toshiba und WD im 4. Quartal

Ziemlich unschön, Toshiba braucht mehr Marktanteile. Zumal deren Platten (vielleicht dank HGST Technik?) ziemlich gut sind und auch im günstigen Segment oft bereits 24/7 geeignet sind.
Naja und bevor ich eine günstige WD (sprich eine Green) nehme, greife ich lieber zu einer Seagate oder Toshiba, da muss ich mich wenigstens nicht erst mit Firmwareupdates herumschlagen um das ständige Headparking in den Griff zu bekommen.

Uns droht im Speichermarkt jedenfalls mittelfristig das gleiche Schicksal wie bei den CPUs, sobald WD oder Seagate zu dominant wird, gehen die Preise rauf. Große Geschwindigkeits- oder Kapazitätsschübe sind ohnehin nicht mehr zu erwarten :/
 
Mein Festplattenfabrikant des Vertrauens - Western Digital - hat doch erst kürzlich SanDisk übernommen (von denen ich auch eine SSD im Rechner habe). Bleibt der Name / die Marke SanDisk erhalten oder wird irgendwann der Name sterben und alles unter dem Namen "Western Digital vermarktet? Wäre mal gut zu wissen :)


Gruß,
Der Doc, der schon seit langer Zeit treuer Käufer von WD und SanDisk ist.
 
MountWalker schrieb:
Naja, an der Stelle sollte man ruhig dazu erwähnen, dass das nur für alle ich nenns mal Kaufhallen-Produkte von WD gilt, also Green, Blue, Black, Red und Red Pro.
Aber gerade die sind ja für die Heimanwender interessant und das sind die bei denen eben die Kosten optimiert werden was immer mit schlechteren Eingenschaften wie einem geringeren Workload Rating einher geht. Alos müsste man auch gerade bei denen die Aussgaben bekommen was die nun noch abkönnen um beurteilen zu können ob die noch für den Einsatzzweck geeignet sind.

MountWalker schrieb:
Für Se, Re und Ae gibts durchaus vernünftige Informationen.
Nur wie viele Heimanwender kaufen sich solche HDDs? WD gibt eben nur die Daten der besten und teuersten Modelle preis, wo die guten Werte stehen. Seagate schreibt wenigstens einiges mehr über die billigen Modelle mit nicht so tollen Werten und nur so kann man die HDDs auch bewerten, weiß also letztlich was man für sein Geld bekommt und was eben nicht.

Shririnovski schrieb:
Ziemlich unschön, Toshiba braucht mehr Marktanteile. Zumal deren Platten (vielleicht dank HGST Technik?) ziemlich gut sind und auch im günstigen Segment oft bereits 24/7 geeignet sind.
Das ist Qutasch und lange gewesen, nur die Hitachi hatte alle eine 24/7 Zulassung und die ersten Toshiba 3.5" waren eben nur umgelabelte Hitachi, aber inzwischen schon lange nicht mehr, siehe hier aus 2014:

toshiba_festplatten-png.503023


Da sind es für die Desktop Klasse auch nur noch noch 8 Stunden pro Tag und wenn die nicht ebenfalls extrem kostenoptimiert wäen, würden Toshiba die nicht sogar nicht billiger als die Desktop HDDs von Seagate anbieten können. Das Confidential auf dem Bild zeigt auch, dass es Toshiba bei der Informationspolitik nicht so mit der Offenheit hat, dabei sind das nun wirklich nur grundlegende Basisinformationen zu den 3.5" HDD Klassen und deren Eigenschaften, die auch bei allen Anbietern ähnlich sind.

Offenbar ist aber schon die Angabe des Workload Rating und die Tatsache das eben HDDs heute ähnlich wie SSD nur noch ein beschränktes Datenvolumen übertragen können, für einige Hersteller ein schutzwürdiges Geheimnis, oder zumindest das die billigen HDDs da eben nur ein Zehntel von den TB der teuren Nearline HDDs schaffen.
Shririnovski schrieb:
Naja und bevor ich eine günstige WD (sprich eine Green) nehme, greife ich lieber zu einer Seagate oder Toshiba, da muss ich mich wenigstens nicht erst mit Firmwareupdates herumschlagen um das ständige Headparking in den Griff zu bekommen.
Auch da unterscheiden die sich wenig, aber bei den anderen kann man das meist über APM einstellen, das geht also mit einer Reihe von Tools, dafür muss man es dann aber bei jedem Start wiederholen. Das ist letztlich Gehupft wie Gesprungen, Köpfe Parken um Energie zu sparen machen die Consumer HDDs alle, denn das Energiesparen ist ja heute global die erste Bürgerpflicht.

Shririnovski schrieb:
Uns droht im Speichermarkt jedenfalls mittelfristig das gleiche Schicksal wie bei den CPUs, sobald WD oder Seagate zu dominant wird, gehen die Preise rauf.
Ja, im grund sind WD und Seagate schon demoninat, aber die HDDs bekommen von den SSD Druck von oben, zu wild können sie es mit den Preisen nicht treiben und auch wenn WD nun SanDisk übernimmt, spielen die damit auf dem SSD und NAND Markt noch längst keine beherrschende Rolle, ebenso wenig wie Toshiba das macht.
Shririnovski schrieb:
Große Geschwindigkeits- oder Kapazitätsschübe sind ohnehin nicht mehr zu erwarten :/
Große Geschwindigkeitsschübe gab es bei den HDDs nie, die Geschwindigkeit wächst immer nur im der Wurzel der Steigerung der Datendichte aber die Datendichte und damit die Kapazitäten könnten mit HMR noch einmal eine deutlich Steigerung erfahren.
 
roterhund07 schrieb:
ibt es denn auch vernünftige Informationen zu den WD Purple? WD Purple ist der Pendant zu den Seagate Surveillance.
Da findet man dann eben auch die Aussage, dass eben die Desktop Laufwerke sowas wie 24/7 Betrieb nicht abkönnen und auch nicht die Vibrationen die durch mehrere HDDs im Gehäuse entstehen. Im Datenblatt der Green steht das so direkt nicht, sondern nur:
Davon die nicht 24/7 laufen zu lassen, steht da nichts und viele Usern ist eben auch nicht klar, was die Hersteller unter dem Desktopbetrieb verstehen. Ebenso wird nur vom RAID Betrieb abgeraten, nicht aber generell vom mit vielen HDDs in einem Gehäuse der dann ja die Vibrationen verursacht, die solche HDDs gar nicht mögen, offenbar stellen die Hersteller sich eben viele HDDs in einem Rechner / Gehäuse immer nur als RAID vor, aber das sehen wohl nicht wenige Heimanwender anders. Seagate scheibt ja immerhin "Power-On Hours 2400" ins Datenblatt der Desktopplatten, auch wohl viele User mit diese dieser Angabe nichts anfangen können und wenistens 2400/Year dort stehen müsste.

Die Hersteller sollten also nicht nur indirekt in den Datenblättern der besseren Modelle schreiben wofür die billigeren nicht taugen, sondern das auch mal klar bei denen in die Datenblätter schreiben. Dann wäre den Leute klar was sie von der jeweiligen HDD erwarten können, wofür sie taugt und womit sie überfordert ist und dann würden vielleicht auch mal die Mythen aufhören das die ja aller gleich wären und die Unterschiede nur Marketing seien.
 
Den Postings von Holt kann ich mich nur anschließen. Viele Platten (insbesondere die WD Green) sind nur deshalb so "billig", weil sie nur für eine vergleichsweise kurze Haltbarkeit bzw. eben keinen Dauerbetrieb ausgelegt sind. Der "Otto-Normal"-Kunde wird in den großen Ketten zu genau diesen Platten greifen und kann auch nicht nachvollziehen, weshalb eine (vernünftige) HDD manchmal doppelt so viel kostet, wie sein im M...-M... oder S... gekauftes Modell.

Bei den Platten für Server oder Enterprise-NAS ist eben nicht nur eine modifizierte Firmware drauf, die für den RAID-Betrieb optimiert ist, sondern auch eine stabilere Mechanik (weshalb die Platten lauter sind als Consumer-Ware), Schwingungs-Sensoren usw.

Wer "normale" Desktop-Platten für den Einsatz in Servern, NAS-Geräten oder auch an RAID-Controllern in PCs einsetzt, muss sich dessen bewusst sein, was er tut. Leider sind das aber oft nicht nur "Laien", sondern es gibt auch Fachleute (Diplom-Informatiker), die im Server auf WD Green setzen, weil sie billiger sind und weniger Strom verbrauchen...

Und ja, was Holt schreibt stimmt auch: Die Hitachi Deskstar waren ursprünglich 24/7-zugelassen, aber nur bei weniger schreibintensiven Anwendungen (also z.B. für Medienserver gut zu gebrauchen, für Datenbankserver eher weniger). Auch die ersten umgelabelten Toshiba-Platten (erste DT01ACAxxx-Serie) hatten diese Eigenschaft noch (die haben sich im System auch noch als "Hitachi HDS..." ausgegeben). Solche Toshibas und auch originale Hitachis stecken auch bei mir noch in NAS-Systemen mit weniger schreibintensiven Aufgaben.

Wer seine Daten liebt, sollte aber definitiv zu "echten" NAS- oder Server-Platten greifen, wie die Seagate Enterprise NAS oder Seagate Enterprise Capacity, respektive der WD Re. Von allen anderen Experimenten sollte man die Finger lassen. Und auch bei diesen Platten gilt: Immer ein Backup anfertigen, da selbst die beste Platte nicht vor Datenverlust schützt, sondern lediglich in RAID-Systemen die Verfügbarkeit erhöht.

Und nun nochmal zur Seagate vs. WD-Diskussion:
Beide Hersteller haben "hochwertige" und "günstige" Platten im Portfolio. Bezüglich der Kundenfreundlichkeit konnte ich jedoch Unterschiede feststellen: Ich hatte sowohl bei Seagate als auch WD einmal das Phänomen, dass eine Platte genau 4 Wochen nach Ende der Garantie kaputt gegangen ist. Bei WD war es trotz mehrmaligen telefonischen und schriftlichen Versuchen nicht möglich, mir als Kunden entgegen zu kommen. Bei Seagate dagegen wurde relativ problemlos nach einem Anruf eine RMA erstellt und ich durfte die Platte einsenden. Klar kann man das nicht verallgemeinern, aber ich habe den subjektiven Eindruck, dass Seagate zufriedene Kunden etwas mehr am Herzen liegen.
 
websurfer83 schrieb:
Viele Platten (insbesondere die WD Green) sind nur deshalb so "billig", weil sie nur für eine vergleichsweise kurze Haltbarkeit bzw. eben keinen Dauerbetrieb ausgelegt sind. Der "Otto-Normal"-Kunde wird in den großen Ketten zu genau diesen Platten greifen und kann auch nicht nachvollziehen, weshalb eine (vernünftige) HDD manchmal doppelt so viel kostet
Was heißt vernünftige Platte?

Mit dem Begriff tue ich mich schwer, denn vernünfig kann vieles sein. Schau Dir die HGST Pressemutteilung zur Einführung der Megascale Enterprise HDDs an, ja die die auch Backblaze aktuell verwendet und die dort die geringsten Ausfallraten haben, obwohl ja deren Meinung nach Enterprise HDDs nicht weniger Ausfälle haben:
Nicht alle Festplatten sind gleich. Bei der Wahl eines SAS- oder SATA-Festplattenlaufwerks, das in Enterpriseumgebungen eingesetzt werden kann, ist es wichtig, die Anwendung und den geplanten Workload der Festplatte zu berücksichtigen. Je nach Workload erfordert jede Anwendung spezifische HDDs, um spezifische Leistungs-, Kapazitäts-, Verfügbarkeits-, Footprint- und Wirtschaftlichkeitsparameter zu erfüllen. Für eine optimale Effizienz ist es entscheidend, dass Rechenzentren-Manager bei der Wahl des Speichersystems informierte Entscheidungen mit den richtigen Spezifikationen für den richtigen Anwendungsworkload treffen. Die MegaScale DC 4000.B HDD mit CoolSpin-Technologie eignet sich ideal für Umgebungen mit 24x7 Betrieb und geringen Workload, die pro Jahr bis zu 180 TB bewältigen. Diese Umgebungen sind durch kostengünstige, speicherintensive und mäßige Rechenleistung charakterisiert. Sie müssen eine effiziente Skalierung gewährleisten und große Speichermengen bei geringsten Gesamtbetriebskosten (TCO - Total Cost of Ownership) zur Verfügung stellen
...
Im Vergleich dazu bietet die Ultrastar® 7K4000 Modellreihe ... qualitative Workloads mit bis zu 550 TB Datenmenge pro Jahr. Die Festplatten sind speziell für den ununterbrochenen, kapazitätsoptimierten Einsatz für Enterpriseanwendungen wie RAID, Storage Arrays, Cloud Storage, Data Warehousing, Video-on-Demand und Disk-to-Disk Backup gedacht, sie eignen sich besonders für hoch skalierbare Speicherimplementierungen, bei denen Leistung, Zuverlässigkeit und Speicherdichte von entscheidender Bedeutung sind.
Bei der Megascale geht es vor allem um die Kosten, die sind bei der im Vergleich zur Ultrastar abgespeckten Megascale das Argument. Unternehmen an die sich beide Modelle von HGST ja richten, wollen eben auch möglichst kostengünstig arbeiten und nicht unnötig viel Geld für Platten ausgeben die mehr könnten als benötigt wird, genau wie eben Heimanwender deren Platten im Desktopbetrieb noch weit weniger gefordert werden, im NAS dagegen schon mehr.

Ist die Megascale also eine unvernünftige Platte? Die Ultrastar ist mit 550TB/Jahr zu 180TB/Jahr sicher die technisch bessere Platte, keine Frage, aber ist Megascale nun deswegen schlecht und unvernünftig? Die kann weniger, kostet aber auch weniger und wenn es für die Anwendung reicht was sie kann, ist sie damit doch die vernünftigere Platte für diesen Zweck und nur wenn man sie überfordert wird sie schlecht, oder besser zu schlechten und unvernünftigen Wahl.

Was HGST da schreibt ist absolut richtig, die Platten sind nicht alle gleich und nicht nur in Enterpriseumgebungen muss man zur Wahl der optimalen Platte eben Anforderungen ebenso wie die Spezifikationen der Platten kennen, an beidem scheitern die meisten Heimanwender, nicht zuletzt weil sie den ersten Satz in dem Zitat schon nicht glauben. Der Text richtet sich an Enterprise Kunden, aber für Heimanwender gilt er noch viel mehr, da die eben auch eine noch größere Bandbreite an Anforderungen haben könne, von dem PC mit einer HDD der nur ein paar Stunden pro Tag über das NAS mit 2 oder 4 Platten darun und den mit einem halben Dutzend HDDs drin die fast ständig eingeschaltet sind bis zu den Storageservern mit 12 oder mehr HDDs die manche sich zuhause bauen und bei denen jede Woche ein Srubbing des RAIDs läuft, weil ja die meisten Anleitungen das so empfehlen.

Beide HGST Modelle passen mit ihren 180TB und 550TB Workload auch perfekt in das Schema welches auch Toshibas Programm auf 2014 zeigt:

toshiba_festplatten-png.503023


Bei Seagate gibt es auch noch Modelle mit einem Workload von 300TB/Jahr und WD schweigt bei den Consumer HDD komplett was den Workload angeht.
 
Zuletzt bearbeitet:
@ Holt:
Mit "vernünftig" meine ich, dass bei der Entscheidung zum Kauf einer Festplatte die "Vernunft" eine wesentliche Rolle gespielt hat und nicht nur die "Geiz-ist-Geil"-Mentalität vieler IT-Käufer. Also letztlich genau das, was du in deinem Posting auch beschreibst: Die Platte muss zum jeweiligen Einsatzzweck passen.

Ich stand vor kurzem auch vor der Entscheidung, zwei zusätzliche NAS-Platten anzuschaffen. Für mich standen diese Modelle zur Auswahl:
http://www.seagate.com/de/de/products/network-attached-storage/nas-drives/

Ich habe mich guten Gewissens für die Enterprise NAS HDD mit einer Workload von 300 TB pro Jahr entschieden, da sie zum benötigten Einsatzzweck am besten passt.
 
websurfer83, Du hast eben eine informierte Entscheidung getroffen. Das setzt zuerst einmal Informationen über die Produkte voraus und das ist z.B. bei WD für die Consumer HDDs schon mal schwer.

Hier übrigens ein schönes Video über die Unterschiede zwischen HDDs und warum man die passende HDD auswählen sollte, leider findet man solche Informationen nicht so leicht, aber es sagt doch wenigstens mehr aus als diesen Video von WD über die Unterschiede ihrer Baureihen. Aber war ich nur auf der Suche nach belastbaren Informationen ob die ST8000VX0002 4kn oder 512e ist, aber da stoße ich bei Seagate an die Grenzen der Informationspolitik :(
 
@ Holt:

ich habe mal eine Frage an dich:
Da du den Screenshot einer Toshiba-Präsentation verlinkt hast, hoffe ich, dass du mir weiterhelfen kannst.

Es geht um folgende Toshiba-HDD:
http://toshiba.semicon-storage.com/eu/product/storage-products/specialty/mq03abbxxx.html

So wie ich informiert bin, ist das aktuell die einzige 2,5 Zoll-HDD, die 3 TB Kapazität hat. Leider sind die technischen Daten der Platte auf der Seite nicht aussagekräftig. Als Einsatzzweck steht da "Multi-HDD home NAS".

Aber ob die Platte 24/7 zugelassen ist, welche Workload und für wieviel Bays maximal, alles das fehlt.

Hast du da zufällig weitere Informationen? Außerdem finde ich die Platte als solche aktuell bei keiner Bezugsquelle, einzig als externe USB-HDD zum "Schlachten" ist sie lieferbar:
http://www.hardwareschotte.de/magazin/toshiba-canvio-basics-3tb-im-2-5-zoll-format-a41739

Ich hoffe, dass du vielleicht mehr weißt...

Viele Grüße und vielen Dank
websurfer83.
 
Nein, Toshiba ist bzgl. der Informationen noch mieser als WD und die mögen diese Verarschung mit den 10:10^15 ebenfalls, schreiben sogar 10:10^16 ins Datenblatt der MG Enterprise Nearline. Beachte das die 15nm hoch ist, also nicht überall rein passt und wende die alten Regel für Datenblätter an: Was dort nicht steht ist auch nicht da!


Hier gibt es ein interessantes Dokument von zwei Technikern zu der HDD, einem "Chief Specialist. HDD Products Engineering Department 1, Storage Products Design & Production Division" und einem "Chief Specialist. Common Core Engineering Department 1, Storage Products Design & Production Division".

Die Einführung klingt klar nach einer HDD für USB Gehäuse, nicht für NAS und viele HDDs zusammen in einem Gehäuse, aber das hier haben eben die Techniker über ihr Baby geschrieben, das andere kommt dann vom Marketing. Jedenfalls ist so eine detailreiches Dokument extrem ungewöhnlich, die dürften wohl zu Feier des Erreichens der 1TBit/in² mal richtig offen erzählen wie sie das geschafft haben, was ja auch mal schön und in einem offiziellen Dokument direkt von der Herstellerwebseite zeigt, was ich ja auch immer schreiben, nämlich wie sehr halt die Technologie am Limit ist. So hat die HDD dual-heater technology in den Köpfen, realisiert damit beim Lesen und Schreiben unterschiedliche Abstände für die Köpfe, denn vor allem beim Schreiben müssen die Köpfe immer dichter ran, je höher die Datendichte wird:

In order to increase track density, the write and read
core widths of magnetic heads have been reduced

4.1 Head-to-disk spacing control using dual heaters

The reduction in head-to-disk spacing has been
achieved by the use of dynamic flying height (DFH)
control, which dynamically adjusts the clearance
between the magnetic head and the magnetic disk with
subnanometer precision. The DFH control method uses
voltage-controlled heaters embedded in the magnetic
head to thermally expand and protrude the head ele-
ments.
The MQ03ABB300 employs a dual-heater structure in
which separate DFH heaters in the vicinity of the write
and read elements control their flying heights indepen-
dently (Figure 4).

With the conventional single-heater structure, the
write element is positioned at an altitude closest to
the magnetic disk even during reading. This makes it
impossible to optimize the flying height during read-
ing. Because of manufacturing variations, the write and
read elements do not have constant heights (recesses)
from the slider surface; thus the flying height of the read
element cannot be kept constant owing to the effect
of thermal expansion caused by ambient temperature
changes.

In contrast, the MQ03ABB300 is designed to position
the write and read elements at the lowest altitude during
writing and reading respectively and to keep their flying
heights constant. The use of dual heaters makes it pos-
sible for the MQ03ABB300 to optimally adjust the flying
height separately during writing and reading (Figure 5).

Furthermore, the technology for dynamically keep-
ing the flying height constant has been improved.
Das mit dem Teilkontakt schreiben sie nicht und auf den Bildern ist die Oberfläche der Platter mit dem Lineal gezeichnet, obwohl da die Unebenheiten im einstelligen Nanometerbereich liegen und wenn sie stolz von einer Kontrolle der Abstände im Subnanometer berichten, dann ahnt man schon, dass die 1-2 nm nominaler Abstand nun auch schon unterschritten wurden. Keine Ahnung wieso die Industrie sich da so verschlossen gibt, die beiden haben nämlich auch einen Maulkorb bekommen, denn "thus the flying height of the read element cannot be kept constant owing to the effect of thermal expansion caused by ambient temperature changes" ist natürlich geschickt ausgedrückt um eben nicht zu Erzählen, dass die Temperaturänderungen sich durch die Reibung beim Teilkontaktbetrieb ergeben. Wie lange dauert dann so ein Lesevorgang, das sind ms (bei 5400rpm genau 11,1ms wenn sie mal komplett gelesen wird, was bei weitem nicht immer das Fall ist) für eine Spur, dann wird neu posititioniert, in der Zeit steigt die Umgebungstemperatur einer HDD nicht relevant an, wohl aber die Temperatur der Köpfe, die ja eben nicht wie dort dargestellt einfach über die Oberfläche fliegen, sondern mit der die ganze Zeit immer wieder Kontakt bekommen, das ist ja eben der Preis den man zahlen musste um die Datendichten auf die heutigen Werte steigern zu können, sonst wäre bei 300 bis 400Gbit/in² eben Schluss gewesen.

Deswegen auch die Dual-Heater, damit bekommt man beim Lesen größere Abstände und damit weniger Teilkontakt, also auch weniger Abrieb und weniger Verschleiß, denn das ist der ganze Sinn dahinter, sonst wäre es egal das die Köpfe beim Lesen dichter dran sind als unbedingt nötig ist. Und man bekommt damit dann natürlich ähnlich wie bei SSDs den Effekt, dass das Schreiben mehr Workload als das Lesen verursacht. Bisher werden bei HDDs ja die gelesenen und geschriebenen Datenvolumen einfach addiert, bei so einer Technik müsen die geschriebenen Datenvolumen dann mit einen höheren Faktor in die Rechnung eingehen. Bei SSDs stimmt es inzwischen übrigens auch nur noch begrenzt, dass das Lesen keinen Verschleiß bewirkt, bei den planaren NANDs mit den heutigen 15/16nm Sturkturen und ihren winzige Zellen mit maximal vielleicht zwei Dutzend Elektronen und minimale Zellabständen ist Read Disturb ein viel größeres Problem und das Verhältnis liegt nicht mehr bei 1:10.000 bis 1:100.00 wie früher.
 
Zuletzt bearbeitet:
Zurück
Oben