News Massenspeicher: Seagates 12‑TB-Festplatten kommen im zweiten Quartal

roterhund07 schrieb:
Niedrige Garantie?
Die Seagate Archive 8TB mit SMR hat 3 Jahre.
Die Seagate Skyhawk , WD Purple, HGST Deskstar NAS und Toshiba N300 jeweils mit 8TB und PMR haben auch 3 Jahre. So what?
Früher waren 5 Jahre Garantie Standard bei Festplatten. Aber nachdem es nur mehr WD und Seagate gibt...
 
Bogeyman schrieb:
Die größeren HDDs werden dann einfach immer noch teurer gemacht als die aktuellen.
Die werden technisch auch viel aufwendiger als früher, wo man dann einfach die größere Kapazität durch die gesteigerte Datendichte (die steigern auch nicht einfach ist) realisiert hat und nicht wie heute Helium um noch mehr Platter unterzubringen. Die Kosten fallen, wenn man mehr Daten auf einen Platter bekommen und so bei gleicher Kapazität dann weniger Platter verbauen kann, wobei ggf. größeren Kosten der Fertigung solcher Platter dem entgegenstehen.
Bogeyman schrieb:
Würde mich wundern wenn man 25eus/TB bald unterbieten wird deutlich.
Der Euro ist schwach und sowieso nicht das Mass der Dinge bei den Preisen für Computerhardware. Für 25€/TB gibt es auch nur die extrem kostenoptimierten einfachen Desktopplatten, die spielen in einer anderen Liga als die Enterprise HDDs um die es hier geht, wie schon deren Name "Seagate Enterprise Capacity" verrät.

roterhund07 schrieb:
Ich denke mal dann wenn sie durch die Erhöhung der GB/Platter wieder einen Platter einsparen können. Wann genau das ist weiß vielleicht Holt, aber nicht ich.
Die 4TB gibt es inzwischen schon mit 3 statt 4 Platter.

Cool Master schrieb:
Immer größere HDDs aber die UBER bleibt nach wie vor gleich
Die UBER von 1:10^15 wie die großen Seagate sie üblicherweise haben und die Enterprise Nearline wie diese Enterprise Capacity auch, passen bei der Größe. 1:10^14 sind aber bei diesen Kapazitäten lächerlich, theoretisch müsste man da schon beim einmaligen Lesen einer ganze 12TB mit einem Lesefehler und dann schwebenden Sektor rechnen.

roterhund07 schrieb:
Für den Konsumenten wirds nicht günstiger, für Rechenzentren schon. Denn wenn man beim gleichen Speicherplatz weniger HDDs braucht spart man auch Infrastruktur, Racks, Energie und Kühlungskapazitäten.
Eben so ist es, dies ist der Grund warum man bei HDDs heute so ein Rennen zu immer höheren Kapazitäten sieht und diese eben auch mit so gewaltigem technischen Aufwand realisiert. Anders geht es eben nicht, weil die Steigerung der Datendichte extrem schwer geworden ist, ohne auf Technologien wie HAMR zurückgreifen zu können, die Ummagnetisierung beim Schreiben ist das Problem, die immer kleineren Köpfe können dafür immer weniger Kraft aufbringen um diese zu erreichen. Daher die Idee mit dem Laser, denn eine erwärmte Öberfläche ist leichter ummagnetisierbar und man kann größer Köpfe nehmen und ändert nur dort die Informationen wo der Laser die Oberfläche erwärmt.

Cytrox schrieb:
SMR ist im Desktopbereich imho halb so schlimm, wenn man weiß worauf man sich einlässt.
Wenn man nicht so viele Daten auf einmal schreibt, finde ich die Archive v2 sogar sehr angenehm, da man dann immer schnell in deren OnDisk Cache schreiben kann. Dann schlägt deren Schreibperformance die jeder anderen HDD.
Cytrox schrieb:
Ja, für RAIDs sind sie wohl denkbar ungeeignet
Ja und erst recht für HW-RAID Controller, weil die Antwortzeiten beim Schreiben auch mal sehr hoch sein können. Man muss jede Technik eben dafür einsetzen wofür sie gedacht und optimal ist.

sizeofanocean schrieb:
meine DB Software kann ich auch eher schlecht nach solchen Kriterien designen...
Dann sollte man für die DB auch keine SMR Platten nehmen.

Anoubis schrieb:
So große Festplatten richten sich vermutlich primär nicht an Heimanwender.
Das sagt ja schon der Name, die Modelle für Heimanwender kommen dann später.

Blade0479 schrieb:
Das Risiko kennt man dann wenns zu spät ist am Besten ;)
Damit man keine Daten verliert, hat man vorher Backups gemacht, sowie diese regelmäßig geprüft und aktualisiert zu haben. RAIDs ersetzen keine Backups!
 
Zuletzt bearbeitet:
Wie viele Platter hat so ein Teil? :/ Um so mehr Teile um so kürzer die Haltbarkeit, mehr wie drei Platter gefällt mir nicht. Wie wäre es mit einem neuen Format 4z oder so, diese Überlapptechnik haut mich jetzt auch nicht vom Hocker. Wichtig ist für mich in erster Linie die Haltbarkeit.

mfg
 
Auf Augenhöhe mit HGST... wo???
Sicher nicht bei der Haltbarkeit/Technik, denn die Dinger sterben wie die Fliegen :evillol:
 
Zwischendurch hätte ich ja onehin erwartet, dass sich SSDs in diesen Größen in 2 Jahren auch beim Preis mit HDDs messen können, bzw. für Datacenter aufgrund geringerer wärmeentwicklung + Stromverbrauch + platzersparnis trotz eines höheren Preises pro TB atraktiver werden. Aber gerade in den letzten Monaten schien der Preissturz bei SSDs ja nachzulassen, evtl. haben die HDDs also doch noch ein paar Jahre zu leben.
 
Holt schrieb:
Die werden technisch auch viel aufwendiger als früher, wo man dann einfach die größere Kapazität durch die gesteigerte Datendichte (die steigern auch nicht einfach ist) realisiert hat und nicht wie heute Helium um noch mehr Platter unterzubringen. Die Kosten fallen, wenn man mehr Daten auf einen Platter bekommen und so bei gleicher Kapazität dann weniger Platter verbauen kann, wobei ggf. größeren Kosten der Fertigung solcher Platter dem entgegenstehen.
Der technische Fortschritt lässt die Preise eher sinken weil es immer einfacher wird eine bestimmte Sache herzustellen.
Entwicklung gab es früher auch, genauso wie heute, ist ja nicht so dass die ganze Entwicklungsabteilung damals Däumchen gedreht hat weil der Job so easy war. Ein Auto war damals auch ein Gerät was sich nur die wenigsten leisten konnten. Heute hat fast jeder eins und selbst das billigste Fahrzeug hat heute weitaus komplexere Technik in sich stecken als die teuren Karren von damals.
In meinen Augen werden die Preise künstlich hoch gehalten. Man sieht es auch dem hohen Preisunterschied zwischen USB Platten für Consumer und derselben Platte als Bauteil für den PC. Aufpreise von 30% sind keine Seltenheit obwohl sogar noch Bauteile wegfallen nämlich das USB Gehäuse, ergo müsste das Teil günstiger sein, doch das Gegenteil ist der Fall.

Warscheinlich können die Preise aber fallen auf einmal wenn Flash Speicher so langsam in Gebiete vordringt wo man heute noch vermehrt HDDs einsetzt aufgrund des besseren TB Preises.
 
Zuletzt bearbeitet:
C4rp3di3m schrieb:
Um so mehr Teile um so kürzer die Haltbarkeit
Dann müsste der kleine 2 Takt Motor eines Rasenmähers ja viel länger als ein alter Chevy V8 halten :evillol:
C4rp3di3m schrieb:
Wichtig ist für mich in erster Linie die Haltbarkeit.
Die Hersteller legen HDD üblicherweise auf 5 Jahre Nutzungsdauer bei bestimmungsgemäßer Nutzung. Diese geplante Nutzungsdauer hat z.B. Samsung früher auch immer recht offen in die Datenblätter geschrieben hat, so wie hier:
Bei aktuellen HDDs steht das nur noch sehr selten so offen im Datenblatt, aber indirekt findet man es auch immer noch, so steht bei der ST1000VX005 im Product Manual auch noch
Aus 50.000 insgesamt und 10.000 pro Jahr ergibt sich dann aber doch wieder der Hinweis auf die geplante Nutzungsdauer von 5 Jahren. Natürlich gehen die nicht am nächsten Tag kaputt und dürfte ein paar Jahre länger halten, es ist eben die das MHD bei Lebensmitteln, die sind ja auch nicht am Tag darauf automatisch schlecht, können es aber sogar vorher sein, wenn man sie bestimmungsgemäß behandelt, also ggf. vor allen kühl gelagert wurden. Genauso ist es bei HDDs, werden die überlastet, etwas einfach Desktopplatten zu vielen in einem Gehäuse im Dauerbetrieb genutzt wie die ST3000DM001 bei Backblaze, dann sind sie oft nach so knapp über 2 Jahren kaputt. Die sind aber auch nur auf 2400 Power On Hours im Jahr ausgelegt und nicht für Dauerbetrieb, geschweigen denn Dauerlast und haben dann nach 2 Jahren Dauerbetrieb mehr Stunden runter als in über 7 Jahren bei dem vorgesehen Betrieb! Da hat man wieder die 5 Jahren plus einer gewissen Sicherheitszone.

Die Haltbarkeit ist also bei allen gleich und ich glaube Du meist die Zuverlässigkeit, also die Raten vorzeitiger Ausfälle, die eben einfach immer vorkommen. Aber dazu s.u.!

roterhund07 schrieb:
denke mal die 12TB HDDs haben 12/1.4=9 Platter.
Das glaube ich nicht, denn die 10TB von Seagate haben 7 Platter, damit wären also bei 8 Platter dann (10/7)*8 = 11,43 und bei 9 Platter sogar 12,86TB machbar. Es ist anzunehmen, dass man leichter die Datendichte noch einmal um 5% gesteigert hat, denn mehr braucht es nicht um von 11,43 auf 12 zu kommen, als dass man mit einem Schlag von 7 auf 9 Platter gekommen ist.

sizeofanocean schrieb:
Das habe ich auch nie gesagt - ich verstehe deine Antwort nicht.
Wieso diskutierst Du dann um die RAID Fähigkeit von SMR HDDs?

zonediver schrieb:
Sicher nicht bei der Haltbarkeit/Technik, denn die Dinger sterben wie die Fliegen :evillol:
Blödsinn! Die einfach Desktopplatten von Seagate bei Backbalzes sterben nach etwas mehr als 2 Jahren Nutzung, weil sie dafür nicht gemacht waren, aber von HGST werden dort Megascale Enterprise HDDs mit Zulassung für Dauerbetrieb genommen, die auch noch die Sensoren haben um mit so vielen (45 neuerdings auch 60) in einem Gehäuse zu arbeiten. Selbst die alten Hitachi Deskstar Desktop HDDs hatten beides, die waren mit denen von Seagate nicht zu vergleichen und von den Angeboten im Rahmen der Übernahme abgesehen, immer auch deutlich teurer.

Das die Ausfallraten der ST3000DM001 in den ersten 2 Jahren bei Backblaze sehr unauffällig gewesen sind, sieht man hier:
Dafür das die Platten doch auch noch mit sehr vielen HDDs zusammen in einem Gehäuse betrieben werden, waren die Ausfallraten einschl. Q3 2013 wirklich nicht sehr hoch und sind dann vor allem in 2014 gewaltig gestiegen, als die zuerst angeschafften Platten eben so etwa 2 Jahre Betrieb rum hatten und davor passiert ja noch der Burn-In Test.

In der Statistik bei Hardware.fr ist Seagate vorne und die ST3000DM001 unauffällig, wobei der Zeitraum dort maximal 18 Monate ab Kauf umfasst (steht alles auf der ersten Seite):
Auch sind die Ausfallraten bei den 5 und 6TB Modellen nicht grundssätzlich höher als bei den 3TB Modellen:
Mehr Kapazität und damit mehr Platter müssen nicht zu erhöhten Ausfallraten führen. Es hängt vom Modell ab, die Seagate Enterprise NAS hat in 6TB mit nur 0,87% eine viel geringere Ausfallrate als die 3TB mit 2,29%, während es bei der WD Red umgekehrt ist und die 3TB nur 0,96% hat, die 6TB aber 3,37%. Bei 5 und 6 TB liegen auffälligerweise die Seagate durchweg vor den WD und der Toshiba, so viel zum technischen Vorsprung. Übrigens mal so neben: Honda ist der größte Motorenhersteller der Welt, aber die Masse der Motoren sind kleine, billige Einzylinder in Motorsägen, Rasenmähern oder kleinen Motorrädern für die 3. Welt mit maximal 200ccm. Was die gerade wieder am Anfang ihres 3. Jahren in der Formel 1 mit den neue Hybridmotoren zeigen, ist alles andere als ein Zeugnis für technischen Vorsprung, es ist eben nicht das gleiche ob man die anspruchsvolle Spitzentechnologie beherrscht oder nur massenhaft einfach gestrickte Ware raushauen kann.

Bogeyman schrieb:
Der technische Fortschritt lässt die Preise eher sinken weil es immer einfacher wird eine bestimmte Sache herzustellen.
Da hast Du mich noch mit dem Satz "Die werden technisch auch viel aufwendiger als früher" zitiert und dann sowas. Hast Du gar nicht verstanden was Du da von mir zitiert hattest?

Bogeyman schrieb:
Entwicklung gab es früher auch, genauso wie heute, ist ja nicht so dass die ganze Entwicklungsabteilung damals Däumchen gedreht hat weil der Job so easy war.
Das hat niemand behauptet, aber die Spitzenmodelle hat lange Zeit vielleicht 4 oder maximal 5 Platter, so einen Aufwand wie heute gab es damit nicht um noch größere Kapazitäten zu realisieren also damit möglich waren. Wenn Du das mit dem Auto vergleichen willst, ja, damals hat man dann die Vergaser durch eine einfache Einspritzung ersetzt und bekam mehr Leistung, dann eine bessere Multipoint Einspritzung und hatte noch mehr, dazu dann auch weniger Verbrauch, heute ist dazu Turbo mit Direkteinspritzung (die hilft bei der Kühlung, damit man nicht deswegen das Gemisch so sehr anfetten muss) und am Besten ein Hybird damit der Verbrauch weiter fällt, zumindest im Normzyklus. Das kostet eben viel mehr als früher, senkt aber den Verbrauch und hebt die Leistung, auch wenn die immer schweren Karosserien davon kaum was übrig lassen, die müssen ja auch immer sicherer werden und damit man das Gewicht wieder in den Griff bekommt, werden dann besondere und teuere Werkstoffe verwendet und werden Autos allem Fortschritt den es immer gaben, letztlich auch immer teuer. Dafür sind sie aber sicherer und sparsamer, zumindest im Verhältnis zu Gewicht und Leistung, als je zuvor und genauso sind HDDs heute bzgl. Kapazität aber auch der Performance, zumindest den seq. Transferraten, dann auch ganz anderes als früher.

Bogeyman schrieb:
In meinen Augen werden die Preise künstlich hoch gehalten. Man sieht es auch dem hohen Preisunterschied zwischen USB Platten für Consumer und derselben Platte als Bauteil für den PC. Aufpreise von 30% sind keine Seltenheit obwohl sogar noch Bauteile wegfallen nämlich das USB Gehäuse, ergo müsste das Teil günstiger sein, doch das Gegenteil ist der Fall.
Wieso die USB Platten oft so viel billiger sind, kann ich mir eigentlich nur über die Mengen erklären, aber vielleicht spielen da auch der Zoll oder andere Abgaben eine Rolle, keine Ahnung.
Bogeyman schrieb:
Warscheinlich können die Preise aber fallen auf einmal wenn Flash Speicher so langsam in Gebiete vordringt wo man heute noch vermehrt HDDs einsetzt aufgrund des besseren TB Preises.
Die SSDs zwingen die HDD Hersteller ja gerade dazu diese Kapazitäten pro Platte zu realisieren, da sie auf vielen Bereichen schon im Rückzug sind, die Enterprise 2.5" 15rpm werden gerade massiv durch SSDs ersetzt, Seagate hat gerade erst seine letzte Generation solcher HDDs auf den Markt gebracht, WD hat sich aus dem Segment von 2.5" mit mehr als 7200rpm schon zurückgezogen und von HGST dürfte da auch nichts mehr kommen. Die Notebooks werden auch immer öfter nur mit SSDs ausgeliefert und auch die Desktops haben immer öfter zumindest als Systemplatte eine SSD gleich ab Werk.

Außer für das Datengrab / NAS zuhause oder den kleinen Server in Unternehmen wo die Leistung sowieso reicht weil da nicht viel drauf los ist, bleiben vor allem die großen Storages der Serverfarmen und da kostet eben die Infrastruktur auch viel Geld, da rechnet man nicht in TB, sondern wie es im Test auch steht in: "10 PetaByte Speichervolumen in einem einzelnen 42U-Serverrack". Da ist der Wettbewerber der neuen Seagate nicht nur die 12TB von HGST, sondern auch die auch z.B. die Samsung PM1633a mit 15,26TB und mit der gehen 50% mehr in ein Rack: "a 42U cabinet featuring 21 of such servers will be able to store 15482 TB of data (15.4 PB)." Nur 2 statt 3 Racks bzw. 200 statt 300 oder 2000 statt 3000 kaufen zu müssen, ggf. den Anbau des DC aufschieben zu können um diese auch unterzubringen, relativiert den Preis von man munkelte so 10.000USD (aktuell bei der NAND Krise wohl eher mehr) pro SSD und dieses Jahr kommt auch noch die PM1643 mit der doppelten Kapazität, also 10 statt 30, 100 statt 300 oder 1000 statt 3000 racks für die gleichen PB und Toshiba hat sogar eine 60TB SSD (die aber dann als 3.5", davon passen nicht so viele in ein Rack) angekündigt.

Deswegen dieses Rennen um mehr TB bei den HDDs, denn je mehr Kapazität eine einzelne SSD bietet, umso mehr spart man bei der Infrastruktur und umso mehr darf die SSD dann auch pro TB kosten, auch mehr kosten als die HDD, weil dann am Ende die TCO immer noch geringer sind. Die HDD Hersteller sind da schon die Getriebenen und was den Heimanwender interessiert, ist für sie immer weniger relevant, der lagert ja immer mehr Daten in die Cloud aus und da landen sie dann in diesen gewaltigen Serverfarmen wo genau solche HDDs massenweise verbaut sind.
 
Und nur so am Rande, Windows macht es falsch. Linux und OS X bekommen es ohne Probleme hin mit 1000 zu rechnen :)
 
Blade0479 schrieb:
Hat noch gar keiner geschrieben.. " Werde nie verstehen warum man so eine HDD braucht" :D

Vor ca. 20 Jahren wollte ich ein 1GB Laufwerk fürs Geschäft meines Kollegen.
Ein IT-Betrater !!! hat gesagt, "WAAASSSSS? Die bekommst du nie voll, viel zu viel!" :D
... Stümper!
 
Bogeyman schrieb:
In meinen Augen werden die Preise künstlich hoch gehalten.

Je nachdem was man hier unter "künstlich" verstehen will, ja, zweifelsohne. Sonst hätten wir 5 Jahre danach doch wohl zumindest wieder das Vorflut-Niveau (knapp über 25 Eur/TB) erreicht.

Andererseits ist natürlich auch zu bedenken dass die HDD Hersteller wohl einfach keine Lust haben sich auf das selbe Spiel einzulassen dass es vor der Flut gab. Anstatt Marktanteile von einander durch immer bessere Preise abgewinnen zu wollen versucht man lieber über diese aufwändigen Helium-Konstruktionen Lösungen für Kunden mit tieferen Taschen anzubieten.

Fraglich bleibt auch ob der Markt für >=6TB HDDs um 25 Eur/TB überhaupt groß genug wäre um einen profitablen Betrieb zu ermöglichen. Heimanwender die nicht mehr als 100 Eur/Laufwerk ausgeben wollen würden diese ja entsprechend nicht kaufen.

Bogeyman schrieb:
Man sieht es auch dem hohen Preisunterschied zwischen USB Platten für Consumer und derselben Platte als Bauteil für den PC

Ja, deswegen hab ich auch immer so ein mulmiges Gefühl beim Kauf von externen HDDs. Irgendwie liegt schon die vermutung nahe dass die Hersteller hier einfach davon ausgehen dass externe HDDs weniger Nutzung sehen werden als interne und entsprechend minderwertigere Teile verbauen.

Reset90 schrieb:
wieviel bleibt von 12 tb am ende über? wenn ich ne 500gb festplatte anschließe bleiben mir nur 480GB oder sowas.

12 * (1000^4)/(1024^4) = 10,91 (TB)
500 * (1000^3)/(1024^3) = 465,66 (GB)

Cool Master schrieb:
Windows macht es falsch.

Jeder macht es "falsch", bis auf Festplattenhersteller und ... :freak:

Cool Master schrieb:
Linux und OS X bekommen es ohne Probleme hin mit 1000 zu rechnen :)

Keine Ahnung was OSX macht, aber Linux liefert (zumindest mir), sofern ich nichts explizit angebe auch die "falschen" Werte. Sie lassen halt nur das "B" nach dem "K", "M", "G", "T" aus. Wobei, wenn man unbedingt so kleinkariert sein möchte ja auch das "K" falsch wäre, weil es muss ja "k" sein :>
 
Cool Master schrieb:
Und nur so am Rande, Windows macht es falsch. Linux und OS X bekommen es ohne Probleme hin mit 1000 zu rechnen :)

Ja, M$ verwendet einfach die SI-Präfixe FALSCH, GB ist 10^9B=1.000.000.000B und nicht Gi(B) -> 2^30B=1.073.741.824B.
M$-Angaben sind ca. 1,074 mal kleiner, eine 1000GB HDD wird als 1000/1,074=931GB HDD angezeigt, statt 931 GiB.

Wenn M$ das i bei der Datengröße hinzufügen würde, würde es stimmen.

Nachtrag, ich hoffe obiges stimmt bald, genug verbessert, ist halt echt verwirrend. :D .
 
Zuletzt bearbeitet:
Zurück
Oben