News Western Digital: MAMR überholt HAMR und ermöglicht 40‑TB‑HDDs

Vindoriel schrieb:
Größere Scheiben -> mehr Belastung für die Mechanik und höherer Stromverbrauch. Die Drehzahl müsste gesenkt werden und die Platte wird ar***langsam. Man vergleiche die Quantum Bigfoot mit damaligen 3,5"-Platten...

Wenn Scheiben mit Flugrost dran noch punkten können, dann im Preis. Arschlahm sind sie und werden sie immer gegenüber einer SSD bleiben. Allerdings sind sie recht fix (in Sachen Zugriffszeit) im Vergleich zum LTO-Band, aber halt auch deutlich teurer. Von oben und von unten frisst man ihnen die Marktanteile weg. So ist das mit Technologien, deren Zeit langsam abläuft...

Vindoriel schrieb:
Nur dass eine SSD im Leerlauf kaum Energie braucht, eine Festplatte hingegen braucht ständig Strom zieht (Spindelantrieb). Bei Zugriffen brauchen beide mehr energie, aber die SSD dafür deutlich kürzer, weil diese schneller mit der Arbeit fertig ist.

Sagen wirs so: Wer sich rackweise Platten irgendwo hin stellt, der hat damit anderes vor, als sie im Idle zu schonen. Für echtes Idle (24.12. von 19 bis 23 Uhr?) gäbs den Spindown, und für noch mehr Idle inkl. minutenlanger Zugriffszeit von Archivdaten das besagte LTO.


WD soll erstmal liefern, statt herumzuposaunen. Momentan gehen die Absolutpreise mit langsam steigender Kapazität nur nach oben, während die Preise pro TB stagnieren. Die billigste 2TB kostet immer noch 60€, wie damals vor "der Flut" 2011. 4TB liegen bei sowas wie 100€, 3TB genau mittig zwischen 2 und 4TB, und 8TB bei 200€. Völlig linear, technologisch aufs Letzte ausentwickelt und mit einem besseren Duopol markttaktisch stabilisiert. Der ehemals ausgeprägte Sweetspot pro Speicherplatz bei der kapazitätsgrößten (oder zweitgrößten) verfügbaren Platte ist längst dem Speicherdichten-Aufschlag gewichen - 10TB liegen nicht bei 250, sondern bei 300€, 12TB bei 400€+ statt 300€. Und 14TB (wurden ja erst letzte Woche angekündigt) werden bei *glaskugel* 550€ einsteigen, wenn sie dann im Prosumer-Segment in Stückzahlen erhältlich sind.

Melkt die Leute, solangs euch noch gibt...
 
Als Backupspeicher vertraue ich klassischen Festplatten noch mehr, als SSDs. Auch wenn es um sehr viele Schreibzugriffe geht, sind SSDs eher am Ende.
Außerdem kann man davon ausgehen, wenn Hersteller ihre Zeitpläne so auslegen, wie sie es tun, dann wird da schon eine solide Marktanalyse vorangegangen sein: also wird der Bedarf an Platten vorhanden sein.
 
andr_gin schrieb:
Wird ein Controller im RAID System defekt wird dieser per mission critical 4h Vor Ort Service ausgetauscht. Ist der Controller direkt mit dem Datenträger untrennbar verbunden wird es schwierig.

Wenn etwas "mission critical" ist, wird heutzutage einfach das Serverreplikat gestartet. Wann der Controller oder eine PCIe SSD getauscht ist, ist praktisch irrelevant.

HDDs machen heutzutage in immer weniger Einsatzfällen noch einen Sinn.
 
haben wir in dieser news den "beweis" dafür, dass neuer nicht besser ist, aber wenn man das alte schlechter da stehen lässt werden die leute schon "neu" kaufen? wie ich darauf komme?

wd.png


wenn diese grafik nicht einfach nur von wd dahingekritzelt wäre, sondern irgendeine wissenschaftliche grundlage hätte, würden sich solche fehler gar nicht erst ergeben.
 
Simon schrieb:
Um ehrlich zu sein: In acht Jahren interessiert sich vermutlich niemand mehr für 40 TB große drehende Festplatten.
Bin ich anderer Meinung. NL-SAS Platten werden auch in Zukunft die Speicherform für den "Storage Capacity Tier" sein. Um NetApp's Speicherguru Georg Mey zu zitieren: "The ATSC areal density roadmap indicated that 100 TB 3.5-inch HDDs could be possible by about 2025."
Dafür sterben die hohen Drehzahlen aus: 15k RPM ist es quasi bereits, 10k RPM höchstwahrscheinlich nächstes Jahr.

Simon schrieb:
2018 wird es vermutlich die ersten Flash Systeme mit 1 PB Kapazität pro Höheneinheit geben.
Auch eine steile These. Glaube ich nicht daran. Noch nicht in 2018.
Aktuell bekommt man ja erst so knapp 370TB pro 2HE (z.B. mit einer EF570 von NetApp mit 24x 15,3TB SSDs).

Mit dem neuen Formfaktor NGSFF/Ruler, der ja auch noch etwas braucht bis die Storage-Hersteller da mitspielen, gehts dann z.B. Richtung 576TB pro 1HE (mit 36x 16TB SSDs).
https://news.samsung.com/global/sam...tackle-data-processing-and-storage-challenges

Neben NGSFF (falls er sich wirklich etabliert und angenommen wird) wird meiner Meinung nach in den nächsten 2-3 Jahren nicht plötzlich ein noch kleinerer Formfaktor auftauchen, um noch mehr TB in die HE reinzubekommen.
Und ob wir mit 30TB SSDs schon in 2018 rechnen können, um mit 36 davon auf rund 1PB/HE zu kommen, wage ich zu bezweifeln.
 
Also entweder ist es die Müdigkeit oder mein Physikwissen, woran es gerade hapert.

Da wird geschrieben, das ein schwächeres Magnetfeld benötigt wird, warum also ein weiteres "externes" Magnetfeld zur Unterstützung ? Wird damit die Schwächung nicht wieder aufgehoben ?


Edit

Dies erfordert im Gegenzug kleinere Köpfe mit mehr Präzision, aber schwächerem Magnetfeld

Nach mehrmaligem lesen, komme ich zum Schluss : Das Magnetfeld ist schwächer, weil die Köpfe selbst kleiner werden, also kommen zB Hinter (oder sonst wo) den Köpfen diese Magnetfeldgeneratoren zum Einsatz um das auszugleichen...

Ich bitte um korrektur/bestätigung
 
Zuletzt bearbeitet:
Seit 5 Jahren höre ich, wie die SSD in 5 Jahren die HDD aus dem Feld wirft.
Nun, 5 Jahre später, lebt die HDD immer noch.
Erkenntnis: Ihr habt keine Ahnung in Sachen Entwicklung!
BWL studiert?
Börse schonmal versucht (da fallt ihr mächtig aufs Maul)?

Auch in 5 Jahren wird die HDD noch gut mitmischen. Natürlich weniger wie jetzt.
Es ist ein schleichender Prozess!
 
habichtfreak schrieb:
wenn diese grafik nicht einfach nur von wd dahingekritzelt wäre, sondern irgendeine wissenschaftliche grundlage hätte, würden sich solche fehler gar nicht erst ergeben.
Unbenannt.PNG
Reicht das als Grundlage? (Quelle: http://idema.org/?page_id=5868)
Wenn es einer weiß, dann die ASTC. Bis auf Toshiba sind dort alle relevanten HDD-Hersteller vertreten.

Ist noch von Anfang 2016, deshalb taucht MAMR noch nicht auf (was ja auch nur ein wirtschaftlicher Zwischenschritt zum HAMR/HDMR sein soll).
 
Um ehrlich zu sein: In acht Jahren interessiert sich vermutlich niemand mehr für 40 TB große drehende Festplatten.

Sowohl hinsichtlich Datendichte als auch Betriebskosten sind 2025 die SSDs vermutlich klar an jeglicher Magnettechnik vorbei gezogen.

Solange SSDs die Daten nicht wenigstens 3 Jahre zuverlässig speichern kann im stromlosen Zustand, werden die Magnetspeicher weiterhin gefragt sein!
 
Schnitz schrieb:
Warum führt man nicht wieder 5,25" Platten ein, dann wären auch schon größere Einzelplatten möglich. Im Enterprise Bereich gibt es ja auch 3,5" SSDs
Was für 3.5" SSDs spielen denn im Enterprisesegment wirklich eine Rolle? Das sind doch allenfalls Exoten. 5.,25" HDDs wird es wegen der Vibrationen ebensowenig geben wie 3.5" HDDs mit größere Bauhöhe, also längeren Achsen. Das ist auch der Grund warum die HDDs mit mehr als 7200rpm schon seit einiger Zeit nur noch als 2.5" Modelle gebaut werden.

Simon schrieb:
Um ehrlich zu sein: In acht Jahren interessiert sich vermutlich niemand mehr für 40 TB große drehende Festplatten.
Das ist extrem unwahrscheinlich, da auch die Kosten für NANDs immer schwerer zu senken sind. HDDs werden noch sehr lang und vermutlich sogar für immer einen Kostenvorteil gegenüber SSDs und damit für bestimmte Anwendungen eine Daseinsberechtigung haben.
Simon schrieb:
Sowohl hinsichtlich Datendichte als auch Betriebskosten sind 2025 die SSDs vermutlich klar an jeglicher Magnettechnik vorbei gezogen.
Bei der Datendichte haben sie schon gewonnen und daher kann es ja nach Anwendung auch sein, dass sie bei der ToC gewinnen, aber eben nicht in jedem Fall und schon gar nicht, wenn die Performance keine große Rolle spielt.

Simon schrieb:
Der Preisverfall bei NAND-Flash ist aktuell durch die hohe Nachfrage gebremst, aber das muss nicht so bleiben.
Der Presverfall wird aber auch nach dem Ende der aktuellen Angebotsknappheit nicht ewig so weitergehen wie vorher. Shrinks sind schon nicht mehr möglich gewesen, da sonst die Zellen zu klein werden und deren Abstände ebenso, was zu Übersprechen führt. Dann ging man, bzw. geht man jetzt in die 3. Dimension und hat dabei die Abstände und Größen der Zellen auch wieder erhöht, außerden erhöht man die Anzahl der Layer. Aber jeder Layer kostet Bearbeitungsschritte und erhöht das Risiko bei einem Fehler den ganzen Wafer unbrauchbar zu machen, weshalb die Zahl der Layer die wirtschaftlich herstellbar ist, auch begrenzt sein wird. Man ging vor einiger Zeit davon aus, dass das Limit bei so 128 Layer liegen dürfte, natürlich dürfte dieser Wert mit der Zeit steigen, aber lass es 256 Layer sein, was dann 4x so viel wäre wie bei den neusten NANDs mit 64 Layern und vergessen wir mal die Kosten der zusätzlich Bearbeitungsschritte, so wäre der Preis dann ein Viertel des heutigen und damit immer noch weit über den Kosten pro GB einer HDD.

Man kann die Größen und Abstände der Zellen dann wieder etwas verringern, dann wird es aber schwer bis unmöglich mehr Bits pro Zelle zu speichern, da das eine das andere ausschließt. Auch bei den Kosten für NANDs wird es also immer langsamer gehen, weil es immer schwerer wird diese zu senken.

Simon schrieb:
2018 wird es vermutlich die ersten Flash Systeme mit 1 PB Kapazität pro Höheneinheit geben.
Was aber an den Kosten pro TB für die SSDs nichts ändert und allenfalls bei der TCO für große Unternehmen einen Vorteil bringt, nicht aber dem Heimanwender.
xexex schrieb:
Weil Platten mit Kapazitäten jenseits von 10TB auch jetzt schon reine Nischenware im Endkundenbereich sein dürften und im Rechenzentrum schon 3,5" Platten immer seltener anzutreffen sind.
Für Heimanwender vielleicht, wobei diejenigen die ein NAS oder Heimserver haben, schon eher zu so großen HDDs greifen. Ob so große HDDs in Rechnezentren zu finden sind, hängt sehr davon ab was die Firma macht die dieses Rechnenzentrum betreibt. Wenn da sehr große Datenmengen gespeichert werden müssen die auch noch ständig wachsen, dann dürften da schon so große HDDs zu finden sein und immer mehr von denen dort ein Zuhause finden.
xexex schrieb:
Ganz abgesehen davon wären die Zugriffszeiten solcher Platten schlecht und die Herstellung solchen riesigen Datenträger mit modernen Speichertechnik kaum oder gar nicht umsetzbar.
Auch wenn manche es nicht glauben, aber es gibt eine Menge Daten auf die gar kein häufiger und damit schneller Zugriff nötig ist, sehr wahrscheinlich dürften derartige Cool und Cold Daten sogar die ganz große Mehrheit aller Daten ausmachen die weltweit gespeichert werden.
xexex schrieb:
Eine Platte gehört auch nicht in einen Schrank. Sie gehört in ein SAN oder NAS mit entsprechenden Fehlerprüfung und bei Bedarf einem Austausch.
Richtig!

Limit schrieb:
Bei der Datendichte sind sie doch schon länger an den HDDs vorbei. Bei den Kosten sehe ich SSDs im günstigsten Fall da, wo HDDs heute schon sind.
Sehe ich auch so, wobei letzteres schon sehr schwer werden dürfte, zumal bis 2025.
Limit schrieb:
Die Samsung 850 Evo mit 4TB wird mit 3.6W angegeben, die Seagate IronWolf 12TB mit 6.8W. Für gleiche Kapazität bräuchte man also drei SSDs (3*3.6W = 10.8W), die dann mehr verbrauchen als die eine Seagate.
Wobei dies alleine aus Sicht des Heimanwenders ist, Enterprise SSDs gibt es auch mit größeren Kapazitäten als die 4TB der größten 850 Evo. Außerdem schreiben die drei Evo zusammen viel schneller als die eine 12TB HDD, sind also schneller wieder Idle und damit sparsamer bzw. schreibt ggf. nur einer der 3 SSDs, während die anderen beiden Idle sind und selbst dann ist die eine SSD noch schneller. Wenn dauernd gelesen- oder geschrieben werden muss, dann wäre die HDD von der Leistung her vermutlich zu lahm und die SSDs schon deswegen im Vorteil. Praktisch dürften die SSDs also auch bei der Leistungsaufnahme im Vorteil sein, selbst wenn man drei 850 Evo 4TB mit einer 12TB HDD vergleicht.
Limit schrieb:
Ansonsten hört sich die Technologie interessant an. Der Zeitplan deckt sich mit dem Zeitplan von Seagate für HAMR.
Wobei Seagate den Zeitplan für HAMR ja schon ewig immer weiter rausschiebt. Es wird also spannend sein zu sehen wer zuerst mit was auf den Markt kommt.

zonediver schrieb:
Einen Motor von 1939 optimiere ich ja auch ned ständig weiter - neue Techniken werden das Getue sicher bald ablösen...
Auch fast die ganzen heutigen Verbrennungsmotoren basieren noch auf der Technik der Motoren von 1939, auch wenn sich seither bei Zündung, Gemischaufbereitung und vor allem der Steuerung und Abgasbehandlung viel getant hat, denn der einzige Versuch etwas radikal anders zu machen war der Wankelmotor und dessen Erfolg blieb doch sehr beschränkt. Die heutigen HDDs haben selbst mit denen von vor 10 bis 15 Jahren auch nicht mehr gemein als die heutigen Automotoren mit solchen von 1939, da hat sich ähnlich viel getan, nur sieht man davon noch weniger als bei den Motoren. Aber wie bei den Motoren hat sich selbst die Schmierung geändert.

andr_gin schrieb:
Bei SSDs wurde dieses sogar schon erreicht und man musste durch die 3D Fertigung wieder einen Schritt zurück machen ohne die Zuverlässigkeit extrem zu gefährden (Stichwort NAND cell decay bei TLC Speicher).
Diesen Schritt zurück habe man bzgl. der Größe und Abstände der Zellen getan.
andr_gin schrieb:
nach der Flut in Thailand 2011 bzw. dass durch diese 2 Hersteller die Chance genutzt haben aus dem Dumpingpreismarkt auszusteigen.
Kurz vor der Flut war der Verdrängungswettbewerb massiv, der dann ja auch mit den Übernehmen der Festplattensparten von Hitachi und Samsung geendet hat.
andr_gin schrieb:
Man darf nur nicjt den Fehler machen teure Serverplatten mit dem billigsten TLC Consumerplatten zu vergleichen, die man irgendwo auf Geizhals finden kann.
Eben, aber viele vergleichen ja auch bei HDDs die Preise teurer Enterprise Nearline HDDs mit denen der billigsten Desktopplatten, einfach weil ihnen die Unterschiede dazwischen überhaupt nicht klar sind.
andr_gin schrieb:
Bei 5.25" hat man eine um ca. 50% höhere Zugriffzeit auf Grund der niedrigeren Drehzahl während 2 3.5" Festplatten die doppelten IOPS bzw. Bandbreite bringen, da sie ja im RAID arbeiten.

Vorteil des Ganzen: So ziemlich keiner
Nur die Vibrationen die bei dem größeren Radius der Platter dann am Ende auch größere Amplituden erreichen würden und diese sind umso weniger zu handeln je geringer die Abstände wegen der höheren Datendichten werden.

luckysh0t schrieb:
Nach mehrmaligem lesen, komme ich zum Schluss : Das Magnetfeld ist schwächer, weil die Köpfe selbst kleiner werden, also kommen zB Hinter (oder sonst wo) den Köpfen diese Magnetfeldgeneratoren zum Einsatz um das auszugleichen...

Ich bitte um korrektur/bestätigung
Bestätigt, die kleinen Köpfe erzeugen keine so hohen Feldstärken und daher ja auch der Ansatz bei HAMR die Magentschicht zu erwärmen, da dann die Ummagnetisierung leichter ist, außerdem muss der Schreibkopf dann gar nicht so klein sein, er kann auch größer ausfallen als der Bereich der ummagntisiert werden soll, da dessen Karft dafür ja nur im erwärmten Bereich ausreicht.

Sebbi schrieb:
Solange SSDs die Daten nicht wenigstens 3 Jahre zuverlässig speichern kann im stromlosen Zustand, werden die Magnetspeicher weiterhin gefragt sein!
Erstens gibt es auch NANDs die für 10 Jahre und mehr DRT spezifiziert sind und zweitens sollte man auch HDDs nicht 3 Jahre im Schrank liegen lassen, da die Hersteller üblicherweise maximal 1 Jahr Lagerbarkeit angeben. Das kann also auch böse daneben gehen, wenn man die HDDs nach 3 Jahren im Schrank wieder in Betrieb nimmt.
 
Erstens gibt es auch NANDs die für 10 Jahre und mehr DRT spezifiziert

Dafür aber auch langsam dann, nicht für den Festplatteneinsatz geeignet.

weitens sollte man auch HDDs nicht 3 Jahre im Schrank liegen lassen, da die Hersteller üblicherweise maximal 1 Jahr Lagerbarkeit angeben. Das kann also auch böse daneben gehen, wenn man die HDDs nach 3 Jahren im Schrank wieder in Betrieb nimmt.

das liegt aber eher an der Mechanik, das die S/L Köpfe anfangen mit kleben oder die Schmierung der Lager von der Spindel sich verfestigt bzw sich entmischt. Datenrettung ist dann bei wichtigen Daten immer noch problemlos möglich durch entsprechende Firmen.


Bei Flashspeichern, die dann in einen undefinierten Zustand kommen, sieht es dann ganz dunkel aus.
 
Zuletzt bearbeitet:
Wie üblich, kommen die guten entwicklungen von der Tochter HGST ehemals Hitachi, sind die Entwickler eigentlich wieder am Werk gewesen? Oder diesmal wirklich WD?
 
Ich glaube einige überschätzen hier NAND Flash doch gewaltig, die Kapazitäten pro Package werden nicht linear weiter ansteigen weil auch das Stapeln der Lagen (3D NAND/ BiCS) nicht unendlich weiter getrieben werden kann. Toshiba und Samsung planen momentan bis 128 Lagen (?), eventuell sollte das noch bis 256 Lagen gut gehen aber irgendwann wird auch das Package zu klein und muss vergrößert werden, von der Abwärme ganz zu schweigen. Für 2,5" SSDs und eventuell Server kein Problem, aber bei Smartphones ist der Platz nach oben begrenzt und auch M.2 hat Spezifikationen an die sich das Package halten muss. Eventuell bringt ja QLC noch mal einen Schub, aber wie wir wissen verringert sich auch die Haltbarkeit und Geschwindigkeit mit jedem zusätzlichen Bit und auch die Fehlerkorrektur hat mehr zu tun.
 
DaBzzz schrieb:
Arschlahm sind sie und werden sie immer gegenüber einer SSD bleiben. Allerdings sind sie recht fix (in Sachen Zugriffszeit) im Vergleich zum LTO-Band, aber halt auch deutlich teurer. Von oben und von unten frisst man ihnen die Marktanteile weg. So ist das mit Technologien, deren Zeit langsam abläuft...
Naja, bei großen Cloud-Storage-Lösungen sind allerdings beide keine Alternativen. LTO ist viel zu langsam, SSD viel zu teuer. Selbst für Backups sind in den vergangenen Jahren viele von Bändern auf Festplatten-Lösungen gewechselt. Vorteile sind deutlich niedrigere Wartungskosten, die Möglichkeit von wahlfreiem Zugriff und bessere Verfügbarkeit.

DaBzzz schrieb:
WD soll erstmal liefern, statt herumzuposaunen. Momentan gehen die Absolutpreise mit langsam steigender Kapazität nur nach oben, während die Preise pro TB stagnieren.
Das stimmt eigentlich nur für die kleinen Platten, bei den großen gab es durchaus sinkende Preise, bei den 8TB z.B. so 15-25% seit letztem Jahr, bei den 10TB sogar teils mehr als 40%.

DaBzzz schrieb:
Die billigste 2TB kostet immer noch 60€, wie damals vor "der Flut" 2011.
Ohne wesentliche Fortschritte bei der Technologie (MAMR, HAMR) frisst die Inflation die kleinen Verbesserungen der Datendichte auf.

DaBzzz schrieb:
Der ehemals ausgeprägte Sweetspot pro Speicherplatz bei der kapazitätsgrößten (oder zweitgrößten) verfügbaren Platte ist längst dem Speicherdichten-Aufschlag gewichen
Um so einen Sweetspot zu halten muss die Kapazität ohne höhere Kosten ständig erhöht werden. Solange man das über die Datendichte tun konnte was das möglich. In den letzten 1-1.5 Jahren wurde die Kapazität aber in erster Linie über die Zahl der Platter gesteigert, was die Kosten hoch trieb. Für mich ist das nur ein Anzeichen dafür, dass PMR ausgereizt und MAMR, HAMR, BPMR usw. längst überfällig sind.

Holt schrieb:
Bestätigt, die kleinen Köpfe erzeugen keine so hohen Feldstärken und daher ja auch der Ansatz bei HAMR die Magentschicht zu erwärmen, da dann die Ummagnetisierung leichter ist, außerdem muss der Schreibkopf dann gar nicht so klein sein, er kann auch größer ausfallen als der Bereich der ummagntisiert werden soll, da dessen Karft dafür ja nur im erwärmten Bereich ausreicht.
Der Haken dabei ist, dass Wärme sich ausbreitet und gerade benachbarte Bits dann schnell ungewollt "mitgekippt" werden. Durch den Wechsel auf Glas- statt Alu-Platter, nur kurze Laser-Impulse und möglichst niedrig gehaltene Magnetfeldstärken kann man das minimieren, aber bei den großen Platten wird in der Regel max. ein einziger Bitfehler pro 10^15 Bits toleriert.
 
Zurück
Oben