News Western Digital: MAMR-HDDs starten dieses Jahr mit 16 und 18 TB

Was man nicht kaufen kann, ist auch nicht da.

Man braucht den Artikel nur zwischen den Zeilen lesen. Ankündigung hier, Verschiebung dort oder noch nicht einmal eine definierte Roadmap. Die herkömmliche HDD-Technik ist quasi am Ende.

2020 wird es SSDs mit 100 TB für Enterprise-Anwendungen geben, da ist es dann irgendwann auch relativ, ob der Preis/GB einfach 8-10x so hoch ist, wenn alleine der Rackspacenachteil ausgeglichen werden muss. Damit erreicht man in 4-HE Top-Load-Chassis mit 60 oder 90 Einschüben gerade mal 960 bzw. 1.440 TB. Das wird 2020 definitiv in einer Höheneinheit möglich sein.

Und selbst QLC-NAND ist um ein vielfaches schneller als jede herkömmliche HDD.

Da wird Video-Aufzeichnung vermutlich demnächst der letzte Einsatzzweck sein, wo eine HDD vielleicht noch Vorteile bringt.
 
@Eisbrecher99 , vorausgesetzt die Platte wird auch beim offiziellen Distributor von WD gekauft.

Da nutzt die Garantiebestimmung online wenig wenn die Platte von undefinierbaren Verkäufern stammt.
Zumindest war das mal so vor paar Jahren, weis nicht ob die "Garantiebestimmungen" seither angepasst wurden.
 
Hab auch mal Jahrelang Filme gesammelt, Werbung rausgeschnitten etc., bis ich merkte, dass ich mir die nie wieder anschaue.
 
  • Gefällt mir
Reaktionen: romeon, Mickey Cohen, linuxxer und 2 andere
Compu-Freak schrieb:
Ich sehe mich als Privatanwender (derzeit noch) besser mit 2x 8 TB (Seagate Ironwolfs) im Software Raid 0 Modus aufgestellt, was den Vorteil hat, eine dritte oder vierte 8 TB Platte, wenn ich denn noch mehr Platz brauche, hinzufügen zu können. Ein Raid-0 Verbund ist der Datenübertragungsrate auch viel schneller, was bei größeren Datenmengen sogar enorm wichtig ist. Außerdem erkennt Acronis sogar mit einer Notfall-DVD bzw. USB-STick den Raid 0 Verbund, so dass es für mich als Privatanwender sinnfrei erscheint, eine einzelne größere HDD anzuschaffen, die teurer und langsamer als zwei oder mehr 8 TB Platten ist. Außerdem hat man dann die Dual Actuator Technologie sofort frei Haus ;).

Kamikaze RAID nennt man RAID0 auch noch. :evillol:
 
  • Gefällt mir
Reaktionen: emeraldmine
Krass eigentlich. Aber man muss da als Hersteller wirklich aufpassen was der Flash Markt tut.

Ich behaupte mal locker dass man in 5 Jahren eine 10TB SSD relativ günstig erwerben kann (€500~).
Klar als großes Datengrab noch immer nicht genug aber 10TB reicht für Lagerung von Hobbies und co., also fällt somit schon mal ein großer Teil der Privatanwender weg.

Ich bin seitdem die Preise künstlich hoch gehalten werden (eh schon ziemlich lang mittlerweile) absolut kein HDD Fan mehr, aber hilft eh nix ^^.
 
Tekpoint schrieb:
Dual Actuator ( WD /Toshiba) und Multi -Actuator (Seagate) wird die beste Erneuerung seit langen Jahren bei den HDDs sein. Den Geschwindigkeit ist bei mehr als 6-8TB schon ein wichtiges Thema.
Wobei diese Multi -Actuator dann aber wohl weniger dafür genutzt werden die maximalen seq. Transferraten zu optimieren, sondern wohl eher um die IOPS zu steigern, was eben gerade bei Enterpriseplatten wichtig ist. Aber warten wir mal ab, vielleicht wird es bei den Consumerplatten dann so ausgelegt das die seq. Transferraten auch profitieren.
UrlaubMitStalin schrieb:
Die Platten werden immer größer, aber seit etwa 10 Jahren ist der €/TB Preis, von kurzzeitigen Ausschlägen nach oben durch Überflutungen in Asien, konstant bei ca 30€/TB.
Vor der Flut waren die Preise wegen des Verdrängungsbewettbewerbs besondern niedrig, die kann man nicht als Referenz nehmen, ebenso die nach der Flut erhöhten Preise. Aber der eigentlich Grund ist, dass man seither die Datendichten nur wenig steigern konnte, die Größeren Kapazitäten also vor allem dadurch erzielt hat, dass man eben heute mehr Platte verbaut und diese kosten eben Geld, weshalb die Preise pro TB dann eben nicht fallen, wenn man die Kapazität auf diese Art steigert. Bei den kleinen Kapazität brachte die Steigerung der Datendichte auch kaum Einsparungen, die 4TB wurde von etwas mehr als einem Jahr von 4 auf 3 Platter umgestellt, nur Seagate hat auch Modelle mit SMR die dann mit 2 Platter auskommen, aber generell konnte man eben kaum Platter und damit Kosten einsparen, dazu muss man die Datendichte umso mehr erhöhen je weniger Platte schon verbaut sind und wenn man dann bei einem Platter angekommen ist, kann man keine Kosten mehr einsparen, weshalb die Modelle bei denen die ganze auf die nächste marktübliche abgerundete Kapazität nicht gebraucht wird (bei 3.5" heute 1TB, bei 2.5" 500GB), dann eben vom Markt verschwinden.
FCK-THIS schrieb:
Das gilt natürlich nur, wenn man die Festplatten auch dem Einsatzzweck entsprechend betreibt, sprich 24/7 um die Spindowns gering zu halten.
Das ist Quatsch, es gibt einige Enterprise Nearline Platten die für weniger Start-Stopp Zyklen der Spindel ausgelegt sind, die meisten von denen (z.B. die HGST Ultrastar) und die ganzen NAS und Surveillance Platten die ja auch alle eine 24/7 Freigabe haben, vertragen genau wie die Desktopplatten 10.000 pro Jahr, wie es auch im Product Manual der ST1000VX005 steht:
Aus 50.000 insgesamt und 10.000 pro Jahr ergibt sich dann aber doch wieder der Hinweis auf die geplante Nutzungsdauer von 5 Jahren, die Samsung früher auch immer recht offen in die Datenblätter geschrieben hat, so wie hier:
Nano-kun schrieb:
fraglich ist auch, wie lange solche festplatten halten.
Die werden die üblichen 5 Jahre halten, schon weil die Enterprise Nearline Platten normalerweise eben 5 Jahre Garantie haben.
Nano-kun schrieb:
meine 3tb wd hat 2,5 jahre gehalten.
Lass mich raten: Du hast eine einfach Desktopplatte wie die Green oder Blue im Dauerbetrieb laufen lassen, obwohl die dafür nicht zugelassen war? Dann ist es typisch das sie nur knapp länger als die 2 Jahre halten die die Hersteller maximal Garantie auf diesen billigen weil extrem kostenoptimierten Desktopplatten geben. Für Dauerbetrieb sollte man immer nur Festplatten nehmen die auch dafür zugelassen sind und die NAS Platten kann man auch überall einsetzen wo man die einfachen Desktopplatten nehmen kann, die kosten nur eben etwas mehr.
kaka11 schrieb:
bin ja skeptisch, ob HDD mit 20+ TB auf den Markt kommen angesichts der rasanten Entwicklung im Flashbereich.
Die Preise für Flash sind im letzten Jahr gefallen, weil die Nachfrage nachgelassen hat, da der Smartphonemarkt schwächelt und der nimmt die Hälfte der NAND Fertigung auf, recht man die Speicherkarten hinzu, sind es sogar 2/3.
zonediver schrieb:
Energiewende sei Dank... Merkel, das hast gut gemacht!
Wieso Merkel? Die EEG-Umlage wurde bereits im Jahr 2000 durch die Regierung Schröders eingeführt.
FCK-THIS schrieb:
Festplatten wie die WD Green/Blue gehen natürlich aufgrund der zahlreicheren Spindowns bei Dauerbetrieb schneller defekt.
Spindowns machen die Platten nicht selbst, die werden von Host (bei USB Platten kann dies der USB-SATA Bridgechip sein) geschickt, die Platten parken von alleine allenfalls die Köpfe, aber das hat nichts mit Spindown zu tun (außer das beim Spindown die Köpfe auch geparkt werden), sondern ist der Unload. Das ist aber nicht der wirklich Grund warum die einfache Desktopplatten wie die Blue/Green oder Seagate Barracuda (nicht Pro) den Dauerbetrieb nicht so lange vertragen, sondern weil die eben kostenoptimiert sind, also überall gespart wurde wo es für die geplante Nutzung mit eben maximal 2400 Power-On-Hours pro Jahr und als einzige HDD im Gehäuse (der Vibrationen wegen) geht. Daher sind die billiger, vertragen aber eben auch nicht so eine Belastung wie etwa die NAS oder Enterprise Nearline Platten.
emeraldmine schrieb:
3.000.000 defekte Sektoren an der Platte !!!

Sammlung weg, alles vernichtet. Dabei wollte
ich noch am nächsten Tag die MPEG2 Sammlung
auf DVD-R entsorgen.

Tja, ---PP=persönliches PECH---
Pech schon, aber man hat ja auch immer ein ordentliches Backup von allen Daten zu haben die man verlieren will und daher hast Du das Glück auch herausgefordert, wenn es eben keine Backups gab. Außerdem ist es komisch das Leute dann immer sagen, sie wollten am nächsten Tag....
so_oder_so schrieb:
Die Daten waren auf 3 Platten im PC identisch abgelegt und via FreeFileSync jeden Tag synchron gehalten.
Leider verreckten alle 3 durch viel Pech.
Deswegen gehört ein ordentliches Backup auch immer auf ein Medium welches in einem anderen Gehäuse steckt als das Medium mit den Originaldateien. Also z.B. in die Cloud, auf ein NAS, (auf Tapes wie die Profis es machen) oder eben auf USB Platten, die dann aber nur zum Backup genutzt werden und nur zum Erstellen, Prüfen und Aktualisieren des Backups angeschlossen werden und nur so lange angeschlossen bleiben wie dies dauert und danach sicher abgemeldet und verwahrt werden.
Eisbrecher99 schrieb:
Da bin ich mal gespannt, wie lange das für MAMR nötige Schmiermittel im Dauerbetrieb hält
Dauerbetrieb ist für das Schmiermittel besser als Stromlos gelagert zu werden, aber MAMR dürfte es weniger fordern als HAMR, denn bei HAMR hat man ja eine plötzliche, punktuelle und starke Erhitzung und da dürfte die Gefahr von Blasenbildung höher sein und damit wären die Kopfabstände dann nicht mehr in Ordnung und die Molekularstruktur dürfte auch stärker darunter leiden.
eSportWarrior schrieb:
Ich behaupte mal locker dass man in 5 Jahren eine 10TB SSD relativ günstig erwerben kann (€500~).
Möglich, aber so einfach wird es für die NAND Hersteller auch nicht mehr die Kosten zu senken und mit MAMR und HAMR dürften die HDD Hersteller da nochmal deutlich mehr Potential haben als die NAND Hersteller, die schon bei 3D sind und nun noch mehr Layer vor allem durch Stacking und nicht nativ erzielen, aber wenn man zwei Dies als eines übereinander stapelt, dann bekommt man auch nur halb so viele aus einem Wafer und spart nicht wirklich viele Kosten ein, nur für die Logik der Ansteuerung, die man eben bei gestackten und durchkontaktierten Dies nur einmal braucht.

Das SSDs jemals die Kosten pro TB von HDD (damit meine ich keine exotischen Kapazitäten wo dies teils schon heute der Fall ist), erreichen oder gar unterbieten werden, halte ich nicht für ausgemacht.
 
Joar Holt, und wenn du genau gelesen hättest, hättest du gelesen, dass ich genau das gleiche gesagt und empfohlen habe mit den externen Platten und Backups.

Man macht den Fehler nur EIN mal.
 
Diese Kapazitäten sind inzwischen unfassbar.

Ernst gemeinte Frage: kann mir bitte irgendjemand ganz kurz sagen, wann diese Datenmengen in HDDs derartig zugenommen haben? Besten Dank!

Als ich damals gebaut und geschraubt habe, war für den Heimanwender 320-500GB schon sehr sehr gut und irgendwie ging es da nicht weiter. Alle behaupteten hier sei das Ende der Entwicklung und größere Datendichten gäbe es nicht, die Zukunft liegt rein in SSDs.
Und letztens, als ich mir ein NAS geholt habe, waren da 2x4TB WD Reds drin. Da habe ich mich einfach gefragt, wann diese Datenmengen erreicht wurden. Schon krass.
Bei Grafikkarten sieht man in den letzten Dekaden eine permanente Entwicklung stetig nach oben was die Leistung angeht. Bei Prozessoren ebenfalls. Aber irgendwie kommt es mir so vor, dass gestern noch 500GB das Ende der Fahnenstange war und jetzt 4,6 oder 8 TB erschwinglich sind.
 
Warum stecken die so viel Geld in eine aussterbende Technologie?
 
  • Gefällt mir
Reaktionen: Mickey Cohen
public_agent schrieb:
Diese Kapazitäten sind inzwischen unfassbar.

Ernst gemeinte Frage: kann mir bitte irgendjemand ganz kurz sagen, wann diese Datenmengen in HDDs derartig zugenommen haben? Besten Dank!

Als ich damals gebaut und geschraubt habe, war für den Heimanwender 320-500GB schon sehr sehr gut und irgendwie ging es da nicht weiter. Alle behaupteten hier sei das Ende der Entwicklung und größere Datendichten gäbe es nicht, die Zukunft liegt rein in SSDs.
Und letztens, als ich mir ein NAS geholt habe, waren da 2x4TB WD Reds drin. Da habe ich mich einfach gefragt, wann diese Datenmengen erreicht wurden. Schon krass.
Bei Grafikkarten sieht man in den letzten Dekaden eine permanente Entwicklung stetig nach oben was die Leistung angeht. Bei Prozessoren ebenfalls. Aber irgendwie kommt es mir so vor, dass gestern noch 500GB das Ende der Fahnenstange war und jetzt 4,6 oder 8 TB erschwinglich sind.
...wenn du dich das fragen mußt, dann brauchst auch kein NAS...
Ich startete im April 2010 mit meinem NAS und 9TB - heute sind es fast 50TB... jedes Jahr kommen ca. 7TB Nutzdaten dazu.
Wenn die 10TB-HDDs nicht seit über einem Jahr im Preis "eingefrohren" wären, hätte ich das System längst umgebaut - 12 Platten sind der Horror, wenn's auch mit 5 HDDs ginge... aber der Preis ist mir zu hoch...
 
Simanova, weil die Technologie noch lange nicht aussterben wird, keine Ahnung wieso man dies annimmt. Die Kosten pro TB sind viel geringer als bei SSDs und werden dies vielleicht auch immer bleiben. Die Unternehmen brauchen zunehmend mehr Speicherkapazität und nicht immer auch die Performance von SSDs, also sind HDDs für solche Anwendungen einfach ideal.

Für den Heimanwender mag es ja so aussehen das er keine so großen HDDs braucht, der speichert ein paar Daten lokal und den Rest in der Cloud, nur landen sie dann eben nicht auf Regentropfen in einer Wolke, sonder eben genau auf solche SSDs in riesigen Storages in den Datenzentren der Cloudbetreiber. Dazu die ganze Daten die man sonst noch erzeugt, wie die Beiträge hier oder was Google, Amazon, Twitter, Facebook etc. so alles über die Kunden speicher, was ja jeder Klick auf eine wo nur ein Link von denen drauf ist sein kann.
 
Holt schrieb:
Lass mich raten: Du hast eine einfach Desktopplatte wie die Green oder Blue im Dauerbetrieb laufen lassen, obwohl die dafür nicht zugelassen war? Dann ist es typisch das sie nur knapp länger als die 2 Jahre halten die die Hersteller maximal Garantie auf diesen billigen weil extrem kostenoptimierten Desktopplatten geben.

war ne purple
 
Interessant. Die Festplattenlaufwerke erreichen also bald das Limit von FAT32 (~32TB)..
 
Nano-kun schrieb:
Dann war es Pech, aber die hat ja doch 3 Jahre Garantie, von daher sollte dann weniger schlimm sein, zumal man von allen wichtigen Daten ja sowieso immer ein Backup haben sollte.
joshy337 schrieb:
Wer nutzt denn noch FAT32, nachdem es seit schon mehr als 10 Jahren exFAT gibt. Wer noch so alte System hat das er FAT32 braucht, der muss dann eben auf derart große Platten verzichten.
 
Holt schrieb:
Wer nutzt denn noch FAT32, nachdem es seit schon mehr als 10 Jahren exFAT gibt. Wer noch so alte System hat das er FAT32 braucht, der muss dann eben auf derart große Platten verzichten.
Selbst "modernste" Smartphones nutzen FAT32... aus Lizenzgründen - nicht mehr aktuell aber "leider" immer noch vorhanden...
Der Mist sollte schleunigst sterben, da aber diese MS-Geier die Lizenzrechte an exFAT halten, wird das wohl noch 20 Jahre dauern, bis FAT32 verschwunden ist...
 
public_agent schrieb:
Diese Kapazitäten sind inzwischen unfassbar.

Ernst gemeinte Frage: kann mir bitte irgendjemand ganz kurz sagen, wann diese Datenmengen in HDDs derartig zugenommen haben? Besten Dank!

Als ich damals gebaut und geschraubt habe, war für den Heimanwender 320-500GB schon sehr sehr gut und irgendwie ging es da nicht weiter. Alle behaupteten hier sei das Ende der Entwicklung und größere Datendichten gäbe es nicht, die Zukunft liegt rein in SSDs.
Und letztens, als ich mir ein NAS geholt habe, waren da 2x4TB WD Reds drin. Da habe ich mich einfach gefragt, wann diese Datenmengen erreicht wurden. Schon krass.
Bei Grafikkarten sieht man in den letzten Dekaden eine permanente Entwicklung stetig nach oben was die Leistung angeht. Bei Prozessoren ebenfalls. Aber irgendwie kommt es mir so vor, dass gestern noch 500GB das Ende der Fahnenstange war und jetzt 4,6 oder 8 TB erschwinglich sind.

Ich hab bis 2015 auch nur moderate Datenmengen geschrieben und vorgehalten.

Aber irgendwann kam der Zeitpunkt, an dem ich die Fotografie für mich entdeckte und schon nach 12 Monaten waren 6500 Fotos im RAW-Format auf der Platte. Das wollte alles gesichert werden.

Film, Serien und Musik bekomme ich on-demand und da speichere ich nichts mehr.

Nun kam auch noch die Astrofotografie dazu und hier liegt mein Problem mit den aktuellen Datenmengen.

500 GB bis 1,5 TB Daten pro Nacht sind nicht gerade selten. Wenn dann das Processing los geht, werden aus ein paar GB .ser plötzlich 100+ GB Daten für ein Objekt. Mit meinen 10 TB Daten ( 20 TB - aber eben 1:1 gesichert ) wünsche ich mir schon recht zeitnah mehr Speicher zu guten Preisen.

Vor genau 2 Jahren hätte ich jedem nen Vogel gezeigt, wenn er gesagt hätte, dass man solche Datenmengen fabriziert.. :D
 
zonediver schrieb:
Selbst "modernste" Smartphones nutzen FAT32... aus Lizenzgründen
Bis in Smartphone Datenträger mit mehr als 32TB Einzug halten dürfte es aber noch eine ganze Weile dauern, zumal 3.5" HDD Einbauplätze bei Smartphone noch immer nicht zum Standard gehören.
 
  • Gefällt mir
Reaktionen: Alex1966, demonicron und so_oder_so
Ich habe mit WD Red immer gute Erfahrungen gemacht, mein jetziges Home-NAS hat 2x WD Red 3TB + 2x Seagate 2TB Festplatten aus dem Jahr 2013 (24/7 Betrieb) im RAID 5 (4x 2 R5 + 2x 1 R1). Diese werden nun gegen 3x 4TB Festplatten (3 Patter Variante) getauscht und ebenfalls wieder im RAID 5 Modus laufen. Sollte mehr Platz benötigt werden kommen weitere 2x 4TB dazu (5x 4TB Raid 5).

Die Festplatten erreich noch immer die volle Geschwindigkeit (120MB / Sek) und haben keine defekten Sektoren, dennoch tausche ich alle aufgrund des Alters aus.

Einmal im Monat wird das ganze auf eine 3,5" USB Festplatte gesichert, selbst RAID 6 kann die Ausfallsicherheit einer externen Sicherung nicht überbieten.

Ich hoffe das in den nächsten 5 Jahren SSDs die Festplatten auch als "Datengrab" ersetzen werden, in den meisten Computern baue ich keine Festplatten mehr ein.
 
Zuletzt bearbeitet:
Zurück
Oben