News Western Digital OptiNAND: Integrierter Flash-Speicher soll 50-TB-HDDs ermöglichen

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.009
  • Gefällt mir
Reaktionen: flo.murr, menace_one, BrollyLSSJ und 6 andere
Das klingt alles schon mal ziemlich gut! Mal schauen was am Ende dabei herumkommt um massive Kapazitäten zu ermöglichen. Interessant ist allerdings, dass damit jeder Hersteller einen anderen Weg verfolgt um dieses Ziel zu erreichen.

Der kleine "Backupspeicher" für spontanen Stromausfall ist eine nette Idee, ob er allerdings auch genug Daten halten kann wenn bei voller sequentieller Transferrate ein Stromausfall kommt muss sich dann mal zeigen.
 
Klingt interessant, aber auch ein wenig verwirrend. Noch engere Tracks? Hatten wir das in extremer Form nicht mit dem albernen SMR bekommen? Kann damit quasi SMR performanter werden?
Und was bedeutet das für die Kosten und den Stromverbrauch? Eine ganze SSD (wenn auch im Miniformat) mit Flash, Controller etc. kostet ja doch ein paar Euro und braucht auch Strom.
 
Klingt irgendwie logisch, häufig benötigte Metadaten auf schnelleren Speicher zu bewegen. Ist bei SSDs mit RAM ja genau dasselbe.

Da will man sich eher fragen, warum das denn nicht schon vor Jahren umgesetzt wurde... hatte einfach keiner dran gedacht?

Moep89 schrieb:
Und was bedeutet das für die Kosten und den Stromverbrauch? Eine ganze SSD (wenn auch im Miniformat) mit Flash, Controller etc. kostet ja doch ein paar Euro und braucht auch Strom.
Geht ja nur um wenige Gigabyte und solange das mehr IOPS als eine HDD bietet ist das schon ein Gewinn. Das wird eher auf dem Niveau eines 8GB USB-Stick als einer vollwertigen SSD sein (nur haltbarer).
Bei HDDs mit 20TB und mehr sollte das insgesamt preislich kaum ins Gewicht fallen.
 
  • Gefällt mir
Reaktionen: DON.HEROUR, AlphaKaninchen, Fritzler und 2 andere
@MichaG
Ob die Konkurrenten Seagate und Toshiba ähnliches planen, wird sich zeigen. Diese müssten allerdings den NAND erst zukaufen, während Western Digital diesen in Kooperation mit Kioxia selbst herstellt
Aber Toshiba und Kioxia dürften sich doch deutlich näher sein als Kioxia und WD. Kioxia war doch Toshiba Memory bevor sie unbenannt wurden?!

Edit:
Laut Wiki gehört Toshiba ca. 40% von Kioxia. Btw. was für ein komischer Firmenname...
 
  • Gefällt mir
Reaktionen: ComputerJunge und Irrlicht_01
MichaG schrieb:
20-50TB... Während Western Digital diese Kapazität zuvor schon unter Einsatz der nachteilbehafteten SMR-Technik mit überlappenden Spuren erreicht hat, ist dies nun mit dem konventionellen Aufzeichnungsverfahren (CMR) möglich.
Was waeren jetzt hier die Nachteile? - Davon spricht i.d.R. keine Promotion-Abteilung.
Kontrolle, Abgleichung, Reparaturen kosten doch alles Zeit.
 
Die nötige Energie für das Entleeren des Zwischenspeichers werde durch die Rotationsenergie der Magnetscheiben geliefert, die in Kondensatoren gespeichert wird.
Klingt sehr elegant, aber auch etwas kompliziert. Warum nicht einfach jede Festplatte eine Knopfzelle oÄ hat, um damit den aktuellen Schreibvorgang zu beenden?
Alternativ gibt es natürlich auch schon Dateisysteme wie BTRFS, die durch einen intelligenten Schreibvorgang praktisch immun gegen Stromausfälle sind. Hier ist eher das Problem, dass vor allem NTFS technisch völlig hinterherhinkt und solche externen Absicherungen benötigt.
 
iWaver schrieb:
Warum nicht einfach jede Festplatte eine Knopfzelle oÄ hat, um damit den aktuellen Schreibvorgang zu beenden?
Knopfzellen (auch wiederaufladbare) sind irgendwann alt und ausgelutscht... und die müssen auch erstmal die Power liefern, die eine HDD bei Schreibvorgängen braucht.

Bei Servern ist meiner Erfahrung nach eine der häufigsten Komponenten die getauscht werden müssen der Akku bei Raid-Karten. Der ist irgendwann ausgelutscht und meldet sich. Manchmal ist der zu dem Zeitpunkt auch schon sichtbar angequollen.
 
Rickmer schrieb:
Bei Servern ist meiner Erfahrung nach eine der häufigsten Komponenten die getauscht werden müssen der Akku bei Raid-Karten. Der ist irgendwann ausgelutscht und meldet sich. Manchmal ist der zu dem Zeitpunkt auch schon sichtbar angequollen.

Das war früher mal, alle derzeit mir bekannten aktuellen BBUs setzen auf Kondensatoren und die halten ne ganze Stange länger als klassische Lithium Zellen :).
 
  • Gefällt mir
Reaktionen: Unnu
News schrieb:
Die nötige Energie für das Entleeren des Zwischenspeichers werde durch die Rotationsenergie der Magnetscheiben geliefert, die in Kondensatoren gespeichert wird.
Eine Anwendung von Schwungrad-Energiespeicherung im IT-Sektor - wer hätte das gedacht. :daumen:
 
  • Gefällt mir
Reaktionen: Zarlak, ThommyDD, Col. Jessep und 6 andere
Rickmer schrieb:
Da will man sich eher fragen, warum das denn nicht schon vor Jahren umgesetzt wurde... hatte einfach keiner dran gedacht?
Tja, gute Frage, denn mit SSHDs stand ja das Grundgerüst.
Eventuell war keinem großen Kunden der Mehrpreis das Wert und jetzt, mit den gewaltigen Datenmengen pro HDD wird es nötig?
 
  • Gefällt mir
Reaktionen: Xechon
iWaver schrieb:
Warum nicht einfach jede Festplatte eine Knopfzelle oÄ hat, um damit den aktuellen Schreibvorgang zu beenden?
Die ist halt nach 3-5 Jahren hin. Wenn überhaupt, dann würde man da wohl einen Überbrückungskondensator nehmen, der aber ebenso wie eine Knopfzelle auch ein etwas unhandliches Format hat.
iWaver schrieb:
Alternativ gibt es natürlich auch schon Dateisysteme wie BTRFS, die durch einen intelligenten Schreibvorgang praktisch immun gegen Stromausfälle sind.
Alle aktuellen Dateisysteme haben Journaling, sogar NTFS.

Zum Thema: Mich würde ja interessieren, was genau für Metadaten die Festplatten da intern verwalten. Remappings, klar, insbesondere bei SMR. Aber die besagten Informationen zu sinngemäß "magnetischem Übersprechen"? Verwalten die tatsächlich Informationen wie "in dem-und-dem Bereich mit verringerter Bitrate speichern, weil die Oberfläche Mist ist"? Kann ich mir nicht vorstellen.
 
Auch wenn solche Prognosen immer mit Vorsicht zu genießen sind, sieht Western Digital in der OptiNAND-Methode eine Möglichkeit, noch im Laufe dieser Dekade Festplatten mit 50 TB Speicherkapazität zu erreichen
Wie genau wurde das kommuniziert? In Anbetracht der eigenen Roadmap wären 50TB bis 2030 doch etwas mau.
 
Rickmer schrieb:
Knopfzellen (auch wiederaufladbare) sind irgendwann alt und ausgelutscht... und die müssen auch erstmal die Power liefern, die eine HDD bei Schreibvorgängen braucht.
Klar, aber alle 3 Jahre eine Knopfzelle wechseln und im Gegenzug sicher alle Daten aus dem Buffer bekommen ist mMn ein guter Kompromiss. Vor allem, da diese neue Technologie ja anscheinend nur mehr, aber eben immer noch nicht alle Daten herausbekommt.
 
Die nötige Energie für das Entleeren des Zwischenspeichers werde durch die Rotationsenergie der Magnetscheiben geliefert, die in Kondensatoren gespeichert wird.
Spannende Umsetzung. So kann man relativ kleine Kondensatoren verwenden, da die ja solange gespeist werden, bis die Platter stehen.

Sollten die nur einmal bis „Voll“ geladen werden, finde ich diese Logik dahinter unnötig kompliziert- gerade WD setzt ja auch PLP bei ihren SSD ein - reicht ja offensichtlich auch aus und wird normal über den Stromanschluss gespeist
 
iWaver schrieb:
alle 3 Jahre eine Knopfzelle wechseln und im Gegenzug sicher alle Daten aus dem Buffer bekommen ist mMn ein guter Kompromiss.
Also bei Mainboards hab ich noch nie die Knopfzelle gewechselt und das einzige Mainboard, das mir bislang untergekommen ist, bei dem die Knopfzelle hin war, war schon 10 Jahre alt. Ob da wirklich schon nach 3 Jahren Schluss ist?

Aber wenn ja, dann fände ich den Kompromiss ziemlich bescheiden. Wenn irgendjemand irgendwelche Wartungsarbeiten vornehmen muss, dann sind das ruckzuck ordentliche Mehrkosten.
Heute würde man für sowas Supercaps nehmen, die dürften so lange halten wie das Gerät selbst. Kosten aber nun mal Geld und Geld sparen Hersteller ganz gerne.
 
Für den Consumer-Bereich muss es vielleicht nicht so viel Speicher sein, jedoch konstante Qualität und ein gewisses Maß an Ausfallsicherheit, auch über die Garantiezeit von 2 Jahren hinaus, wären gewiss interessant.
 
  • Gefällt mir
Reaktionen: Unnu
Vielleicht setzen die auf die falsche Karte mit ihren HDDs.
nicht das es so wie mit Nokia endet
 
iWaver schrieb:
Klar, aber alle 3 Jahre eine Knopfzelle wechseln und im Gegenzug sicher alle Daten aus dem Buffer bekommen ist mMn ein guter Kompromiss.
Ob Otto-Normalo das kann?
Und ob ein Betreiber einer Server Farm das will?

d0xs schrieb:
wie mit Nokia endet
Nand ist immer noch zu teuer, im Vergleich zu HDDs.
Da wäre es interessant zu wissen, ob z.B. OneDrive auf SSDs oder HDDs liegt.
 
Zurück
Oben