News Festplatten: Toshiba arbeitet an 10‑Platter‑HDD

Sinnvoll wären eher weniger Platter, weniger beweglich teile und Leseköpfe...

Welche 1 Platter mit der höchsten Kapazität ist eigentlich die aktuellste, ist da etwas bekannt?
 
Warum sind da 2 Ports notwendig? die Festplatte bekommt anfragen und arbeitet diese intern ab - ob die Festplatte dann 1, 2 20 oder 0 Leseköpfe verwendet macht doch für das Interface keinen Unterschied?! (0 Köpfe = z.B. SSD)

Sieht dann das OS 2 unterschiedliche Platten, die physisch eine sind, weil am einen Port die oberen 3 Arme gesteuert werden und am anderen die unteren?!
 
lejared schrieb:
Naja, "rattenschnell" ist hier sehr relativ. Im Vergleich zu einer SSD immer noch schnarch-langsam
Eben und die 15krpm Platten für die wirklich wichtigen Storages, wurden praktisch schon komplett von SSDs verdrängt, die Hersteller haben die Entwicklung hier schon eingestellt. Der Markt dafür ist einfach weg und die 10krpm Platten werden auch immer mehr von den SSDs verdrängt, so wie die SSDs die 2.5" Platten immer mehr aus den Notebook verdrängen. Damit bleiben nur USB Platten für Leute die nicht so viel Kapazität brauchen und nicht extra ein Netzteil für die Platte haben möchten und selbst da drängen immer mehr USB SSDs in den Markt.
Wattwanderer schrieb:
10k und 15k rpm HDDs waren ihren Aufwand nicht wert. Die würde ich unter "Verzweifelungstat" einsortieren im Kampf um Steigerung im zweistellige Prozent Bereich.
Wenn man dies aus Sicht der Heimanwender sieht, aber bei den Unternehmen waren diese Platte sehr lange der Standard für die Storages und keineswegs eine Verzweifelungstat. Das Leute die einfach keine SSDs wollten sich solche HDDs, meist gebraucht, dann zuhause eingebaut haben, kann man aber also solche einstufen.

Zum eigentlichen Thema: 10 Platter sind schon sportlich, zeigt aber, dass Toshiba offenbar Probleme hat bei der Kapazität über die Datendichte mitzuhalten. Der Markt der auch zukünftig von HDDs dominiert sein ist der Bereich der großen Storages wie eben in der Cloud, wo das Datenvolumen immer schneller steigt, die Performance aber eher eine Nebenrolle spielt. Da braucht man aber die möglichst höchsten Kapazitäten um bei den Kosten für die Infrastruktur wie die restliche Hardware, also die Server und den Platz im Rechenzentrum gering zu halten. WD erwartet hier übrigens, dass SMR Platten hier künftig eine viel größere Rolle spielen werden: Western Digital: Over Half of Data Center HDDs Will Use SMR by 2023

Datacenter Storage by 2023.jpg


Glasplatter haben übrigens auch den Vorteil der weitaus geringeren Wärmeausdehnung, die Lage der Spuren verändert sich bei Temperaturänderungen also nicht so sehr wie bei Aluminium.
 
  • Gefällt mir
Reaktionen: Nagilum99
Retro-3dfx-User schrieb:
Welche 1 Platter mit der höchsten Kapazität ist eigentlich die aktuellste, ist da etwas bekannt?
Na ja.... Vor der Einführung von MAMR sieht es so aus, daß Seagate und WD 14TB mit 8 Plattern hinbekommen, und Toshiba dafür 9 braucht. WD und Seagate bringen als bis zu 1,75TB auf einem Platter unter, Toshiba aktuell nur gut 1,5.
 
Retro-3dfx-User schrieb:
Sinnvoll wären eher weniger Platter, weniger beweglich teile und Leseköpfe...
Sinnvoll in welchem Sinne? Die Ausfallrate ist bei denen mit viele Platter meines Wissens nicht signifikant höher als beiden Modelle mit weniger Platter der gleichen Serie. Im Sinne der Kostensenkungen bei großen Storage, also im PB Bereich und darüber, macht es keinen Sinn Platte mit weniger als der maximal verfügbaren Kapazität zu nehmen, vielleicht nimmt man noch die 14TB statt der schon verfügbaren 16TB, aber kleiner dann auch nicht. Die Kosten wären sonst viel zu hoch.
Retro-3dfx-User schrieb:
Welche 1 Platter mit der höchsten Kapazität ist eigentlich die aktuellste, ist da etwas bekannt?
Mit SMR sind 2TB möglich und bei Seagate auch schon länger in den Standard Modellen der Barracuda Compute Reihe verbaut. Schau ins Datenblatt wie viele Platter die bei welcher Kapazität haben.
ReactivateMe347 schrieb:
Warum sind da 2 Ports notwendig?
2 Ports sind nie notwendig, Dualport-SAS macht man wegen der Redundanz, sollte ein Controller ausfallen, kann man ohne Unterbrechungen weiter auf das Storage zugreifen.
 
Holt schrieb:
Mit SMR sind 2TB möglich und bei Seagate auch schon länger in den Standard Modellen der Barracuda Compute Reihe verbaut. Schau ins Datenblatt wie viele Platter die bei welcher Kapazität haben.
Der Einsatzbereich von SNR ist aber begrenzt. Ich habe selbst eine 8TB SNR von Seagate, und das (Wieder-)Beschreiben dauert schon echt sehr lange! Sowas geht als Datengrab für Dinge, die man nicht oft braucht und als Backup-Speicher. Deswegen wurden diese Platten ja auch mit dem Namenszusatz "Archive" vermarktet.
 
Ja SMR hat Nachteile und ist nur für bestimmte Nutzungen geeignet, aber mit 2TB pro Platter schafft man damit eine höhere Datendichte als ohne. Wie immer im Leben muss man auch da entscheiden, wo man seine Prioritäten setzt.
 
Shoryuken94 schrieb:
Na klar weil dein Horizont der einzig wahre ist...
Das hat nichts mit Horizont sondern Fakten zu tun: Du hast nur Quatsch geschrieben.
Alleine dass man 2 HE Systeme nicht als storage bezeichnen kann.
https://www.klarsicht-it.de/storage...s-16gb-fibre-channel-extern-rack-einbaufaehig
Was ist das deiner Meinung nach - ein SOHO NAS? Na mit 2,5" HDDs muss es das ja sein, sowas benutzt im Businessbereich ja niemand. :freak:

CPU-Bastler schrieb:
Und wie sieht die Zukunft der CD/DVD/BR aus? Wo bleiben die Datenträger mit mehr als 1 TB Kapazität?
Alternative Tape? Mit mehr als 2.500 EUR für ein Laufwerk sind Preise ganz schön weit oben. Pro Tape kommen nochmals 160 EUR hinzu!

Derartige optische Datenträger kann man wohl beruhigt als weitgehend tot betrachten.
Zu aufwändig, teuer und vom Bedarf her nur noch ein Nischenprodukt.
Bandlaufwerke hingegen werden vermutlich noch Jahrzehnte als Sicherungsmedium dienen:
Roadmap für LTO: https://de.wikipedia.org/wiki/Linear_Tape_Open

Die Bänder liefern für ~150 € netto immerhin 12 TB unkomprimierten Platz und durch die Laufwerke gibt es Hardwarekompression und AES Verschlüsselung gleich dazu.
 
10 Plattern? Wie hoch ist da die Ausfallrate und die Latenzen? Auch Strom und wärme sehe ich kritisch....
 
Viele Platter waren eigentlich eine Hitachi Spezialität. Nicht immer mit der Brechstange die höchste Platterdichte, dafür mehr Scheiben und das noch zuverlässig für den Einsatz.

Toshiba geht mit der HGST HDD Werksübernahme den richtigen Weg und schafft es Toshiba Leistung und Qualität von Hitachi zu erreichen, kann WD ruhig sich selbst und Hitachi vor die Wand fahren. Ich nehme es dem WD Management übel, das sie HGST auf Kosten der Kunden aufgekauft haben und sich WD nicht selbst mit gleichwertigen Produkten rühmen konnte. Mir ist mit Toshiba ein weiterer, guter Festplattenhersteller zu WD und Seagate wirklich lieber.
 
  • Gefällt mir
Reaktionen: Smartbomb
Tekpoint schrieb:
10 Plattern? Wie hoch ist da die Ausfallrate und die Latenzen?
Wieso sollte die Ausfallrate hoch sein? Hast Du irgendeinen Beleg das HDDs mit mehr Platter eine höhere Ausfallrate haben also die der gleiche Familie mit weniger? Ebenso bei der Zugriffszeit, warum sollte die bei mehr Platter höher sein? Glaubst Du Antriebe für die Arme wären so schwach, dass sie diese nur noch langsam bewegen könnten?
Tekpoint schrieb:
Auch Strom und wärme sehe ich kritisch....
Die Leistungsaufnahme dürfte etwas steigen, aber mit der Heliumfüllung ist auch hier der Unterschied zu denen mit weniger Platter gering und HDDs ohne Heliumfüllung müssen schon sehr wenig Platter haben um sparsamer als solche mit zu sein.
 
Wenn diese Platten mit zwei Anschlüssen erscheinen, sind dann Multipath Treiber notwendig? Sonst sieht das OS diese doch doppelt? Oder wird das irgendwie vom Plattencontroller direkt verwaltet? Dann wäre der zweite Anschluss aber eigentlich hinfällig.
 
lejared schrieb:
Naja, "rattenschnell" ist hier sehr relativ. Im Vergleich zu einer SSD

SSD gab es zum Zeitpunkt als die rauskamen nicht mal annähernd in der Kapazität und/oder Preisklasse. Der Vergleich war entsprechend die 3,5 Zoll HDD mit 7200 U/min

und selbst im Vergleich zu 3,5" HDDs nicht besonders schnell, wegen des kleinen Scheibendurchmessers.

Du hast da eine sehr ungewöhnliche Sichtweise. Ein geringerer Scheibendurchmesser bedeutet
  • weniger Masse, die Drehzahl kann steigen -> höhere Datenrate bei gleicher Datendichte
  • weniger Strecke zurück zu legen von der innersten zur äußersten Spur -> geringere Zugriffszeiten
  • weniger Strecke zurück zu legen bis der passende Sektor unterm Schreib/Lesekopf ist -> geringere Latenz
 
Holt schrieb:
2 Ports sind nie notwendig, Dualport-SAS macht man wegen der Redundanz, sollte ein Controller ausfallen, kann man ohne Unterbrechungen weiter auf das Storage zugreifen.

Woher hast du das?
Im Enterprise Umfeld, wo ein System LUNs via FC, FCoE oder iSCSI auskoppelt, "braucht" es die Dualport Anbindung schlicht und ergreifend um ALUA nutzen zu können. Oder sagen wir es anders, erst mit mehreren Pfaden für gleichzeitigen Zugriff ergibt das überhaupt Sinn. Denn nur mit mehreren Controllern ist es in der Form möglich die Redundanz mit einer Leistungssteigerung durch mehr Uplinks in der Anbindung zu steigern.

So nutzt du bspw. die Storageanbindung potentiell voll aus (wenn dein Disk/Flashsystem genügend Bumms liefert).
Ein active/active Clustersetup hat so mindestes vier aktive Pfade. Zwei über den einen, zwei über den anderen Controller. Beide Controller haben Zugriff auf die Disks/SSDs und verdoppeln damit den potentiellen Durchsatz. Ein Setup mit 4x10GBE iSCSI Anbindung erreicht somit real einen maximal Durchsatz von ca. 5GB/sec inkl. voller Pfadredundanz.
Ein active/passiv Clustersetup hingegen würde nur 2,5GB/sec Durchsatz erreichen, weil immer nur ein Controller das jeweilige Array verwaltet. ALUA sorgt hier für das Verteilen der Zugriff auf die richtigen Pfade (gepaart mit einer Policy, die das steuert)

2 Ports nur für Redundanz ist in der Form bei einem active/active Cluster also nicht richtig...
Ergänzung ()

Hayda Ministral schrieb:
weniger Strecke zurück zu legen bis der passende Sektor unterm Schreib/Lesekopf ist -> geringere Latenz

Hab ich gerade nen Denkfehler? Aber das sollte doch kein Problem sein - denn die Strecke ist nur ein Teil der Rechnung - bei steigendem Durchmesser steigt die Geschwindigkeit, mit der die Sektoren unterm Kopf vorbei fliegen. Das gleicht sich 1:1 aus.
Die Geschwindigkeit am äußeren Rand der Scheibe ist höher als am inneren Rand. Das heist, es fliegen viel mehr Sektoren unterm Kopf durch. Da aber die Rotationszahl fix ist, braucht es immer die exakt selbe Zeit - je nachdem wie viel prozentualen Anteil gedreht werden muss.

Simples Beispiel, dein notwendiger Sektor ist exakt einen einzigen hinter der Position des Kopfes - die Scheibe muss also ein komplettes mal rum. -> das dauert, egal wie viel Durchmesser der "Kreis" nun hat, immer exakt gleich lang.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Transistor 22
CPU-Bastler schrieb:
Und wie sieht die Zukunft der CD/DVD/BR aus? Wo bleiben die Datenträger mit mehr als 1 TB Kapazität?
Alternative Tape? Mit mehr als 2.500 EUR für ein Laufwerk sind Preise ganz schön weit oben. Pro Tape kommen nochmals 160 EUR hinzu!

Optische Medien sind tot, als ein Nachfolger für BD wurde die HVD gehandelt und der Laden hat 2010 dicht gemacht, schon Blu-Ray kam ja auf PCs kaum an, hatte mir 2011 ein Laufwerk geholt und Filme waren ein ziemlicher Krampf, PowerDVD war dabei und lief halbwegs, aber irgendwann muss man eine neue Version kaufen usw. bei VLC gehts nur über Umwege, unterm Strich hab ich mir sie dann eher mit AnyDVD oder MakeMKV gerippt und konvertiert.
Und oftmals war ja auch selbst in teuren Rechnern/Notebooks meist nur ein DVD-Brenner, welche damals ~20, heute 10€ kosten, gegen Blu-Ray für 60€ aufwärts.
Mir wäre auch nicht bekannt, dass PC-Spiele auf BD kamen, damals gings dann auch schon mehr Richtung Steam/Origin/Uplay etc. und die PC-Version von GTA 5 kam ja auf ganzen 7 DVDs.

Bei Notebooks sind sie inzwischen auch mehr die Ausnahme als die Regel, PC-Gehäuse verzichten auch zunehmend auf 5,25"-Schächte, mein Meshify C Mini hat auch keinen mehr, da nutze ich nun meinen Zweitrechner zum Rippen von CDs (Archivieren in FLAC und für Geräte dann zu MP3-320 konvertieren).

Letztendlich ist es sinnvoller geworden, auf ne HDD zu Archivieren, Backup sowieso und ggf. noch manche Sachen in die Klout.
 
fdsonne schrieb:
Im Enterprise Umfeld, wo ein System LUNs via FC, FCoE oder iSCSI auskoppelt, "braucht" es die Dualport Anbindung schlicht und ergreifend um ALUA nutzen zu können. Oder sagen wir es anders, erst mit mehreren Pfaden für gleichzeitigen Zugriff ergibt das überhaupt Sinn. Denn nur mit mehreren Controllern ist es in der Form möglich die Redundanz mit einer Leistungssteigerung durch mehr Uplinks in der Anbindung zu steigern.
Natürlich braucht man zwei Ports wenn man eine redundante Anbindung will, das ist doch genau was ich in dem Zitat auch aussagt habe: Man macht es für die Redundanz! Also tue doch nicht so als hätte ich was falsches geschrieben, obwohl deine Aussage die Gleiche ist, meiner also gar nicht widerspricht. Mehr Leistung bringen die HDDs selbst auch mit Dual Port nicht wirklich, die Köpfe können ja immer nur an einer Position sein. Dies wird sich demnächst mit den Multi Actuatoren ändern, aber auch dann braucht man keine zwei Ports an einer Platte um die Multi Actuatoren nutzen zu können, zumal selbst SATA 6Gb/s gerade noch genug Bandbreite hat um die Datenströme von zwei Köpfen übertragen zu können.
 
Hayda Ministral schrieb:
SSD gab es zum Zeitpunkt als die rauskamen nicht mal annähernd in der Kapazität und/oder Preisklasse. Der Vergleich war entsprechend die 3,5 Zoll HDD mit 7200 U/min

Du hast da eine sehr ungewöhnliche Sichtweise. Ein geringerer Scheibendurchmesser bedeutet
  • weniger Masse, die Drehzahl kann steigen -> höhere Datenrate bei gleicher Datendichte
  • weniger Strecke zurück zu legen von der innersten zur äußersten Spur -> geringere Zugriffszeiten
  • weniger Strecke zurück zu legen bis der passende Sektor unterm Schreib/Lesekopf ist -> geringere Latenz
Sein ganzer Beitrag ließ doch schon erahnen, dass der Typ einfach keine Ahnung hat - womit er hier ja in guter Gesellschaft ist.
Dass es mehr als sequentiellen Durchsatz gibt und wann/wo/wie IOPS relevant sind, ist für manche hier wohl Raketenwissenschaft.
Und ja: Der sequentielle Durchsatz ist bei 3,5" HDDs potentiell höher, aber das lässt sich auf gleicher (Rack)höhe durch deutlich mehr Laufwerke ganz gut kompensieren, zumal die 3,5" HDDs mit 15k relativ kleine Scheiben haben.

Ich wage außerdem zu bezweifeln, dass die 10k HDDs so schnell aussterben nicht nicht weiterentwickelt werden.
 
Nagilum99 schrieb:
zumal die 3,5" HDDs mit 15k relativ kleine Scheiben haben.
Die sind dann aber wohl steinalt, denn schon lange werden selbst die Platten mit 10k rpm nur noch in 2.5" gefertigt und ja, die 3.5" hatte schon vorher Platter deren Durchmesser weitaus geringer war als von der Breite des Laufwerks her möglich gewesen wäre. Das ist aber alles schon auf dem Weg ins Museum, die Gegenwart und erst recht die Zukunft gehört in den Anwendungsbereichen für solche HDDs, schon den SSD.

Der einzige Vorteil von HDDs gegenüber SSDs ist der Preis pro TB, den spielen sie überall dort aus wo richtig viel Storagekapazität gefragt ist, nicht so lächerliche Größen wie nur ein TB oder zwei, sondern richtig viel, die Performance aber nicht so wichtig ist. Daher das Rennen zu immer größeren Kapazitäten bei den 3.5" HDDs.
 
Holt schrieb:
Natürlich braucht man zwei Ports wenn man eine redundante Anbindung will, das ist doch genau was ich in dem Zitat auch aussagt habe: Man macht es für die Redundanz! Also tue doch nicht so als hätte ich was falsches geschrieben, obwohl deine Aussage die Gleiche ist, meiner also gar nicht widerspricht.

Ich widerspreche dir in sofern, dass Dualport nicht ausschließlich für Redundanz benötigt wird. Redundanz ist ein Teil. Ein anderer ist die Leistungssteigerung durch gleichzeitige Zugriffe.
Mit SSDs ist es reicht einfach möglich die Leistungskapazitäten eines Controllers vergleichsweise schnell ans Limit zu bringen. Was macht man dann? -> Man versucht die physikalische Disk/SSD nicht 1:1 an exakt einen Controller zu binden, sondern mehrere zu nutzen, sofern das System dazu in der Lage ist.

Falls es dich technisch interessiert, ließ dich bspw. mal bei NetApp ein, dort kann bei so manchem System ADPv2 genutzt werden. Was exakt das ermöglicht, was ich dir hier versuche zu beschreiben.
-> Die Disk/SSDs werden virtuell in zwei Teile gesplittet - beide Teile hängen an beiden Controllern und werden auch gleichzeitig genutzt.

Daraus ergibt sich also, dass:
"2 Ports sind nie notwendig, Dualport-SAS macht man wegen der Redundanz, sollte ein Controller ausfallen, kann man ohne Unterbrechungen weiter auf das Storage zugreifen."
... in dem Fall schlicht nicht vollständig, eigentlich sogar falsch ist - "nie notwendig" stimmt halt nicht... Der zweite Port wird dort benötigt eben um vom zweiten Controller zeitgleich auf die selbe Disk/SSD zuzugreifen. Der einzige Grund, warum man das in der von mir genannten Form macht ist die Leistungssteigerung. Die Redundanz fällt (je nach Konfiguration) ggf. dann automatisch mit ab... Würde man ausschließlich Redundanz wollen, würde man diese Kopfstände gar nicht fabrizieren.



PS: Ich kann übrigens nix für, wenn du dieses Einsatzszenario so nicht auf dem Schirm hast oder hattest. Was wahrscheinlich einfach nur daran liegt, dass du selbst nie diese Art von Hardware in der Hand hattest. Ist doch OK - reißt dir deswegen keiner den Kopf ab. Aber vielleicht nicht immer direkt die Leute anfahren, wenn man es selbst dann doch nicht weis und nur ins blaue Annahmen trifft??
 
Zurück
Oben