News Western Digital (WD): Zwei neue Techniken für HDDs mit 1,2 GB/s

Krik schrieb:
Wie viele Spuren gibt es eigentlich auf einem Platter? Ich hab im Internet Zahlen von ein paar Tausend bis über Hunderttausend gefunden. Keine Ahnung, was stimmt.
Überschlagen:
  • Außendurchmesser eines Platter ist 3,74", davon anscheinend ca. 3,5" beschreibbar
  • Innendurchmesser ca. 1"
-> bleibt 2,5"/2 = 1,25"

Im ersten Video wird "over 700k tracks per inch with individual tracks less than 36nm wide" erwähnt -> gehen wir mal von 900.000 Spuren aus.

Wobei 36nm so umrechnen würde man bei 900k tracks per inch rauskommen, bei der Angabe ist also noch nicht der Abstand zwischen Spuren mit drin.
Ergänzung ()

Atkatla schrieb:
In größeren Backupsystemen laufen doch bereits viele Platten parallel in den Arrays. Die Bottlenecks liegen dort nicht im sequentiellen Schreib oder Lesedurchsatz. (Ausser bei Mini-Systemen, wo alles auf drei oder vier Platten geschrieben wird)
Ich kenne genügend beengte Serverräume wo genau ein Rack rein passt. Wenn der Backup-Server davon nur 2U benötigt, freut sich jeder.

Über höhere Leistungsdichte ohne gravierenden Nachteil hat sich mWn noch nie jemand beschwert.

wern001 schrieb:
hmm... Wenn Acronis ein Backup2Disk macht entstehen auf einer frisch Formatierten leeren Platte bei einem 500 GB Backupfile ca 2-5000 Fragmente
Das ist dann eine Fragmentgröße von >100 MB... das ist verdammt nah dran an purem sequential
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AB´solut SiD und Krik
Interessante Entwicklung. Mehr Geschwindigkeit für HDD ist schon wirklich lange überfällig.

[F]L4SH schrieb:
Das klingt danach, dass (seriell) Merkur im Zenit von Saturn stehen muss und gleichzeitig eine Jungfrau geopfert werden müsste, damit der Maschinengeist die Leistung freigibt.

Real bei gefüllter Platte und gemischten Daten bleiben mit sehr viel Glück vielleicht 300mb/s übrig.
Naja, ganz so dramatisch wird das nun auch wieder nicht sein. Am Ende ist das doch nur ganz banal eine Frage davon, wie sehr die Daten fragmentiert sind oder eben nicht. Mit großen Dateien, die selten neu geschrieben werden, sollte es überhaupt gar kein Problem sein, nahe an die maximale Geschwindigkeit heran zu kommen. Das wird wahrscheinlich die Mehrheit der Nutzer betreffen. Weil für viele kleine Dateien, die häufig neu geschrieben werden, kauft man halt in der Regel lieber ne SSD.

Und selbst wenn nach vielen Schreib- und Löschvorgängen die Performance mal hinüber sein sollte, gibt es ja immer noch die gute alte Defragmentierung. Vielleicht muss man die dann einmal pro Jahr laufen lassen. Ist jetzt auch nicht schlimm.
 
Langzeitstabilität stell ich mir damit schwierig vor. Um von dem Durchsatz zu profitieren müssen die Daten ja parallel geschrieben/gelesen werden und somit komplett zerklüftet auf die Platter verteilt werden. Also ähnlich zu Raid 0 vom Prinzip her - also ohne jegliche Sicherheit. Wird nur einer der Köpfe ein wenig verstellt, oder unsynchron, sind alle Daten verloren...

Überlegungen dazu gibt es vermutlich sogar schon länger als die immer neuen nie eingehaltenen Roadmaps zu den Kapazitätssteigerungen....
 
wern001 schrieb:
was bringen 1200 MB/sek wenn der rnd4k dieser Platten bei geschätzten 1 MB/sek oder so liegt?
Es sorgt hält dafür, dass wenn sie am Stück ausgelesen wird man ordentlich Geschwindigkeit gewinnt.

Beispiel: Die Platte wird komplett gespiegelt oder eingelesen.
Ist oftmals dann auch schneller, als die kleinen Daten zu lesen.

Den Trick kennt auch quasi jeder, der heute mal mit alten CD-ROMs arbeiten muss. Komplett einlesen, dann loslegen. Ansonsten ist die Performance eine Katastrophe.
 
  • Gefällt mir
Reaktionen: NMA
Da würde mich ja echt ein rl vergleich mit unserem aktuellen Backupstorage interessieren - wobei am Ende vermutlich das Netzwerk limitieren würde, mit einer LAG aus 2*10 Gbit.
 
[F]L4SH schrieb:
Das klingt danach, dass (seriell) Merkur im Zenit von Saturn stehen muss und gleichzeitig eine Jungfrau geopfert werden müsste, damit der Maschinengeist die Leistung freigibt.
Zu viel Sailor Moon geschaut? :stacheln:
Sailor Saturn und Merkur sind meine Favoriten :p
 
  • Gefällt mir
Reaktionen: NMA, Venora Valyria und Krik
Sehr spannend. Aber wohl auch sehr teuer... Vor Allem in diesen Zeiten, wo AI alles verschlingt.
 
Die können mir viel Erzählen, wenn der Tag lang ist, zunächst müssen die erstmal liefern und es müsste einen bemerkbaren Leistungsschub geben um Herkömmliche Festplatten zu ersetzen oder abzulösen, dazu muss dann auch der Preis passen und die Festplatte und die Beschriebenen für einige Jahre Daten behalten.
Ansonsten klingen 140 TB schon ganz ordentlich, bis dahin werden dann die 40 TB Platten auch für den Consumer Käuflich werden.
 
Rickmer schrieb:
Ich kenne genügend beengte Serverräume wo genau ein Rack rein passt. Wenn der Backup-Server davon nur 2U benötigt, freut sich jeder.
Auch dazu ist dieser Geschwindigkeitszuwachs eigentlich nicht notwendig. Wenn man es auf Storage anlegt, passen in einen 2U Server 24 3,5" Laufwerke (z.B. Dell R760xd2). Es nützt dir nix, wenn du Plattenarrays reinhaust, die zusammen vielleicht sequentiell 8 Gbyte/s lesen/schreiben können, der Server die Geschwindigkeit aber gar nicht annehmen kann oder verarbeiten kann. Denn in wievielen der beengten Serverräume die du gesehen hast, wurden die Server mit 100Gbit/s angeschlossen? Ich vermute mal kaum einer.

Für Backupserver werden meist Laufwerke mit einer Kombination aus hoher Kapazität und möglichst hohem Preis/Leistungsverhältnis gesucht, um möglichst günstig die benötigte Gesamtkapazität zu erreichen. Festplatten mit mehr und komplexeren Aktuatoren haben dagegen eher höhere Kosten und eine geringere Zuverlässigkeit (wegen höherer Komplexität).

Aus Ingenieursicht sind diese Laufwerke schon eine Leistung. Nur ob der Markt das auch so will, das ist eine andere Geschichte. Wenn die Flashkrise nicht wäre, würde man dieses Projekt vermutlich gar nicht soweit getrieben haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, maxrl und Drahminedum
ich_nicht schrieb:
Aber 14 Platte in einer 3,5" ist schon krass 🧐. Gut das da noch was passiert.
Ich finde das eher schlecht. Man hat die Platten kaum qualitativ verbessert (mehr Bitdichte aufm Platter) sondern mehr quantitativ verbessert (mehr Platter).
 
  • Gefällt mir
Reaktionen: oem111
Atkatla schrieb:
(z.B. Dell R760xd2).
Das nutzen wir zweimal als unsere Backuprepo (einmal als Backup Copy). An sich hast du aber wohl recht, da ist in den meisten Fällen eher das LAN der Flaschenhals.
 
luckysh0t schrieb:
Da würde mich ja echt ein rl vergleich mit unserem aktuellen Backupstorage interessieren - wobei am Ende vermutlich das Netzwerk limitieren würde, mit einer LAG aus 2*10 Gbit.
Das liegt aber eher daran, dass 2x10G ein Standard ist, der schon vor SSD Zeiten gängig war.
Vielen Firmen reicht das noch, aber inzwischen gibt es schon 1600GbE :)
QSFP+ mit 40GBe oder (Q)SFP28 mit 25/100GBe wären aktuell in etwa das, was früher die 10G waren.
 
AlphaKaninchen schrieb:
Gar nicht bzw gibt es schon hieß SATA Express. M.2 ist daraus hervorgegangen. Diese HDDs werden wahrscheinlich SAS oder PCIe sein, wie SSDs, oder halt von SATA Limitiert sein.
Vermutlich wirds einfach weiter SATA- und SAS-Versionen geben. Auf den inneren Spuren bricht die Geschwindigkeit ja physikbedingt ein und dann hat die Technologie auch bei SATA-Platten noch einen Mehrwert. Und SAS ist ja sowieso noch deutlich schneller (SAS-3 12Gb/s, SAS-4 24Gb/s) und hat wegen seiner Verbreitung und Expander viele Vorteile.
peru3232 schrieb:
Langzeitstabilität stell ich mir damit schwierig vor. Um von dem Durchsatz zu profitieren müssen die Daten ja parallel geschrieben/gelesen werden und somit komplett zerklüftet auf die Platter verteilt werden. Also ähnlich zu Raid 0 vom Prinzip her - also ohne jegliche Sicherheit. Wird nur einer der Köpfe ein wenig verstellt, oder unsynchron, sind alle Daten verloren...

Überlegungen dazu gibt es vermutlich sogar schon länger als die immer neuen nie eingehaltenen Roadmaps zu den Kapazitätssteigerungen....
Ist doch kein großer Unterschied zu jetzt. Wenn eine Datei nicht in eine Spur passt, wird sie auf dem ganzen Cylinder aufgeteilt. Also Platter 1 Seite A Spur 1, Platter 1 Seite B Spur 1, Platter 2 Seite A Spur 1 usw. bis der Cylinder voll ist. Dann gehts erst auf Spur 2. Außerdem ist noch gar nicht bekannt, ob beide Köpfe die gleichen Spuren bedienen oder diese untereinander aufgeteilt werden.
 
  • Gefällt mir
Reaktionen: bensen
Renegade334 schrieb:
Vielen Firmen reicht das noch, aber inzwischen gibt es schon 1600GbE :)
QSFP+ mit 40GBe oder (Q)SFP28 mit 25/100GBe wären aktuell in etwa das, was früher die 10G waren.
Die Verkabelung zu machen wäre zwar kein Problem bei uns, aber da unsere Backupproxys nur mit 16 Gbit FC Multipath angebunden sind, würde das primär "nur" dem Copyjob zugutekommen :D

Und mein Chef würde sich freuen noch mehr Geld auszugeben und ich mich technisch :D
 
Theoretisch klingt das gut, aber was in der Praxis davon über bleibt wird man sehen.
 
  • Gefällt mir
Reaktionen: Innocience, cookie_dent und ThePlayer
@drago-museweni genau, erst müssen sie die Technik Marktreif bekommen. Und dann ist die Frage ob die 1200mb/s ehr Theorie sind oder ob man wirklich in die Nähe kommt also 900mb und mehr schafft.
Interessant und nötig wäre das alle mal. Selbst jetzt mit 20TB+ HDDs
 
  • Gefällt mir
Reaktionen: drago-museweni
wann kommen eigentlich endlich die Massenspeicher mit "KI"? Die kann dann ganz schnell herbeihalluzinieren, was im Speicher stehen könnte... 😝
 
  • Gefällt mir
Reaktionen: Drahminedum, Der Puritaner und Venora Valyria
Was ist der unterschied von 1200Mb/s zu 1,2Gb/s? Und welcher Anschluß soll dann genutzt werden, wenn Sata bei 600MB/s am Limit ist?
 
Zurück
Oben