News 3,5-Zoll-Festplatten: Glasplatter für 20 TB und mehr mit HAMR

hardstylerrw schrieb:
Ganz einfach - wer eine 10-20TB grosse HDD kauft will sie auch benutzen.

So und wer den Speicher wirklich braucht/nutzt ,der muss/möchte auch mal ein Backup machen bzw. vielleicht auch Daten von verschiedenene HDDs zusammenlegen.
Kannst ja mal selber ausrechnen,wie lange es dauert von einer 10-20TB grossen HDD ein Backup zu machen bei max. 250mb/s., wobei die tatsächliche Schreibrate dann in der Praxis ja sogar je nach Art der Dateien noch deutlich drunter liegt.

Wer solche Datenmengen verwaltet und regelmäßig fullbackups fährt, dem sollte man besser mal so eine Platte über die Rübe ziehen...

Große Platten sind Datenspeicher und für alles andere gibt es Flash oder kleinere schnellere Platten.
 
Wolfsrabe schrieb:
So ist es mir lieber, ein RAID Z2 o.ä mit "kleinen" Platten (3 oder 4 GB) zu fahren.

Man sollte ja auch von seinen Daten ein Backup haben. Raid ist kein Backup und macht es nur komplizierter und auch insgesamt fehleranfälliger.

Hast du eh ein Backup, ist eine einzelne HDD dem Raid auf jeden Fall vorzuziehen.
 
@Loopman, richtig, das vergessen leider viele, und dann ist das Geschrei groß, wenn der Controller einen Defekt hat und das Raid zerhackselt, man durch eine Dummheit etwas löscht oder ähnlicher Supergau eintritt.

@Glasplatter: sicher ein logischer Schritt, endlich mal HAMR in Serie statt immer mehr Platter wäre aber wirklich wünschenswert, dann steigt auch endlich mal wieder die Transferrate.
 
HominiLupus schrieb:
Übertragungsgeschwindigkeit ist reine Grundschulmathematik von Datendichte x Umdrehungsgeschwindigkeit. Mehr Scheiben im Gehäuse helfen da überhaupt nicht.
Was ich ja nicht verstehen kann: wieso kann man nicht von jeder Scheibe parallel lesen/schreiben? Derzeit hat ja jede von den 8, 10 oder 12 Scheiben 2 Lese/Schreibköpfe: obere und untere Oberfläche jeder Scheibe. Aber von den bis zu 24 Köpfen liest nur einer. Wieso?

AAAAALSO :

6 Pattern & 5400 RPM & 10 ppµ = 250 MB/s
10 Pattern & 7200 RPM & 15 ppµ = 550 MB/s

Die Pattern werden (nahezu) parallel gelesen / beschrieben, und nicht der Reihe nach :-)
Etwas(!) Versatz muss sein, oder Du entwickelst eine Art "Vectoring" für die auf Flex-Folie
aufgebrachten parallelen Datenleitungen der Schreib / Lese - Köpfe, allerdings werden die
zum Teil schon real am Grenzbereich des physikalisch Möglichen betrieben...

Es gibt allerdings inzwischen als Designstudie durchaus schon HDDs, welche Multi-Armed
mit bis zu 6 oder 8 Armen real GLEICHZEITIG lesen - allerdings war bis dato die Gas-Umströmung
und damit verbunden die Schlepp-Wirbel-Bildung in den nicht wirklich zu 100% evakuierten Chassis
ein gravierendes Problem (da wirken im Verhältnis(!) Kräfte, welche die Schleppwirbel eines
Airbus A380 lächerlich erscheinen lassen ... ).

Ein guter Bekannter von mir ist als Industrie-Designer mit sehr großer Entwicklungs-Erfahrung
für Rotorblätter vor ca. 1,5 Jahren in Richtung FernOst ausgewandert, da er dort bei einem
HDD-Entwicklungs-Labor angefangen hat - daher auch mein grober Kenntnisstand über die
dort auftretenden "Effekte".
 
Cool Master schrieb:
1. Wegen der Fragmentierung
2. Wegen dem Controller
3. SATA unterstützt es nicht

Wir haben 512 Byte Sektoren und wir haben 4096 Byte Sektoren. Jetzt haben wir eiben 6x 4096 Byte Sektoren bei einer Festplatte. Damit sind die ganzen Dinge wie Fragmentierung, Feinmechanik, Controller, SATA, etc. egal.
Der Controller liest insgesamt 6 Einzelsektoren und baut daraus einen großen Sektor. Done.
Ja man müsste manches ändern, Treiber schreiben, SATA flexibilisieren. Aber das sind Peanuts imho im Vergleich.

Einzig der Stromverbrauch/Hitze ist ne Möglichkeit. Aber das sollte eigentlich nur beim Schreiben gelten.Das ist dann halt langsam, ist ja bei SSDs auch so, hat keinen gestört.
Wenn man sieht wie Festplatten nicht mehr Daten lesen sondern probabilistisch raten, oder HAMR und solche Scherze lasse ich "fehleranfälliger" nicht gelten sorry :)

@bytewarrior: eben, die Köpfe und die Datenleitungen sind ja immer da. auch wenn man nicht liest streichen die über die Scheiben weil ja alle zusammen starr montiert sind. Und auch die Leitungen müssen zu jedem Kopf gehen. Nur muss man eben nachher am Controller nicht nur eine der Leitungen auswerten sondern 6. FPGAs und schnellere ARM Cores sollten das doch aber können.
 
Zuletzt bearbeitet:
Pandora schrieb:
Wer solche Datenmengen verwaltet und regelmäßig fullbackups fährt, dem sollte man besser mal so eine Platte über die Rübe ziehen...

Wer redet den hier von permanenten Fullbackups?
Es reicht schon,wenn jemand von mehreren kleinen HDDs auf eine grosse HDD umzieht und vielleicht nochmal eine gleichgrosse zur Sicherung dazukauft.Da ist der zeitliche Erstaufand nicht unerheblich.
Und da die Daten im Lauf der Jahre sich eben ansammeln,wird der Zeitaufwand bei stagnierenden Transferraten dann eben immer grösser.

Du gehst anscheinend nur von neuen Daten aus die Tröpchen weiße eintrudeln.
So manch einer muss eben erst Mal die "alten" Daten auf die neue HDD drauf bekommen.

Außerdem geht das ganze auch ein wenig freundlicher?

Große Platten sind Datenspeicher

Und - hab ich etwas anderes behauptet?Aber dennoch muss man die Daten erst Mal drauf bekommen.
Und wären die SSD gleich groß und gleich teuer,würden viele nur noch zur SSD greifen.
 
Zuletzt bearbeitet:
bytewarrior schrieb:
Die Pattern werden (nahezu) parallel gelesen / beschrieben, und nicht der Reihe nach :-) ...

Ein sehr interessanter Beitrag, du darfst dich gerne öfter hier zu Wort melden!

@CB: Toll wäre, wenn ihr bei Artikeln über Festplatten immer auch die Datenmenge pro Platter bzw. Anzahl der Platter bringen würdet. Für mich ist das ein Kriterium beim Festplattenkauf. Das Motto heißt hierbei nicht "viel hilft viel".
 
Tekpoint schrieb:
Kann sein das die Technik an die Grenzen kommen ist

Das lese ich nun seit 5 Jahren?

Es stimmt schon: Mit 20TB bei 250MB/s ist etwas fragwürdig.
Zum archivieren ok.
 
Ich habe letztes jahr einen Stapel zehn Jahre alter 3,5" Festplatten für die datensichere Entsorgung physische zerstört. Weil es mir nicht gelang, mit einem Schraubendreher Kratzer in die Platter zu ziehen, habe ich versucht, die Platter durch Drehbewegung des großen Schraubenziehers zwischen den Plattern zu verbiegen und schwupps sind die Scheiben zersprungen wie Glas. War eine ziemliche Sauerei, weil dabei auch ordentlich Splitter durch die Gegend flogen. Also ab und an scheint es sowas auch im Desktop-Bereich schon gegeben zu haben.
 
Die Scheiben zerspringen schon seit eh und je wenn man Gewalt auswirkt. Das halt nichts mir "Glas" zu tun.

Ich selbst sehe die Geschwindigkeit bei diesen Größen als Nebensache. Meistens sind solche HDDs eh übers Netzwerk angebunden und da limitiert dann eh die Gigabit-Leitung.
 
18 TByte mit 12 Scheiben erhöhen. Durch den zusätzlichen Einsatz der SMR-Technik mit überlappenden Datenspuren ließe sich das Speichervolumen schließlich auf 20 TByte erhöhen.
Da Seagate schon mit SMR 2TB auf einen Platter bekommt und entsprechende Laufwerke auch schon verkauft, wären bei 12 Platter dann mit SMR sogar 24TB machbar.

Cr4y schrieb:
Mit der hohen Datendichte dürften HDDS zu SATA-SSDs aufschließen, was seq. Schreib- und Leseraten angeht.
Die Datendichte pro Platter wird ja nicht höher wenn man mehr Platter verbaut und nur die Datendichte auf einem Platter hat Einfluss auf die Performance, aber auch nur, wenn sie nicht alleine durch die mehr Spuren zunimmt, wie es bei SMR HDDs der Fall ist.

HominiLupus schrieb:
Übertragungsgeschwindigkeit ist reine Grundschulmathematik von Datendichte x Umdrehungsgeschwindigkeit. Mehr Scheiben im Gehäuse helfen da überhaupt nicht.
So ist es, wobei bei der Datendichte eben wichtig ist wie viele Sektoren pro Spur vorhanden sind und nicht wie viele Spuren es pro Zoll gibt.

HominiLupus schrieb:
Was ich ja nicht verstehen kann: wieso kann man nicht von jeder Scheibe parallel lesen/schreiben? Derzeit hat ja jede von den 8, 10 oder 12 Scheiben 2 Lese/Schreibköpfe: obere und untere Oberfläche jeder Scheibe. Aber von den bis zu 24 Köpfen liest nur einer. Wieso?
Das weiß ich auch nicht, man bräuchte zwar die Elektronik mehrfach die die Signale der Köpfe verarbeitet, aber so teuer kann die ja auch nicht sein.

Cool Master schrieb:
Ich würde mal spontan sagen es gibt mögliche drei Gründe:

1. Wegen der Fragmentierung
Fragmentierung ist eine Sache des Filesystems und hat mit der HDD selbst rein gar nichts zu tun.
Cool Master schrieb:
2. Wegen dem Controller
Da könnte der Grund liegen, aber man könnte die Controller ja auch anders bauen um dies zu unterstützen.
Cool Master schrieb:
3. SATA unterstützt es nicht
Dies hat damit nichts zu tun, dann man könnte ja z.B. die Daten jedes Sektors zur Hälfte auf der Ober- und zu anderen Hälfte auf der Unterseite eine Platter ablegen und dann beide Seiten gleichzeitig lesen und schreiben.

TZUI1111 schrieb:
Dann wird ja ganz klar Zeit für eine neue Schnitstelle+Protokoll^+Controller, bei dem alle Platter und Köpfe gleichzeitig R/W können ^^
Dazu muss man die Schnittstelle nicht ändern, SATA erlaubt ja parallele Befehle wenn NCQ aktiv ist. Nur wird dies bei HDDs zu verwendet um die Reihenfolge der Abarbeitung zu optimieren, aber um wirklich Nutzen für die Geschwindigkeit zu ziehen und alle Köpfe parallel nutzen zu können, müsste man sie auch einzeln positionieren können, derzeit hängen aber alle an der gleichen Achse und bewegen sich daher immer synchron, weshalb sie auch keine unterschiedlichen Spuren anfahren können.

zonediver schrieb:
Das wird lustig, wenn da mal eine runterfällt... :evillol:
Auch bei Glasplattern dürfte andere Dinge in der HDD zuerst Schaden nehmen, bevor der Platter zerspringt. Von HGST gibt es dieses Video über die Empfindlichkeit und korrekt Handhabung von HDDs, bei dem was da gezeigt wird was man schon nicht tun sollte, dürften auch Platter aus Glas noch heil bleiben.

bytewarrior schrieb:
AAAAALSO :

6 Pattern & 5400 RPM & 10 ppµ = 250 MB/s
10 Pattern & 7200 RPM & 15 ppµ = 550 MB/s
???
bytewarrior schrieb:
Die Pattern werden (nahezu) parallel gelesen / beschrieben, und nicht der Reihe nach :-)
Nein, werden sie nicht und dies sieht man daran, dass die HDDs mit höherer Kapazität und vielen Platter kein Deut schneller sind als die Modelle der gleichen Familie mit der gleiche Datendichte und Drehzahl mit weniger Platter. Es wird derzeit immer eine Spur eines Kopfes gelesen, dann die gleiche Spur des nächsten Kopfes usw. und dann die nächste Spur, wenn man die sequentiell ausliest. Da ist immer nur ein Kopf aktiv.
bytewarrior schrieb:
Etwas(!) Versatz muss sein
Meinst Du damit den Versatz der Sektoren auf den Spuren um etwa so viel wie diese sich während der Positionierungszeit der Köpfe auf die Nachbarspur weiterdreht oder was?
bytewarrior schrieb:
oder Du entwickelst eine Art "Vectoring" für die auf Flex-Folie
aufgebrachten parallelen Datenleitungen der Schreib / Lese - Köpfe, allerdings werden die
zum Teil schon real am Grenzbereich des physikalisch Möglichen betrieben...
Was meinst Du damit? Was für Flex-Folie? Bring doch bitte mal Beispiele und am Beste auch gleich Belege dafür was Du da behauptest.
bytewarrior schrieb:
Es gibt allerdings inzwischen als Designstudie durchaus schon HDDs, welche Multi-Armed
mit bis zu 6 oder 8 Armen real GLEICHZEITIG lesen
Es gab mal versuche mit sowas wie auf dem Bild (welches wohl ein Fake ist), also zwei Sätzen an Köpfe die unabhängig voneinander arbeiten, aber dies wurde wieder eingestellt. Keine Ahnung ob es in Serie gegangen ist.

bytewarrior schrieb:
- allerdings war bis dato die Gas-Umströmung
und damit verbunden die Schlepp-Wirbel-Bildung in den nicht wirklich zu 100% evakuierten Chassis
ein gravierendes Problem
Was für eine Gas Umströumung? Aktuell wird Heliumfüllung verwendet weil dessen Dichte viel geringer als bei Luft ist und somit auch die Kräfte der Verwirbelungen, was es ja erst ermöglich die Platter so eng zusammen zu rücken und damit so viele Platter in ein Gehäuse zu bringen. Bei einem Vakuum in der Platte wären die Kräfte auf das Gehäuse viel zu hoch, da müsste man dann massive Kugeln also Gehäuse nehmen.

bytewarrior schrieb:
Ein guter Bekannter von mir ist als Industrie-Designer mit sehr großer Entwicklungs-Erfahrung
für Rotorblätter vor ca. 1,5 Jahren in Richtung FernOst ausgewandert, da er dort bei einem
HDD-Entwicklungs-Labor angefangen hat - daher auch mein grober Kenntnisstand über die
dort auftretenden "Effekte".
Nur leider scheint Der Dich öfter auf den Arm zu nehmen, denn es wird ja eben nichts parallel gelesen oder geschrieben, wie die Werte der HDD mit unterschiedlich vielen Platter auch deutlich belegen und das die Kräfte der Luftverwirbelungen innerhalb der HDDs ein Problem sind, ist nicht neu. Die Hersteller setzen nicht umsonst deswegen auf die teure Heliumtechnologie und verbauen ja auch nicht aus Spaß zumindest bei den hochwertigeren Serien Leitbleche zwischen den Platter ein um die Luftverwirbelungen gering zu halten:

 
MountWalker schrieb:
Ich habe letztes jahr einen Stapel zehn Jahre alter 3,5" Festplatten für die datensichere Entsorgung physische zerstört. Weil es mir nicht gelang, mit einem Schraubendreher Kratzer in die Platter zu ziehen, habe ich versucht, die Platter durch Drehbewegung des großen Schraubenziehers zwischen den Plattern zu verbiegen und schwupps sind die Scheiben zersprungen wie Glas. War eine ziemliche Sauerei, weil dabei auch ordentlich Splitter durch die Gegend flogen. Also ab und an scheint es sowas auch im Desktop-Bereich schon gegeben zu haben.

Ich habe vor circa nem 1/4 Jahr ne SATA Festplatte von 2005 zerstört und irgendeine alte IDE Platte aber bei keiner sind die Platten zersprungen trotz Nutzung des Hammers.
(Ja hatte ne Schutzbrille an)
 
MichaG schrieb:
@Holt: Und welche HDD von Seagate hat 2TB pro Platter?

Die Seagate Barracuda Compute ST8000DM004, ST6000DM003, ST4000DM004, ST3000DM007 und ST2000DM005 haben laut Product Manual pro TB einen Head und pro 2TB eine Disk, also 4/3/2/2/1 Disk, die ST3000DM007 hat halt 2 Disks und 3 Köpfe. Die haben also 2TB pro Platter und "TGMR recording technology provides the drives with increased areal density" (TGMR = Tunneling giant magneto-resistive), bei 540 ktracks/in und 190 MB/s "Maximum data transfer rate" würde ich aber SMR vermuten, auch wenn es dort so nicht steht. Auch deuten die 4k Schreibraten der ST4000DM004 hier deutlich auf einen OnDisk Cache hin, wie ihn die Seagate HDDs mit SMR haben.
 
bytewarrior schrieb:
Es gibt allerdings inzwischen als Designstudie durchaus schon HDDs, welche Multi-Armed
mit bis zu 6 oder 8 Armen real GLEICHZEITIG lesen - allerdings war bis dato die Gas-Umströmung
und damit verbunden die Schlepp-Wirbel-Bildung in den nicht wirklich zu 100% evakuierten Chassis
ein gravierendes Problem (da wirken im Verhältnis(!) Kräfte, welche die Schleppwirbel eines
Airbus A380 lächerlich erscheinen lassen ... )..
Darauf warte ich schon lange.

Früher habe ich mal gelernt, daß die übereinanderliegenden Spuren gelesen werdenohne den Kopf bzw. Kamm zu bewegen. Ich bezweifle aber, daß bei den heutigen Datendichten die Köpfe auf allen Platteroberfächen immer exakt die selbe Position haben, nur wenn diese auf einer Scheibe einjustiert ist. Ich würde erwarten, daß durch Temperaturschwankungen u.ä. die Köpfe für jede Scheibe vorm Lese/Schreibvorgang neu justiert werden muß. Ich kann da aber auch falsch liegen.

Ein Multi-Arm-Design halte ich nicht für wesentlich teurer. Welchen Kostenanteil hat denn der single-Arm in einer HDD? Da sollte es kein großes Problem sein, 3 weitere Arme in die ungenutzten Ecken zu packen. Damit steigt sowohl die Dauertransferrate aber vor allem auch die Performance bei bis zu 4 unabhängigen physikalischen Bereichen. Beim Kopieren wird ja bereits im Datenbereich geschrieben und nebenbei immer das Directory aktualisiert.

Ob die mechanischen Erschütterungen eines Kammes sich dann auf die anderen Auswirken steht zu befürchten.
 
WD red 8TB = 273€
Seagate Blue 8TB = 205€

an den preisen tut sich seit jahren nichts. Ein NAS system mit gerade mal 2 platten ist komplett schon bei über 600€.

Ich arbeite seit Jahren mit einer 1 TB festplatte und der rest liegt auf verschiedenen externen. Ich würde gerne mal so ein 16TB NAS system (also 4*8 TB die als 2*2 laufen) einrichten um auch Madames immer größer werdene Fotosammlung zu archivieren (Seit sie verstanden hat was es mit RAW auf sich hat und die fertigkeiten in lightroom mittlerweile beeindruckende Diemensionen annehmen geht der Speicherbedarf echt durch die decke).

Aber der Preis fürn son ding ist schon 4stellig.......

Die gesamte entwicklung der letzten 5-10 jahre ist bei HDDs quasi im consumermarkt gleich null weil die preise linear mit der kapazität gestiegen sind. Früher war der richtwert so 100-120euro und dann hatte man ne große platte. und nen jahr später hat man für den selben preis ne größere bekommen....seit fast 10 jahren tut sich Preistechnisch quasi NIX:(
 
Zurück
Oben