News Festplatten: Toshiba arbeitet an 10‑Platter‑HDD

Durch die geringere Dichte des Edelgases gegenüber Luft treten geringere SchWerkräfte auf und die Platter können dichter zusammenrücken.

Gerne.
 
fdsonne schrieb:
Ein anderer ist die Leistungssteigerung durch gleichzeitige Zugriffe.
Wir reden von normalen HDDs, also solchen mit einem Actuator, denn die Multi Actuator gibt es noch nicht und dies ist das HDD Forum und der Thread zu einer News über neue HDDs. Da bei denen nur immer ein Kopf aktiv ist, kann es keine Performancesteigerung bringen, wenn diese nun Befehl von zwei statt nur von einem Port bekommt und ob die Daten die der aktive Kopf gerade liest über einen oder zwei Port gehen, spielt auch keine Rolle, da selbst SATA 6Gb/s locker für den Datenstrom einer HDD reicht.

Die HDD selbst kann also wegen des zweiten Ports überhaupt gar nicht mehr Daten übertragen, aber für das gesamte Storage mag dies anderes aussehen. Es kann einmal sein, dass der Controller (damit ist nicht automatisch nur der SAS RAID Controller gemeint) gar nicht so viele IOPS/so viel Durchsatz schafft, es ist aber auch durchaus üblich das mit Expandern gearbeitet wird (teils sind die sogar direkt auf der Controllerkarte, da hat der eigentlich Controller z.B. nur 8 Ports, die Karte über den/die Onboard SAS Expander aber 16 oder 24 oder womöglich noch mehr Ports. Dann wird der Uplink des Expanders schnell ein zum Flaschenhals und wenn dann ein weiter Controller genommen wird, dann hat man über diesen natürlich diesen Flaschenhals entsprechend geweitet und haben im Endeffekt mehr Performance für das System, aber die einzelne HDD wird deswegen nicht schneller, weil sie zwei Ports hat.

fdsonne schrieb:
Mit SSDs ist es reicht einfach möglich die Leistungskapazitäten eines Controllers vergleichsweise schnell ans Limit zu bringen. Was macht man dann?
Wie oben beschrieben, nur geht es hier um HDDs und es ging nicht um die Perfornance des Systems, sondern die der Platten selbst.
fdsonne schrieb:
Daraus ergibt sich also, dass:
"2 Ports sind nie notwendig, Dualport-SAS macht man wegen der Redundanz, sollte ein Controller ausfallen, kann man ohne Unterbrechungen weiter auf das Storage zugreifen."
... in dem Fall schlicht nicht vollständig, eigentlich sogar falsch ist - "nie notwendig" stimmt halt nicht... Der zweite Port wird dort benötigt eben um vom zweiten Controller zeitgleich auf die selbe Disk/SSD zuzugreifen.
Es ging um die Antwort auf diese Frage:
ReactivateMe347 schrieb:
Warum sind da 2 Ports notwendig?
Der sich vermutlich auf diese Kommentar bezog:
Compu-Freak schrieb:
16 TB Dual-Actor-Technologie mit zwei Sata-Anschlüssen habe ich bereits in Anwendung. Das Ganze nennt sich: Raid 0 :daumen:.
Leider hat ReactivateMe347 ja nicht erwähnt worauf er Bezug genommen hat. Und da ist die Antwort, dass auch eine Platte mit Dual Actuator Technologie keine zwei Ports braucht, absolut korrekt und das man natürlich zwei Ports braucht, wenn man die Host Controller redundant haben möchte, ist doch wohl logisch, mehr Leistung bekommt man aber nur, wenn der Host Controller ein Flaschenhals hat oder ist. Die einzelnen HDDs leisten bisher mit zwei Ports nicht mehr als mit einem und auch mit zwei Actuator würde die Bandbreite selbst von SATA 6Gb/s noch gerade so reichen um die Datenströme von beiden aktiven Köpfen übertragen zu können, die Latenz wäre dann aber halt minimal höher als wenn man dies parallel über zwei Ports machen kann. Aber für Anwendungen wo Performance wichtig ist, nehmen heute nur noch Nostalgiker oder extreme Pfennigfuchser HDDs.
fdsonne schrieb:
Der einzige Grund, warum man das in der von mir genannten Form macht ist die Leistungssteigerung. Die Redundanz fällt (je nach Konfiguration) ggf. dann automatisch mit ab...
Wenn man davon eine Leistungssteigerung bekommt, hat man mit einem Controller schon einen zu kleinen gekauft, vermutlich weil das ganze eben auf Redundanz und damit den zweiten Controller für die volle Performance ausgelegt war. Dann bekommt man aber ein Problem mit dem Durchsatz des Storages, sollte man diese Redundanz eines Tages wirklich mal benötigen. Da sind wieder die Pfennigfuchser und wenn dann doch mal ein Teil ausfällt und plötzlich läuft etwas nicht mehr rund oder gar nicht mehr, jammern sie rum wie dies sein kann, wo doch alles redundant ist. Aber wirklich Redundanz bedeutet, dass ein Teil wegfallen kann, ohne das die Performance beeinträchtigt wird, nicht nur damit man irgendwie einen Notbetrieb aufrecht erhalten kann, nur kostet Redundanz auf diesem Level eben auch mehr.

Die Redundanz ist aber der Grund warum SAS SSDs überhaupt noch eine Rolle spielen, denn eigentlich teilt sich auch bei den Enterprise SSDs der Markt in SATA für viele Kapazität bei geringen und NVMe für hohe Performance auf. Nur ist Dual Port bei NVMe noch recht neu und wenig verbreitet:
Aber die Performance wird dort sogar zwischen beiden Port geteilt:
Worum es bei den Dual Port NVME SSDs geht, schreibt auch "Anders Graham, SSD Product Marketing
Samsung Semiconductor" in der Überschrift seines Beitrag dazu auf dem FMS2017:
Daraus auch entnommen:

SAS Storage HA Array.png


Bei SAS SSDs bringt Dual Port auch Performancevorteile, bei NVMe nicht, die kann bestenfalls mit einem Host dann mit 4 PCIe Lanes angebunden werden, (die alten Intel DC D3700/3600 auf dem oberen Zitat von Servethehome konnten dies offenbar noch nicht) oder eben mit je 2 Lanes an die beiden Hosts. Dual Port ist bei NVMe SSDs eben noch neu und wird einzig und alleine deswegen gemacht, um die High Availability wie bei SAS zu bekommen. Wenn sich dies durchgesetzt hat, es erfordert ja auch auf der Hostseite entsprechende Anpassungen, werden SAS SSDs vermutlich bald komplett aussterben und SAS möglicherweise gleich mit.
fdsonne schrieb:
Was wahrscheinlich einfach nur daran liegt, dass du selbst nie diese Art von Hardware in der Hand hattest.
Keine Ahnung wieso, aber ich glaube da hat jemand täglich an sowas rumzuschrauben, versteht wie es zusammengesetzt werden muss, nicht aber wieso es so ist wie es ist und wieso die Effekte auftreten, die er immer wieder beobachtet. Nur weil man eine Schraube anzieht, weiß man nicht nicht wie die Maschine funktioniert, aber ich weiß wie die funktioniert und bestimme auch, wo welche Schraube hinkommt und wie groß die sein muss, dafür habe ich sie mal in der Hand gehabt, haben ihre Spezifikationen gelesen und die Belastung an der Stelle berechnet. Der Schrauber der sie einsetzt, weiß nur welche Schraube wo eingesetzt werden muss und mit welchem Drehmoment sie festgezogen werden soll, aber nicht wieso genau diese Schraube nun dort sitzt und mit x Nm angezogen werden soll.
fdsonne schrieb:
Aber vielleicht nicht immer direkt die Leute anfahren, wenn man es selbst dann doch nicht weis und nur ins blaue Annahmen trifft??
Dito und das geht mir bei dir schon bei HL auf den Sack, keine Ahnung aber auf dicke Hose machen und mit Zähnen und Klauen den Unsinn verteidigen den man zu wissen meint, natürlich ohne jegliche Belege zu liefern um die eigene Ansicht zu untermauern. Da kann ich dich leider als Mod nicht auf die Ignoreliste packen, aber hier mache ist dies jetzt sofort und hoffe du wirst nie ein Mod werden, denn dort lasst ihr das Forum vor die Hunde gehen und dies wünsche ich diesem Forum nicht.
DerRobert2019 schrieb:
geringere SchWerkräfte auf
Wieso SchWerkräfte? Scherkräfte ist schon das richtig, man könnte auch fast Luftwiderstand sagen, aber es ist ja eben Helium und keine Luft.
 
Shoryuken94 schrieb:
Na klar weil dein Horizont der einzig wahre ist...

Tja aber er hat recht. Ich verkaufe Server und Storage. Und da werden nur SAS Platten gekauft. Meist 2,5 SFF Platten. 3,5 LFF meist in Backup Servern. SSDs sind in Servern und Storage Systemen noch ein Luxusgut. Meist als Cache oder Tier1 genutzt. Fullflasch Lösungen werden auch selten gekauft da diese sehr teuer sind. Und nicht jeder setzt auf die Dubiosen Kisten von Huawei im RZ.
SATA wird manchmal von Kunden gekauft wenn sie günstig SSDs in einem Server einsetzen.
 
Hayda Ministral schrieb:
SSD gab es zum Zeitpunkt als die rauskamen nicht mal annähernd in der Kapazität und/oder Preisklasse. Der Vergleich war entsprechend die 3,5 Zoll HDD mit 7200 U/min
Auch damals war eine 10.000 UPM 2,5" HDD kaum schneller als eine 7200 UPM 3,5" HDD (siehe unten). Nur die Zugriffszeit war wegen der höheren Drehzahl geringfügig besser. Die Platten waren, für den kümmerlichen Gewinn an IOPS überverhältnismäßig teuer. Wem es auf Geschwindigkeit ankommt hat diese Teile daher recht zügig gegen SSDs getauscht, da diese tatsächlich ein vielfaches mehr an IOPS für ihren Aufpreis schaffen.
Darum ist diese Festplattenkategorie ja praktisch auch als erst gestorben.

Du hast da eine sehr ungewöhnliche Sichtweise. Ein geringerer Scheibendurchmesser bedeutet
  • weniger Masse, die Drehzahl kann steigen -> höhere Datenrate bei gleicher Datendichte
  • weniger Strecke zurück zu legen von der innersten zur äußersten Spur -> geringere Zugriffszeiten
  • weniger Strecke zurück zu legen bis der passende Sektor unterm Schreib/Lesekopf ist -> geringere Latenz
Ich habe keine ungewöhnliche Sichtweise, du hast nur die Physik nicht verstanden!

Die Datendichte in Bits pro Quadratzentimeter (bei Platten meistens pro Quadratzoll) ist bei 2,5" und 3,5" Plattern weitestgehend gleich. Darum ist die Datenrate bei 3,5" bei gleicher Drehzahl sehr viel höher als bei 2,5". Der Grund: Aufgrund des größeren Durchmessers bewegen sich die Daten mit sehr viel höherer Geschwindigkeit unter dem Lesekopf vor bei als bei den kleinen Platten.
Bei 7200 UPM bewegen sich die Daten am äußeren Rand einer 3,5" Platte mit 120 km/h unter dem Lesekopf vorbei (unter den Annahme, dass die Scheibe tatsächlich 3,5" Durchmesser hätte). Bei einer 2,5" Platte sind es nur 86 km/h. Damit die Daten bei der 2,5" Platte ebenfalls mir 120 km/h vorbei fliegen, müss sie mit 10.000 UPM drehen! Und wir erinnern uns: Die Datendichte ist bei beiden Modellen gleich. Sie speichern also gleich viele "Bits pro Kilometer", wenn man die Spuren der Platte als gedankliche Schnur abwickeln würde.

Aus Stromspargründen kommt noch dazu, dass die kleinen Platten meist zusätzlich auch noch langsamer drehen, weil sie ja für den mobilen Einsatz optimiert sind oder allein über USB mit Strom versorgt werden sollen.

Nun zur Zugriffszeit: Wenn zwei Platten die gleiche Drehzahl haben z.B. 7200 UPM, dann ist die Zugriffszeit bei einer kleinen Scheibe (2,5") und einer großen Scheibe (3,5") auch genau gleich! Es dauert im Mittel eine halbe Umdrehung, bis der gewünscht Sektor unter dem Lesekopf vorbei kommt. Und weil beide Modelle die gleiche Drehzahl haben kommt jeder Sektor innerhalb einer Sekunde genau so oft am Lesekopf vorbei. Bei 7200 UPM = 120 Umdrehungen pro Sekunde dauert eine Umdrehung rund 8 Millisekunden. Damit dauert es im Durchschnitt 4 ms bis der gewünscht Sektor unter dem Lesekopf vorbei kommt.

Und dass der Arm bei einer 2,5" Platte weniger Weg von ganz innen nach ganz außen zurücklegen muss spielt in der Praxis fast gar keine Rolle. Denn erstens wird der Kopf nur sehr selten von ganz innen nach ganz außen positioniert. In der Regel werden nämlich benachbarte Spuren gelesen. Und zweitens bewegt sich der Lesearm viel schneller, als die Zeit, die vergeht, bis sich dann der gesuchte Sektor unter dem Lesekopf vorbei dreht - ist also vernachlässigbar.

Fazit: Die Zugriffszeit ist bei gleich schnell drehenden Platten im 2,5" oder 3,5" Format etwa gleich schnell. Die Datenrate ist jedoch beim 3,5" Modell sehr viel höher. Und das entspricht - Überraschung - auch genau dem, was du misst, wenn du zwei solche Platten zu Hause benchmarkst (aber Achtung: Drehzahl beachten!)
 
Zuletzt bearbeitet:
Und wie sieht die Zukunft der CD/DVD/BR aus? Wo bleiben die Datenträger mit mehr als 1 TB Kapazität?
Alternative Tape?

die blue ray geht theoretisch bis 500GB.
langt doch noch.
 
Sich mit 7200U/min drehende Glasscheiben... Scherben bringen Glück....
 
Also 2,5" Kapazität zu erhöhen wäre wirklich wünschenswert.

Aktuell habe ich ein 1Bay NAS, darin eine Enterprise HDD. Diese hat doppelten Antrieb, für mehr Power. Die schluckt aber auch 10 Watt. Das sind 28,80€ p.a. (33ct/kWh)
Für das dopplete bekomm ich schon nen kleinen V-Server, ohne Anschaffungskosten, da VPN drauf und ich hab auch ein "NAS" im Netzwerk.

Die 2,5" Platten brauchen ~1Watt, das ist vertretbar.
 
Keine Ahnung wie heise darauf kommt, dass dann zwingend zwei Anschlüsse nötig wären? Die SSD Controller können auch mehrere NAND Dies gleichzeitig ansprechen und damit mehrere Befehle wirklich zeitgleich abarbeiten, ohne deswegen mehrere Anschlüsse zu benötigen. Außerdem werden die Actuatoren ja nur jeweils für einen Teil der Platter sein, wären es nötig pro Actuator einen Anschluss zu haben, dann würde eine 10TB mit Dual Actuator an jedem Port nur eine 5TB sein und von dem eines Port könnte man nicht auf die 5TB zugreifen, die auf den Plater stehen deren Köpfe vom anderen Actuator gesteuert werden. Sowas wäre totaler Blödsinn den kein Mensch kaufen würde und die Multi Actuatoren sollen ja auch die sequentiellen Transferraten erhöhen, was nur geht, wenn der gleiche Controller beide kontrolliert und die Datenströme von deren Köpfen zusammenführt und dann reicht logischerweise auch ein Port.
 
Möglich, aber generell ist heise bei SSDs und HDDs keine Leuchte, die haben ihre Schwerpunkte offenbar auf anderen Bereichen, aber sicher nicht, wenn es um HDDs oder SSDs geht.
 
Holt schrieb:
Wieso sollte die Ausfallrate hoch sein? Hast Du irgendeinen Beleg das HDDs mit mehr Platter eine höhere Ausfallrate haben also die der gleiche Familie mit weniger? Ebenso bei der Zugriffszeit, warum sollte die bei mehr Platter höher sein? Glaubst Du Antriebe für die Arme wären so schwach, dass sie diese nur noch langsam bewegen könnten?

Wenn eine Datei auf mehr Platter verteilt wird, wird die Zugriff normal steigen wenn diese wieder zusammengesetzt wird ;)

Je mehr bewegliche Teile je höher die Ausfallrate. WD hatte damals vor 10 Jahren so mit ihrer Green, Blue und Black Reihe geworben sogar ^^
 
Tekpoint schrieb:
Wenn eine Datei auf mehr Platter verteilt wird, wird die Zugriff normal steigen wenn diese wieder zusammengesetzt wird ;)
Wenn dies pauschal stimmen würde, müssten SSD oder USB Sticks mit kleiner Kapazität ja schneller sein als solche mit hoher Kapazität, da bei den großen die Daten ja über mehr NAND Dies verteilt gespeichert werden. Sie sind aber im Gegenteil sogar schneller und auch wenn das bei HDDs (noch, mit Multi Actuatoren wird sich dies auch ändern) nicht so ist, so gibt es doch keine Unterschiede in den Performance zwischen den Kapazitäten, sofern die Datendichte und Drehzahl gleich ist. Dies kommt daher, dass die bisherigen HDDs die Daten immer nur mit einem Kopf lesen oder schrieben und erst die Sektoren einer Spur lese, dann auf den nächsten Kopf umschalten und dort die Sektoren der gleichen Spur lesen usw. um dann erst die Köpfe auf die nächste Spur zu positionieren. Dabei hat sich ein schlauer Mensch sogar eine Verschränkung der Sektoren zwischen den Spuren einfallen lassen, dabei liegt der erste Sektor auf der nächsten Spur etwas zurückversetzt um Zeit für die Positionierung der Köpfe zu haben und nicht erst eine ganze Runder warten zu müssen, bis die Spur korrekt angefahren wurde.
Tekpoint schrieb:
Je mehr bewegliche Teile je höher die Ausfallrate. WD hatte damals vor 10 Jahren so mit ihrer Green, Blue und Black Reihe geworben
Dann könnte man auch sagen, dass es sicherer wäre am Auto nur 3 Radmuttern statt 5 zu haben, weil es dann weniger bewegliche Teile gibt, also Räder die mit 5 Radmuttern gesichert sind, häufiger abfallen müssten. Zeige mir eine Statistik die dies belegt oder die höhere Ausfallraten bei mehr Platter belegt.

Die letzte Statistik von Hardware.fr ist schon etwas älter, die Seite wurde ja leider eingestellt, aber auch da sieht man keinen generellen Hinweis darauf, dass HDDs mit hoher Kapazität und damit mehr Platter öfter ausfallen als solche mit weniger Platter. Ich suche mal die WD Red und Seagate NAS/IronWolf raus:

2TB:
3TB:
Bei der Red deutlich höher, bei der Seagate NAS praktisch identisch.

4TB:
Nochmals höher, von der IronWolf waren es aber nur recht wenige (100 bis 200) Exemplare.

6TB:
Deutlich weniger, obwohl die 6TB mehr Platter als alle kleineren Kapazitäten haben. Bei de Red ist es der beste Wert von allen Kapazitäten die dort auftauchen.

8TB und 10TB:
Wieder etwas höher als bei 6TB, aber die 10TB hat sogar eine geringere Ausfallrate als die 8TB, die bei beiden so wie bei den 4TB ist.

Es gibt sicher Modelle bei denen das etwas größere Modell mit einem weiteren Platter dann auch höhere Ausfallraten hat, aber ebenso gibt es dann auch wieder das noch größere Modelle mit noch mehr Platter, bei den die Ausfallrate noch geringer ist und damit kann man eben einfach nicht pauschal sagen, dass HDDs mit mehr Platter auf eine höhere Ausfallrate haben würden.
 
Holt schrieb:
Wenn dies pauschal stimmen würde, müssten SSD oder USB Sticks mit kleiner Kapazität ja schneller sein als solche mit hoher Kapazität, da bei den großen die Daten ja über mehr NAND Dies verteilt gespeichert werden.

Also jetzt verwechselst du nicht nur Äpfel mit Birnen, sondern Äpfel mit ein einer Möhre. Das sind zwei komplett andere Technologien, solltest du ja am besten wissen.

Holt schrieb:
Dann könnte man auch sagen, dass es sicherer wäre am Auto nur 3 Radmuttern statt 5 zu haben, weil es dann weniger bewegliche Teile gibt, also Räder die mit 5 Radmuttern gesichert sind, häufiger abfallen müssten. Zeige mir eine Statistik die dies belegt oder die höhere Ausfallraten bei mehr Platter belegt.

Und was soll dieser absurde Vergleich? Seit wann ist eine Radmutter ein bewegliches Teil? Ist genauso ein total irreführender Vergleich.

Und was willst du mit Statistiken? Schon mal welche erhoben? Ist genauso ein total verzehrtes Bild.
 
  • Gefällt mir
Reaktionen: FaDam
Einen geringeren Preis pro GB würde ich bei einer HDD mit mehr Plattern jedenfalls nicht erwarten. Nur höhere Kapazität. Geringere Preise pro GB sind m.E. nur bei Erhöhung der Datendichte realisierbar.

Die Datenrate einer HDD steigt proportional zur Wurzel der Datendichte, proportional zur Drehzahl und proportional zur Anzahl der gleichzeitig benutzten Köpfe. da ist also kein Vorteil durch mehr Platter zu erwarten.

Und auch die Zugriffzeiten bzw. IOPS werden sich mehr Platter nicht verbessern.
 
mkossmann schrieb:
und proportional zur Anzahl der gleichzeitig benutzten Köpfe. da ist also kein Vorteil durch mehr Platter zu erwarten.
Noch nicht, aber mit der kommenden Multi Actuator Technology wird sich das ändern.
 
mkossmann schrieb:
Einen geringeren Preis pro GB würde ich bei einer HDD mit mehr Plattern jedenfalls nicht erwarten.

Die Kosten für Gehäuse, Steuerungslogik, Motorik, Sensoren, Transport und Lagerung verteilen sich auf mehr Gigabyte, daher ist ein geringerer Preis pro GB durchaus zu erwarten. Nur halt nicht im gleichen Maße wie bei reiner Steigerung der Datendichte, die ohne Aufpreis an Material auskommt.
 
Das die Steigerung der Datendichte ganz ohne Aufpreis geht, würde ich nicht sagen. Dazu muss es nicht der Laser bei HAMR sein, auch die Platter selbst (etwas Glas statt Alu) und deren Beschichtung, werden eben wie die Köpfe aufwendiger und damit teurer. Daher gibt es die höchsten Datendichten zuerst in den Modellen mit hoher Kapazität und erst wenn diese zum Mainstream wird, dann wandert sie zu den Modellen mit geringere Kapazität.

Schau Dir an wie lange es zwischen dem Erscheinen der ersten HDDs mit 1,33TB oder mehr pro Platter und deren Einsatz in den 4TB HDDs (dann mit 3 statt 4 Platter) gedauert hat. Das hat klar wirtschaftliche Gründe, denn zuerst ist es eben teurer 3 der Platter und 6 Köpfe mit der höheren Datendichte zu bauen als 4 Platter und 8 Köpfe von den anderen und erst wenn sich dies umdreht, dann werden die entsprechenden Produkte überarbeitet.
 
  • Gefällt mir
Reaktionen: Hayda Ministral
Zurück
Oben