News Multi Actuator Technology: Autonome Köpfe sollen Festplatten viel schneller machen

Die maximale Datenrate ließe sich auf diese Weise fast linear mit der Zahl der Scheiben erhöhen. Auch die durchschnittliche Zugriffszeit würde bei vielen parallelen Zugriffen sinken. Nur die minimale Zugriffszeit, die durch die Rotationsgeschwindigkeit der Platter und die Geschwindigkeit der Köpfe beim Ausrichten bestimmt wird, ändert das nicht.

Müsste das nicht "maximale" heißen? Die minimale Zugriffszeit ist immer quasi 0, wenn der Kopf schon genau ist, wo die Platten sind.

@Topic: Ich bin auch verwundert, dass dieser Ansatz erst jetzt kommt. Eigentlich schon zu spät, denn der Siegeszug der SSDs ist nicht mehr aufzuhalten. 2010 oder so wäre das eine coole Sache gewesen, weil SSDs noch schweineteuer waren und man die Multihead-Platter auch zum doppelten Preis (bei gleicher Kapazität) hätte verkaufen können. Noch cooler wäre natürlich ein zweiter Sockel für weitere Schwenkarme gewesen. Dafür muss man etwas Kapazität opfern, weil die Platter kleiner werden müssten, aber das hätte man sich damals ja auch was kosten lassen können. Heute sehe ich angesichts der erschwinglichen SSDs keinen wirklich Bedarf mehr für solche Turbo-HDDs.
 
Schnitz schrieb:
Da SSDs mittlerweile Kapazitäten weit jenseits der HDDs bieten steht nicht mehr nur die Preisfrage im Raum.
Das ist richtig und auch die Leistungsaufnahme spricht für die SSD. Sicherlich würden ein Großteil der Kunden bei einem Aufpreis von 50-100% komplett auf SSDs umsteigen, aber momentan sind wir immer noch bei einem Aufpreis von etwa 1000%. Es wird darauf ankommen wie schnell die Preis beider Technologien in Zukunft runter kommen. Kurzfristig haben SSDs da mehr Potential, mittel- und langfristig sehe ich aber den Abstand eher wieder größer werden.

Bogeyman schrieb:
Es bringt doch nix. Wer den Platz von HDDs benötigt und mehr Performance der wird nen Raid aufsetzen... Jetzt quasi ein Raid0 in eine Platte zu bauen, erschließt sich mir der Sinn nicht.
Das Sichern eines RAID0-Array braucht min. so lange wie das Sichern einer einzelnen Platte, da das Array ja nicht nur schneller, sondern auch größer ist. Klar kann man auch mehr und dafür kleinere Platte kaufen, aber das treibt die Kosten und den Stromverbrauch wieder hoch. Da sind solche Festplatten mit "internem RAID0" eine willkommene Zwischenlösung.
 
Hatte die Idee auch lang im Kopf aber das umzusetzen ist als Normalmensch nicht möglich. Trotzdem schön dass man sieht es passiert etwas.
 
Ich hoffe, dass sich die Technologie auch wirklich durch setzt. Es sieht nicht so aus, würden SSDs sich in den nächsten 5-10 Jahren zum günstigen Storage eignen.

Das Schreiben von immer mehr Daten auf kaum schneller werdende HDDs ist aber mittlerweile ein Krampf.

Vor 15 Jahren konnte ich eine 30GB HDD innerhalb von ner halben Stunde füllen oder auslesen. Heute dauert das bei 10TB einen ganzen Tag. Raid Rebuilden oder Daten umziehen macht schon lange keinen Spaß mehr. Da muss was passieren.
 
Hypocrisy schrieb:
Das habe ich mich schon lange gefragt, warum das nicht je Platter gemacht wird.

...Geht mir auch so: Seit Jahren frage ich mich, weshalb das noch nicht funktioniert.
 
Bogeyman schrieb:
Es bringt doch nix. Wer den Platz von HDDs benötigt und mehr Performance der wird nen Raid aufsetzen... Jetzt quasi ein Raid0 in eine Platte zu bauen, erschließt sich mir der Sinn nicht.

Wenn du Raid0 aufsetzt, wird die Geschwindigkeit im Verhältnis zur Array-Größe aber auch nicht besser. Das ist ja das Problem.
 
Queen schrieb:
Hatte nicht Conner in den 90igern mal damit experimentiert........?
Ja, hatten sie.
Conner Chinook Festplatte, irgendwann 90iger Jahre -> klick und klick
Ahhh, gut zu wissen das die Idee doch bereits existierte aber nicht umgesetzt werden kann.

Nun die nächste Frage... wieso kann man das nicht via Software regeln? Also wenn der Kopf 1 zu Platte1 positiniert ist die Position der Köpfe 2-8 festgestellt wird und so eingerichtet das sie als folgende Sektoren definiert werden?
Hilft zwar nicht bei zufälligen zugriffen, aber sonst?...
 
Das Problem sind winzige Unterschiede auf den Scheiben. Diese habe vorgegebene Strukturen, an denen sich der Kopf orientiert um die richtige Position zu finden. Da die einzelnen Scheiben aber nicht exakt identisch sind, müsste der Kopf für jede Scheibe ein kleines bisschen anders positioniert werden, was bei nur einem Aktor nicht geht. Früher, als die Sektoren und die Köpfe noch deutlich größer waren, wäre das durchaus möglich gewesen, aber mittlerweile sind die Sektoren einfach zu klein dafür.
 
Ist klar gewesen, dass das irgendwann mal kommt. Liegt wohl schon lange in der Schublade und wird jetzt langsam rausgekramt.

und lieber Holt:
spare bitte deine Tinte...oft hast du uns erklärt, wie schwer das ist, sowas umzusetzen.
Ähnlich bei den Themen Fortbestand von Sockeln bei Mainboards.
Deine oft wichtigen Infos in diesem Forum werden hoch geschätzt...dienen aber scheinbar oft der Meinungsbildung.

ich schlachte oft HDDs....man könnte die Aktoren in jede Ecke setzen...oder wenigstens in 2.
Und der Zustand aktuell ist nicht zu halten und zu ertragen. Die HDDs werden verteufelt, aber haben ihre daseinsberechtigung.
spätestens, wenn man viel Platz benötigt kann man die „geschwindigkeit“ eines Systems auch wieder ertragen, wenn man weiß, dass man das jenes nicht mit ssd zum laufen bekommt.

doppelte zugriffsgeschwindigkeit wären ein Segen und würde viel verändern.
 
Hypocrisy schrieb:
Das habe ich mich schon lange gefragt, warum das nicht je Platter gemacht wird.

WEIL -> Zu teuer !!! Wo es auf jeden Cent ankommt, ist das einfach nicht machbar.

Man versucht jetzt noch das Letzte aus der alten HD Technik raus zu holen. Aber der Zug ist abgefahren... Selbst in Serverfarmen werden jetzt SSDs eingesetzt... HDDs sind out!
 
Es gab auch Platten mit 2 Aktuatoren, wo einer lesen und schreiben konnte, der Andere nur lesen. Zugriffsrechte auf Hardwareebene...
 
Schnellere HDD werden auch weiterhin gefragt sein.

Ein mittelständisches Unternehmen das jeden Tag eine mehrere TB Sicherung hat will nicht zwingend zig ssd's anschaffen für die tägliche Sicherung.

Wenn die Datensicherung jedoch statt 8-9 Stunden nur 5-6 Stunden laufen könnte, wäre ein längeres arbeiten auf dem System möglich.
 
Limit schrieb:
Naja, ein Backup einer 14TB Platte kann durchaus schon mal mehr als 24h dauern und in den Roadmaps stehen Kapazitäten bis 20TB (2020) bzw. 100TB (2030) drin. Da ist eine Erhöhung der Geschwindigkeit durchaus mal angebracht.

Dann habe ich gute Nachrichten für dich, denn die Geschwindigkeit größere Platten wird sich auch mit nur einem beweglichen Kopf weiterhin erhöhen, wie das schon immer der Fall war, weil die nicht davon auszugehen ist dass 100TB Platten die Kapazität ausschließlich dadurch steigern indem sie mehr Scheiben verbauen.
Mess doch mal die sequentielle Übertragungsrate einer 500GB Platte mit einer 4TB Platte.

Schnellere HDD werden auch weiterhin gefragt sein.

Ein mittelständisches Unternehmen das jeden Tag eine mehrere TB Sicherung hat will nicht zwingend zig ssd's anschaffen für die tägliche Sicherung.

Wenn die Datensicherung jedoch statt 8-9 Stunden nur 5-6 Stunden laufen könnte, wäre ein längeres arbeiten auf dem System möglich.
Nachts werden die Mitarbeiter vermutlich schlafen und ein Backup sinnvollerweise in der Zeit stattfinden. Ob nun 8 oder 5h wäre egal wenn für 12h eh niemand da ist.
Obendrein fallen in einem mittelständischen Unternehmen eher nicht zig TB an Daten pro Tag an, und außerdem gibt es schon längst differential Backups, und das Vollbackup kann am Wochenende gemacht werden wo man noch länger Zeit hätte.
Ergo sind das keine Gründe mit denen man so ein System an die Leute verkaufen kann.

Das Argument wird langsam alt. Es ist noch nicht einmal absehbar, ob und wann SSDs in die Preisregionen kommen, die HDDs bereits heute bieten.
VMs lässt man heute sowieso fast immer schon auf SSDs laufen. Und ansonsten gibt es auch noch Hot- und Coldstorage. Leute die mehrere TB an Daten mit der Performance einer SSD verfügbar benötigen sind wohl eher Nischen. Wenn man sich das anguckt was so angefragt wird merkt man auch dass viele Dateien ständig gelesen werden und andere nur sehr selten. Da ist ein HDD Pool mit SSDs als Cache/Hotstorage weitaus sinnvoller als irgendwas aus der HDD noch herauszuholen. Warscheinlich wollen die Hersteller das dann auch wieder fürstlich entlohnt sehen. SSHDs waren doch auch ne Luftnummer die kaum Abnehmer fanden.
 
Zuletzt bearbeitet:
Die Leistung hinkt der Kapazität hinterher... Schon fast etwas verharmlosend ;) Gesehen auf die Kapazität war die genannte Festplatte also fast um Faktor 100 schneller als die Platten heute. Da klafft wirklich eine kleine Lücke.
 
Naja, der Geschwindigkeitsgewinn dürfte doch eher theoretischer Natur sein. Laut dem Seagate-Artikel, verdoppeln sich lediglich die IOPS. Und das auch nur in dem Fall, wo jede Abfrage auf einen andere Arm gesteuert wird.

In der Realität, dürften oft größere Files abgerufen werden (da greifen vermutlich alle 8 Arme gleichzeitig auf die ebenfalls gleichzeitig mit allen 8 Armen geschriebenen Daten zurück), die nicht beschleunigt werden. Wenn dann Kleinst-Dateien abgerufen werden, müssen diese dann noch auf der jeweils anderen Plattenhälfte liegen.

Das diese Technik in Consumer-Platten merklich Leistung bringt, glaube ich nach dem Artikel nicht...
 
Bogeyman schrieb:
Dann habe ich gute Nachrichten für dich, denn die Geschwindigkeit größere Platten wird sich auch mit nur einem beweglichen Kopf weiterhin erhöhen, wie das schon immer der Fall war, weil die nicht davon auszugehen ist dass 100TB Platten die Kapazität ausschließlich dadurch steigern indem sie mehr Scheiben verbauen.
Mess doch mal die sequentielle Übertragungsrate einer 500GB Platte mit einer 4TB Platte.

Das Problem ist, dass die sequenzielle Transferrate nicht im gleichen Verhältnis steigt, wie die Kapazität der Platten.

2GB Platte BJ1997 -> 7MB/s
30GB Platte BJ 2001 -> 20MB/s
12TB Platte BJ2017 -> 200MB/s

Sequenzielles befüllen/lesen dauert mitlerweile statt wenigen Minuten einen ganzen Tag. Bei SMR ists noch erheblich schlimmer.
 
Bogeyman schrieb:
Dann habe ich gute Nachrichten für dich, denn die Geschwindigkeit größere Platten wird sich auch mit nur einem beweglichen Kopf weiterhin erhöhen, wie das schon immer der Fall war, weil die nicht davon auszugehen ist dass 100TB Platten die Kapazität ausschließlich dadurch steigern indem sie mehr Scheiben verbauen.
Mess doch mal die sequentielle Übertragungsrate einer 500GB Platte mit einer 4TB Platte.
Klar steigt die Übertragungsrate, nur steigt die Kapazität schneller. So ergibt sich für eine uralt Platte aus den Anfangszeiten Auslesezeiten von wenigen Minuten. Bei einer 250GB Platte aus einem CB-Test von 2004 dauert es schon rund 1.5h. Bei einer 4TB Platte hingen dauert das Auslesen etwa 8-10h (Seagate Constellation bzw. WD Red), weil einer Kapazitätserhöhung um 1600% nur eine Geschwindigkeitserhöhung um 200-300% gegenübersteht. Bei den aktuellen 14TB Platten ist die Auslesezeit noch weiter gewachsen und beträgt mittlerweile min. 15h, selbst wenn man die maximale und nicht die durchschnittliche Datenrate zu Grunde legt.

Bogeyman schrieb:
Obendrein fallen in einem mittelständischen Unternehmen eher nicht zig TB an Daten pro Tag an, und außerdem gibt es schon längst differential Backups, und das Vollbackup kann am Wochenende gemacht werden wo man noch länger Zeit hätte.
Dann muss man aber auch hoffen, dass die Platten nur kurz vor dem Wochenende kaputt gehen damit man genug Zeit für die Wiederherstellung hat.
 
Zurück
Oben