News Seagate Mach.2: Festplatte mit autonomen Köpfen erreicht 480 MByte/s

Beeindruckend wieviel Geschwindigkeit man aus dem "Festplatten-Prinzip" noch rausholen kann.
 
Zuletzt bearbeitet:
Ja sehr interessant, man könnte auch statt 2 Gruppen von Leseköpfen auch 3,4 oder 5 nutzen.
Dies wird bestimmt schon eingeplant sein, man will ja alle 1 bis 2 Jahre was neues zeigen können.
 
für große Storage Lösungen super da kann man beim SAS und SATA shelf noch etwas performance rausholen.

Für heimanwender wohl im Bereich NAS und datengrab interessant.
 
Ich gehe davon aus, die Übertragungsrate erreicht man nur wenn die Daten eben auf unterschiedlichen Platter liegen? Was dann ja eine bewusste Fragmentierung erfordert.

Naja in der Theorie eine nette Idee.
 
Naja, das ist halt im Prinzip wie ein RAID 0, oder? Nur eben in einer Festplatte.
 
Eine logische Weiterentwicklung.

Allerdings unnötig für ein Datengrab. Sogar für Notebooks würde ich ne SSHD vorziehen.
 
Das man die leseköpfe einzeln ansteuern kann sollte schon vor zig Jahren kommen scheiterte aber an zu vieler beweglicher Mechanik jetzt bleibt ihnen bald nichts mehr übrig um Leistung zu generieren. Gegenüberliegende Schreibköpfe waren auch schon mal in Planung aber auch das kam erstmal nicht.
 
Pizza! schrieb:
Ja sehr interessant, man könnte auch statt 2 Gruppen von Leseköpfen auch 3,4 oder 5 nutzen.
Mehr unabhängig arbeitende Köpfe bedeuten aber auch mehr Stromverbrauch, mehr kleinere bewegliche Teile und daher höhere Fehleranfälligkeit bzw. mehr Platzbedarf.
Bei acht Scheiben in der Festplatte dürften vier 2er Gruppen das Maximum sein. Komplett einzeln ansteuerbare Leseköpfe halte ich in der Praxis für nicht rentabel.

Nichtsdestotrotz ist es interessant, dass auch bei Magnetfestplatten noch so viel geforscht und entwickelt wird.
 
ich frage mich, warum man das nicht schon vor Jahren entwickelt hat. Ist doch eigentlich von vornherein klar, dass es schneller wäre, wenn man die Köpfe separat betreiben würde!
 
Hoffentlich werde ich so alt, um das noch zu erleben. Im Ankündigen macht Seagate jedenfalls niemand etwas vor ;)
 
In der Theorie nett, in der Praxis bring's wenig. Den Speed erreicht man nur, wenn die Daten stark genug fragmentiert verteilt sind. Das ist für die Zugriffszeiten oder sehr kleine Daten aber nicht sonderlich gut.

Und letztlich ist die Zugriffszeit das entscheidende. Selbst eine SSD an einem alten SATA2 Port wird trotz nur halber Übertragungsrate wesentlich schneller sein, da die Daten konstant und schnell ausgelesen werden können und man nicht warten muss, bis die Magnetscheibe mit den Daten wieder über den Kopf schwebt. Wenn man riesige Daten übertragen möchte sicherlich eine nette Neuerung, für die meisten Anwendungen bring's nichts.

Dafür hat man mehr mechanische Bauteile. Aber die Aussicht von +10TB pro Jahr glaube ich erst wenn ich es sehe. In den letzten Jahren hat man mit hängen und würgen nicht Mal ganz 2TB pro Jahr geschafft und dass dann auch nur, weil man einfach mehr Platter verbaut. Ob man das mit den neuen Techniken wirklich so schnell geht Mal abwarten, dann könnte man SSD's noch länger die Stirn bieten.
 
nf1n1ty schrieb:
Naja, das ist halt im Prinzip wie ein RAID 0, oder? Nur eben in einer Festplatte.

Na ich hoffe doch nicht!!!! Das verdoppelt ja wieder das Ausfallrisiko.
Für mich wäre es sinnvoller, wenn es ein intelligentes jbod wäre, das von 10 zu schreibenden Dateien 5 da und 5 dort schreibt. Das bedeutet natürlich, dass die Verbesserungen nur unter bestimmten Bedingungen greifen, weshalb ich mir schon vorstellen kann, dass die hdd intern wie ein raid0 organisiert ist :-/ das würde für mich auch erklären, warum man nicht gleich mit zig autonomen rw-Köpfen arbeitet

@cb: gibt es irgend eine Info wie die hdd intern den Datenstrom verteilt / wie die hdd organisiert ist?
 
tco95ttocs schrieb:
ich frage mich, warum man das nicht schon vor Jahren entwickelt hat.

Für mich fühlt sich das auch ein bisschen so an, als wäre man die letzten 50 Jahre Einrad gefahren, jetzt kommt einer Idee ein Fahrrad daraus zu machen. Während sich Motorräder schon durchgesetzt haben.

Finde es auch gut das es jetzt kommt, aber es wirkt einfach zu "trivial".

@über mir: Warum sollte ein "internes RAID 0" das Ausfallrisiko verdoppeln? Wenn einer der Arme ausfällt, ist die Platte hinüber. Egal wie die intern arbeitet.
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
...dann könnte man SSD's noch länger die Stirn bieten.
ich gehe davon aus, das man das ohnehin noch eine Weile lang können wird.
Der Preis der HDDs soll im Vergleich zu gleich großen SSDs dabei konstant bei etwa 1:10 gehalten werden.
Für Datenmengen ist das halt nach wie vor noch ein Argument. Bis wir mit SSD auf ähnliche €/TB kommen dauert es noch eine ganze Weile. Ob ich für mein NAS nun 2500€ oder 250€ ausgebe ist einfach eine Hausnummer und die Geschwindigkeitsvorteile spielen hier in der Regel keine so große Bedeutung wie beim OS. Für Heimanwender sowieso nicht.
 
2 Nachteile ggü. SSDs:

- für die höhere Datenübertragung sind mehr Schreib-/Leseköpfe nötig - das erhöht die Einbauhöhe der HDDs

- die Latenzen sind noch immer auf HDD-Niveau - spürbare Geschwindigkeit hängt von der Zugriffszeit, nicht der Schreib-/Leseleistung ab

Auch diese HDDs sind nur als Storage verwendbar, nicht als Systemlaufwerk. Jede 150MB/s-SSD bootet Windows schneller als diese HDD-Ungetüme.
 
unglaublich wie sich die festplatten mit letzten kräften noch am markt halten können und an geschwindigkeit noch was rausholen und nicht einfach verschwinen. das werden sie wohl noch einige jahre tun bis der ssd speicher so günstig wird bis es nicht mehr lohnt eine hdd zu holen.
 
lucdec schrieb:
Beeindruckend wieviel Geschwindigkeit man aus dem "Festplatten-Prinzip" noch rausholen kann.
Ist ja nur die maximale sequenzielle Geschwindigkeit am äußersten Rand der Datenplatten. Kleine Dateien, verteilt über die ganze Scheibe, und schon ist man vermutlich wieder bei den üblichen 0,5 bis 2Mbyte/s (oder dann evtl. verdoppelt bei 1 bis 4MB/s).


tco95ttocs schrieb:
ich frage mich, warum man das nicht schon vor Jahren entwickelt hat. Ist doch eigentlich von vornherein klar, dass es schneller wäre, wenn man die Köpfe separat betreiben würde!
Schlechter Kosten-/Nutzenfaktor. Wie gesagt: Die theoretische maximale Übertragungsrate ist beeindruckend, aber die erreicht man in der Realität nur in ganz bestimmten Anwendungsfällen.

Majestro1337 schrieb:
Na ich hoffe doch nicht!!!! Das verdoppelt ja wieder das Ausfallrisiko.
Für mich wäre es sinnvoller, wenn es ein intelligentes jbod wäre, das von 10 zu schreibenden Dateien 5 da und 5 dort schreibt. Das bedeutet natürlich, dass die Verbesserungen nur unter bestimmten Bedingungen greifen, weshalb ich mir schon vorstellen kann, dass die hdd intern wie ein raid0 organisiert ist :-/ das würde für mich auch erklären, warum man nicht gleich mit zig autonomen rw-Köpfen arbeitet
Naja, eine Verdopplung des Ausfallrisikos ergibt sich höchstens nur bei Defekten für die Köpfe. Der Controller und der Scheiben-Motor dürften ja ja das gleiche Risiko haben wie bei einer normalen Platte. Evtl. funktioniert die Platte sogar nur mit einer Schreib-/Leseeinheit, nur dann eben zu normalen Geschwindigkeiten.

enissm schrieb:
unglaublich wie sich die festplatten mit letzten kräften noch am markt halten können und an geschwindigkeit noch was rausholen und nicht einfach verschwinden. das werden sie wohl noch einige jahre tun bis der ssd speicher so günstig wird bis es nicht mehr lohnt eine hdd zu holen.
Es gibt genug Anwendungsfälle, in denen SSDs einfach keinen Sinn ergeben. Für Backups exisitieren nachwievor noch Magnetbandlösungen...
 
Zuletzt bearbeitet:
Zurück
Oben