News Seagate-Festplatten: HAMR-HDDs ab 2020 und Mach.2 in der Musterung

Cool Master

Fleet Admiral
Dabei seit
Dez. 2005
Beiträge
28.380
Mit einer UBER von nach wie vor 10^14 oder 10^15? Ne danke ich bin seit einiger Zeit bei Flash-Only und möchte kein "spinning rust" mehr haben.

Klar für einige Bereiche wird eien HDD noch(!) gut sein aber das wird immer weiter weg gehen je besser die NAND Produktion wird. Hat man ja beim RAM gesehen vor 30 Jahren haben wenige MB noch zig Tausend Dollar gekostet und heute bekommt man für um die 120 € 32 GB.
 

Bigeagle

Cadet 4th Year
Dabei seit
Nov. 2008
Beiträge
127
Ist doch das gleiche wie bei vorherigen Technologieänderungen. Es gibt garkeinen grund plötzlich alles zu ersetzen, das passiert schleichend.

Und 'Schade'? Die kleineren Platten dürfen ruhig günstiger bleiben, denn mehrere Arme (also vermutlich nur ein zweiter) kosten auch mehr.
Bis dahin kann man sich auch mit RAID oder 'RAID' (wie z.b. zRaid) behelfen.

Mit einer UBER von nach wie vor 10^14 oder 10^15? Ne danke ich bin seit einiger Zeit bei Flash-Only
Flash only ist aber so teuer O.o
hab knapp 50 TB hier. Schön wärs aber
Gegen die Bitfehler sollte ZFS auch helfen wenn ich mich nicht gerade irre. Bei der Spielesammlung hingegen ist es dagegen nicht ganz so tragisch wenn man ein bit umkippt, wahrscheinlich erwischt es da nur Ton, Video oder Textur und da fällt es höchstwahrscheinlich nicht mal auf.
 

Wattwanderer

Commodore
Dabei seit
Juni 2005
Beiträge
4.303
Wow, einen zweiten Kopfträger für sagenhafte 30 % mehr IOPS.

Statt 1.000 mal langsamer als SSDs nunmehr nur noch 700 mal?

Klingt wie Spoiler an Pferdekutsche damit sie zu einem Formel 1 Auto aufschließen kann.

Offenbar ist die Technik so teuer, dass ein zweiter Aktuator den Kohl auch nicht mehr fett macht.

Der Plan ist also HDDs so teuer zu machen wie SSDs statt zu warten, dass SSDs billiger werden?

Ich würde mir wünschen Seagate würde sich auf die Steigerung der Kapazität konzentrieren statt sich in einen ungewinnbaren Nebenschauplatz zu verzetteln.
 

Moep89

Commodore
Dabei seit
Jan. 2008
Beiträge
4.194
Ja die Kapazität steigt leider zu langsam, die Preise dafür zu schnell.
50 TB in 2026? Das ist in ca. 7 Jahren. Das mag heute groß wirken, aber wenn dann der UHD Nachfolger da ist werden Filme statt 50-80 GB auch schon wieder über 100 haben. Welchen Preis pro TB diese HDDs dann haben wissen wir noch nicht. Ich fürchte aber das liegt merklich über 30€ pro TB, was eigtl. schon zu viel ist für große Platten.
Die Kapazitäten von Festnetz, Mobilfunk und Datenträgern kann einfach nicht mithalten mit der Zunahme der Datenmengen. Da haben die Entscheider vor 10 Jahren oder früher mal wieder den Trend verpennt und laufen ihm nun hechelnd hinterher.
 

Schw. Reinhilde

Cadet 2nd Year
Dabei seit
Okt. 2010
Beiträge
25
Ich würde mir wünschen, dass die Hersteller mal am Preis pro TB arbeiten, anstatt immer größere HDDs rauszubringen. Da hat sich nämlich seit Jahren nichts getan, was dazu führt, dass SSDs immer näher rücken. Und wenn sie nur noch 1,5 bis 2mal so viel kosten, werden viele bestimmt aufgrund der Geschwindigkeit umsteigen.
 

Cool Master

Fleet Admiral
Dabei seit
Dez. 2005
Beiträge
28.380
Klar aber wie ich schon sagte schau mal wie der RAM (und HDD) Preis vor 30 Jahren war. Da sprachen wir über MB und vierstellige Beträge. Heute haben wir rund 8000x Kapazität im Mainstream für ca. 120 € zumindest beim RAM.

Ich denke in spätestens 30 Jahren wird alles nur noch Flash sein. Vor allem wird man dann so weit sein, dass TBW überhaupt nicht mehr juckt.
Ergänzung ()

Ich würde mir wünschen, dass die Hersteller mal am Preis pro TB arbeiten, anstatt immer größere HDDs rauszubringen
Ach seit der Flut in Thailand wird sich da nichts mehr ändern vor allem weil es realistisch nur noch 2 Anbieter gibt WD und Seagate. Klar hat man noch Toshiba aber die spielen im Prinzip keine Rolle.
 

derSafran

Ensign
Dabei seit
Dez. 2017
Beiträge
167
Die erzählen immer "Die HDD ist noch nicht tot". Aber bei den seit beinahe zehn Jahren anhaltenden absurden Preisen raufe ich mir die Haare.
 

druckluft

Captain
Dabei seit
Juli 2010
Beiträge
3.085
Klar würden wir uns alle wünschen, wenn die Disks schneller billiger würden. Das werden sie nämlich, wenn auch nur moderat über die Jahre und ein Großteil der wahren Preissenkungen werden von Dollarkurs und Inflation verdeckt.
Ist ja auch nicht so, dass sich Seagate und WD übermäßig die Taschen vollstopfen. So sehr schwimmen die nicht im Geld. Vielmehr hat die Fertigung bestimmte Kosten und mehr als das was über die Jahre kostenseitig optimiert wurde, ist wohl nicht drin. Aber hey, die beiden Firmen sind sicher offen für eure Vorschläge, wie man deren Disks günstiger produzieren kann.
 

Bigeagle

Cadet 4th Year
Dabei seit
Nov. 2008
Beiträge
127
Wow, einen zweiten Kopfträger für sagenhafte 30 % mehr IOPS.
30% mehr pro Watt! Immer noch ein wenig schwammig, aber ich vermute mal dass sich Werbung mit mehr Verbrauch nicht gut macht in einer Zeit wo sich schnell ein Mob Ökohysteriker findet die dann alle schnell zusammenrechnen wie viel Mehrverbrauch das Weltweit bedeuten würde und das mit ihrem Smartphone vergleichen.
Wenn die Platte dann auch noch 25% mehr Energie verbraucht sind das immerhin schon 62% mehr IOPS. Davon abgesehen ... seit wann wird über mehr Leistung gemeckert? Noch dazu 30%! Frag mal Intel wann die das letzte mal 30% mehr IPC gebracht haben XD

Ich würde mir wünschen Seagate würde sich auf die Steigerung der Kapazität konzentrieren statt sich in einen ungewinnbaren Nebenschauplatz zu verzetteln.
Tun sie doch. Aber um wie eigentlich erklärt die gesteigerte Kapazität auch praktisch nutzen zu können muss man auch die IOPS erhöhen und eigentlich auch die Zugriffsbandbreite. Es gab Zeiten da hat man eine HDD innerhalb einer Stunde kopiert ... die 8TB Platten die ich hier habe brauchen da eher 12 und die sind mit um die 200 MB/s praktisch nutzbarer Lesegeschwindigkeit (nicht zu voll, kp was der schnitt über die ganze platte war) auch nicht soo langsam. Aber das gilt auch nur für sequentiellen Zugriff, also best case. Sobald das viele kleine Dateien werden wirds grenzwertig weils mehrere TAGE(!) dauert. Deshalb die Idee eines weiteren Armes für mehr Lese/Schreibköpfe, Helium als Füllgas um durch bessere Energie- und Geräuscheffizienz mehr Raum für höhere Drehzahl zu schaffen und andauernde optimierungen bei der Firmware zur IOPS steigerung.

Klar aber wie ich schon sagte schau mal wie der RAM (und HDD) Preis vor 30 Jahren war. Da sprachen wir über MB und vierstellige Beträge.
War doch aber bei Festplatten genauso. Ich hab beim aufräumen vor einem oder zwei Jahren eine alte Zeitung (diente als staubschutz ^^) gefunden mit einer Werbung für eine neue 80 GB HDD von WD. Für nur 220 DM gigantische 80 GIGAbyte. Zu der Zeit gurkte mein pc noch mit insgesamt unter 4 GB rum. Der PC davor hatte ganze 80 MB(!) Plattenspeicher. Dabei war jeder PC bei der Neuanschaffung günstiger je neuer er war. Bis ich dann anfing gleich den Vollausbau an RAM zu nehmen und so ... aber damit wäre der Preis auch bei den alten PCs explodiert.

Hier stehen leider keine Einführungspreise dabei, das wäre noch sehr interessant bei der Betrachtung.
https://de.wikipedia.org/wiki/Festplatte#Entwicklung_der_Speicherkapazitäten_der_verschiedenen_Baugrößen
 

PS828

Lt. Commander
Dabei seit
Juni 2019
Beiträge
1.039
HAMR und MAMR stellen ungeahnte anforderungen an die Mechnanik, steuerung und elektrik der Festplatte. Dies dürfte auch der Grund sein warum sich die einführung ein wenig verzögert hat. Wird sie aber gemeistert wird die Speicherdichte ein weiteres mal Explodieren. Die einführung eines Zweiten Aktorenturms in den Stapel sollte die Sequentiellen Raten verdoppeln und die IOPS ebenalls signitikant steigen lassen. Die preise dieser Platten dürften Interessant werden. Dennoch bin ich der auffassung dass der Proes verglichen mit SSDs im enterprisesegment selber größe konkurenzlos bleiben wird. an HDDs wird auf lange sicht weiterhin kein weg vorbei führen.
Viele machen den Fehler und vergleichen Billigste consumer SSDs preislich mit Enterprise HDDs, welche auf völlig andere betriebsanforderungen ausgelegt sind.
 

1080p Master

Ensign
Dabei seit
Jan. 2011
Beiträge
158
Zitat: "...zeigen sich Parallelen zum Erzrivalen Western Digital..."
Sind die wirklich so verfeinded?
Die müssten sich ja dann einen erbitternden Preiskampf um den Endverbraucher liefern.
Muss mir irgendwie entgangen sein.;)
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
53.623
Gegen die Bitfehler sollte ZFS auch helfen
Die unkorrigierbaren Bitfehler führen aber nicht zu Datenkorruption, denn die HDDs geben keine korrupten Daten zurück, sondern einen Lesefehler und jede RAID Lösung mit Redundanz reicht um dann Datenverlust und -korruption zu vermeiden.
kaum zu glauben das man hier eigentlich (auf HD´S bezogen) über eine veraltete Technik redet.
Wie sehr sich die Technik der HDD in den Jahrzehnten gewandelt hat, ist den meisten Leuten entgangen und wird nun erst mit Heliumfüllung, AMD und eben MAMR und HAMR klar, ist aber längst nicht alles was sich getan hat.
Der Plan ist also HDDs so teuer zu machen wie SSDs
Wie kommt man auf die Idee so einen Blödsinn zu schreiben, wenn schon in der News steht:
Mit deutlich mehr Leistung und Effizienz sowie kompakteren Formfaktoren verdrängen SSDs die herkömmlichen Festplatten aus diversen Märkten. Doch für Enterprise-HDDs mit hoher Speicherkapazität und niedrigem Preis pro Terabyte besteht immer noch eine hohe Nachfrage. Aus Sicht von Seagate wird sich dies in absehbarer Zeit auch nicht ändern.
Der Preis pro TB ist was den HDDs das Überleben sichert, da wird man also kaum bestrebt sein HDDs pro TB so teuer SSD zu machen.
Ich würde mir wünschen, dass die Hersteller mal am Preis pro TB arbeiten, anstatt immer größere HDDs rauszubringen.
Das geht Hand in Hand mit der Steigerung der Datendichte. Damit sind bei mittleren Kapazitäten weniger Platte nötig und die Platter sind ein großer Kostenfaktor und zugleich auch höhere Gesamtkapazitäten.
Ich denke in spätestens 30 Jahren wird alles nur noch Flash sein.
Da denkt Seagate anders.
HAMR und MAMR stellen ungeahnte anforderungen an die Mechnanik, steuerung und elektrik der Festplatte. Dies dürfte auch der Grund sein warum sich die einführung ein wenig verzögert hat. Wird sie aber gemeistert wird die Speicherdichte ein weiteres mal Explodieren.
Die Einführung hat sich ein wenig verzögert, aber genau dies ist es und so einen Technologiesprung wird es bei NAND nicht mehr geben, von daher sehe auch ich noch nicht, dass SSDs mit HDDs in 20 oder 30 Jahren bei den Kosten pro TB soweit gleichziehen, dass sie diese komplett ersetzen können.
 
Zuletzt bearbeitet:

Bigeagle

Cadet 4th Year
Dabei seit
Nov. 2008
Beiträge
127
Die unkorrigierbaren Bitfehler führen aber nicht zu Datenkorruption, denn die HDDs geben keine korrupten Daten zurück
O.o
Na dann dürfte es da ja eigentlich keine Probleme geben. Oh wait ... gibts ^^
Eigentlich sollte es klar sein dass diese Behauptung unsinn ist, mit welcher Magie sollte denn die Platte jegliche Fehler erkennen? Ich vermute mal da gibts 'nur' (wenn überhaupt?) einen CRC und keinen ausreichend starken Hash für den ganzen Block. Würde es das geben bräuchte man ja keine Blockhashes mehr in Dateisystemen zur Prüfung der Datenintegrität. - EDIT - da wird inzwischen LPDC genutzt, das ist besser als gedacht, aber auch nicht perfekt :/
Korrekter wäre es dass moderne Datenträger im Normalfall keine bekannt beschädigten Daten zurückgeben, dass deren Fähigkeit zur Erkennung und Korrektur dieser allerdings recht begrenzt ist. Begrenzt genug dass es eben immer noch vorkommt.

Zumindest 2007 war es noch schlimm genug dass es schon eher ... katastophal war. ein unerkannter fehler in 10^7 bits? omfg
https://indico.cern.ch/event/13797/contributions/1362288/attachments/115080/163419/Data_integrity_v3.pdf
Dabei spielt natürlich immer die ganze Kette welche die Daten durchlaufen eine Rolle, daher braucht es bei kritischen Anwendungen Zuverlässigkeit bei CPU, RAM und Datenträger. Und Netzwerk. Und Backup. Deshalb macht da auch jede Komponente fleissig Prüfungen.
Praktisch ausgeschlossen wird das Auftreten von Fehlern erst nach quasi dreifacher Prüfung (Datenträgerfirmware, Redundanz bei der Speicherung, Prüfsumme - vorzugsweise möglichst Kollisionssicher)

Davon abgesehen ... selbst wenn die Firmware prüft, wer sagt denn dass die Firmware selbst fehlerfrei prüft? Fehlerfreie Software? ^^
Seagate hat da 2009 rum eine sehr eindrucksvolle Demonstration geliefert :)
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
53.623
Na dann dürfte es da ja eigentlich keine Probleme geben. Oh wait ... gibts
Natürlich ist es ein Problem wenn das Programm statt der Daten einen Lesefehler bekommt und wenn das Programm diese dann noch falsch handhabt und den User im Glauben lässt es wäre alles in Ordnung, dann wundert der sich oder beim Kopieren die Zieldatei nicht gelöscht wird und der User glaubt, sie wäre in Ordnung.

Diese Lesefehler führen dann zu schwebenden Sektoren bei den Platten, aber HDDs in einem echten RAID, also einem mit Redundanz und nicht einem RAID 0 welches eigentlich ein AID 0 ist, zeigen daher normalerweise keine schwebenden Sektoren. Eben weil die RAID Controller (ggf. RAID SW) bei Lesefehlern die Daten aus den Daten der anderen Platten und damit der Redundanz rekonstruiert, die korrekten Daten liefert und den Sektor auf der Platte überschreibt bei der der Lesefehler aufgetreten ist und dann verschwinden schwebende Sektoren eben.
Eigentlich sollte es klar sein dass diese Behauptung unsinn ist, mit welcher Magie sollte denn die Platte jegliche Fehler erkennen? Ich vermute mal da gibts 'nur' (wenn überhaupt?) einen CRC und keinen ausreichend starken Hash für den ganzen Block.
ECC und schon ewig haben die Platten eine ECC hinter jedem Sektor. Bei SAS Platten und Hardware RAID Controllern ist es aber durchaus üblich, dass die dort die Sektorgröße erhöht wurde, z.B. auf 520 oder 524 statt 512 Byte pro Sektor und der Controller dann dort eine eigene Prüfsumme ablegt um Lesefehler sofort selbst zu erkennen und Verzögerungen wegen wiederholter Leseversuchen durch die Platte selbst zu vermeiden. Die HDDs werden dann eben entsprechend konfiguriert um die Rohdaten so zu liefern sie sind sie gelesen hat. Damit obliegt es dann dem RAID Controller die Fehlerkennung zu machen und nicht mehr der Platte.

Keine Ahnung ob da der Fehler lag um den es im Cern Report von 2007 ging, laut dem Bild auf Seite 4 wurden dort aber wohl SATA Disks verwendet, womit dies nicht geht, aber SATA an SAS ist zwar möglich, aber damit gab es immer wieder Probleme und ich kann diese Kombination daher nicht empfehlen. SAS HBA/RAID Controller sind auf die Verwendung mit SAS Platten optimiert und oft auch nur dafür validiert und auch wenn es immer gerne als Schikane angesehen wird wenn OEMs bei solche Controllern per FW nur die Verwendung bestimmter Platten (gerne OEM Modelle mit der eigenen FW) erlauben, so hat dies schon den Sinn, dass damit eben nur validierte Kombinationen betrieben werden können und man so derartige böse Überraschungen möglichst vermeiden kann. Das Heimanwender sich über sowas hinwegsetzen um Kosten zu sparen, wundert mich nicht, aber bei Cern hatte ich schon mehr Fachkompetenz erwartet. Klar kann Basteln auch gut gehen, aber bei so teuer erhobenen Daten sollte man darauf nicht hoffen müssen.
Korrekter wäre es dass moderne Datenträger im Normalfall keine bekannt beschädigten Daten zurückgeben
Sie geben ja keine korrupten Daten zurück, außer dies wird so eingestellt, eben bei den SAS Platten wenn diese an HW RAID Controllern hängen die selbst die Fehlererkennung übernehmen oder bei Nutzung der ATA Streamingbefehle die für Echtzeitvideoaufzeichnung sind und wo Bitfehler weniger schlimm sind als fehlende Frames. Solche ATA Streamingbefehle spielen aber bei normalen Storages keine Rolle.
Dabei spielt natürlich immer die ganze Kette welche die Daten durchlaufen eine Rolle, daher braucht es bei kritischen Anwendungen Zuverlässigkeit bei CPU, RAM und Datenträger. Und Netzwerk. Und Backup.
Eben und daher ist auch ein Filesystem mit Fehlererkennung und -korrektur allenfalls ein Baustein und kann die anderen nicht ersetzen, schon gar nicht das ECC RAM.
 

Hayda Ministral

Captain
Dabei seit
Nov. 2017
Beiträge
3.130
Ich denke in spätestens 30 Jahren wird alles nur noch Flash sein.
Ich denke, in 10 Jahren haben wir ausreichende Erfahrung mit der Langzeitstabilität um abschätzen zu können ob Flash (wertungsfrei gemeint) wirklich die SpeicherTechnologie ist der wir unsere Daten anvertrauen.

Meine 1996 gebrannte Kodak-Gold-CD konnte ich letztes Jahr noch lesen. 25 Jahre wäre sicher extrem, aber irgendwo um 10-15 Jahre Stabilität wäre meine Erwartung bzw. mein Anspruch.
 

Bigeagle

Cadet 4th Year
Dabei seit
Nov. 2008
Beiträge
127
@Holt Ich glaube du hast mich missverstanden. Ja, es gibt eine Fehlererkennung und Korrektur, aber die ist nur in der Lage einen gewissen Anteil an Fehlern abzudecken. Wenn mehrere Fehler ungünstig zusammenkommen versagt das und das passiert oft genug dass es auch praktisch immer wieder mal vorkommt. Bei großen Datenmengen in Richtung tausende Platten dann irgendwann jeden Tag als normales Hintergrundrauschen.

Außerdem, sofern ich das nicht falsch verstanden habe, wird ECC eben nicht mehr bei Festplatten eingesetzt da zu ineffizient. Zunächst Reed-Solomon und dann LDPC was bis heute aktuell zu sein scheint. Außerdem ist bei LDPC nicht mehr viel Optimierungspotential, daher wird das wahrscheinlich noch eine ganze weile bleiben sofern sich kein performanterer Code mit ähnlicher Leistung findet.

-> Festplatten können sehr wohl 'korrupte' Daten zurückliefern, einerseits weil die Fehlerkorrektur und erkennung limitiert ist, andererseits weil es Fehler gibt die an dieser vorbeilaufen. Am einfachsten bei Fehlern in der Firmware. Muss nicht mal ein Softwarefehler sein, denn auch dort können Bits umfallen, bzw von einem herabstürzenden Photon auf Speed erschlagen werden :)
Oder Bitfehler im Cache der Platte. Oder auf dem Weg von/zum Lese/Schreibkopf. Klar ist das alles unwahrscheinlich, aber eben nicht unmöglich. Damit passiert es auch wenn man es nur oft genug probiert und ein paar Petabit durchzuprobieren ist schon eine brauchbare Menge.

Wer unbedarft deinen Post liest könnte zur Auffassung kommen dass er schon auf der sicheren Seite ist weil sich die Platte schon um die Datenintegrität kümmert und spätestens mit einem RAID diesbezüglich keine Probleme mehr existieren, was so nicht stimmt.
Ich vermute mal als 'normaler' 'Durchschnittsuser' kommt das hin sofern er noch ein Backup hat weil da ohnehin nicht mal ein TB an Daten rumliegt und andere Fehler wesentlich häufiger für Probleme sorgen. Wer aber größere Datenmengen oder besonders wichtige Daten speichert müsste sich eigentlich mit 'data rot' beschäftigen und abwägen wie viel Aufwand, bzw Risiko angemessen ist. Einfach zu sagen dass moderne Festplatten keine fehlerhaften Daten mehr zurückgeben ist falsch und aus meiner Sicht in riskanter Weise irreführend.

Ist das schon zu weit off topic?

Meine 1996 gebrannte Kodak-Gold-CD konnte ich letztes Jahr noch lesen. 25 Jahre wäre sicher extrem, aber irgendwo um 10-15 Jahre Stabilität wäre meine Erwartung bzw. mein Anspruch.
https://de.wikipedia.org/wiki/M-DISC !^^
Die Unterschiede in der Lebensdauer waren bei CDs schon heftig zum Teil. Ich hatte welche die nach 2-3 Jahren schon sichtbare korrosion der Reflexionsschicht hatten, besonders die 'günstigen' Rohlinge die ich in jugendlicher naivität gekauft hatte. Sofern man sie vor Licht und vermutlich auch starken Temperaturschwankungen/extremen schützt halten einige auch ziemlich lange. Also 20+ Jahre selbst bei günstigen CD-R.
Übrigens wird normalerweise weder für Flash, noch für klassische HDD eine sichere Datenspeicherung für 10 Jahre oder mehr garantiert. Stromlos eher in größenordnung von 6 Monaten bei Einhaltung der im Datenblatt angegebenen Lagerbedingungen. (Wer achtet zuhause auf stabile Luftfeuchtigkeit?) Die sicherste 'Consumer Platte' ist eine die stetig in Betrieb ist und ausreichend oft geprüft wird dass die Fehlererkennung und Korrektur greifen kann. Zumindest sollten Daten die schlecht Lesbar werden wieder aufgefrischt werden. Ansonsten bleiben tatsächlich nur klassischere Archivmedien wie Band oder Archiv-CD/DVD/Bluray. Oder Granit XD
 
Top