News HAMR und neue Medien: Seagate träumt von 100-TB-Festplatten im Jahr 2030

Mit HDDs wird immer noch viel Geld verdient und mit WD hat Seagte eine erstarkte Konkurrenz, die im NAND Geschft auch noch eine führende Größe geworden ist. WD wird auch nicht nachlassen bei HDD und kann sich die Weiterentwicklung auch noch durch Quersubventionen eher leisten, während Seagate bei SSD nur ein Mitläufer ist, ohne eigenen NAND und Controller.
 
Fragger911 schrieb:
100 TB / 500 MB/s = 209.715 Sekunden = 3495 Minuten = 58,25 Stunden :rolleyes:
👍 VIEL Spasss für jegliche zeitkritische Aktion á la RAID-Aufbau, Wiederherstellung, Backup etc.

Naja, dann hast du aber auch 100 TB an Daten verschoben! Und das in immerhin nichtmal 3 Tagen.
Überhaupt, muss man so eine Platte ja nicht gleich von Anfang an in einem Rutsch komplett vollklatschen. Macht man heute ja auch nicht.
 
Ich glaube man sollte davon ausgehen das sowohl HDDs als auch SSDs sofort sterben können. Meine Samsung HDD vor vielen Jahren war zumindest von heute auf morgen ohne ein Anzeichen gestorben. In meiner damaligen Naivität glaubte ich auch das würde sich vorher ankündigen :). Wie ich dann per Google rausgefunden habe war das Modell dafür bekannt von jetzt auf gleich auszufallen. Platinenwechsel tauschen der SMD Chips usw. alles nichts mehr genützt. Der Totalverlust damals war mir aber immerhin eine Lehre so dass ich heute mehrere dezentrale Backups habe. Ich sehe auch keinen Vorteil in einem Laufwerk das "langsam" stirbt. Im Gegenteil wenn dann bitte schnell sterben -> tauschen -> fertig. Fehlt mir gerade noch mich wochenlang mit einer Fehlersuche zu beschäftigen. SSDs und HDDs haben für mich auch völlig unterschiedliche Anwendungsszenarien. Backups würde ich jedenfalls aktuell keine auf SSDs fahren. Habe da leider sehr schlechte Erfahrungen gemacht (trotz ca. 90% Samsung SSDs).

Von der MACH.2 Technik verspreche ich mir auch nicht allzuviel bzgl. der Geschwindigkeit. Mir ist auch noch ein Rätsel wie sich dadurch der Durchsatz knapp verdoppeln können soll. Der Actuator ist doch nur zweigeteilt. Sprich bei vielen kleinen Random Zugriffen könnte ich mir vorstellen, dass dies davon profitieren kann zwei unabhängige Teilarme zu haben aber beim sequenziellen Schreiben hat man auch mit zwei Teilarmen immer noch nur die gleiche Anzahl von Schreibköpfen. Jemand Infos dazu warum sich der Durchsatz dadurch verdoppeln soll?
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
@Mountainking02
Die aktuellen Mach2 haben auch 2 getrennte logische LW verbaut. Sprich die Exos 2x 14TB hat 2 x 7TB. Quasi wie eine Art Raid 0 in einem LW, nur wahrscheinlich ohne das erhöhte Ausfallrisiko. Mit geschickten Algorithmen kann man auf beiden Teilen abwechselnd lesen und schreiben. Wie ausgereift das aktuell ist kann ich natürlich nicht sagen, aber bis 2030 werden sie das schon optimiert haben.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
bensen schrieb:
Und wo waren wir vor 20 Jahren? Dass die Entwicklung verlangsamt ist doch offensichtlich.
Und dann schaue man sich an, wie die Kapazität erreicht wurde. Aus 5 Platter bei 4 TB sind wir jetzt schon bei 9. Die Datendichte steigt kaum noch.
Ergänzung ()


Warum sollte das so sein? Das gilt vielleicht für die Datendichte pro Spur. Mehr Spuren erhöhen die Geschwindigkeit 0. Mehr Platter erhöhen die Geschwindigkeit 0.
Meine auch die Kapazität pro Platter. Dachte das wäre klar. Sonst würde ja auch Multi-Actuator gar keinen Sinn ergeben.
 
Festplatten Phantasieangaben News sind für mich inzwischen genauso wertlos wie:
"Durchbruch in der Akku Technologie: 2025 könnte dein Smartphone 14 Tage durchhalten"
 
Relict schrieb:
@Mountainking02
Die aktuellen Mach2 haben auch 2 getrennte logische LW verbaut. Sprich die Exos 2x 14TB hat 2 x 7TB. Quasi wie eine Art Raid 0 in einem LW, nur wahrscheinlich ohne das erhöhte Ausfallrisiko. Mit geschickten Algorithmen kann man auf beiden Teilen abwechselnd lesen und schreiben. Wie ausgereift das aktuell ist kann ich natürlich nicht sagen, aber bis 2030 werden sie das schon optimiert haben.
Mhh, verstehe immer noch nicht wie das den Durchsatz verdoppeln soll auch wenn es zwei eigenständige Laufwerke (mit letztendlich immer noch der gleichen Anzahl von Köpfen/Plattern) sind. Aber vermutlich ist meine Annahme, dass die HDD intern eine Datei die geschrieben wird gleichzeitig mit allen Köpfen über alle Platter verteilt/fragmentiert schreibt falsch. Dann sind vermutlich nicht alle Köpfe beteiligt so dass man mit zwei (Teil-)Laufwerken doch profitiert. Ich nehme auch mal an das ein Schreib-/Lesekopf immer nur eine Spur lesen/schreiben kann. Wäre doch mal eine Idee praktisch zwei parallele Lese-/Schreibeinheiten pro Kopf unterzubringen. Klar das wäre vermutlich mechanisch eine riesen Herausforderung und würde wohl auch daran scheitern, dass die Abstände zwischen den Spuren vermutlich nicht über den kompletten Platter homogen sind. Aber evtl. ließen sich ja drei :D Lese-/Schreibeinheiten pro Kopf so clever arrangieren, dass immer zwei der Einheiten eine Spur lesen können. Das würde dann natürlich den Algorithmus zum "fragmentierten" Schreiben/Lesen der Datei verkomplizieren. Aber den Durchsatz (bis zu) verdoppeln. Aber ich bin mal optimistisch, dass da noch Potenzial für die nächsten Jahrzehnte ist :).
 
@Mountainking02
K.A. wie weit man das noch aufbohren kann. Durch die beiden zusätzlichen unabhängig arbeitenden Actuators der Mach2 hat man ja schon quasi doppelte Lese- und Schreibköpfe. Vielleicht kann man auch alle Achsen vollkommen unabhängig voneinander betreiben und zusätzlich noch jeden einzelnen Platter unterschiedlich ansteuern? Obendrauf dann noch paar TB SSD-Cache (2030 günstiger) für so eine 100TB Platte und das Teil geht ab wie Luzi. :p
 
Bigeagle schrieb:
Spaßfrage für heute: 3,4 TB Spiele. SSD, oder doch HDD? Der PC hat nicht ewig viele Anschlüsse, also fallen 4 1TB SSDs eher aus. Den Preis kann sich jeder selbst zusammenrechnen. Dazu noch die Sache dass eher mehr dazu kommt. In einem jahr sind es vielleicht 4,5 TB. Vielleicht auch 6.
Was machst du mit 4TB an Spielen auf deinem lokalen Datenträger?

Spaßfrage für heute, wozu sollte man heutzutage und erst recht in der Zukunft mehrere TB an Daten lokal auf seinem Rechner speichern, wenn man jederzeit mit einem Klick die Daten aus der Cloud laden kann?

Ein PC hat übrigens "ewig viele" Anschlüsse und SSDs gibt es mit PCIe, SATA, SAS, U.2, U.3 und M.2 Anschluss von denen man in einem PC "genug" verbauen kann.
Ergänzung ()

Relict schrieb:
Das HDD in der Regel nicht sofort sterben sehe ich eher als Feature, denn als Bug. In den meisten Fällen bemerkt (akustisch, stockend) es selbst der Blindeste und bekommt meist noch ein paar Daten davon gesichert/gerettet.
SSDs sterben in der Regel ohne Ankündigung von jetzt auf gleich und Datenrettung ist deutlich schwieriger.
Sorry aber das ist Quatsch!

In beiden Datenträgern ist sowohl eine Elektronik/Controller als auch der eigentliche Datenträger verbaut. Die Elektronik kann bei beiden Datenträgerarten von heute auf morgen kaputt gehen und tut es manchmal auch. Abnutzung am Datenträger muss hingegen bei beiden überwacht werden, mit dem Unterschied dass es bei den SSDs problemlos möglich ist, während bei den HDDs dafür meist vom Hersteller keine Tools mitgeliefert werden und die gesamte Oberfläche regelmäßig gescannt werden muss, was meist ein korrekt konfiguriertes NAS System oder Raid Controller übernimmt.
1615640322428.png


Wenn deine Festplatte schon klackert und man einen defekt hört, ist es schon längst zu spät und die Daten sind beschädigt. Das bringt es auch wenig das du davon noch irgendwas retten kannst, bei mehreren Terabyte an Daten, kannst du schlecht mal eben kontrollieren was beschädigt und was nicht wurde. Da spielt man einfach die Datensicherung ein und hofft sie ist nicht durch den schleichenden Fehler an der Festplatte ebenfalls schon längst unbrauchbar geworden.
 
Zuletzt bearbeitet:
Wir schreiben das Jahr 2030 . Seagate hat nun endlich nachgezogen, nach allen anderen Herstellern..und seine erste 30 TB HDD auf dem Markt gebracht. Im diese hohen Datendichte zu erreichen...wurde die HDD so konstruiert, das man nun auch diese einfach umdrehen kann...um auf der Rückseite weiter zu schreiben! Juhu... :D
 
Der Preis/TB ist in den letzten Jahren trotz aller "Fortschritte" so stabil.
Die Preise sind auch abnormal hoch wie ich finde. Gerade durch die technischen Fortschritte sollte ja mehr Speicher günstiger werden, ist es aber nicht wirklich (>6-8TB), außer man nimmt die kleinsten Platten.

Kann doch nicht sein dass 2 größere Platten mehr kosten als eine sehr gute NAS mit deutlich mehr und komplexerer Hardware, Software und auch jahrelangem Support.
 
Euphoria schrieb:
Der Preis/TB ist in den letzten Jahren trotz aller "Fortschritte" so stabil.
Welcher Fortschritt man hat das Gehäuse aus Verzweiflung mit Helium gefüllt um mehr Platten rein zu bekommen.
Euphoria schrieb:
Die Preise sind auch abnormal hoch wie ich finde. Gerade durch die technischen Fortschritte sollte ja mehr Speicher günstiger werden, ist es aber nicht wirklich (>6-8TB), außer man nimmt die kleinsten Platten.
Die Speicherdichte ist recht gleich geblieben, damit der Preis merkbar sinkt muss die Speicherdichte aber steigen. Mehr Pattern Kosten halt auch mehr Geld!
 
Euphoria schrieb:
Der Preis/TB ist in den letzten Jahren trotz aller "Fortschritte" so stabil.
Die Preise sind auch abnormal hoch wie ich finde. Gerade durch die technischen Fortschritte sollte ja mehr Speicher günstiger werden, ist es aber nicht wirklich (>6-8TB), außer man nimmt die kleinsten Platten.

Kann doch nicht sein dass 2 größere Platten mehr kosten als eine sehr gute NAS mit deutlich mehr und komplexerer Hardware, Software und auch jahrelangem Support.
Ich frag mich immer woher diese behauptungen hier kommen. Hab ich schon mehrfach hier gelesen und ist einfach falsch.
Haben doch schon mehrere hier screenshots von Preisverläufen über die letzten X Jahre hier gepostet, die ganz klar zeigen, dass die preise deutlich gesunken sind.

Alleine die 4TB platten die ich letztes jahr für mein nas gekauft habe sind bis heute ca 20% billiger geworden, die 12TB sogar um 30% und das zieht sich durch die ganze produktpalette aller hersteller
 
@Gr.mm Also wenn ich auf Mindfactory von vor 10 Jahren gehe sind die Preise nicht mal das Doppelte von heute...
http://web.archive.org/web/20110626...)/Interne+Festplatten/SATA+3_5+Zoll+HDDs.html

PS: wenn man aber die €/TB vergleicht und nicht HDDs gleicher Größe ist es durchaus günstiger geworden.
https://mybroadband.co.za/news/hard...anged-over-the-last-8-years-price-per-gb.html

Bei den Priesen von 2009 sind heutige SSDs billiger:daumen:
Ergänzung ()

deo schrieb:
Weiterentwicklung auch noch durch Quersubventionen eher leisten
Aber macht es Sinn Noch Geld in die Entwicklung zu Stecken wenn die Sparte so wenig abwirft das man es Quersubventionieren muss, immerhin hat man dann weniger Geld für andere profitablere Bereiche
 
Zuletzt bearbeitet: (PS hinzugefügt)
  • Gefällt mir
Reaktionen: Bigeagle und Gr.mm
xexex schrieb:
Was machst du mit 4TB an Spielen auf deinem lokalen Datenträger?
Naja ... so banal es auch klingt, ich spiele sie. Wann ich will solange Strom da ist. Kein Internet? Mir Egal. Latenz zu hoch? Mir egal, ich hab reichlich singleplayerspiele. Nenn mich einen paranoiden Kontrollfreak, aber wenn das Spiel auf meiner Platte liegt ist das abgesehen von einer utopie immer besser als wenn ich von einer mittelmäßigen Datenverbindung zu fremden Servern kontakt aufnehmen und halten muss um meinem Hobby nachzugehen. Schneller ist es auch noch.
xexex schrieb:
Spaßfrage für heute, wozu sollte man heutzutage und erst recht in der Zukunft mehrere TB an Daten lokal auf seinem Rechner speichern, wenn man jederzeit mit einem Klick die Daten aus der Cloud laden kann?
Also ... hust ganz aktuell gibts ein schönes Beispiel für die Vorteile von Clouddaten. Dazu kann der Anbieter auch einfach dicht machen, insolvent gehen, sein 'Angebot diversifizieren' oder warum auch immer die Daten nicht weiter zugänglich machen.
Dazu kommt dass ich eine popelige 200 Mbit Leitung ins beinahe-Internet habe (CGNAT ~.~) und sobald die Daten in der Cloud sind ... wie schließe ich aus dass ich plötzlich vom spärlichen peering der Telekom abhängig bin um da ran zu kommen? Dann sind die 200 Mbit auch egal.
Meine lokale HDD kommt locker auf 1,5 Gbit.
Selbst wenn mir die Daten nicht gehören und ich nur eine Nutzungslizenz habe ist tatsächlicher Besitz doch enorm hilfreich bei dieser Nutzung ^^
xexex schrieb:
Ein PC hat übrigens "ewig viele" Anschlüsse und SSDs gibt es mit PCIe, SATA, SAS, U.2, U.3 und M.2 Anschluss von denen man in einem PC "genug" verbauen kann.
Also mein PC hat nur 8 SATA Ports. Mein Homeserver immerhin 10. Aber danach? Controllerkarten kosten auch Geld und PCIe Steckplätze sind noch stärker begrenzt.
Dazu habe ich Gerüchte gehört dass manche mit nur 6 SATA Ports auskommen müssen. Die weinen dann eher wenn man ihnen anstelle der 8 TB an einem Anschluss 8x 1 TB in die Hand drückt.
Die 4 Ports an einem Desktop PC sind sicher nur eine urbane Legende um leichtgläubige Nerds zu erschrecken.
Wie ist das mit M.2 Slots? Sind da 6 oder 8 Standard? :evillol:
xexex schrieb:
Wenn deine Festplatte schon klackert und man einen defekt hört, ist es schon längst zu spät und die Daten sind beschädigt.
Also auch wenn ich dir - denke ich - grundsätzlich recht gebe dass HDDs ebenso plötzlich ausfallen können wie SSDs so gibt es doch einen ganzen Bereich von mechanischen Fehlern die sich langsam und zuweilen schleichend entwickeln. Da sind die Daten nicht gleich futsch wenn die HDD alle paar sekunden die Spur neu suchen muss und deswegen deutlich hörbar den Kopf hin- und her pendeln lässt.
Auf der positiven Seite muss man aber sagen dass SSDs diesen ganzen Bereich der mechanischen Ausfälle eben einfach überspringen und nicht böswillig still und leise durchlaufen.

Ist zwar schon eine ganze weile her, aber ich habe auch schon eine Festplatte beim headcrash gehört und da ließen sich noch reichlich Daten raustragen. Ganz ohne besondere Datenrettungstools und bei zweifellos hörbarem Defekt.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Die Lösung für 2030, mehr Müll. Dafür braucht´s natürlich größere
Mülleimer.
 
  • Gefällt mir
Reaktionen: Hannibal Smith
xexex schrieb:
HDDs stecken schon seit Jahren in einer noch viel größeren Sackgasse und die größte davon ist deren Leistung. Während die Kapazität noch über die Jahre mit immer zweifelhafteren Methoden erhöht werden konnte, was ähnlich wie bei den SSDs (MLC,TLC,QLC) geschah, hat sich an dem Durchsatz gar nichts getan, während bei den SSDs der Durchsatz ähnlich zur Kapazität stieg
HDDs haben allerdings den Vorteil dass alle Sektoren sich nahezu unbegrenzt oft neu beschreiben lassen, während NAND Speicher nur eine begrenzte Anzahl an Schreibzyklen erlaubt.
Klar erhöht MLC,TLC,QLC den Datendurchsatz, allerdings nur beim Lesen, beim Schreiben muss man sich bereits entscheiden. Möchte man hohe Speicherkapazität oder hohe Schreibgeschwindigkeit.
Beides geht nur mit Tricks wie einige GByte an Speicherzellen als SLC und die restlichen Speicherzellen TLC oder QLC.
Sobald die Speicherkapazität der SLC Speicherzellen "in einem Rutsch" beschrieben wurde fällt die Schreibgeschwindigkeit plötzlich um Faktor 3 bis 4 ab.

Ausserdem reduziert sich bei der Nutzung von TLC oder QLC Speicherzellen die Anzahl der möglichen Schreibzyklen.
Wer häufig Gbyte-weise Videos schneidet sollte besser keine SSD mit QLC Speicherzellen dafür nutzen.

Ich bezweifle ernsthaft dass sich SSD als Archivierungsspeichermedium etablieren werden. Magnetisierungen von Festplatten werden sich länger halten im Vergleich zu dem Speicherinhalt von NAND-Flash.

xexex schrieb:
Selbst als Datensicherungsmedium eignen sich magnetische Datenträger immer weniger, weil auch eine Datensicherung will man innerhalb einer bestimmten Zeit wieder zurückspielen können.
Komplettkopien von einer SSD auf eine andere SSD werden aufgrund des o.g. Limits bei der Schreibgeschwindigkeit ab einer gewissen Anzahl an Gbyte ebenfalls relativ lange dauern.

Bei Festplatten gibt es immer noch Möglichkeiten den Datendurchsatz zu erhöhen, auch wenn das heute aufgrund des erforderlichen Aufwandes nicht gemacht wird.
 
WinnieW2 schrieb:
HDDs haben allerdings den Vorteil dass alle Sektoren sich nahezu unbegrenzt oft neu beschreiben lassen, während NAND Speicher nur eine begrenzte Anzahl an Schreibzyklen erlaubt.
Das ist schlicht falsch, HDDs nutzen sich beim Schreiben und lesen ab, eine IronWolf Pro ist so z.B. für 300TB/Jahr ausgelegt, Nutzungsdauer 5 Jahre also ingesamt 1,5PB Writen and Read (selbst bei 10 Jahren sind es grade mal 3PB), es gibt QLC SSDs die mehr Writes aushalten, Reads sind ja eh unbegrenzt bei SSDs

https://www.seagate.com/www-content/datasheets/pdfs/ironwolf-pro-18tb-DS1914-16-2011DE-de_DE.pdf
WinnieW2 schrieb:
Bei Festplatten gibt es immer noch Möglichkeiten den Datendurchsatz zu erhöhen, auch wenn das heute aufgrund des erforderlichen Aufwandes nicht gemacht wird.
Ja, z.B. HAMR, da die Geschwindigkeit vor allem davon abhängig ist wie viele bits in einer Sekunde denn S/L Kopf passieren erhöht sich mit der Speicherdichte auch die Geschwindigkeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wayne_757 und xexex
AlphaKaninchen schrieb:
Das ist schlicht falsch, HDDs nutzen sich beim Schreiben und lesen ab, eine IronWolf Pro ist so z.B. für 300TB/Jahr ausgelegt, Nutzungsdauer 5 Jahre also ingesamt 1,5PB Writen and Read (selbst bei 10 Jahren sind es grade mal 3PB),
Falsch. Es geht bei der Angabe bei Server-Festplatten von Tbyte/Jahr um einen definierten Workload auf den sich die Angabe der Zuverlässigkeit bzw. Ausfallrate (MTBF) bezieht.
Nicht darum dass sich eine Festplatte überhaupt nur mit soviel Daten pro Jahr beschreiben lässt. Da geht nicht die magnetisierbare Schicht kaputt. Eher verschleißt die Mechanik der Platte.
Bei 300 TByte/Jahr wären das wohl 30 Tage pro Jahr an reinen Schreibvorgängen.

AlphaKaninchen schrieb:
Reads sind ja eh unbegrenzt bei SSDs
Theoretisch ja, aber praktisch wird ein Datenträger nicht ewig benutzt.
 
WinnieW2 schrieb:
Nicht darum dass sich eine Festplatte überhaupt nur mit soviel Daten pro Jahr beschreiben lässt. Da geht nicht die magnetisierbare Schicht kaputt. Eher verschleißt die Mechanik der Platte.
Was interessiert es mich warum das Laufwerk Defekt ist, Natürlich geht es hier um die Beanspruchung der Mechanik, wenn Magneten oder die magnetisierbarkeit von Materialien sich abnutzen würde wären HDDs das kleinste Problem, Elektro Motoren müssten dann z.B. nach kürzester Zeit ausfallen bzw an Leistung verlieren.
Ergänzung ()

WinnieW2 schrieb:
Nicht darum dass sich eine Festplatte überhaupt nur mit soviel Daten pro Jahr beschreiben lässt.
Es geht um Schreiben und Lesen!

https://www.seagate.com/de/de/support/kb/annualized-workload-rate-005902en/

Und,wenn noch 1000 Festplatten habe und über diesem workload die MTBF deutlich kürzer wird heist das für mich höhere Ausfallraten...
Ergänzung ()

WinnieW2 schrieb:
Bei 300 TByte/Jahr wären das wohl 30 Tage pro Jahr an reinen Schreibvorgängen.
Bei einer Micron ION 5210 (QLC SSD) sind es bei 5 Jahren Nutzung 84 Tage pro Jahr (Bei 300MB/s, 425Tage) und das ist nur Schreiben, Lesen kannst ja noch nebenher und ohne Limit...
Ergänzung ()

WinnieW2 schrieb:
Theoretisch ja, aber praktisch wird ein Datenträger nicht ewig benutzt.
Was hat das mit der Nutzungsdauer zu tun, sollange ich die SSD nutze kann ich so viel und so oft Lesen wie das Interface hergibt. Ja daraus könnte man jetzt ein Zahl errechnen, aber welchen Nutzen hat das?
Ergänzung ()

Aber für Privatnutzer, ist das eh egal da würde ich mir ehr um die Data Retention Rate bei SSDs sorgen machen (Datenverlust beim Stromlosen im Schrank liegen) bzw bei HDDs die Lagerdauer. Aber sowohl für HDDs als auch SSDs findet man dazu kaum etwas, bei HDDs gibt es zumindest eine Angabe im Handbuch...

Bei gibt HDDs es die Aussage in Handbuch von 3-6 Monaten Lagerzeit. Bei SSDs eine Spezifikation der JEDAC, aber keine Angaben durch Hersteller.
 
Zuletzt bearbeitet:
Zurück
Oben