News Seagate: 20-Terabyte-HDDs bis 2020 dank HAMR

wie hier alle von der ssd träumen als wäre es das wunder mittel. :rolleyes:
toll mit der ssd ladet das spiel oder win um 5-6sec schneller wow:freak:

für Programme ist das irrelevant wenn ich Programme schnell laden will,
dann würde ich diese in eine 32gb ramdisk verfrachten,
dann mal viel spass mit den läppischen 500mb(edit: /s) und 5ms Zugriffszeit der ssd
-----------------------------------------------------------------------

gut so, bei mir hatte noch keine seagate irgend welche fehler unter 22-24k BS.
 
Zuletzt bearbeitet:
"Die Welt erschafft jährlich eine astronomische Menge an Daten und diese Daten müssen abgespeichert werden." This message was brought to you by the NSA of America...
 
Wie groß werden 2020 die pr0n files? Da muss die Entwicklung ja mithalten....

Noch 7 Jahre. Dauert aber doch sehr lange bis 20 TB...
 
Zuletzt bearbeitet von einem Moderator:
Der Inhalt hinter dem HAMR-Link in der News sagt eigentlich schon alles :evillol:

Es wird bereits spekuliert, welche Speicherkapazität mittels dieser Technologie erreicht werden kann. Schon 2007 erwartete Seagate, dass bereits im Jahr 2010 Kapazitäten von 37,5 Terabyte erreicht werden können.[2] Das wäre 12-mal so viel wie die zurzeit größte Festplatte mit rund 3 Terabyte. Allerdings wird auch berichtet, dass sich mittels dieser Technologie die Anzahl der Head-Crashes erhöhen könnte und somit die Qualität der Festplatte darunter leiden würde.[3] Diese Spekulation steht jedoch im Widerspruch zu der auf Techworld zitierten Aussage von Seagate, wonach 2010 mit 3-TB-Festplatten zu rechnen sei.

Was soll man also wieder auf so ein geblubbere eines Herstellers geben.....NIX.
 
Zuletzt bearbeitet:
Kimble schrieb:
Weil es auf schnelle Zugriffe ankommt. Da reicht auch keine SAS heran.

Zudem scheinen SSDs mittlerweile ausfallsicherer zu sein.

Zudem gibt`s weniger Stromverbrauch.
Wer redet von einer SAS, große Speichersysteme wie ich sie aufbaue und an denen ich arbeite, arbeiten bei Bedarf mit mehreren hundert bis mehreren tausend Platten. Der limitierende Faktor ist hier nicht die Festplatte sondern einfach das BUS-System und die FC oder Ethernet Anbindung. Da hilft dir auch deine SSD nicht weiter. Was Zugriffe anbelangt wird das vom Cache und RAM abgedeckt, der bei diesen Systemen mehrere hundert GB bis einige TB groß ist. Rede bitte nicht von Dingen, von den du offensichtlich keine Ahnung hast. Selbst große SAP-Systeme arbeiten mit FC Anbindung an SAS Platten und was bitte braucht noch wesentlich schnellere Zugriffe als eine große Datenbank mit vielen Millionen Einträgen?

Was das Argument mit dem Stromverbrauch angeht, ich kann es fast nicht mehr hören. Darum kümmern sich vielleicht Administratoren im 10 Mann Betrieb, aber niemand der ein oder mehr Rechenzentren betreibt und sie haben alle mind. zwei RZs. Diese Betriebe haben teilweise ihre eigenen Kraftwerke und verkaufen den Strom den sie zuviel produzieren. Wenn dort etwas egal ist, ist es der Stromverbrauch.

cpushreder schrieb:
es gab damal die bigfoot platten. die teile hatten die breite eines dvd laufwerks.
warum wird nicht ein zwischenschritt gemacht und die kapazität erstmal auf diese art erhöht?
eine sofortige verdoppelung der fassbaren datenmenge müsste damit doch recht leicht zu bewerkstelligen sein.
Weil hier die rotierenden Massen einfach zu groß sind. Man müsste mit deutlich niedrigeren Drehzahlen arbeiten wourch nicht nur Zugriffszeit, sondern auch Übertragungswerte stark einbrechen würden.
 
Zuletzt bearbeitet:
1.) Es braucht schon so fast niemand die Datenmengen einer aktuellen 3,5" Festplatte. Man braucht sich nur ansehen, wie viele PCs immer noch mit 500-750GB ausgeliefert werden und selbst das ist für viele mehr als genug. Früher waren bei mir auch immer alle Platten randvoll trotzdem RAID 5 mit 8 Platten. Heute habe ich auch nur 4TB an Daten. Das würde sogar auf 1 Platte passen.

2.) In den Desktopmarkt wird überhaupt nichts mehr investiert, sondern nur mehr in den Notebookbereich und da sind selbst 3,5" zu viel, wobei hier auch die SSDs den Großteil übernehmen werden und Festplatten nur mehr als Zweitlaufwerk in Frage kommen. Als Systemlaufwerk ist die Zugriffszeit einfach so schlecht bzw. Windows 7 und die aktuellen Virenscanner machen so viele Zugriffe auf kleine Dateien.

3.) 20TB bis 2020 ist nicht sehr übertrieben. Das würde heißen Verdopplung der Datendichte alle 3 Jahre. Vor 10 Jahren wäre man mit so einer Aussage noch ein ziemlicher Pessimist. Da war der Zyklus fast bei 1 Jahr.

4.) SSDs werden Festplatten nie einholen. Die haben auch mit dem Ende von Moores Law zu kämpfen, nicht nur die CPU Hersteller. Der bisherige Preisverfall hat sich eher dadurch ergeben, dass das Angebot größer geworden ist mit großen Anbietern wie Samsung und dass man durch bessere Controller von SLC auf MLC bzw. TLC umgestellt hat. Von der Fertigung sind vielleicht noch 2, maximal 3 Sprünge in absehbarer Zeit drin, aber mehr nicht. Dann sind wir bei ca. 150-200Euro (was ca. der maximale Preis für Endverbraucher ist) in 10 Jahren um die 1-2TB, während die Platten dann auch schon mindestens bei 10TB sein werden.
 
Muss dieser Ami Sch**ß wirklich überall wie ein Krebsgeschwür wuchern? Wir haben eine ISO!
 
Naja, ich glaube nicht, dass NAND-Flash-Zellen jemals kleiner sein können, als einfache Magnetpolungen. Sicher, irgendwann wird das weitere Verkleinern eines Bits auf einer HDD so teuer, dass es sich nicht lohnt, aber der stagnierende Fortschritt ist doch nur die Folge des Umstands, dass die Absatzzahlen bei den Privathaushalten wegbrechen, weil die meisten Privathaushalte nichtmal wissen, wie sie auch nur ein TB voll kriegen sollen. Festplatten werden in Privathaushalten nur noch neu gekauft, wenn die alten kaputt sind und nicht mehr, weil man mehr Platz braucht, wie das früher mal war. Und dann kauft man eben auch das kleinste Modell, weil das für einen mehr als genug Platz bietet.

Dafür wandern die HDDs massenhaft in Cloud-Storage, wo SSD und ReRAM nur für Caches verwendet werden und alles, was die User so hochladen, wie eh und je auf Magnetscheiben gespeichert wird.

Robin Harris: Will flash ever be cheap as disk?
 
Erstens bewerte ich das einfach mal als grosses Geblubber seitens Seagate - ich sag dann toll wenn 2020 wirklich solche Platten existieren.

Zweitens ist Seagate für mich sowieso gestorben aufgrund mehrerer negativer Erfahrungen. Werd ich mir mit sicherheit nicht mehr kaufen.
 
1.) Die Leute speichern mehr Daten in der Cloud, aber von >1TB Durchschnitt pro User sind wir immer noch meilenweit entfernt. Da bremsen in erster Linie noch die Internetleitungen.

2.) Bei den Serverplatten geht es in erster Linie nicht so um die reine Kapazität, sondern um Ausfallssicherheit. Die Kosten pro GB spielen da eher eine sekundäre Rolle. Vor allem Fehler, die keinen Totalausfall, sondern nur Lesefehler bedeuten sind problematisch. Da hilft auch ein RAID System nur bedingt.

3.) Der Stromverbrauch eines Rechenzentrums ist schon von Bedeutung, denn mehr Stromverbrauch bedeutet auch, dass die Kühlung aufwändiger wird d.h. man hat noch einmal mindestens denselben Verbrauch für die Klimaanlage bzw. auch deren Anschaffungs/Wartungskosten. Allerdings stimmt es, dass man bei Platten, die nicht einmal 10 Watt verbrauchen nicht unbedingt anfangen muss zu sparen.

4.) Dass die Nachfrage an Platten sinkt, mag stimmen und die Thailandkrise hat auch ihren Teil dazu beigetragen, dass es weniger Anbieter gibt, aber das Hauptproblem sind einfach die physikalischen Grenzen. Es kann einfach nicht mehr in dem Tempo nachgelegt werden, wie früher.
 
Theoretisch müsste das doch auch eine imense Steigerung der Lese- (und Schreib-)Geschwindigkeit mit sich bringen. Warum erwähnt Seagate davon nichts?
Dient wohl nur wieder zur Kostensenkung genau wie Perpendicular Recording. Damals waren SSDs noch nicht etabliert, es wurde mit der höheren Geschwindigkeit geworben. Gesehen hat man von solcherlei Vorteilen bei den PR-Platten dann hinterher nichts.
Wahrscheinlich verringert die dann nötige Fehlerkorrektur, weil der Quatsch nicht ausgereift ist, die eigentlich mögliche Mehrleistung. Aber das sind nur eine paar Gedanken am Rande. ;)
 
Jiggerman schrieb:
Nie wieder Seagate!

Ach Leute,
Man liest immer mal diesen Quark: mir sind mal 3 Platten von Hersteller Xyz abgeraucht, da kauf ich nie wieder. Das ist ein psychologisches Phänomen dass alle Hersteller gleich betrifft, die Wahrscheinlichkeit auf 3 schlechte Platten ist nämlich pro Hersteller quasi identisch. Ihr wart aber nun der eine von 100000 Fällen bei dem ausgerechnet 3 platten dieses Herstellers gestorben sind und müsst es nun laut kund tun, um das Netz vor diesem Schrott zu warnen. Lasst es. Empfehlt einfach Hersteller mit längerer Garantie statt einen bestimmten Hersteller schlecht zu machen, von der Qualität nehmen sich die alle nichts....
 
cpushreder schrieb:
es gab damal die bigfoot platten. die teile hatten die breite eines dvd laufwerks.
warum wird nicht ein zwischenschritt gemacht und die kapazität erstmal auf diese art erhöht?
eine sofortige verdoppelung der fassbaren datenmenge müsste damit doch recht leicht zu bewerkstelligen sein.

meinste etwa die alten Quantum Bigfoots..so eine habsch seit knapp 13 J:Dahren hier auch noch liegen...grins
Ergänzung ()

mambokurt schrieb:
Ach Leute,
Man liest immer mal diesen Quark: mir sind mal 3 Platten von Hersteller Xyz abgeraucht, da kauf ich nie wieder. Das ist ein psychologisches Phänomen dass alle Hersteller gleich betrifft, die Wahrscheinlichkeit auf 3 schlechte Platten ist nämlich pro Hersteller quasi identisch. Ihr wart aber nun der eine von 100000 Fällen bei dem ausgerechnet 3 platten dieses Herstellers gestorben sind und müsst es nun laut kund tun, um das Netz vor diesem Schrott zu warnen. Lasst es. Empfehlt einfach Hersteller mit längerer Garantie statt einen bestimmten Hersteller schlecht zu machen, von der Qualität nehmen sich die alle nichts....

egal welche Firma..hatte schon von fast allen platten herstellen kaputte platten gehabt,.,,,am schlimmsten war aber damals ibm mit ihren komischen klack geräuch..kaum ein Monat alt und schon defekt
 
HardwareXXL schrieb:
Es ist schon recht lange her, aber nachdem meine damaligen 60er und 80er Seagate HD`s alle gestorben sind. Mit dem berühmten Klacken.
Insgesamt 4 Stück, meide ich den Hersteller.
Ich bin von Seagate geheilt für immer.
Meine Maxtor`s und IBM`s von damals laufen noch immer.
Du weist aber schon, dass jeder Traditionshersteller im Bereich der Festplatten schon so seine Fehlerserien gehabt hat? Du weist auch, dass Maxtor heute Seagate ist? Mir sind z.B. auch schon reihenweise IBM-Platten gestorben im Bereich von 20-60GB, ebenso wie die ST3xxx320AS-Serie von Seagate (5x gekauft, 4x defekt, wovon 3x umgetauscht wurde).

So gesehen kannst du leider gar keine Festplatten mehr kaufen.

cpushreder schrieb:
es gab damal die bigfoot platten. die teile hatten die breite eines dvd laufwerks.
warum wird nicht ein zwischenschritt gemacht und die kapazität erstmal auf diese art erhöht?
eine sofortige verdoppelung der fassbaren datenmenge müsste damit doch recht leicht zu bewerkstelligen sein.
Ganz einfach:
Durch Vergrösserung der Platter hast du nicht nur deutlich mehr Ausschuss bei der Produktion ansich sondern auch einen deutlich größeren Stromverbrauch, um die Mechanik in Gange zu halten, zudem hat diese mehr Belastung bei der Lagerung und die Lese-Schreibköpfe kommen aus dem Hin- und Herschießen gar nicht mehr heraus. 2,5"-Festplatten, die dafür 10cm hoch wären, wären hier tatsächlich eine sinnvollere Alternative.

Dennoch finde ich es auch erschreckend, dass der SSD-Markt, natürlich vollkommen künstlich, so massiv zurückgehalten wird. So lange noch alte Reste auf Lager der Produktionsstätten liegen, werden diese auch an den Endkunden vermüllt.

Bei mir wird es jedenfalls sehr lange dauern, bis ich mir wieder neue Festplatten kaufe... 6x2TB im RAID5 im FileServer und 2x3TB single im NAS, das sollte ertmal reichen für die nächsten Jahre (hab auch noch fast 2TB frei insgesamt ^^).

Cya, Mäxl
 
Größere plattenformate haben bei gleicher Drehzahl einen dermaßen höheren Strombedarf, dass das nicht in Frage kommt. Bis 2,5" wurde die Verkleinerung des Formfaktors immer dazu genutzt, die Drehzahl und damit jeden Aspekt der geschwindigkeit, auch die Zugriffszeit, zu erhöhen. 3,5" laufen üblicherweise maximal mit 10.000 U/min, 2,5" Platten mit maximal 15.000 U/min. Deswegen kommt 5,25" für HDD einfach nicht mehr in Frage - die Platten bräuchten entweder ein eigenes Netzteil oder wären viel zu lahm.
 
Burgard schrieb:
Ich frage mich auch, warum gibt es nicht wieder 5 1/4-Zoll-Laufwerke?
Weil die zu viele Probleme mit Schwingungen machen, die Mechanik zum Bewegen der Köpfe zu schwer und die Arme zu lang sind. Weshalb meinst Du wohl, geht die Tendenz selbst im Serverbereich zu 2.5"? Bei einer langen, großen und schwereren Mechanik dauert es einfach länger die Köpfe exakt auf die immer kleineren Spuren zu positionieren und sie dort auch zu halten wird auch nicht leichter. Dazu der Anlaufstrom, der Stromverbrauch wegen des Luftwiderstands, etc.

775erLover schrieb:
wie hier alle von der ssd träumen als wäre es das wunder mittel. :rolleyes:
toll mit der ssd ladet das spiel oder win um 5-6sec schneller wow:freak:
Wenn Du nicht mehr machst als Windows und ein Spiel zu starten, dann brauchst Du wohl wirklich keine SSD, denn alleine dafür lohnt es sich echt nicht. Wer wirklich I/O intensive Anwendungen hat und öfter mehrere parallele Zugriffe ertragen muss, der weiß was er an seiner SSD hat.

775erLover schrieb:
dann mal viel spass mit den läppischen 500mb und 5ms Zugriffszeit der ssd
500mb und 5ms? So eine kleine und lahme SSD kommt mir nicht ins Haus :lol:

andr_gin schrieb:
1.) Es braucht schon so fast niemand die Datenmengen einer aktuellen 3,5" Festplatte.
Man sollte nicht von sich auf andere schließen :D

andr_gin schrieb:
1.) Die Leute speichern mehr Daten in der Cloud, aber von >1TB Durchschnitt pro User
Aber wo landen die Daten dort? Und selbst wenn es nur ein paar GB pro Person sind, dann braucht man nicht so viele User um eine ganze Menge HDDs damit zu füllen.

doof123 schrieb:
Lieber effizientere Dateisysteme & stärkere Komprimierungstechniken
Mit welchen Dateisystem hast Du denn Effizienzprobleme? Ist Dir vielleicht noch nicht aufgefallen, dass Datenträger immer in GB als 1000^3 Byte angegeben werden, Windows aber GiB anzeigt, also 1024^3 Byte und daher immer knapp 7% weniger?

Und die Datenkompression funktioniert nur bei Mediendateien einigermaßen gut, weil man sich da bestimmte Informationsverluste hinnimmt, in der Hoffnung die menschlichen Sinne werden das nicht bemerken. Bei allen anderen Dateien wo es auf eine verlustfreie Kompression ankommt, kann man damit nur begrenzt etwas ausrichten, da die Komprimierbarkeit einfach vom Informationsgehalt der Datei abhängt.
 
Zurück
Oben