News WD Gold: Erste 18-TB-Festplatte im Handel gelistet

drunk_chipmunk

Lt. Junior Grade
Dabei seit
Okt. 2019
Beiträge
312
Die günstigsten SSDs kosten heute unter 100€ pro TB. 12 TB für 300€ wären 25€ pro TB - also ein Preisverfall um den Faktor 4. Das wird sicher keine 50 bis 60 Jahre dauern.
 

PS828

Commodore
Dabei seit
Juni 2019
Beiträge
4.266
Dennoch nähern ich SSDs in ihrem derzeitigen Zustand dem minimalpreis. Hier braucht es weitere Innovationen sonst bleibt der Preis konstant. Und bisher deutet sich auch eher eine Stagnation als eine Senkung der Preise an.

Bei HDDs hat man wenigstens noch gamechanger wie HAMR/MAMR in der Pipeline die evtl noch für die ein oder andere Verdopplung der dichte sorgen. Aber bei nand sieht das nicht so aus im Moment.

Die die stacking ist zwar schön und gut, führt aber auch zu doppelten waferkosten und unterscheidet sich im impact wenig von der Erhöhung der platterzahlen bei HDDs.

Klar gute gibt's mehr Kapazität aber nur durch mehr Material und damit stagnierenden Kosten und mehr Speicher kostet auch mehr.

Echter Fortschritt sieht also anders aus.
 

santander

Lt. Junior Grade
Dabei seit
Juni 2010
Beiträge
392

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
59.499
Das war doch nur eine Showcase oder bestenfalls Prototyp, der es meines Wissens nach nie auf den Markt geschafft hat. Aber die Samsung PM1643 mit über 30TB gibt es auch schon seit so 2 Jahren und die ist reale erhältlich. Das Problem ist aber der Preis!
Und während bei den SSDs der Preis pro GB seit Jahren fällt, dürfte er mit MAMR/HAMR bei den größten verfügbaren HDDs eher steigen.
Wieso sollten die Preise wegen MAMR/HAMR steigen? Klar werden die anfangs teuer sein, mit der Zeit wird der Aufpreis für die Technologie aber fallen und wenn sie 10% teurer ist, aber 20% mehr Kapazität ermöglicht, fällt der Preis pro TB immer noch.
also ein Preisverfall um den Faktor 4. Das wird sicher keine 50 bis 60 Jahre dauern.
Ja ich denke auch, dass es noch länger dauern dürfte, denn die low hanging fruits sind auch bei NANDs schon längst abgeerntet und den letzten Schritt, von planaren auf 3D NANDs, kann nicht noch einmal wiederholen. Man kann vielleicht mehr nativen Layer erreichen, aber bei über 100 wie es bisher nur Samsung erzielt hat, scheint man schon wenig wirtschaftlich zu sein, denn bei den ersten gestackten Dies wird Samsung wohl auch so 80 native Layer zurückgehen. Für die gestackten wird zwar mit vielen Layern und einer hohen Datendichte geworben, aber es müssen eben zwei Dies hergestellt werden um diese dann übereinander zu packen und durchzukontaktieren, man spart eigentlich nur einmal die Layer für die Logik. Dann kann man mehr Bits pro Zelle speichern, oder die Größen und Abstände der Zellen wieder reduzieren, aber beides zusammen ist schwer, da es dann zu wenige Elektronen in einer Zelle gibt um so viele Ladungszustände noch unterscheiden zu können.

Das Potential für Kostensenkungen bei NAND ist also gering und auch das Potential für Skaleneffekte ist gering, vor so 2 Jahren hatte ich das mal nachgesehen, da gaben die NAND Hersteller so 10% vom Umsatz für Forschung und Entwicklung ausgegeben, selbst wenn diese Kosten konstant bleiben und die Fertigungskapazität verdoppelt wird, sinken die Kosten dadurch nur um 5%. wird die Fertigungskapazität verzehnfacht, fallen sie um 9%.
Hier braucht es weitere Innovationen sonst bleibt der Preis konstant.
Konstant vielleicht nicht, aber wie bei HDDs in den letzten 10 Jahren, wird es dann nur noch in Trippelschritten vorangehen. Auch wenn es manchen schwer fällt dies zu glauben, aber irgendwann stößt man halt an Grenze der Technologie oder Physik und muss dann auf eine Technologie oder Strategie setzen. Bei den CPUs war es doch auch so, Jahrzehnte lang hat man deren Leistung vor allem über den Takt gesteigert, als man bei 1GHz angekommen war, erwartete man in wenigen Jahren 10GHz zu erreichen, heuten wissen wir, dass schon 5GHz eine hohe Hürde sind und nur Extremübertakter noch mehr GHz bekommen. Also ging man, um die Leistung weiter zu steigern, zu mehr Kernen über und dazu Architekturoptimierungen und Befehlserweiterungen.

Nur welche Innovation wäre bei NAND noch machbar? Man stapelt die Zellen schon übereinander (3D NAND) und speichert schon länger mehrere Bits pro Zelle. Der Aufbau eines Zelle ist schon denkbar einfach, weshalb NAND ja auch so billig ist, da lässt sich nichts mehr optimieren.
Die die stacking ist zwar schön und gut, führt aber auch zu doppelten waferkosten und unterscheidet sich im impact wenig von der Erhöhung der platterzahlen bei HDDs.
Eben, dies dient vor allem der Steigerung der maximalen Kapazität, kann die Kosten aber nicht wirklich großartig senken, schon gar nicht im gleichen Verhältnis wie die Kapazität und beworbene Datendichte steigt.
 

latiose88

Lt. Junior Grade
Dabei seit
März 2020
Beiträge
390
Nun wenn man nicht mehr Layer stapeln kann,dann müssen halt die Layer größer werden.Dann kann man auch mehr Speicherplatz bekommen.Oder aber die Festplatten steigen in ihrer Größe wieder an.Dann ginge ja auch mehr Speicherplatz.Also scheint wohl 3,5 " Festplatte an ihrer Grenze zu stoßen.Dann muss halt wieder 5 " Festplatten her.Die CPU größe wächst ja auch immer weiter.Weil auch hier das Problem ist,das immer kleiner zu viel aufwand ist.Klar mag da die Grenze bei den Prozessoren noch nicht angekommen sein,mit weiter sinkenden Größe ,wird es da auch immer Teuer.Irgendwann sind halt die Menschen nicht mehr bereit noch viel mehr zu zahlen.Also geht man dazu über das die CPUs Größer werden.Dies geht allerdings auch nur in sehr begrenzten Maße.Denn je größer die CPU ,desto teurer wird sie ja.
Man könnte aber auch wie bei der CPU das ganze in der Festplatte so machen.In dem Man mehrere Chips miteinander Verbindet.Bei HDDs merkt man das die Latenzen steigen nicht so,wie bei SSD. Wobei stimmt,diese Optionen ist für ne SSD unpraktisch.
Man könnte allerdings auch so machen das man bei SSD die Geschwindigkeit auf ein Niveu lässt und dafür dann es größer machen.Weis nur nicht ob das alles so ohne Probleme geht oder nicht.Man weis es nicht.
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
59.499
Nun wenn man nicht mehr Layer stapeln kann,dann müssen halt die Layer größer werden.
Was meinst Du mit größeren Layern? Pro Layer mehr Zellen? Damit steigt aber auch das Risiko durch Fehler zu viel unbrauchbare Dies zu fertigen und damit die Kosten, denn je größer die Dies sind, umso teurer ist ihre Fertigung, absolut also auch pro mm² gerechnet.
Oder aber die Festplatten steigen in ihrer Größe wieder an.
Erstmal sind die Gehäuse seit Jahrzehnten auf diese Bauhöhe ausgelegt und dann wären die Vibrationen ein großes Problem, denn je länger eine Achse ist, umso stärker sind die Amplituden in der Mitte, wenn man sie an beiden Enden lagert. Dabei kannst Du Dir ja mal ansehen wie groß die Track density heutiger HDDs ist und die groß die Abstände der Spuren daher sind und dies ist sowas wie Breite der Fahrbahn auf der Autobahn, die Köpfe dürften wie ein LKW in seiner Spur nur um einen Bruchteil der Spurbreite von abweichen um noch innerhalb der Spur zu bleiben. Genau deswegen werden die 5¼" HDDs auch nicht zurückkehren und die letzten von denen drehten auch nur noch mit 4200rpm. Vibrationen sind auch der Grund warum man bei den HDDs mit 10.000rpm oder mehr von 3.5" auf 2.5" gewechselt hat und schon bei den letzten 3.5" Generationen solcher HDDs war der Durchmesser der Platter deutlich kleiner als von Platz her möglich gewesen wäre.
.Die CPU größe wächst ja auch immer weiter.Weil auch hier das Problem ist,das immer kleiner zu viel aufwand ist.
Das sind ja auch Halbleiter und keine mechanischen Bauteile und die Dies wachsen i.d.R. um mehr Kerne und aufwendigere Architekturen (die eine bessere IPC bieten) realisieren zu können
Man könnte aber auch wie bei der CPU das ganze in der Festplatte so machen.In dem Man mehrere Chips miteinander Verbindet.
Das macht Intel bei den Lakefile ja auch und nennt die Verbindungstechnik Foveros, aber Lakefield ist eine auf sehr geringe Leistungsaufnahme optimierte CPU, dies dürften wegen Abfuhr der Wärme nicht so einfach auf sehr leistungsstarke CPUs übertragbar sein.
Bei HDDs merkt man das die Latenzen steigen nicht so,wie bei SSD. Wobei stimmt,diese Optionen ist für ne SSD unpraktisch.
Wieso steigen die Latenzen bei HDDs mit mehr Platter? Auch bei NAND steigen die Latenzen meines Wissens nach durch Die Stackung nicht.
Man könnte allerdings auch so machen das man bei SSD die Geschwindigkeit auf ein Niveu lässt und dafür dann es größer machen.Weis nur nicht ob das alles so ohne Probleme geht oder nicht.Man weis es nicht.
Was meinst Du mit "größer machen"? Die Kapazität der SSD oder die der NAND Dies?

.
 

latiose88

Lt. Junior Grade
Dabei seit
März 2020
Beiträge
390
Was meinst Du mit größeren Layern? Pro Layer mehr Zellen? Damit steigt aber auch das Risiko durch Fehler zu viel unbrauchbare Dies zu fertigen und damit die Kosten, denn je größer die Dies sind, umso teurer ist ihre Fertigung, absolut also auch pro mm² gerechnet.

Erstmal sind die Gehäuse seit Jahrzehnten auf diese Bauhöhe ausgelegt und dann wären die Vibrationen ein großes Problem, denn je länger eine Achse ist, umso stärker sind die Amplituden in der Mitte, wenn man sie an beiden Enden lagert. Dabei kannst Du Dir ja mal ansehen wie groß die Track density heutiger HDDs ist und die groß die Abstände der Spuren daher sind und dies ist sowas wie Breite der Fahrbahn auf der Autobahn, die Köpfe dürften wie ein LKW in seiner Spur nur um einen Bruchteil der Spurbreite von abweichen um noch innerhalb der Spur zu bleiben. Genau deswegen werden die 5¼" HDDs auch nicht zurückkehren und die letzten von denen drehten auch nur noch mit 4200rpm. Vibrationen sind auch der Grund warum man bei den HDDs mit 10.000rpm oder mehr von 3.5" auf 2.5" gewechselt hat und schon bei den letzten 3.5" Generationen solcher HDDs war der Durchmesser der Platter deutlich kleiner als von Platz her möglich gewesen wäre.

Das sind ja auch Halbleiter und keine mechanischen Bauteile und die Dies wachsen i.d.R. um mehr Kerne und aufwendigere Architekturen (die eine bessere IPC bieten) realisieren zu können

Das macht Intel bei den Lakefile ja auch und nennt die Verbindungstechnik Foveros, aber Lakefield ist eine auf sehr geringe Leistungsaufnahme optimierte CPU, dies dürften wegen Abfuhr der Wärme nicht so einfach auf sehr leistungsstarke CPUs übertragbar sein.

Wieso steigen die Latenzen bei HDDs mit mehr Platter? Auch bei NAND steigen die Latenzen meines Wissens nach durch Die Stackung nicht.


Was meinst Du mit "größer machen"? Die Kapazität der SSD oder die der NAND Dies?

.
Das bezieht die Zweite Spale drauf:
Hm wenn das Gehäuse nicht mehr größer wird,dann haben wir ja langfristig ein Problem.Schade das die Festplatte nicht so gut in die Größe Skalieren können bzw dürfen wie bei den CPUs. Denn dann hätten wir somit das Problem ja garnicht mehr.Dann könnte man fröhlich weiter erhöhen.Dann heißt es halt wohl warten und hoffen das es weiter verkleinert wird.Was anderes bleibt uns halt nicht übrig.Habe aber so meine Zweifel dann,ob wir dann auf so ner kleinen Fläche z.b 36 oder gar noch mehr auf einer Festplatten dann sehen werden.Denn so 72 oder sogar 100 tb auf 2 Festplatten zusammen,das wäre doch was.Aber ich bezweifle das wir das so schnell sowas sehen werden.Und ob es noch möglich wäre.Denn angesichts dieser Problematik sehe ich da eher wohl schlechte Karten.

Das bezieht sich auf das Dritte spalte:

Nun du willst mir damit sagen,die Fläche steigt darum bei den CPUs ,damit sie breiter werden können.Selbst wenn sie damit die Anzahl der Kerne nicht steigern,dann können sie es mit anderen Sachen,die Leistung weiter erhöhen.Denn sowas wie Cache und so braucht ja auch viel Platz.Damit kann man ohne mehr Kerne auch dennoch mehr Leistung erziehlen.Das wäre ja genial.Hoffe damit das ohne neuere Software somit dennoch mehr Leistung am ende dabei noch raus kommt.


Das bezieht sich auf das Letzte Kapitel von dir:

Das bezogt sich auf Allegein.Man könnte um die Größe der SSD und HDD zu erhöhen ja auf etwas Geschwindigkeit opfern.Dann kriegt man womöglich auch mehr rein.Aber das wird halt dann die Nutzer nicht freuen.Denn egal wie man es macht,es würde sich dann als Nachteil herausstellen.
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
59.499
Spalte? Meinst Du vielleicht Absatz? Wieso zitierst Du denn nicht worauf Du beziehen willst, so wie ich es machen statt einem sinnlos Totalzitat des der direkt darüber steht?
Nun du willst mir damit sagen,die Fläche steigt darum bei den CPUs ,damit sie breiter werden können.
Breiter? Nutzt Du einen Übersetzer um hier zu posten?
Man könnte um die Größe der SSD und HDD zu erhöhen ja auf etwas Geschwindigkeit opfern.Dann kriegt man womöglich auch mehr rein.
Wieso sollten bei HDDs mehr Platter oder mehr Daten drauf passen wenn man sie langsamer drehen lässt und bei SSDs ergibt sich die Geschwindigkeit aus der Parallelität, also der Anzahl der NAND Dies und je mehr Dies man verbaut, umso größer wird die Kapazität der SSD, also gibt es hier keine Möglichkeit Geschwindigkeit gegen Kapazität zu tauschen.
 

muschel91

Lt. Junior Grade
Dabei seit
Dez. 2008
Beiträge
269
Sicher gut, dass die Kapazitäten wachsen, allerdings bei dem Preis eher mal uninteressant, wahrscheinlich wird sich am Preis auch nichts tun, bis andere Hersteller mit den Größen nachziehen...

Meine 20MB Festplatte hatte damals an die 700 DM gekostet, mein erster CD-Brenner 2000 DM und heute gibts für 350 € 14TB und den DVD-Brenner für 20..... ja so war das früher :-)
 

ExigeS2

Lt. Commander
Dabei seit
Juli 2014
Beiträge
1.199

giantroxx

Cadet 3rd Year
Dabei seit
Nov. 2005
Beiträge
37
Ich finde inzwischen, dass HDDs sich schon sehr aus der Zeit gefallen anfühlen. Ich habe hier zwar auch noch mein NAS mit 6 Platten sowie eine im Desktop, stelle aber jedesmal fest, wie mich das geratter geklacker und Laufgeräusch nervt. Denke es wird nicht mehr lange dauern bis der Preisvorteil von HDDs sich in Luft aufgelöst.
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
59.499
0

08/15 Base

Gast
bei 5 Jahren Garantie kann man sich ruhig mal trauen sich die Platte zu holen
 

Piak

Lt. Commander
Dabei seit
Jan. 2010
Beiträge
1.632
Angebot
Ergänzung ()

Allein YouTube generiert wieviele TB täglich? Wo wird all das gespeichert?
Die nutzen dieselbe Hardware, 3,5" Platten. Aber viele :D.

Dazu kommen noch :
  • viele SSD, für Daten die sehr schnell verfügbar sein müssen.
  • Bandlaufwerke, für Daten die archiviert werden
 

Doctor Strange

Lt. Commander
Dabei seit
Sep. 2013
Beiträge
1.984
Wenn ich daran denke, dass die Festplattr in meinem ersten Rechner 10 oder 20 GB hatte 😅 absoluter Wahnsinn wo man heutzutage technisch steht ^^
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
59.499
Das Beispiel ist zwar beschränkt, aber wenn man eine bestimmte Kapazität braucht, dann kann es billiger sein die teuren Modelle mit 18TB zu nehmen als mehr Bays zu brauchen um bei den HDDs zu sparen.
 

the_pi_man

Lt. Junior Grade
Dabei seit
Sep. 2005
Beiträge
298
Top