News HAMR: Seagate verschiebt HDD‑Technik für 20 TB+ erneut

Wattwanderer schrieb:
Ihr Jungspunde. :)

Ich habe gesehen wie die Preise bei HDDs sich über 20 mal halbiert haben. Da werdet ihr schon ungeduldig wegen nur dreimal bis 2 ct pro TB? :)

Ansonsten denke ich, dass die HDD Hersteller zumindest am Anfang noch versuchen werden, mit Preissenkungen konkurrenzfähig zu bleiben.

Meine erste HDD im PC war eine 50 MB Maxtor... in €/TB gehn sich da 20 Halbierungen wohl aus...

2 ct pro TB? du meinst wohl GB...

Es gab aber auch Phasen wo die SSD Preise steil nach oben gingen.

Aber auch die HDD's sinken im Preis/GB... aktuell tut sich wenig bei den Kapazitäten... aber bei 24/48TB pro Platte wirst du sehn wie die Preise wieder deutlich fallen werden.

Die Zukunft wird irgendwann SSD's gehören... Da stimm ich dir zu... Aber wann genau hängt von der HAMR Entwicklung ab....
 
die festplatten haben halt auch den vorteil der haltbarkeit.

alle meine ssd´s der ersten generation sind mitlerweile tot, bis auf eine 250gb vertex von ocz. letzte woche ist erst die 240gb crucial gestorben. nach so vielen jahren dürfen die das aber auch :D *edit* die vertex wird im dezember 10 jahre alt, ein wunder, dass die immer noch läuft. aber 8-10 diverse ssd´s sind mitlerweile mindestens kaputt gegangen im bekanntenkreis, die letzten jahre.

die uralten festplatten laufen fast alle immer noch. manche mit unterirdischen raten von 8mb/s und weniger, rattern wie sonst was aber laufen.

mfg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
Das nicht kaufbare Produkt, das es schon seit Ende der 00er Jahre angeblich schon bald geben soll:

Eine HAMR Festplatte mit einem Controller gefertigt mit EUV Lithografie (>5ghz Schaltfrequenz), MRAM Cache und gern als USV an einer Wunderbatterie, die 1000x besser ist, als LiPo, in Minutenschnelle lädt und tausende Zyklen überlebt :evillol:

Hab ich was vergessen?
 
  • Gefällt mir
Reaktionen: Recharging
[F]L4SH schrieb:
Das nicht kaufbare Produkt, das es schon seit Ende der 00er Jahre angeblich schon bald geben soll:

Eine HAMR Festplatte mit einem Controller gefertigt mit EUV Lithografie (>5ghz Schaltfrequenz), MRAM Cache und gern als USV an einer Wunderbatterie, die 1000x besser ist, als LiPo, in Minutenschnelle lädt und tausende Zyklen überlebt :evillol:

Hab ich was vergessen?
Ja den Tesla Model 3 in einer funktionierenden Version.
Ergänzung ()

cliscan schrieb:
Auch wenn SSDs billiger wären als HDDs würde ich schon der Datensicherheit wegen immer noch auf Festplatten setzen. Magnetplatten halten die Daten länger und zuverlässiger als Speicherzellen.
Festplatten fangen nach 3 Jahren zum Bitrotten an, danach sollte man einen Plattenfresh durchführen oder ein Bitrotting Resistentes FS im Raidverbund haben.
Soviel zur Datensicherheit.
 
  • Gefällt mir
Reaktionen: [wege]mini
Die Technik hinter HAMR klingt kompliziert. Da bin ich mal auf die Ausfallsicherheit dieser Platten gespannt.
 
Cooder schrieb:
Die Technik hinter HAMR klingt kompliziert. Da bin ich mal auf die Ausfallsicherheit dieser Platten gespannt.
Das wird spannend vor allem auch die Wärmeentwicklung und wieviele Schreibzyklen das Material durchhält.
 
h00bi schrieb:
ist ja mittlerweile wie bei neuen Akkutechnologien geworden.. Wir haben da BALD was ganz tolles....

Haben wir doch auch.

Guck dir mal den akku von einen nokia 3310 an: ein riesen Klotz mit 1000 mAh. Moderne akkus haben 3000-6000 mAh, und sind im Vergleich winzig.
 
Che-Tah schrieb:
2 ct pro TB? du meinst wohl GB...

Die Zukunft wird irgendwann SSD's gehören... Da stimm ich dir zu... Aber wann genau hängt von der HAMR Entwicklung ab....

Ahem, natürlich. Man kommt mit GB und TB einfach durcheinander. :)

Ansonsten, großer Wurf werden die beiden Techniken nicht mehr. Mit GMR träumte man schon Faktor 10, 100 oder 1000. Jetzt mit HAMR in 20 Jahren Faktor 4. Realistisch wird es wohl nur ein Sprung wie von Luft auf Helium werden wenn die Technik denn fertig wird bevor sie von SSDs überholt wird.

Aktuel bin ich oh, Schreck, mit 17 SSDs erst einmal gut bedient. Ich kann also warten und zuschauen wie meine Wertanlage im Nichts auflöst. :)
 
resurrection schrieb:
Festplatten sind halt tot ;-)
Nein, noch lange nicht, da die SSDs pro TB viel teurer sind und dies noch lange und vermutlich für immer auch bleiben werden. Ich sehe nämlich nicht welches Kaninchen die NAND Hersteller noch aus dem Hut zaubern könnten, um die Preise so massiv zu senken um die HDDs einzuholen. Man ist bei planaren NANDs bei so 14 bis 16nm an die Grenze der Größen und Abstände der Zellen gekommen, nun bei 3D NAND hat man da erstmal wieder deutlich zugelegt und kann diese wieder schrumpfen, bekommt dann aber wieder die Nachteile die man schon bei planaren NANDs unter 20nm deutlich sehen konnte und kann dann auch nicht mehr Bits pro Zelle speichern, wie es derzeit mit QLC NAND gerade gemacht wird. Hier muss man also einen Kompromiss zwischen der Anzahl der Bits pro Zelle und den Größen und Abständen der Zellen eingehen.

Dann sehen wir gerade ein Rennen um die meisten Layer, aber jeder Layer erfordert zusätzliche Bearbeitungsschritte, die kosten Geld und erhöhen das Risiko durch einen Fehler den Wafer zu verlieren. Man erwartete schon vor Jahren das die wirtschaftliche Grenze bei so 128 Layern liegen würde. Nun ist schon von 500 Layern die Rede, aber da muss man genau hinsehen, denn genau wie bei einigen (allen?) 96 Layer NANDs, sind diese keine nativen Layer, sondern gestapelte Dies, also zwei Dies mit 48 Layern die übereinander gelegt werden und womit man dann allenfalls durch die gemeinsame Logik Geld spart, denn wenn man mehrere Dies stapelt, bekommt man eben am Ende weniger Chips von einem Wafer.

Der jüngste Preisrutsch bei NAND ging vor allem auf Kosten der Margen der Hersteller und zum Teil durch Einparungen aufgrund des Wechseln auf 3D NAND, welches aber eben auch erst ab einer bestimmten Anzahl von Layern günstiger zu fertigen ist als planares NAND. Bei Samsung soll die Schwelle bei 64 Layern gelegen haben, bei anderen ggf. geringer, aber außer Samsung hat sonst kein Hersteller 3D NAND in Großserie gefertigt, bevor er diese Schwelle erreicht hatte.

Dan die R&D Kosten der NAND Hersteller auch nur bei weniger als 10% des Umsatzes lagen, lässt sich auch hier nicht sehr viel einsparen, bei Verdoppelung des Fertigungskapazität würden sie bei gleichbleibenden R&D Aufwendungen dann auf 5% fallen, damit wären dann 5% Kostensenkung drin.
Wattwanderer schrieb:
während der Preisverfall bei SSDs so gut wie sicher scheint. Wenn die Fertigungsanlagen die in Korea und China hochgezogen sind wird man da auch etwas produzieren wollen.
In China ist es ja nicht unüblich das die Regierung die Hersteller subventioniert, wie man es bei der Solarbranche gesehen hat, aber wenn dies nicht erfolgt, dann werden die auch nicht so viel billiger fertigen können und selbst wenn sie sich die Kosten für R&D komplett sparen, macht dies eben nicht so viel aus wie nötig wäre um die Kosten pro TB von SSDs auf das Niveau von HDDs zu bekommen. Diese Lücke wird sich verringern, aber noch lange nicht und vermutlich nie schließen.
pakichaggi schrieb:
100 MB/s reichen locker für 4K Videostreaming und auch in Zukunft für höhere Bandbreiten. Das Netzwerk limitiert ja auch noch.
Für Dich vielleicht, aber es gibt auch andere Anwendung und da möchte man schon mehr Bandbreite haben. Außerdem ist Multi-Gigabit Ethernet auch bei Heimanwendern so langsam auf dem Vormarsch, es gibt auch immer mehr erschwingliche NAS die 10GbE bieten und nach so vielen Jahren mit Gigabit Ethernet, wird es ja auch langsam mal Zeit.
pakichaggi schrieb:
Jeder heute mir denkbare Einsatz einer HDD im privaten Rahmen
HDDs werden aber oft auch in Unternehmen eingesetzt, gerade auch die mit den größten Kapazitäten. Der private Rahmen ist also sicher nicht das an dem die HDD Hersteller sich orientieren.
pakichaggi schrieb:
Frage mich manchmal, ob man sich nicht besser auf die reine Kapazität konzentrieren sollte, meinetwegen auf Kosten der Leistung.
Die Leistung gibt es zum Teil umsonst, denn die seq. Transferraten steigen mit der Datendichte automatisch, da eben einfach mehr Daten unter den Köpfen vorbeikommen, wenn mehr Sektoren auf einer Spur Platz haben. Wenn man die Kapazität durch mehr Platter oder SMR steigert, dann gibt es natürlich keine besseren Transferraten, da es nicht mehr Sektoren pro Spur gibt, sondern nur insgesamt mehr Spuren. Die IOPS zu steigern ist aufwendiger, daher versucht es Seagate eben mit dem Multi Actuator, aber es soll ja auch Modelle ohne geben.

Übrigens schaffen die HDDs mit mehr Kapazität in den Benchmarks meist mehr IOPS, einfach weil diese nur über einen festen, recht kleinen Adressraum gebencht werden und dieser Adressraum bei Platten mit hoher Kapazität über wenige Spuren reicht und sich die Köpfe damit nicht so oft und weit bewegt werden müssen. Sinnvoller wäre es die IOPS immer über den ganzen Adressraum zu ermitteln.
Wattwanderer schrieb:
bis sie sich in die Nische für spezielle Anwendungsfälle verabschieden.
Die Anwendungsfälle für HDDs werden immer geringer, aber da der weltweite Speicherbedarf weltweit weiter massiv steigt, bei der Cloud stehen die Daten ja nicht in den Wolken, sondern eben auf den Storages in den Rechenzentren der Anbieter, dürfte der Bedarf an Kapazitäten die keine besonderen Anforderungen an die Performance stellen, weiter steigen und keine Nische sein.
andr_gin schrieb:
jedoch ist der Preisunterschied immer noch bei Faktor 5-6 und das obwohl die Flashpreise gerade sehr niedrig sind
Eben und die Lücke zu schließen, dürfte schwer werden bis auf absehbare Zeit unmöglich sein. Dazu müsste man einen Sprung bei der NAND Technologie machen, der bisher überhaupt nicht absehbar ist.
ZeXes schrieb:
Ein Traum für jede zukünftige Pornosammlung.
Dann pass mal auf das die Palme nicht bringt:evillol:
werpu schrieb:
Das ist ein Synonym für den St. Nimmerleinstag :evillol:
Shoryuken94 schrieb:
Davon ab sind die Speicher in einem großen Storage Durchlaufware und müssen regelmäßig ausgetaucht werden
Dies gilt für jede Hardware, die Hersteller legen diese in aller Regel (außer bei Long-Lifecycle Produkten wie eben z.B. für Industrial oder Automotiveanwendungen) nur auf eine Nutzungsdauer von 5 Jahren aus. Spätestens dann ist es meist auch wegen der Steigerungen der Leistung (bei HDDs eben vor allem Kapazität) und Effizienz meist unwirtschaftlich alte Hardware weiter zu nutzen.
cliscan schrieb:
Auch wenn SSDs billiger wären als HDDs würde ich schon der Datensicherheit wegen immer noch auf Festplatten setzen. Magnetplatten halten die Daten länger und zuverlässiger als Speicherzellen.
Nein, auch HDDs kann man nicht endlos lagern, die Mechanik und Schmierstoffen in den Platten halten auch nicht ewig.
Daher schreibt Seagate z.B. hier und auch in einigen anderen Product Manuals für die Lagerbarkeit:
Wenn also die Lagerbedingungen nicht eingehalten werde, sind 90 Tage und zwar in der ungeöffneten Originalverpackung, sonst bestenfalls 1 Jahr. Nach dem Öffnen sollten HDD nicht länger als 30 Tage stromlos sein:

Bei der neuen Barracuda Pro 10TB mit Heliumfüllung schreibt Seagate:
Also hier nur ein halbes Jahr in der ungeöffneten originalen Versandverpackung von Seagate und sonst 2 Monate, nur bei optimalen Bedingungen bis zu einem Jahr.

HGST schreibt für die die meisten Modelle wie z.B. hier für die Megascale:
Nach der JEDEC JESD218 müssen auch Client SSD bis sie ihre TBW erreicht haben, die Daten für 12 Monate bei 30°C Lagertemperatur halten. Bei geringeren Temperaturen (je nach Quelle pro 5°C oder 10°C weniger verdoppelt sich die Zeit) und wenn je neuwertiger die NANDs sind, umso länger halten die SSDs die Daten.

In beiden Fällen sind die Mindestanforderungen, die Zeit überschreiten bedeutet also nicht automatisch das die Daten weg sind oder die HDD kaputt ist, nur kann es eben passieren und gerade bei HDDs kann es dann auch recht bald zu Problemen bis hin zu Ausfällen kommen, was auch schon Leuten hier im Forum passiert ist.

HDDs oder SSDs einfach jahrelang im Schrank liegen zu lassen, ist also nicht zu empfehlen und keine geeignete Methode für die Langzeitarchivierung digitaler Daten!
Simon schrieb:
Ansonsten kann man viele Datenbestände heute mit Data-Reduction-Technologien problemlos zu annähernd gleichen Kosten wie auf HDD auch auf Flashspeichern ablegen.
Dies kann man aber erstens genauso mit HDDs machen und zweitens hängt es extrem von der Art der Daten ab, ob und wie weit diese noch mit solchen Technologien komprimierbar sind. Ein großer Teil der weltweit anfallenden Daten sind Mediendaten, schau nur welchen Zuwachs YouTube so hat und diese sind, sofern es keine Rohdaten mehr sind, nicht mehr weiter verlustfrei komprimierbar und solche Technologien können eigentlich nur verlustfreie Komprimierungen nutzen, da sie sonst die Daten selbst verändern (also deren Qualität verringern).
helionaut schrieb:
könnten sie doch gleich wieder 5,25" HDDs bauen?
Weil dies nichts als einen Rückschritt bringen würde. WinnieW2 hat es ja schon richtig geschrieben:
WinnieW2 schrieb:
Nö, die Stabilität der Mechanik, Massenträgheit und die erforderliche Präzision bei der Positionierung der Köpfe sprechen gegen neue Festplatten der Bauform 5,25".
Scheiben mit größerem Durchmesser würden stärker vibrieren.
Deswegen wurden die Forfaktoren eben auch immer kleiner, je höher die Datendichte und damit die Anforderung an die mechanische Präzision gestiegen ist.
Simon schrieb:
Google hat vor rund 2,5 Jahren mal ein Whitepaper veröffentlicht, dass man gerne "dickere" Platten mit mehr Magnetscheiben hätte.
Was auch Unsinn ist, denn die längere Achse würde nur zu größeren Ausschlägen bei den unvermeidbaren Vibrationen führen. Wäre es einfach machbar, hätten die HDD Hersteller da längst einen anderen Formfaktor mit mehr Bauhöhe eingeführt. Aber wie man hier sieht, waren bei 5¼" die Datendichten bei denen mit voller Bauhöhe (FH) geringer als bei denen mit halber Bauhöhe (HH).
Wattwanderer schrieb:
Löschen sie da Inhalte oder warum sollte man sie herunterladen wollen statt zu streamen?
Bei jedem Video steht doch: "Video verfügbar bis" dabei, Du hast wohl noch nie die Mediathek des ZDF besucht.
[wege]mini schrieb:
die uralten festplatten laufen fast alle immer noch. manche mit unterirdischen raten von 8mb/s und weniger
So uralte Platten haben in der Tat viel länger als moderne Platten gehalten, die Technologie war damals aber auch viel einfacher und anspruchsloser.
werpu schrieb:
Festplatten fangen nach 3 Jahren zum Bitrotten an
So ein Quatsch, zumal HDDs hinter jedem Sektor eine ECC speichern und in dem Fall das die Daten nicht zur ECC passen und auch damit nicht mehr korrigierbar sind, dann keine falschen Daten, sondern einen Lesefehler ausgeben. Außer man konfiguriert sie anders, was bei den SAS Platten üblich ist, wenn diese auf 520/528 Byte pro Sektor formatiert werden, denn dann speichert der RAID Controller dort selbst eine ECC um die Daten selbst zu prüfen und sofort über die Redundanz wiederherstellen zu können, ohne dass die Platte wiederholte Leseversuche ausführen wird. Das macht man eben damit das Storage nicht so lange stillsteht. Eine andere Ausnahme sind die ATA Streamingbefehle für Echtzeitvideoaufzeichnungen, die jeweils einen eigenen Timeout mitbekommen und um keine Unterbrechung des Streams zu bekommen, die störender wäre als ein paar Pixelfehler im Bild, liefert die Platte dann ggf. auch nicht korrekte Daten zurück. Beides sind aber Ausnahmen die der normale Windows Nutzer nie erleben wird und wer so spezielle Hardware nutzt, der sollte schon wissen was er macht.
 
  • Gefällt mir
Reaktionen: helionaut
Holt schrieb:
Dies kann man aber erstens genauso mit HDDs machen und zweitens hängt es extrem von der Art der Daten ab, ob und wie weit diese noch mit solchen Technologien komprimierbar sind. Ein großer Teil der weltweit anfallenden Daten sind Mediendaten, schau nur welchen Zuwachs YouTube so hat und diese sind, sofern es keine Rohdaten mehr sind, nicht mehr weiter verlustfrei komprimierbar und solche Technologien können eigentlich nur verlustfreie Komprimierungen nutzen, da sie sonst die Daten selbst verändern (also deren Qualität verringern).
Deswegen haben ich auch geschrieben "Großteil", was eindeutig nicht Alles einschließt. Natürlich gibt es Datenformate, die sich strukturell schlechter reduzieren lassen. Und nur weil etwas schon komprimiert wurde, heißt das noch lange nicht, dass auf 4K-Blockebene nicht doch einige gleiche Datenblöcke per DeDup zusammengefasst werden können.

Ist außerdem zu einfach gedacht. Schon jetzt ist die Packdichte von Flash gegenüber HDDs um mehrere Faktoren höher. Rackspace, Strom und Kühlung gibt es schließlich auch nicht für lau.

Holt schrieb:
Was auch Unsinn ist, denn die längere Achse würde nur zu größeren Ausschlägen bei den unvermeidbaren Vibrationen führen. Wäre es einfach machbar, hätten die HDD Hersteller da längst einen anderen Formfaktor mit mehr Bauhöhe eingeführt. Aber wie man hier sieht, waren bei 5¼" die Datendichten bei denen mit voller Bauhöhe (FH) geringer als bei denen mit halber Bauhöhe (HH).
Achja, und du weißt es mal wieder besser als ein ganzes Forscherteam. Google muss ja nur Vollidioten beschäftigen. :rolleyes:
 
Ich schätze Seagate mittlerweile durchaus, aber ihre Ankündigungen sind seit Jahren ein Witz.
 
Simon schrieb:
Ist außerdem zu einfach gedacht. Schon jetzt ist die Packdichte von Flash gegenüber HDDs um mehrere Faktoren höher. Rackspace, Strom und Kühlung gibt es schließlich auch nicht für lau.
Das ist klar und da können die SSDs auch zumindest einen Teil der Mehrkosten pro TB kompensieren, nur eben nicht alle, sonst würde auch kein Unternehmen mehr HDDs kaufen. Da gerade die HDDs mit sehr hohen Kapazitäten aber immer noch extrem gefragt sind, muss es sich für die Abnehmen immer noch rechnen und du kannst sicher sein, dass die sich das für ihren jeweilige Infrastruktur sehr genau ausrechnen.
Simon schrieb:
Google muss ja nur Vollidioten beschäftigen.
Was sagt denn sowas? Wieso müssen manch Leute immer gleich total unsinnige Unterstellungen machen?

Google hat sicher für seine Bereich sehr fähige Leute, sonst wären sie bei der Suchmaschine und Werbung kaum in der Position die sie sich erarbeitet haben. Aber wenn es um HDDs geht, dann haben die HDD Hersteller sicher die besseren Fachkräfte und mehr Ahnung. Wäre es sinnvoll die Bauhöhe anzuheben, so wäre es für solche Großabnehmer wie Google oder auch Amazon total egal ob die einen genormten Formfaktor haben oder nicht, die lassen sich die Racks dann einfach entsprechend bauen und gut ist. Aber die HDD Hersteller verwenden lieber die wegen der Abdichtung teure Heliumtechnologie und dünnere Platter um bis zu 9 davon in ein Gehäuse mit den üblichen 26mm Bauhöhe zu realisieren als einfach der "genialen" Idee von Google zu folgen, warum wohl?
 
@Holt

Du redest immer so, als ob 3D NAND seit ewigkeiten auf der Stelle treten wüde - dabei ist das Gegenteil der Fall. Eine Generation jagt die nächste, die roadmaps sprechen eine deutliche Sprache, die Hersteller ziehen die Notbremse, weil man kein dumping haben möchte, und mit China kommt bald ordentlich Druck in den Markt.

Die derzeitigen Verkaufspreise sagen einfach mal null über die nackten Herstellungskosten aus.
 
@Holt
Nach Deiner Logik nach werden dann die SSD ab einer bestimmten Größe irgendwann unbezahlbar sein
Den die Kapazität steigt ja erst mal weiter
und schon jetzt hat man bei den SSD die Nase vorn was Kapazität betrifft

Wozu dann noch weiter entwickeln,wenn man die Kapazität nur noch erhöhen kann,wenn man dementsprechend den Preis verdoppelt.
Das führt zwangsweiße irgendwann zum Stillstand,weil es selbst für Gewerbetreibende dann irgendwann unwirtschaftlich wird.
Da die Anzahl der Datenmenge ja bekanntlich steigt.
Kann folglich alles nur noch teurer werden,so dass es irgendwann für jeden unwirtschaftlich wird.
Die Folge ist absoluter Stillstand
 
LamaMitHut schrieb:
Du redest immer so, als ob 3D NAND seit ewigkeiten auf der Stelle treten wüde
Nein, wo habe ich dies gesagt? Ich habe vielmehr doch selbst geschrieben, dass die Größen und Abstände der Zellen wieder schrumpfen und die Anzahl der Layer erhöhen kann. Nur eben alles nicht endlos.
LamaMitHut schrieb:
Eine Generation jagt die nächste, die roadmaps sprechen eine deutliche Sprache
Wobei aber schon die aktuellen NAND teils nicht mehr nativ die ganze Layer haben, sondern eben aus zwei Dies bestehen die zusammengesetzt sind:
Damit sind bei Micron schon die 64 Layer 3D NANDs nicht mehr nativ und man muss zwei Arrays herstellen, was entsprechend mehr Platz auf dem Die erfordert, also auch die Kosten nicht so senkt wie ein NAND mit nativen 64 Layern. Wegen der zusätzlichen Bearbeitungsschritte fallen die Kosten sowieso nicht proportional zur Anzahl der Layer und beim Stacking ist der Kostenvorteil eben noch viel geringer.
LamaMitHut schrieb:
Die derzeitigen Verkaufspreise sagen einfach mal null über die nackten Herstellungskosten aus.
Was sollten bitte die "nackten Herstellungskosten" sein? Der Preis des Wafers plus der Stromrechnung? Doch dürfte auch die Kosten für die Maschinen und Gebäude dabei sein? Wie ist den Löhnen der Arbeiter? Wenn auch dazu gehören, was ist dem Gehalt der Verwaltung, die z.B. der Löhne berechnet, die Urlaubsanträge bearbeitet und die Wafer einkauft? Und das Gehalt der Entiwickler, die die ganze Technologie und den Fertigungsprozess erstmal entwickelt haben? Und die Kapitalkosten? Die Anlagen kosten viele Milliarden, die gibt es nicht umsonst, Banken wollen Zinsen für ihre Kredite und auch die Aktionäre die ihre Geld in die Firma stecken, erwarten zureicht eine Rendite dafür, zumindest in guten Jahren. Es muss also letztlich genug Geld reinkommen um alles Kosten zu decken, sich nur einzelne Kosten rauszupicken, funktioniert einfach nicht.
hardstylerrw schrieb:
Nach Deiner Logik nach werden dann die SSD ab einer bestimmten Größe irgendwann unbezahlbar sein
Sind sie doch heute schon, wenn man überhaupt definieren kann was mit unbezahlbar jeweils gemeint ist. Es wird auch nie anders sein, da man für die doppelte Kapazität immer auch die doppelte Menge an NAND Kapazität brauchen wird und die Kosten werden nie günstiger, weil man mehr davon in einer einzige statt in zwei oder vier SSDs steckt.

Bei HDDs ist es eben anderes, da begrenzt die Datendichte die maximal mögliche Kapazität (sofern man diese eben nicht über die Anzahl der Platter erhöht) und die Kosten steigen eben nicht linear mit der Datendichte (außer eben wenn man mehr Platter verwendet). Heute gibt es HDDs mit maximal 14TB, würde man die Anzahl der Platter verdoppeln um auf 28TB zu kommen, wären die Kosten auch fast doppelt so hoch, so groß ist der Anteil der Kosten für das Gehäuse und Platinen nämlich bei den großen HDDs nämlich nicht. Schafft man es mit der gleichen Anzahl der Platte durch Technologien wie HAMR, so kommen etwas höhere Kosten für die Köpfe mit den Lasern und die Elektronik hinzu, außerdem werden die Entwicklungskosten umgelegt, aber die Kosten werden deswegen nicht annähernd doppelt so hoch ausfallen.
hardstylerrw schrieb:
Wozu dann noch weiter entwickeln,wenn man die Kapazität nur noch erhöhen kann,wenn man dementsprechend den Preis verdoppelt.
Du machst den gleichen Fehler wie LamaMitHut mir zu unterstellen, dass ich behaupten würde die Kosten für NAND könnten gar nicht gesenkt werden. Dies habe ich niemals behauptet, sondern eben nur, dass es immer schwerer wird dies zu erreichen und da eben kein Technologiesprung in Sicht ist, anderes eben als HAMR bei HDDs, der ein großes Potential für weitere Kostensenkungen eröffnet wird. Die müssen also Schritt für Schritt durch immer neu Optimierungen errungen werden, was es eben fraglich macht ob der immer noch bestehende Unterschied der mal eben locker noch den Faktor 5 bis 6 ausmacht, jemals eingeholt wird, zumal auch noch die Kosten für HDDs weiter fallen und es da eben noch Technologiesprünge wie HAMR geben dürfte, die dann ein Potential für massive Kostensenken (pro TB wohlgemerkt und natürlich nur bei großen Kapazitäten) eröffnen werden.
hardstylerrw schrieb:
Die Folge ist absoluter Stillstand
Irgendwann wird dieser sicher eintreten, so wie es ja bei der Halbleiterfertigung inzwischen generell immer schwerer wird die Strukturgrößen weiter zu senken. Man wird sicher noch etwas finden und stetig in kleinen Schritten vorankommen, so wie GF und TSMC es bei der 28nm Fertigung geschafft haben diese immer weiter zu optimieren als die damals Problem mit ihren 20nm Prozessen hatten und es derzeit bei Intels 14nm Prozess zu beobachten ist. Aber die großen Schritte werden immer schwerer, die Zeit als man alle 18 Monate die Anzahl der Transistoren auf der gleichen Fläche verdoppelt bekommen hat, ist lange vorbei und die Intervalle in denen dies gelingt, wird schon seit einiger Zeit immer länger. Ebenso wie es immer länger dauert bis sich die Kapazität der größten verfügbaren HDDs verdoppelt und dies ging zuletzt auch immer stärker nur über die Erhöhung der Anzahl der Platter.
 
Jede Technologie ist irgendwann am Ende der Fahnenstange angelangt.

Bei CPUs hat man das Problem dadurch gelöst, daß man irgendwann von der Single-Core zur Multi-Core CPU überging. Wenn das auch keine Leistungssteigerung mehr bringt kommt eben das nächste. Auch SSDs werden irgendwann ausgereizt sein. Spätestens wenn einem die Strukturgröße einen Strich durch die Rechnung macht wird es Zeit für etwas gänzlich neues.

Das ist auch nichts worüber man groß streiten müßte, sondern der normale Lauf der Dinge. Irgendwann kommt einfach etwas besseres. Das wird dann erstmal viel zu teuer sein für die breite Masse, aber auch das Thema gab es schon öfter. Die ersten Computer konnten sich auch nur entsprechend finanzstarke Firmen leisten. Heute trägt fast jeder so ein Teil mit sich herum, und sei es in Form eines Smartphones.

Bis jetzt kommt man halt noch hin. Allerdings bin ich mir ziemlich sicher, daß die großen Hersteller sich nicht einbilden, daß das alles immer so weiterginge. In den Forschungsabteilungen wird man vermutlich schon längst überlegen was danach kommen könnte.
 
ThanRo schrieb:
Bei CPUs hat man das Problem dadurch gelöst, daß man irgendwann von der Single-Core zur Multi-Core CPU überging.
Damit hat man aber dann die Singlethreadperformance nicht verbessert und daher nicht in jedem Fall eine bessere Performance als bei einer CPU mit nur einem Kern.
ThanRo schrieb:
Wenn das auch keine Leistungssteigerung mehr bringt kommt eben das nächste.
Was soll das denn bitte sein? Neben zahlreichen kleinen Optimierung bei Vorhersagen und Caches ist es vor allem die Einführung von Befehlserweiterungen, die aber auch nur bei bestimmten Anwendungen etwas bringen.
ThanRo schrieb:
Auch SSDs werden irgendwann ausgereizt sein. Spätestens wenn einem die Strukturgröße einen Strich durch die Rechnung macht wird es Zeit für etwas gänzlich neues.
Den Punkt haben wir schon hinter uns, denn bei so 14 bis 16nm waren weitere Shrinks nicht mehr möglich und dann ist man auf 3D NAND übergegangen. Nur welchen neuen Trick sollte es noch geben? Außer einem Wandel der Technologie von Silizium auf was weiß ich, Graphen werden ja als Hoffnungsträger gehandelt, wird man weder bei CPUs noch NAND wirkliche Sprünge machen können.

Das ist ja genau der Punkt um den es geht, bei HDDs sind Technologien wie HAMR und MAMR in der Pipeline, aber für NAND ist da einfach nichts in der Art absehbar. Daher ist es eben nicht sicher, sondern vielmehr sehr fraglich ob es den SSDs gelingen kann den Kostenvorteil von HDDs jemals einzuholen.
 
romeon schrieb:
Ich schätze Seagate mittlerweile durchaus, aber ihre Ankündigungen sind seit Jahren ein Witz.
Springen wir mal zurück in die 0er Jahre. Its HAMR time...
Ergänzung ()

Holt schrieb:
Den Punkt haben wir schon hinter uns, denn bei so 14 bis 16nm waren weitere Shrinks nicht mehr möglich und dann ist man auf 3D NAND übergegangen. Nur welchen neuen Trick sollte es noch geben?

Es steht noch 7 und 5nm an, und weiters ist es mir sowieso unverständlich wieso das 3.5 Zoll Plattenformat sowenig von SSDs genutzt wird, es würde sich ja geradezu anbieten 4 - 6 Dies in einem einzigen 3.5 Zoll Gehäuse unterzubringen und den Sata Port ensprechend aufzubohren, stattdessen arbeiten sie lieber dran die Flächen noch kleiner zu machen (NVME-M.2). Es gäbe viele Tricks, aber typisch asiatisch macht irgendwer was vor und alle folgen wie die Kuhherde dem Leittier anstatt sich selber eine Nische zu suchen in der sie einzigartig sind. Der Platz ist vorhanden, die Rechenzentren und Privatbenutzer müssten nichtmal umrüsten und dann kommen defakto SSDs nur im M2 und im 2.5 Zoll Format raus.
 
Zurück
Oben