News Nidec: Absatz von PC‑Festplatten sinkt fast um die Hälfte

Wenn das Internet schnell genug ist und es nur noch Cloud passierende Betriebssysteme gibt, braucht keiner mehr übermäßigen Speicher. Filme, Musik und Spiele werden gestreamt. Für das Backup sorgt dann der Cloud Anbieter selbst.

Es wird in Zukunft in diese Richtung gehen, auch wenn es mir nicht gefällt. Die junge Generation verkauft das dann als Fortschritt und die alten Datensammler sterben aus. Man merkt den Umbruch schon jetzt. Viele jüngere haben überhaupt keine Schmerzgrenze mehr, wenn es um Privatsphäre und Datenschutz geht. Sie sind genau die Zielgruppe dafür, dass später alles in der Cloud stattfindet.
 
Zuletzt bearbeitet:
Helge01 schrieb:
... Filme, Musik und Spiele werden gestreamt. ...

Wobei ich darin durchaus auch etwas positives sehe.

Der Grund, warum sich früher viele GB-weise Filme runtergeladen und z.B. aufs NAS gespeichert haben war, dass sie sich aus illegalen Quellen bedient haben, weil es einfach keine attraktiven legalen Angebote gab. Da hat sich in den letzten Jahren mit Netflix, Amazon Prime usw. viel getan.
Und auch (halb-)legale Rips von Filmen, die man auf DVD/BR gekauft hat, zwecks Heimkino-Bequemlichkeit, fallen für viele durch gute Streamingdienste weg.
 
xexex schrieb:
Das "immer günstiger" hat auch Grenzen, die Halbleiterfertigung lässt sich nicht endlos weiter verkleinern.
Richtig, die einzelnen Speicherzellen werden bereits heute nicht mehr weiter verkleinert weil die Daten ja für mehrere Jahre sicher gespeichert bleiben sollen und das wäre nicht mehr gewährleistet würden die Speicherzellen weiter verkleinert. (Die Leckströme lassen sich nicht auf Null reduzieren.)
Die Speicherkapazität der Chips wird heute dadurch gesteigert dass die Speicherzellen auf den Chips geschichtet werden. (3D-NAND)
Ergänzung ()

DerRobert2019 schrieb:
Das einzige was mir da spontan noch zu einfiele mehr Daten auf engen Raum zu bekommen wäre dann nur noch Komprimierung. Die gibt es ja schon ewig. Da bleibt dann die Frage in wie weit sich alles zusammen noch weiter komprimieren lassen kann.
Multimedia-Dateiformate haben bereits ein komprimiertes Format. Weitere Kompression ist praktisch nicht möglich.
Das kannst du gerne mal antesten. Versuche mal Videos im H.264 Format oder Audio im MP3 Format z.B. mit 7-Zip weiter zu komprimieren. 1 bis 2% sind da höchstens realisierbar.
Und welche Dateien brauchen den meisten Speicherplatz auf Datenträgern?
Video gefolgt von Audio.

Alle Downloads und Installationsdateien von Software sind bereits komprimiert... Und Dateien die man täglich nutzen möchte kann man über das Dateisystem komprimieren.
 
Zuletzt bearbeitet:
WinnieW2 schrieb:
Die Speicherkapazität der Chips wird heute dadurch gesteigert dass die Speicherzellen auf den Chips geschichtet werden. (3D-NAND)
Vor allem mit der Technik sollte auch ausreichend Platz da sein. Allein die Überlegung Speicher zu verbauen welche die Platine auf 3.5 Zoll wachsen lässt. Wie viel zig TB haben wir dann da? Wenn jetzt mal endlich AV1 vernünftig populär wird, wird eh noch mal alles ordentlich schrumpfen.
Ergänzung ()

WinnieW2 schrieb:
Weitere Kompression ist praktisch nicht möglich.
Natürlich. Ein besserer Codec ist erst neulich erschienen: AV1.
Bessere Komprimierung als H264 (btw H265 kann sogar bis auf die Hälfte von H264 Größe kommen).

WinnieW2 schrieb:
Alle Downloads und Installationsdateien von Software sind bereits komprimiert...
Nein sind sie nicht. Allein siehst du das an üblichen Installationen und die der Portablen. Da wird gepresst und im Arbeitsspeicher wieder ausgelagert. Zudem lassen sich diese auch wiederum Zippen und Teilweise sogar auf über die Hälfte schrumpfen lassen. - Was ich aber auch eher meinte war, geteilte Daten. Vielleicht mache ich mal eine Zeichnung was ich meine.
 
Zuletzt bearbeitet von einem Moderator:
DerRobert2019 schrieb:
Vor allem mit der Technik sollte auch ausreichend Platz da sein. Allein die Überlegung Speicher zu verbauen welche die Platine auf 3.5 Zoll wachsen lässt. Wie viel zig TB haben wir dann da?
Die Fläche zu vergrößern bringt leider deutliche Nachteile. Mit der Chip-Fläche steigt die Ausschußquote.
Bleibt die Option viele kleinere Chips zusammen zu schalten, aber da steigt der Aufwand diese elektrisch miteinander zu verbinden.
Ergänzung ()

DerRobert2019 schrieb:
Ein besserer Codec ist erst neulich erschienen: AV1.
Und wieviel Ersparnis bringt das? Das wird doch mittlerweile dadurch zunichte gemacht dass die Leute Videos nicht mehr in 2k sondern in 4k haben möchten.
Also im Endeffekt keine Ersparnis.
Was jedoch steigt ist der Bedarf an Rechenleistung um Videos in AV1 zu kodieren.
 
WinnieW2 schrieb:
Bleibt die Option viele kleinere Chips zusammen zu schalten
So meint ich das ja, viele kleine wie es bereits jetzt bei Enterprise-SSDs gemacht werden. 2.5 Zoll aber 8 TB etc.
WinnieW2 schrieb:
Und wieviel Ersparnis bringt das?
Kannst du dort nachlesen. Je nach Fall auch wieder Any%. Tendenziell kleiner.
WinnieW2 schrieb:
dadurch zunichte gemacht dass die Leute Videos nicht mehr in 2k sondern in 4k haben möchten.
Das hat aber weniger mit der Komprimierung zu tun. Natürlich kommen wir so vom Platz her aufs selbe. Aber wenn ich mir anschaue das bisher 4K kaum Verwendung findet, wird es das erst in mehreren Jahren wo dann wiederum AV2 oder ähnliche geben wird.
WinnieW2 schrieb:
Was jedoch steigt ist der Bedarf an Rechenleistung um Videos in AV1 zu kodieren
Nun ja die "Deppen" bei der Chipherstellung nun falsch gemacht haben - Hardwareseitige Beschleunigung für H265 und VP9 statt für AV1. Aber sprich hier wird bereits weniger Rechenleistung benötigt, da der Algorithmus schon "verbaut" ist. Genau wie bei AES bzw AES-NI.
Ergänzung ()

So, ich war jetzt gerade dabei meine Zeichnung zu machen, dabei ist mir leider wieder ein Logikfehler aufgefallen. Problematisch ist die Codierung. Um Datensätze miteinander zu vergleichen müssen sie jedes mal decodiert werden, hiervon wieder ein Hash zu erstellen dauert noch länger. Also kann man das ganze bei Multimedia Daten leider vergessen. Bei Porgramm-Teilen hingehen existiert schon ein System das auf meines basiert, direkt auf Datei-Ebene schon: Pakete-Verwalter von Linux.

Das müsste system-weit auch für Spiele gemacht werden um noch mehr Einsparen zu können. Hier ist nur das Problem dass die dann auch zusammen arbeiten müssten für Update dieser. Also hier hapert es dann an den Menschen. Bliebe nur eine universelle Kompression, die hätte aber gravierende Nachteile. Bringt im Prinzip nur was wie es bisher gemacht wird - einzelne bestimmte Datensätze unabhängig vom Rest.

Zusammengefasst, nach meiner spontanen Überlegung über Datenzusammenlegung bleibt im Prinzip nur Dinge wie AV1 oder 7zip zusammen mit Hardwareseitige Beschleunigung über. Also nicht nur H265 in der CPU, auch 7zip und andere für jede Dateigruppe. Video, Bild, Text, Ausführbare usw. Bis sich da immer was ändert, ist die Hardware eh veraltet, und neue besitzt neueren Codec.
 
Zuletzt bearbeitet von einem Moderator:
mgutt schrieb:
Es kommt aber bald ein neues Argument dazu. Und zwar der Stromverbrauch. Ich spare mit einer SSD im NAS
Dies ist aber noch ein Argument gegen HDDs, für HDDs spricht aber schon jetzt nur der Preis pro TB. Natürlich kann man immer Kombinationen konkreter HDDs und SSDs finden, bei denen die SSD günstiger pro TB ist oder die SSD mehr Strom braucht, aber dies sind konstruierte Ausnahmen, die sich nicht auf die bei großen Storages gewählte HW anwenden lassen.
Desertdelphin schrieb:
der Baht zum Euro hat sich in der Zeit um den gleichen Faktor verbessert. Sollte sich also gut ausgleichen
Nein, dies kompensiert sich nicht, da die Preise für Hardware eben in USD sind und wo hoch der Baht steht, ist dann das Problem der Hersteller die in Thailand produzieren, so wie es unser Problem als Kunden im Euroraum ist, wenn der Euro schwach ist.
Desertdelphin schrieb:
Bevor ich mir jetzt ein 10TB Datengrab ins NAS stecke behalte ich eben die 4TB
Dann brauchst Du keine 10TB, sondern willst sie nur haben, wenn Du sie günstig bekommst.
Helge01 schrieb:
Viele jüngere haben überhaupt keine Schmerzgrenze mehr, wenn es um Privatsphäre und Datenschutz geht.
Das finde ich auch immer wieder erschreckend. Vor allem wenn ich überlege wie damals gegen Volkszählungen protestiert wurden und wie harmlos die Frage damals im Vergleich zu dem sind, was die meisten Leute heute freiwillig preisgeben, ohne zu wissen an wem diese Daten überhaupt gehen.
DerRobert2019 schrieb:
Vor allem mit der Technik sollte auch ausreichend Platz da sein.
Platz ist nicht das Problem, es passen schon heute locker 1TB in ein Chipgehäuse, denn da bekommt man 16 NAND Dies rein und 512Gbit pro Die sind Standard, es gibt auch schon Dies mit mehr Kapazität.
DerRobert2019 schrieb:
Allein die Überlegung Speicher zu verbauen welche die Platine auf 3.5 Zoll wachsen lässt. Wie viel zig TB haben wir dann da?
Die TB sind nicht die Frage, da kann man genug reinballern, der Preis ist das Thema, denn die einzelnen NAND Dies werden ja nicht billiger, nur weil man ganz viele davon in eine SSD packt, satt sie über viele SSDs zu verteilen.
DerRobert2019 schrieb:
Natürlich. Ein besserer Codec
Möchtest Du, dass Deine SSD das Codec Deiner Videos ändert? Oder seine jpg stärker komprimiert? Wohl kaum, wobei die das zum Glück aus mehreren Gründen sowieso nicht könnten. Es kann also immer nur im eine verlustfreie Kompression gehen, wenn man von der Datenkompression bei Laufwerken redet!
 
Holt schrieb:
SSD das Codec Deiner Videos ändert?
Nein, ich meinte multi-media Codecs im allgemeinen. Wenn die Daten besser komprimiert werden, braucht es weniger Platz, somit weniger Anschaffungskosten der SSD etc. Verlustfrei komprimiert sowieso kein Mensch (höchstens irgendwo im professionellen Bereich, Musik-Produktion etc). Die ganzen Online-Streamig-Dienste quetschen alles aufs Minimum zusammen, so das es gerade nicht mehr auffällt.

JP(E)G ist eh alter Kaffee. WebP unterstützt sogar lossless.
 
DerRobert2019 schrieb:
Verlustfrei komprimiert sowieso kein Mensch
Nicht bei den Mediendateien, aber jede transparente Kompression wie eben z.B. die Datenkompression von NTFS, muss eben zwangsweise verlustfrei sein und da ist eben bei schon komprimierten Dateien wie den Mediendateien praktisch nichts mehr zu komprimieren.
 
Reine Daten wie Ausführbare Dateien oder Texte natürlich ausgenommen. Wir sprachen ja von Media-Dateien. Aber da bleibt ja nicht mehr wirklich viel über. Texte im Anwenderbereich beziffern MBs. Dazu dann z.B. UPX und Paket-Management so kann man sich die Datenkompression von NTFS komplett schenken.

Also auf den unteren Ebenen bleibt nichts mehr zu komprimieren.
Daher habe ich auch meine ursprüngliche Idee wieder verworfen gehabt.

Eine andere Sache die eventuell SSDs günstiger machen könnte: Kostengünstigere Herstellungsverfahren?
 
Ich brauche es nicht? Das weißt du? Aha. Niemand braucht irgendetwas wirklich außer Luft Nahrung und Wasser. So Spiegel ich nicht das ñas meines Vaters nochmal bei mir und Seagate bekommt 0€.Keine Angst, deinen forenjob hat du sicher noch ein zwei Jahre.
 
Ich werde mich nie auf Cloud-Dienste verlassen. Wer mag, kann sich im Help Forum von Flickr mal die Probleme durchlesen. Die sind endlos und die Verfügbarkeit leidet!
 
DerRobert2019 schrieb:
Kostengünstigere Herstellungsverfahren?
Den Löwenanteil der Kosten einer SSD machen die NANDs aus und die NAND Hersteller arbeiten nun seit über 10 Jahren dabei die Herstellungskosten zu senken. So viel Potential zur Kostensenkung haben die NAND Hersteller nun auch nicht mehr vorhanden, nachdem der Schritt zu 3D NAND vollzogen wurde. Man kann noch ein mehr Layer nehmen, aber jeder Layer erfordert viele Bearbeitungsschritte, kostet also Geld und erhöht das Risiko den Wafer wegen eines Fehler komplett zu verlieren. Immer mehr Hersteller nehmen stacked NAND, da sind dann die 96 Layer in Wahrheit zwei Dies mit 48 Layern die übereinander gesetzt und durchkontaktiert sind. So richtig groß dürfte die Kostensenkung damit nicht mehr sein, denn man muss dann ja auch die entsprechende NAND Fläche herstellen, aber man spart sich bei einem halt die Logik.

Man kann die Größen- und Abstände der Zellen wieder reduzieren, aber schon bei den 16nm 2D NANDs war man da an die Grenzen gestoßen, außerdem verbaut man sich damit die Möglichkeit mehr Bit pro Zelle zu speichern. Denn mehr Bits pro Zelle sind die letzte Möglichkeit, aber QLC, also NAND mit 4 bpc ist nicht nur schreibend, sondern auch lesend langsamer als TLC. Zumindest theoretisch spart man aber mit mit dem 4. Bit auch nur noch 25% ein, während man beim Wechseln von SLC zu MLC (2bpc) noch 50% und mit 2bpc (TLC) statt 2bpc immerhin noch 33% der Zellen einsparen konnte. Außerdem wird die Logik komplexer und sofern diese nicht unter dem Array angeordnet wird, verliert man da also wieder einen Teil des Vorteils beim Diesize und man braucht mehr Bits für die Fehlerkorrektur, braucht also auf jeden Fall mehr Zellen und dies reduziert die vorher genannten maximale Einsparung ebenfalls, viel mehr Bits pro Zelle sind also auch nicht wirtschaftlich, zumal 5 statt 4 nur noch eine maximale Einsparung 20% erlauben würden.

So großen Änderungen wie bei HDDs mit HAMR und MAMR ist bei NAND nicht in Sicht und es ist auch keine andere Storage Class Memory Technologie in Sicht die günstiger als NAND zu sein verspricht, denn NAND ist eben einfach bestechend simple aufgebaut und daher so günstig, pro mm² sogar viel günstiger als jeder andere Halbleiter den es gibt. Dies sollte man nicht vergessen, schau mal wie viele mm² ein NAND die hat und welche Kapazität, wie viele davon als in einer SSD stecken und zu welchem Preis die verkauft wird, dann schau Dir an wie wenige mm² Diefläche es für das Geld bei CPUs oder GPUs zu kaufen gibt und spätestens seit es 3D NAND gibt, ist dessen Herstellung wegen der vielen Bearbeitungsschritte für die ganzen Layer, sogar aufwendiger als bei CPUs oder bei GPUs!
 
  • Gefällt mir
Reaktionen: R.I.P.er
Zurück
Oben