Notiz Western Digital: Enterprise-HDDs sollen teurer werden

0xffffffff schrieb:
Ernstgemeint Frage: Was bringt es euch Blu-rays auf ein Nas zu werfen?

Ich mein, vielleicht handhaben das andere Leute anders, aber bei mir ist es so, dass 80% der von mir gekauften Blu-ray noch in Folie sind. Die Filme/Serien kenne ich idR. und die Dinger haben für mich eher Sammlerwert. Ansonsten gibt es so einen riesen Backlog an Filmen/Serien (Netflix & Co sei dank) die ich noch schauen kann, dass ich keinen Bedarf habe mir ein Mediacenter mit "alten Schinken" zuzustopfen.

Für ordentliches HD/4K und guten Sound sind Blu-rays ungeschlagen, aber... wie auch immer. Finde ein privates "Filmarchiv" auf HDD ist - wenn man wirklich ehrlich ist - einfach Zeit und Geldverschwendung... 🙃 Bei Musik die man regelmäßig streamed/abspielt/kopiert sieht es gewiss anders aus, sowie auch bei umfangreichen Bildersammlungen, aber Filme?

Meine Film-Sammlung bis 2018 ist bezogen auf die Qualität größer und besser als die von jedem Streaming-Portal und ist jederzeit von jedem Gerät kostenlos abrufbar.

Zufällig schauen wir gerade sogar alte Serien. Meine Frau Emergency Room. Gesamtpreis bei Amazon 300 €. Als Disc 150 €. Mit meinem Sohn schaue ich Akte X. Gesamt bei Amazon 165 €. Als Disc 60 €. Meine Tochter hat gestern das letzte Einhorn geschaut. Das gibt es sogar nicht nur bei quasi keinem Streaming Portal, sondern wenn muss man es zu einem Betrag mieten, der höher ist als ich für die Blu-Ray bezahlt habe.

Der zeitliche Aufwand ist überschaubar. Man rippt ja nur 1x und mit mehreren Laufwerken kann man problemlos nebenher 20 bis 50 Discs pro Tag rippen.

Ich weiß nicht wie das bei dir ist, aber wir haben bis 2018 noch viele hundert Euro in Streaming gesteckt. Jetzt läuft nur noch das Netflix Abo. Aktuell läuft auch noch das 7 Tage Testabo von Disney+ wegen Avengers Endgame, ist aber bereits gekündigt. Eventuell schaue ich mir noch Mandalorian an. Mal sehen ob ich die Zeit finde. Ansonsten habe ich eh alles (Disney, Marvel, Pixar) was dort verfügbar ist und sogar noch mehr (Stirb Langsam, Iron Man, Logan, Deadpool, Spider-Man, usw).

Und "hab ich alles schon gesehen" ist schnell gesagt. Es gibt so viele gute Filme, dass man gar nicht alles gesehen haben kann, außer man war sein Leben lang arbeitslos.

P.S. Blu-Rays können kaputt gehen.
 
  • Gefällt mir
Reaktionen: PS828
mgutt schrieb:
Meine Film-Sammlung bis 2018 ist bezogen auf die Qualität größer und besser als die von jedem Streaming-Portal und ist jederzeit von jedem Gerät kostenlos abrufbar.
Dann rücke doch mal die Zugangsdaten raus, damit diese Aussage auch wirklich stimmt :D
 
@mgutt
Und wo kommen die Serien dann her? Ich sehe das so: Für das einmal schauen werf ich dann halt die blu-ray rein. Ob ich die nun einmal in den Player werfe oder in den PC, Rippe etc... wäre mir persönlich zu aufwändig. Was für mich durchaus ein use-case ist, ist die offline Ablage auf dem Tablet/Smartphone/Notebook um bei (Dienst-)Reisen etwas zum schauen zu haben. :-)

"hab schon alles gesehen" hab ich doch nie gesagt? Ich sagte: Es gibt so viel zum schauen, dass ich idR. viel zu wenig Zeit habe etwas mehr als einmal zu sehen.
 
0xffffffff schrieb:
Und wo kommen die Serien dann her?
Aus diversen Sammlungen oder ich kaufe sie im Angebot. Das meiste kaufe ich gebraucht.

Ich sehe das so: Für das einmal schauen werf ich dann halt die blu-ray rein. Ob ich die nun einmal in den Player werfe oder in den PC, Rippe etc... wäre mir persönlich zu aufwändig.

Du hast aber nicht nach deiner persönlichen Motivation gefragt, sondern warum andere das machen ;)

Das mit der Blu-Ray einwerfen geht auch, aber es gibt so viele Dinge, die das Anschauen komfortabler machen und die du von Netflix & Co bereits kennst:
  • Multi-User
  • Multi-Plattform
  • Mobil
  • Variable Bitrate (trafficschonend)
  • Offline-Wiedergabe
  • Jugendschutz
  • Gesehen-Status
  • Filter-Möglichkeiten
  • Such-Funktion
  • kein Disc-Wechsel
  • Auto-Play der nächsten Episode
  • usw
Zugegeben sind die Vorteile für eine Familie größer als für einen Single.

Ergänzung ()

Holt schrieb:
Dann rücke doch mal die Zugangsdaten raus, damit diese Aussage auch wirklich stimmt :D

Sorry, mein VPN-Zugang gehört mir :p

Darfst nur mal neidisch gucken: ^^
2020-04-29 11_24_37.png


Einziger wirklicher Haken ist der Platzbedarf der Blu-Rays. Aktuell habe ich alles in Ikea Samla Kisten. Stapelt man da 5-6 Kisten je nach Deckenhöhe übereinander, dann hat man zwar recht platzsparend 750-900 Filme gelagert, aber wenn man eine gebrauchte Sammlung kauft und die abgleichen möchte, dann ist das nervig in jede Kiste reinzuschauen. Eventuell brauche ich doch mal einen Barcode-Scanner ^^ Jedenfalls überlege ich auf Schubladen umzustellen. Dann kommt man deutlich besser dran:
IMG_20200406_182545.jpg



EDIT: Mein Sohn schaut übrigens gerade auf seinem Smartphone Lernvideos von der Mathe-Lehrerin:
2020-04-29 11_48_50.png


Man kann also auch andere Sachen damit machen ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banned, F.b, PS828 und eine weitere Person
0xffffffff schrieb:
Ernstgemeint Frage: Was bringt es euch Blu-rays auf ein Nas zu werfen?

Ich mein, vielleicht handhaben das andere Leute anders, aber bei mir ist es so, dass 80% der von mir gekauften Blu-ray noch in Folie sind. Die Filme/Serien kenne ich idR. und die Dinger haben für mich eher Sammlerwert. Ansonsten gibt es so einen riesen Backlog an Filmen/Serien (Netflix & Co sei dank) die ich noch schauen kann, dass ich keinen Bedarf habe mir ein Mediacenter mit "alten Schinken" zuzustopfen.

Für ordentliches HD/4K und guten Sound sind Blu-rays ungeschlagen, aber... wie auch immer. Finde ein privates "Filmarchiv" auf HDD ist - wenn man wirklich ehrlich ist - einfach Zeit und Geldverschwendung... 🙃 Bei Musik die man regelmäßig streamed/abspielt/kopiert sieht es gewiss anders aus, sowie auch bei umfangreichen Bildersammlungen, aber Filme?
Naja, du hast dir die antwort selbst gegeben. Ich tu mir doch kein streaming an und bezahle monatlich für schlechte Qualität. Was mich interessiert wird gekauft und gut ist :D

Der Backup ist nur dafür da, falls die Scheiben nach Jahren (oder aus anderen Gründen) schaden genommen haben und man dann auf der sicheren Seite ist.
Und besonders die UHD Scheiben.. Das summiert sich. Da ist dann 1 TB weg wie nix. Zumal bei mir das nichtmal die größten Datenmengen produziert. Camcorder und Kamera tun ihr übriges. Und da man gleich alles verbindet ist es mir den Preis wert, der tatsächlich garnicht so stark ins Gewicht fällt.
 
@mgutt Ich spiele selbst mit dem Gedanken mir mit PLEX eine Filmsammlung anzufangen. Da ich auch ein paar UHD-BluRays habe würde ich diese auch gerne mit einbinden.
Aktuell haben wir noch eine DS215j welche aber bald ersetzt werden soll.
Nur bin ich mir von der benötigen CPU Leistung unsicher, wieviel brauch ich wirklich um sagen wir Worst-Case zwei UHD Filme zu streamen. Was für eine NAS verwendest du für deine Filmsammlung?
 
https://www.computerbase.de/forum/t...latten-nutzen-smr-ohne-kennzeichnung.1938050/

Ich bin jetzt zu faul in den ganzen 25 Seiten meinen einen Post rauszusuchen, aber ich vermutete schon so bischen etwas. Die SMR Versionen nehmen den Platz der CMR ein...und die CMR werden dann als "Premium" Produkte teurer vermarktet werden. "Schaun mer mal", ob da was in der Richtung passiert.

@MichaG wäre cool, wenn ihr da am Ball bleiben könnt und vielleicht auch mal so in der Wunde rumstochert.
 
@Anakin Solo
Wie viel CPU Leistung du benötigst, hängt nur davon ab ob du transcodieren möchtest. Ein 4K Stream hat maximal 100 Mbit/s (zB Gemini Man inkl. der Tonspuren könnte da dran kratzen, habe ich aber noch nicht) und auch wenn die DS215j nicht die schnellste ist, wird die problemlos 5 oder mehr 4K Streams ausliefern können.

Sobald es ums Transcoding geht, sieht die Sache schon anders aus. Da muss dann schon eher eine 918+ oder stärker her. Also ein NAS mit einer GPU, die Videos transcodieren kann. Ich selbst habe immer noch keine solche GPU (mittlerweile Unraid Selbstbau mit Atom CPU ohne iGPU), da ich alle meine Videos entsprechend vorbereitet habe, dass ein Transcoding ausgeschlossen ist.

Wann wird transcodiert:
  • wenn man unterwegs ist und auf dem Handy in reduzierter Qualität schauen möchte. Das mache ich nicht bzw synchronisiere die gewünschten Sachen für die Offline-Wiedergabe in Original-Qualität oder ich lasse vorab alles in reduzierter Qualität abspeichern. Man kann die gewünschte Qualität dann auswählen.
  • wenn man Blu-Ray Untertitel darstellen möchte (zB erzwungene) und der Client unterstützt diese nicht. Dann "brennt" Plex die per Transcoding ins Video. Aus dem Grund extrahiere ich automatisiert per Batch alle Untertitel als SUP-Dateien und alle (kleinen = erzwungenen) SUP-Dateien lasse ich im Batch-Tool von SubtitleEdit automatisiert in SRT umwandeln. Diese Textdateien unterstützt jeder Client und entsprechend benannt, wählt Plex diese erzwungenen Untertitel-Dateien immer als Standard aus.
  • wenn der Client die Tonspur nicht unterstützt, wird diese ebenfalls umgewandelt. Deswegen füge ich mit Popcorn MKV AudioConverter immer noch eine 5.1 Dolby Digital Tonspur hinzu. Auch das passiert mit ganzen Verzeichnissen. Man muss aber vorher aussortieren welche nicht bereits eine Dolby Digital Spur enthalten, sonst hat man nachher zwei drin. Das Audio-Transcoding frisst allerdings nur wenig Leistung. Es ginge also auch ohne.

Ich rippe aktuell übrigens sowohl 4K als auch Blu-Ray, damit ich auch deswegen das 4K Transcoding gar nicht erst auslöse:
2020-04-29 14_29_03.png


In Plex kann man dann auswählen was abgespielt werden soll:
2020-04-29 14_31_37.png
 
  • Gefällt mir
Reaktionen: Anakin Solo
Glück gehabt gerade erst 5x ST12000VN0008 für 1700€ ergattert und hab noch 4x4tb WDRed auch als ersatz, ham zwar scho 4J aufm Buckel aber glaub 60TB und die 16TB Notfallspeicher sollten reichen bis SSD Bezahlbar ist in den Regionen. Die HDD Preise sind einfach unverschämt 1bis 2TB gehören vom Markt, Rohstoff und zeitverschwendung mMn. Aber so langsam könnten sich locker, Preise von 180€a 10TB durchsetzen und die 4TB für 55€ sollten inzwischen locker drinn sein, zumindest wenn man a bisserl ahnung von Prototypenentwicklung und serienproduktion hat. Aber im HDD-Markt läufts schon lang nimmer ganz koscher, wird zeit das die SSDs ma durchstarten und endlich ma 10-30TB modelle aufschlagen , bezahlbar.
 
Bei 3,5" HDDs stimme ich dir zu. Weiß auch nicht, wer da noch 1-2TB kauft.

Bei externen Platten sind das hingegen gängige Größen, schätze ich, da das halt vielen reicht.

Dein Speicherbedarf ist eher abnormal. :D
 
Muxxer schrieb:
wird zeit das die SSDs ma durchstarten und endlich ma 10-30TB modelle aufschlagen

Das stimmt, ich frage mich auch immer wieder, wieso man nicht einfach ein 3,5" Gehäuse nimmt für eine Desktop-SSD Serie.
Klar, aktuell wäre damit keine Kostenersparnis drin, aber man könnte deutlich mehr Speicherchips unterbringen (z.B. einfach 2x 4TB Samsung QVOs als Daten-SSD zusammengefasst im 3,5" Gehäuse) Damit spart man sich den zweiten Controller etc. Oder liege ich da falsch?
 
  • Gefällt mir
Reaktionen: Muxxer
Man braucht evtl. nen leistungsfähigeren Controller um die Menge an Chips zu verwalten und auch mehr DRAM Cache (solange man keine Vollkrücke produzieren will). Die Einsparung dürfte wenig ins Gewicht fallen (dazu würde man schon jetzt locker die doppelte Kapazität in ein 2,5" Gehäuse bekommen, die Platinen sind da ja nicht so groß)
 
Muxxer schrieb:
Glück gehabt gerade erst 5x ST12000VN0008 für 1700€ ergattert

Aus dem Grund kaufe ich nur externe Platten. Ich habe für fünf WD D10 12TB keine 900 € bezahlt. Verbaut sind HGST/WD DC HC520 Ultrastar Enterprise Platten (ja steht so auf dem Label). Ich habe zwar "nur" 3 Jahre Garantie, aber bei 800 € Ersparnis kaufe ich mir bei Bedarf einfach jede kaputte Platte neu.
Ergänzung ()

matze313 schrieb:
Das stimmt, ich frage mich auch immer wieder, wieso man nicht einfach ein 3,5" Gehäuse nimmt für eine Desktop-SSD Serie.
Klar, aktuell wäre damit keine Kostenersparnis drin, aber man könnte deutlich mehr Speicherchips unterbringen (z.B. einfach 2x 4TB Samsung QVOs als Daten-SSD zusammengefasst im 3,5" Gehäuse) Damit spart man sich den zweiten Controller etc. Oder liege ich da falsch?

Die Micron 5210 ION hat max 7.68TB in einem 2.5 Zoll Formfaktor. Die Samsung PM1643 als dicke 2.5 Zoll hat 30.72TB, ist aber unbezahlbar. In 3.5 Zoll passt also noch viel mehr rein. Kann nur keiner bezahlen.
 
Wieso abnormal, 35J CD und Musiksammlung Digitalisiert, viel in FLAC und joa keine Ahnung wieviel DVDs und BlueRays im Keller stehn welche als x265 gespeichert werden, 658 Filme BlueRay Remuxes sind schon drauf, welche aber auch noch umgewandelt werden in x265. Am meisten krausts mir vor den ganzen Serienboxen von meiner Freundin, ihrer schwster, von mir, meinem Bruder und meinem Nachbar joa und dann noch mein Arbeitskram CAD/CAM sowie Statik und BIM daten samt Fotos und Dokus und a was weiß ich noch alles. Also Speicher kann man nie genug haben. Und Cloud und streaming samt laufende kosten, nee danke hab lieber meine Daten in meinem keller in meinem Server und bei der Sammlung kann ruhig das Inet ausfallen, :D ich bin auf jedenfall versorgt a zeit lang haha und wenn i endlich ma a gscheite Leitung mit nem Upload von 50mbit und mehr hab dann kann i von überall auf meinen Server bzw. PrivatMultimediaCloud zugreifen :p
 
mgutt schrieb:
@Muxxer
Warum transcodierst du überhaupt? Meiner Ansicht nach ist das Stromverschwendung. Platten kosten doch echt nicht viel.
Scheiss auf strom🤣 Haben 200qm Photovoltaikanlage aufm Hof scho seit 15 Jahren oder so und i möcht alles im selben Format haben, einfach so und zeit hab i jezz auch so 9 Monate bis wir unser Büro wieder auf machen also wurscht Zeit und Strom
 
Muxxer schrieb:
bis SSD Bezahlbar ist in den Regionen. Die HDD Preise sind einfach unverschämt
HDD Preise sollen unverschämt sein, aber SSDs sind ja noch teurer. Woran machst Du das eigentlich fest das die HDD Preise unverschämt wären? Nach den letzten Quartalszahlen von Seagate (bei denen machen HDDs das Hauptgeschäft aus, während WD und vor allem Toshiba zu viele andere Unternehmensbereiche haben um die Zahlen der HDDs genau erkennen zu können) war die GAAP Operating Margin gerade 13,8%, von 2718 Millionen Umsatz blieben also 320 Millionen Gewinn. Da kann man grob überschlagen wie viel die Preise maximal nachgeben dürften, bevor Verluste eingefahren würden und kein Unternehmen kann es sich erlauben über längere Zeit Verluste zu machen. Vergleiche die Zahlen mal mit anderen Hardwareherstellern, gerne auch mal mit Apple, dann siehst Du das Preise bei manch anderer Hardware noch weit "unverschämter" sind.
Muxxer schrieb:
wird zeit das die SSDs ma durchstarten und endlich ma 10-30TB modelle aufschlagen , bezahlbar.
Da ist das Problem, die NAND Hersteller machen auch nur noch wenig Gewinn, SK Hynix hatte im letzten Quartal gerade 11% Operating Margin (im Vorjahresquartal waren es noch 20%), bei denen ist wie bei Micron NAND und DRAM praktisch die einigen Nennenswerten Geschäftsfelder. Micron hatte bei 4,8 Milliarden Umsatz 542 Millionen Gewinn, also auch nur 11% Gewinnmarge (S.18, im Vorjahresquartal waren es noch 34%). Auch hier ist also nicht viel Luft für Preissenkungen bei NAND und NANDs machen nun einmal den Löwenanteil der Kosten von SSDs aus, vor allem bei denen mit größeren Kapazitäten.
matze313 schrieb:
Das stimmt, ich frage mich auch immer wieder, wieso man nicht einfach ein 3,5" Gehäuse nimmt für eine Desktop-SSD Serie.
Weil Platz nicht das Problem ist, sondern die Kosten der NANDs.
matze313 schrieb:
Damit spart man sich den zweiten Controller etc. Oder liege ich da falsch?
Der macht nicht viel aus und man braucht für mehr Kapazität dann auch andere Controller die überhaupt so viele NAND Dies ansprechen können. Die meisten Controller für Consumer können bestenfalls 2TB ansprechen, einige Topmodelle vielleicht auch 8TB, aber darüber wird die Luft dünn. Zumal man dann auch mehr Rechenleistung braucht, da die Verwaltung größerer Daten auch mehr Aufwand ist, so ist die Größe der Mappingtabelle proportional zur Kapazität und wenn die Performance nicht grottig sein soll, dann braucht man pro TB Kapazität auch 1GB DRAM Cache für die Verwaltungsdaten.

Die Kosten von SSDs hängen vor allem von den NAND Kosten ab und die sind zwar 2018 und 2019 deutlich gefallen, aber vor allem auf Kosten der Gewinne der Hersteller, wie es eben in der Phase des Schweinezyklus in dem das Angebot die Nachfrage übersteigt, üblich ist. Die Margen sind nun aber schon ganz schön weit unten und damit können weitere Kostensenkungen nur über Einsparungen kommen, vor allem die Steigerungen der Datendichte spart normalerweise Kosten. Dies ging jahrelang durch Verkleinerung der Strukturen, nur ist man damals bei unter 20nm dann auf ganz andere Probleme und bei so 15/16nm an die Grenze gestoßen, da passten dann einfach nicht mehr genug Elektronen in eine Zelle:
Bzgl. Schreibgeschwindigkeit und Haltbarkeit (manche 16nm MLC NANDs hatten gerade mal 1000 spezifizierte P/E Zyklen) und QLC wäre damit unmöglich. Daher ging alle Hersteller dann zu 3D NAND über, aber auch da erfordert jeder Layer viel zusätzliche Bearbeitungsschritte und die Kosten nicht nur Geld, sie erhöhen auch das Risiko durch Fehler den Wafer zu versauen. Schon vor Jahren hat man daher das wirtschaftlich realisierbare Limit bei etwa 128 Layern vermutet:
Bei den 128 Layern scheint man zu optimistisch gewesen zu sein, da selbst Klassenprimus Samsung setzt nach den „industry's first 100+ layer single-tier design“ der 6. V-NAND Generation nun bei der 7. Generation auf Stacking mit 160 Layern oder mehr "Die technische Beschreibung im Artikel lässt noch viel Interpretationsspielraum, doch deutet sich an, dass Samsung auf ein Design mit zwei Layer-Türmen (Double-Stack) umschwenkt.". Damit wird die Zahl der Layer pro Die, es werden ja zwei Dies übereinander gepackt und durchkontaktiert, es müssen dann also zwei Dies hergestellt werden die durchkontaktiert und danach für die Datendichte als nur ein Die betrachtet werden. Man spart zwar einmal die Logik, die braucht so ein Turm ja nur einmal, aber die Anzahl der Layer und damit die Datendichte einfach durch Stacking zu verdoppelt, verdoppelt auch fast die Kosten.

Samsung ist übrigens der Klassenprimus wenn es um 3D NAND geht, weil alle anderen schon bei 64 Layern auf das Stacking gesetzt haben und selbst wenn Intels angekündigtes 144 Layer NANDs aus nur zwei gestackten 64 Layer Dies und nicht aus 3x48 Layern besteht, wären die 72 nativen Layer weit weniger als die über 90 Layer von Samsungs V-NAND der 5. Generation von Juli 2018, sondern nur etwas mehr als die 64 Layer Layern der 4. Generation die Mitte 2017 vorgestellt wurde. Wenn Samsung nun also bei Stacking die Anzahl der nativen Layer wieder unter die 90+ der Generation 5 senkt, so dürften mehr Fertigungskosten bei 90+ Layern höher als bei 80+ Layern sein und die kann eigentlich nur an zu viel Ausschuss liegen.

Aber dies schreibe ich nur, falls jemand davon träumt das 800 Layer NANDs wie die SK Hynix für 2025 in Aussicht gestellt hat, dann gegenüber den aktuellen 96 Layer NANDs die 8 fache Kapazität zum gleichen Preis bieten werden, denn dies ist nicht zu erwarten. Die Kosten können nur noch optimiert werden indem man die Fertigung optimiert und damit noch ein paar mehr native Layer wirtschaftlich herstellen kann, indem man mehr Bits pro Zelle speichert oder indem man die Größe und Abstände der Zellen, die beim Wechsel auf 3D NAND deutlich gestiegen sind, wieder verringert. Wobei man mit letzterem wieder auf die Probleme stoßen wird die man zuletzt bei 2D NANDs hatte und es sich mit mehr Bits pro Zelle beißt, da man dann ja auch wieder weniger Elektronen in einer Zelle unterbringen kann und damit die Unterscheidung der Ladungszustände schwerer wird.

Der Sprung zu größeren Volumen dürfte auch keine gewaltigen Kostenvorteile mehr bringen, dafür sind die allgemeinen Kosten wie F&E einfach zu gering, diese liegen bei etwa 10%, selbst wenn man also die Produktionskapazitäten verdoppelt und nicht mehr für F&E ausgibt, spart man also nur rund 5% ein. Daher sehe ich nicht, so da noch ein gewaltiges Potential für Kostensenkungen sein soll, es wird also sicher nicht so weitergehen wie in den letzten beiden Jahren oder im Mittel der 10 Jahre, also man die low hanging fruits ernten konnte.

Das ist aber bei HDDs genauso, die Steigerung der Datendichte ist da auch in den letzten 8 Jahren gewaltig ins Stocken geraten. Am 26.12.2019 hat WD die erste 18TB HDD ohne SMR mit 9 Platter angekündigt, also erstmals ohne SMR eine Datendichte von 2TB pro Platter erzielt, wenn auch mit einer nicht näher spezifizierten „energy-assisted magnetic recording technology“. Die erste HDD mit 1TB pro Platter erschien im September 2011, also mehr als 8 Jahre vorher! Die erste mit 500GB Platter ist vom März 2009, damals hat es also nur 2½ Jahre gedauert die Datendichte zu verdoppelt und danach über 8 Jahre um dies wieder zu erreichen! Das die maximalen Kapazitäten in den letzten 8 Jahren deutlich stärker gestiegen sind, liegt nur daran das man eben mehr Platter untergebracht hat, statt der früher üblichen 4 oder maximal 5 Platter sind es jetzt schon bis zu 9. So viele Platter erfordern nicht nur eine Heliumfüllung, die eine aufwendige Abdichtung erfordern, sondern auch entsprechend flache Platter und Ausleger für die Köpfe. Außerdem ist jeder Platter bei einer HDD ein deutlicher Kostenfaktor. Deshalb sind die HDDs mit den höchsten Kapazitäten heutzutage auch deutlich teurer als damals.

Aber anders als bei NAND, dessen Preis die Kosten von SSDs bestimmt, ist bei HDDs zumindest noch ein Techologiesprung in Sicht, nämlich HAMR dem Seagate und WD das Potential mindestens zur Vervierfachung der Datendichte zutrauen und danach noch HDMR, welches dann nochmal eine Verdoppelung ermöglichen soll. Dann wären wir bei HDDs mit rund 150TB und auch wenn die Kosten (vor allem am Anfang) durch die neue Technologie höher ausfallen, so werden sie kaum linear zur Kapazität steigen. Allerdings muss man sich angesichts der ganzen Verzögerungen die es bisher bei HAMR gab schon fragen wann und sogar ob überhaupt, es jemals gelingt diese Technologie großserientauglich zu machen.
 
  • Gefällt mir
Reaktionen: Firebl, DynamaxX und matze313
Diese ganzen Technologien für Energieunterstützes beschreiben der Platter hat enorme Probleme in der konsistenz und Haltbarkeit sowie ansteuerung verursacht, was die Verzögerungen zumindest ein Stück weit erklärt. Die Theorie dahinter ist in höchstem Maße faszinierend und die Steuerung dahinter extrem komplex. Es ist eigentlich unglaublich zu was mechanische Platten jetzt schon in der Lage sind.
Ich habe in einer Grundlagenvorlesung zu Speichertechnolgie das ganze etwas genauer betrachten dürfen, wenn auch eher von der Seite der Materialentwicklung, aber das ganze ist wirklich spannend.

Man bringt einfach gesagt durch eine gezielte Induktion von Energie die magnetischen Momente dazu sich entlang eines richtfeldes auszurichten dessen Stärke ohne die Energie viel zu gering wäre um diese Änderung herbeizuführen. Dadurch kann man die Köpfe immer kleiner bauen.

Löschen funktioniert wenn ich mich recht entsinne mit einer hartmagnetischen Referenzschicht unterhalb der weichmagnetischen Datenschicht und sobald man ohne Erregerfeld nur Energie rein bringt klappen alle Momente wieder in den "0"oder" 1" Status.

Ich weiß nicht wie realistisch die Überlegungen sind, aber evtl ist es möglich mehr als eine Datenschicht zu haben und so wie bei optischen Datenträgern einen multilayer Platter zu bauen. Dann müsste man die Energie und dessen eindringtiefe so wie die magnetische Hysterese über die layer an die tiefe anpassen so dass die anderen Schichten nicht beeinflusst werden. Extreme Anforderungen, aber in der Theorie möglich. Mal sehen wie das ganze dort weiter geht.
 
PS828 schrieb:
Dadurch kann man die Köpfe immer kleiner bauen.
Nicht nur das man ihn verkleinern kann, da sind gerad beim Schreiben Grenzen vorhanden, da sonst die magnetischen Momente einfach zu gering werden, sondern man kann sogar einen "zu großen" Schreibkopf nehmen und durch das gezielte Erwärmen nur eines kleinen Bereichs darunter dafür sorgen das sich nur dort die Magnetisierung ändert und eben nicht im ganzen Bereich unter dem Schreibkopf.
PS828 schrieb:
Löschen funktioniert wenn ich mich recht entsinne mit einer hartmagnetischen Referenzschicht unterhalb der weichmagnetischen Datenschicht und sobald man ohne Erregerfeld nur Energie rein bringt klappen alle Momente wieder in den "0"oder" 1" Status.
HDDs werden doch eigentlich gar nicht gelöscht, sondern immer nur ummagnetisiert.
PS828 schrieb:
Ich weiß nicht wie realistisch die Überlegungen sind, aber evtl ist es möglich mehr als eine Datenschicht zu haben und so wie bei optischen Datenträgern einen multilayer Platter zu bauen.
Eine tiefere Schicht mit schräg angeordneten Lasern gezielt zu erwärmen und damit nur in diese die Magnetisierung zu ändern, könnte ich mir durchaus als machbar vorstellen, sobald man die Technik generell im Griff hat. Aber ich frage mich wie man dies dann wieder auslesen will, denn bei PMR erfolgt die Magnetisierung ja in die Tiefe und die Magnetisierung des oberen Bereichs würde die des unteren ja massiv überdecken, zumal ein gewisser Abstand nötig wäre damit sie sich nicht gegenseitig beeinflussen. Getrennt könnten sie also nie ausgelesen werden, die Magnetisierung der unteren Schicht würde die der oberen nur verstärken oder abschwächen können. Ob man dies dann noch unterscheiden kann? Immerhin sind die maximalen Datenraten schon heute nahe an 3Gb/s und bei vierfacher Datendichte würden die sich gar noch verdoppeln.

Wer denkt man würde bei Signalen der Köpfe der Köpfe saubere Rechtecke bekommen und könne da dann auch leicht halbe Werte erkennen, der sollte sich mal dies Bild ansehen:

Signale Eye Mask.png


So ungefähr dürfte das Signal aussehen und nur solange man in der Mitte noch das Auge sehen kann, lassen sich die Bits überhaupt noch unterscheiden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DynamaxX und PS828
@Holt Vielen, vielen Dank für die Ausführliche Erklärung! :)
 
Zurück
Oben