News Western Digital: Helium-HDDs mit 12 und 14 TByte im 8-Platter-Design

Zum Glück reichen je Haushalt in meiner Familie noch 4 TB. Bei meinen Eltern werkelt ne 4 TB im Server für alle Backups und mir reicht auch eine 4 TB für alle Daten + Backup. Da ich bei Backups immer auf Nummer sicher gehe, müsste ich viele Festplatten austauschen, sobald mehr Speicherplatz benötigt wird. Da gehe ich dann lieber den Weg und bastel aus den 4 TB Platten Raid 0s. Backups sind dann dennoch mehrfach vorhanden. Aber wenn ich hier schön höre/lese, was manche an Speicherplatz benötigen: mein Beileid. In der Sigutation möchte ich nicht sein, wenn ich mir die Speicherpreise anschaue. Ich hatte bis vor 4 Jahren ein 12 TB-Archiv für Filme/Serien. Aber durch Amazon/Netflix/Streamingdienste allgemein hat sich das erledigt. Filmabende haben sich früher mit dem Archiv bei mir gelohnt, aber inzwischen nicht mehr.
 
Holt schrieb:
Vielleicht baut mal jemand sowas als SSD nur um zu zeigen welche gewaltigen Kapazitäten er in einem Laufwerk realisiert bekommt, aber als HDD ist sowas mit einer heute aktuellen Datendichte einfach total unmöglich.
Dann aber auch nur mit Luft- oder gar Wasserkühlung. Die Verlustleistung der Speicherchips ist schon grenzwertig, nicht umsonst kacken die "Steckdinger" (NVMe) ab (drosseln), wenn man paar Minuten Dateien draufkopiert. Oder man züchtet die SSD nicht so hoch.

Es hat eben seinen Grund warum man sich bei den Bauhöhen schon damals beschränkt hat, also die Kapazitäten noch im zweistelligen MB Bereich waren und warum der 5¼" Formfaktor ausgestorben ist, so wie alle noch größeren Scheiben schon vor ihm und die HDDs mit 10.000rpm und mehr auch nur noch in 2.5" gefertigt werden.
Eine 5,25" HDD hätte bei 10.000 1/min (rpm gibt es hier übrigens nicht, dann lieber das alte U/min) eine lächerliche Umfangsgeschwindigkeit von 250 km/h bzw. 70 m/s (als Schleifscheibe unbrauchbar, da zu schnell :evillol: ).
 
bei den raw-daten was sich bei mir derzeit anhäuft, eine willkommene Nachricht
 
Holt schrieb:
Ergänzung ()

Er meist die UBER und Bit-Rot gibt es bei HDDs eigentlich nicht [...]
Das Thema Bit-Rot scheint generell ziemlich schwammig zu sein. Hier gehen die Meinungen weit auseinander. Die Quellen, die ich zu Bit-Rot gelesen habe, widersprechen sich hier teils auch enorm. Ich habe leider gerade keine Quelle zur Hand, da es schon eine Weile her ist, allerdings wurden von einigen Quellen konkrete Beispiele in einem Consumer-NAS gezeigt (z.B. gekipptes Bit in einem Bild). Ich persönlich kann hierzu keine Einschätzung abgeben, da Infos nur aus zweiter Hand und ohne eigene Erfahrung.

Holt schrieb:
Bei Seagate haben die 10TB HDDs schon alle eine UBER von 1:10^15, die NAS meine ich ab der 6TB, die Enterprise NAS in allen Kapazitäten. Bei WD sind es nur die Enterprise Nearline HDDs wie die Re und die Gold.
Habe es eben noch einmal bei meinem HDD-Hersteller des Vertrauens ;), WD, nachgeschaut:
WD Red <1 Fehler pro 10^14
WD Red Pro <10 Fehler pro 10^15
WD Gold/RE <1 Fehler pro 10^15

WD Red pro/Gold/RE sind allerdings preislich für ein Heimnetz-NAS völlig indiskutabel.
 
Vindoriel schrieb:
Die Verlustleistung der Speicherchips ist schon grenzwertig
Nur werden nicht die Speicherchips warm, sondern vor allem die Controller. Bei so vieles NANDs bräuchte man dann auch immer nur sehr wenige zeitgleich zu aktivieren und das wären dann immer wieder andere, die Wärmeentwicklung der Speicherchips wäre da sicher echtes kein Problem.
Vindoriel schrieb:
nicht umsonst kacken die "Steckdinger" (NVMe) ab (drosseln), wenn man paar Minuten Dateien draufkopiert.
Das Drosseln mit Abkacken gleichzusetzen ist total daneben, unter Abkacken versteht man gewöhnlich etwas anderes und die Controller drosseln die Geschwindigkeit ja gerade, damit sie nicht Abkacken. Das müssen sie auch nur, wenn da jemand bei der Zusammenstellung total verpeilt war und somit die SSD nicht den nötigen kühlenden Luftstrom bekommt, denn brauchen die nämlich.

M.2 ist sowieso für Notebooks gedacht gewesen und Desktops war 2.5" mit SATA Express und im Serverbereich eben U.2 vorgesehen. SATA Express hat aber nur maximal 2 PCIe Lanes unterstützt und dies war schon sehr bald zu wenig, entsprechende SSDs gibt es auch bis heute nicht und somit werden eben die M.2 SSDs auf die Boards geschnallt. Das gab es beim Vorgänger mSATA auch, aber nur sehr vereinzelt. Das der eigentlich für Notebooks gedachte Formfaktor M.2 auch im Desktop so populär ist, liegt aber eben eher an dem Fehlen von Alternativen, U.2 Ports sind selten und nur Intel hat mit der 750 eine U.2 SSD für Heimanwender im Angebot, die aber eigentlich eine Enterprise SSD ist. Die anderen Hersteller beschränken ihr Angebot an U.2 SSDs rein auf die Enterprisemodelle, die zu erwartenden Stückzahlen für Consumer U.2 SSDs dürften eben einfach zu gering sein und damit hat man das klassische Henne-Ei Problem, wenn es nur eine SSD gibt, warum sollten die Boardhersteller die Board mit U.2 Ports versehen und wenn es fast keine Consumer Boards mit U.2 Ports gibt, warum sollten die SSD Hersteller zusätzlich eine U.2 Version von den Consumer SSDs anbieten? Die meisten M.2 SSDs dürften sowieso in Notebooks landen.
 
SMR würde ich mir nie Kaufen und so Riesenplatten, wie ist die Haltbarkeit denn da?

Am Besten ist immer noch möglichst wenige Platter und dafür viel Platz ohne SMR Crap.

Habe eine 4TB, hätte mir schon längst eine neue Gekauft, wenn die nicht so Teuer wären.
Ja Stimmt es gab mal 2TB Platten für 49€ das waren noch Zeiten.

Im Moment habe ich in meinem 4 Bay 10TB (4-2-2-2) Bei so Giganten von 8+TB hätte ich noch mehr Panik, da geht dann nur Gespielgelt 8zu8 finde ich, da ist der Schaden riesig wenn was Schief läuft. Am Liebsten hätte ich gern 4x4TB. Aber das Geld habe ich im Moment nicht.

mfg

NT: Die 4TB habe ich auch schon wieder 2 Jahre :o hmm aber es ist dafür eine umgelabelte Toshiba Enterprise.
 
Zuletzt bearbeitet:
erazzed schrieb:
von einigen Quellen konkrete Beispiele in einem Consumer-NAS gezeigt (z.B. gekipptes Bit in einem Bild).
Consumer NAS haben kein ECC RAM, die großen NAS Hersteller bieten dies erst bei Modellen für über 1000€ an, ja selbst bei billigen NAS deren SoC dies sogar unterstützen würden, gibt es kein ECC RAM und auch keine ECC RAM Unterstützung, wenn man einen ECC RAM Riegel verbaut, weil einfach die Verbindungen vom SoC zum RAM Slot fehlen. Damit dürfte dies klar auf ein gekipptes Bit im RAM des NAS zurückzuführen sein, RAM ist eben die mit Abstand größte Fehlerquelle für gekippte Bits und nur mit ECC RAM kann man solche gekippten Bits im RAM erkennen, sonst sieht man immer nur deren Folgen. Wie eben korrupte Dateien.
erazzed schrieb:
Habe es eben noch einmal bei meinem HDD-Hersteller des Vertrauens ;), WD, nachgeschaut:
WD Red <1 Fehler pro 10^14
WD Red Pro <10 Fehler pro 10^15
WD Gold/RE <1 Fehler pro 10^15

WD Red pro/Gold/RE sind allerdings preislich für ein Heimnetz-NAS völlig indiskutabel.
1:10^14 und 10:10^15 sind das Gleiche, bzgl. der UBER sind die Red Pro also nicht besser als die einfachen Red, nur die Re/Gold, aber die sind Enterprise Nearline HDDs. Seagate ist da besser, bei denen haben die einfachen NAS/Ironwolf ab ich meine der 6TB und alle Enterprise NAS Modelle eine UBER von 1:10^15.
Ergänzung ()

C4rp3di3m schrieb:
SMR würde ich mir nie Kaufen
Also ich haben zwei Archive v2 8TB im Rechner und bin damit sehr zufrieden, die schreiben Dank des OnDisk Cache gerade kleine Dateien sehr, sehr schnell, man sollte nur noch zu viele GB am Stück schreiben. Das ist ähnlich wie bei vielen TLC SSDs mit Pseudo-SLC Schreibcache.
C4rp3di3m schrieb:
so Riesenplatten, wie ist die Haltbarkeit denn da?
HDDs sind durchweg auf ein Service Life (Nutzungdauer) von 5 Jahren ausgelegt, Ausnahmen gibt es für Spezialanwendungen wie den Automotive Bereich. Kann es sein, dass Du Haltbarkeit und Zuverlässigkeit durcheinander bringst? Bzgl. der Zuverlässigkeit kann man natürlich noch wenig sagen, HGST gibt ja in den Daten eine MTBF von 2.5 Millionen Stunden an, nur ist der Wert egal wenn man nur wenige Platten hat und gegen Datenverlust bei Ausfällen helfen aber wie immer nur Backups.
C4rp3di3m schrieb:
Bei so Giganten von 8+TB hätte ich noch mehr Panik, da geht dann nur Gespielgelt 8zu8 finde ich, da ist der Schaden riesig wenn was Schief läuft.
RAIDs ersetzen keine Backups, auch nicht auf einem NAS!
 
Holt schrieb:
1:10^14 und 10:10^15 sind das Gleiche

LOL! Das ist mir im ersten Moment gar nicht aufgefallen - du hast vollkommen Recht. Da hat WD mal geschickt die Werte der WD Red Pro optisch getunt :D
 
Vor fünf Jahren dachte ich dass SSDs frühestens in 15 Jahren Festplatten komplett verdrängt haben. Denn wärend SSDs schnell billig wurden fielen auch die Plattenpreise jedes Jahr etwas langsamer aber auch zuverlässig.

Damals habe ich aber nicht damit gerechnet dass Platten plötzlich preislich stabil weren während SSDs weiter schnell fallen. Jetzt sehe ich Festplatten mit 10TB die rund 250MB/s liefern aber zu Preisen von über 600 Euro...

nur so als Vergleich, vor fünf Jahren habe ich mir ein Linux-RAID5 mit 5x2TB und einer Nutzkapazität von 8TB zugelegt, Kostenpunkt rund 300 Euro und dabei noch mit 500MB/s doppelt so schnell wie die aktuelle Lösung.

Damals hatten viele Desktop-Platten noch fünf Jahre Garantie. Das hat heute auch kaum noch jemand.
 
Die Preise pro GB von SSDs fallen auch immer langsamer und ob sie je die von HDD erreichen werden, ist keineswegs ausgemachte Sache. Die HDD Hersteller haben die Chance mit neuen Technologien wie H(A)MR und könnten so die Datendichte deutlich steigern, womit die Kapazitäten weit stärker als die Preise steigen dürften. Bei den NANDs Herstellern wird es hingegen immer schwerer die Datendichte zu steigern, mit den 3D NANDs steigt die zwar, aber die Kosten steigen wegen der vielen zusätzlichen Bearbeitungsschritte auch deutlich an. Bei Samsungs 3D NAND erwarten Experten erst ab 64 Layern (also mit der kommenden Generation) die Kostenparität zu den planaren NANDs. So fängt ja auch Toshiba nicht zufällig gerade mit seinen 64 Layer 3D NAND überhaupt erst die Massenfertigung an.

Nur erwartet man derzeit, dass bei 128 Layer dann ein wirtschaftliches Limit erreicht wird und man wird sehen müssen, wie weit sich die Grenze noch verschieben lassen wird, denn irgendwann geht die Ausbeute bei mehr Layern eben einfach zu weit zurück, bei jedem Bearbeitungsschritt gibt es eben auch immer ein Fehlerrisiko. Dann kann man vielleicht noch ein viertes Bit pro Zelle schreiben (QLC), was Toshiba ja auch plant, oder die Zellen und Zellabstände noch reduzieren, aber auch kaum beides. Derzeit wird daher mit 10ct/GB erst für 2020 gerechnet. Die ganzen neuen Speichertechnologien wie ReRam oder 3D XPoint versprechen schon gar nicht NAND bzgl. der Kosten übertrumpfen zu können, dies sollen sie nur bzgl. der Latenz, Zyklenfestigkeit und ggf. der Leistungsaufnahme schaffen.

5 Jahre Garantie gibt es noch, aber nicht mehr für einfache Desktopplatte, die sind dafür heute zu sehr auf die Kosten optimiert und würden bei Dauerbetrieb diese 5 Jahre nie überstehen, da schaffen sie meist so gerade die 2 Jahre die es für die heute üblicherweise gibt. Dafür sind sie aber auch viel billiger als HDDs die noch immer 5 Jahre Garantie bieten, außer man fällt da auf gebrauchte HDDs mit zurückgesetzten S.M.A.R.T. Werten rein.
 
Zuletzt bearbeitet:
Bei der Preisentwicklung kann man leider nur auf QLC SSDs hoffen... Leider werden diese auch erst mal ewig brauchen bis sie Salonfähig sind.

Grundsätzlich sehe ich den Markt für Festplatten ab 2020, spätestens 2025 wirklich schwierig. Im Serverbereich drängen SSDs immer weiter in deren Markt ein (da sie vielerlei Vorteile bieten und der Preis keine "so" große Rolle spielt). Die Entwicklung geht seit Jahren nicht mehr wirklich voran (von den versprochenen 25TB zu 2010/2015 sind wir noch Jahre entfernt) und so ein 8 Platter Design kann ja auch irgendwie nicht gesund sein (wer weiß was das Helium sonst noch über die Jahre macht).

Hier wird einfach noch an alte Techniken geklammert und die Preise künstlich oben gehalten um noch das letzte an Geld abzugreifen bevor das Ende gekommen ist.
 
erazzed schrieb:
Zwar hat Synology Btrfs schon im Portfolio, allerdings kann mit deren Implementierung Bit-Rot nur erkannt und nicht korrigiert werden... und QNAP setzt nach wie vor noch auf ext4.
Bei Synology funktioniert bislang nur die automatische Korrektur nicht, manuell geht das schon (stellt sich dann natürlich die Sinnfrage, wenn man immer erst prüfen und dann ggf. korrigieren muß, ein NAS sollte sowas ohne Zutun des Anwenders können)
Mit der Beta von DSM6.1 geht nun auch automatische Korrektur, allerdings nicht in jedem Setup:
---
File Self-Healing

DSM is now capable of detecting and repairing silent data corruption if your Synology NAS meets the following criteria:
Running Btrfs file system
Built on RAID 1, RAID 5, RAID 6, RAID 10, or non-1 disk SHR
Without any SSD read-write cache mounted (This limitation will be removed in the coming release.)
---
 
Sehr beeindruckend! Ich bin mir nur immer nicht sicher, ob ich in diesen News echten Fortschritt sehe oder ob man uns nur das Gleiche wie bisher mit mehr Plattern unterjubelt :lol:
Da soll mal einer sagen, die HDD ist tot. 2020 dürften 20TB Festplatten keine Seltenheit mehr sein (aber vermutlich trotzdem nur Premium+Enterprise) - und selbstverständlich wird es dann auch 20TB SSDs geben. Gibt es ja jetzt schon mitunter. Nur zu welchem Preis? Auch 2020 können die eine HDD nicht unterbieten. Flash muss eben immer physisch als Chipfläche da sein und selbst auf 7nm geshrinkter QLC-3D Flash (Horrorvorstellung... das dürfte dann die Haltbarkeit von aktuellen planeren TLC unterbieten) ist immer noch teurer als Rostscheibchen herzustellen, egal wie präzise die Mechanik dahinter ist.


Wandert das Know How - namentlich die Datendichte - auch mit Verzögerung in den unteren Marktbereich? Was passt mittlerweile auf einen 3,5" HDD Platter?

Ich wäre an einer modernen 1-Platter HDD als Ersatz für meine Samsung Spinpoint 1TB interessiert, die sich zwar konstant füllt aber derartig langsam, dass sie absehbar noch auf Jahre reicht.

Da man ja auch immer wieder neue SSDs kauft und die alten dank geringer Leistungsaufnahme und Lautsosigkeit auch mit 150 oder gar 80GB bedenkenlos im System lassen kann, solange man genug SATA Ports hat, bekommt man ja auch immer mehr "Datengräber" dazu.
 
Die konventionelle Festplattentechnik scheint nun langsam wirklich am Ende angekommen zu sein, sonst würde solch ein Firlefanz wie SMR und/oder Heliumfüllung nicht zum Einsatz kommen.

Wieso muss überhaupt um jeden Preis der Speicherplatz immer weiter in die Höhe getrieben werden, 8 TB bieten schon enormen Speicherplatz ansonsten nimmt man halt einfach mehrere davon :)
 
f@llo schrieb:
Solange die Preise nicht fallen ist das recht Unspektakulär. Ich habe vor 4 Jahren 5x 2Tb WD Green Festplatten für je 55€ gekauft. Der Preis je TB hat sich bis heute nicht geändert.

Sry, aber du hast dir NEVER EVER 5x2Tb für 55€ im Jahre 2012 gekauft ...
wenn überhaupt hast du das vor über 5 Jahren (2011) getan!

Johnsen schrieb:
Wieso muss überhaupt um jeden Preis der Speicherplatz immer weiter in die Höhe getrieben werden, BlaBla bieten schon enormen Speicherplatz ansonsten nimmt man halt einfach mehrere davon :)

Bleib du mal bei deinen 640KB Arbeitsspeicher ... reicht für dich.
 
Zuletzt bearbeitet:
14 TB... Ich habe für Daten 3 TB im PC, die wird jetzt nach 3 Jahren und ner Menge altem Zeugs gerade voll. Im NAS sind 4 TB, da ist noch einiges an Luft.
Irgendwie geht die Entwicklung die letzten Jahre schneller voran, wie der Bedarf, es sei denn man muss alle BluRays auf dem PC haben
 
Zuletzt bearbeitet von einem Moderator:
Sylar schrieb:
Die Preise haben sich schon geändert. Nur halt nach oben... zB die 8TB Archive kostet schon seit Markeinführung zwischen 220€ und 240€. Diese kam Ende 2014 auf dem Markt...

Die Preise waren zwischendurch bei unter 200€, ich glaube 185€ bei Amazon. Nur, die Archive ist mir ihren teils 5MB/s Schreibgeschwindigkeit so mies bewertet, dass ich bisher keine kaufen wollte.
Alle HDDs preislich über 200€ kaufe ich aus Prinzip nicht, und wenn sie 20TB anbieten würden.

Johnsen schrieb:
(..), 8 TB bieten schon enormen Speicherplatz ansonsten nimmt man halt einfach mehrere davon :)

8TB und enorm? Das sehen die UDH-Offline-Speicherungen aber anders... Und dann wieder mehrere HDDs? Nee, ich will von mehr weg. Verbraucht mehr Strom, braucht mehr Platz, usw. Ewig halten die Teile auch nicht, ergo muss man über kurz oder lang mal was neues kaufen.
 
Zuletzt bearbeitet:
MoD85 schrieb:
Bei der Preisentwicklung kann man leider nur auf QLC SSDs hoffen.
So viel billiger wird es auch nicht werden, wenn statt nun 3 dann 4 Bits pro Zelle gespeichert werden. Da auch noch der Aufwand für die ECC steigen dürfte, sind dadurch am Ende vielleicht 20% beim Preis drin und dies auf Kosten der Haltbarkeit und Schreibperformance.

MoD85 schrieb:
Grundsätzlich sehe ich den Markt für Festplatten ab 2020, spätestens 2025 wirklich schwierig.
Zumindest Seagate erwartet noch bis über 2025 technische Neuerungen wie zuerst HAMR und ab oder nach 2025 dann HDMR, womit man die Datendichte gegenüber PMR noch mal um den Faktor 5 bis 10 steigern möchte.
MoD85 schrieb:
Im Serverbereich drängen SSDs immer weiter in deren Markt ein (da sie vielerlei Vorteile bieten und der Preis keine "so" große Rolle spielt).
Bei den 2.5" mit 15.000rpm, also den HDDs für Mission Critical Anwendsungen ist das Ende absehbar, Seagate hat angekündigt das die aktuelle Generation die letzt sein wird, hier übernehmen SSDs gerade den Markt. Danach dürften auch die mit 10.000rpm dran sein und letztlich wird der 2.5" Formfaktor wohl aussterben, wenn auch die Notebooks durchgehend mit SSDs bestückt werden. Daher ja auch das Rennen um immer größere Kapazitäten bei 3.5".
MoD85 schrieb:
Die Entwicklung geht seit Jahren nicht mehr wirklich voran (von den versprochenen 25TB zu 2010/2015 sind wir noch Jahre entfernt)
Das es am länger dauert als Anfangs gedacht, betrifft ja nicht nur HDDs, auch bei andere Technologien, gerade auch im Storagebereich wie aktuell gerade bei 3D XPoint, erlebt man dies ja öfter.
MoD85 schrieb:
und so ein 8 Platter Design kann ja auch irgendwie nicht gesund sein (wer weiß was das Helium sonst noch über die Jahre macht).
HDDs sind auf ein Service Life von 5 Jahren ausgelegt, so lange dürfte die Konzentration in der Platte also ausreichend hoch bleiben. Was die Frage wie lange das Helium im Gehäuse bleibt nun aber mit der Anzahl der Platter in diesem Gehäuse zu tun hat, verstehe ich nicht wirklich.

MoD85 schrieb:
Hier wird einfach noch an alte Techniken geklammert und die Preise künstlich oben gehalten um noch das letzte an Geld abzugreifen bevor das Ende gekommen ist.
So massiv wie nach der Flut sind die Gewinnspannen der HDD Hersteller nun nicht mehr.

winni71 schrieb:
Bei Synology funktioniert bislang nur die automatische Korrektur nicht, manuell geht das schon (stellt sich dann natürlich die Sinnfrage, wenn man immer erst prüfen und dann ggf. korrigieren muß, ein NAS sollte sowas ohne Zutun des Anwenders können)
Spätestens dann sollte es aber auch ECC RAM haben, denn sonst führen RAM Fehler dazu, dass man sich die scheinbar defekten Dateien kaputtkorrigiert. So führen sie dann allenfalls zu einem Fehlalarm weil man denkt eine Datei wäre korrupt, die es nicht ist. Außerdem nutzt es nichts wenn man sicherstellt das die Daten auf der Platte nicht korrupt werden, wenn sie vorher beim Schrieben oder nach nachher beim Lesen im RAM korrupt werden können. Daher sollte man erst einmal ECC RAM haben (immer mit einem System welches dies auch unterstützt, sonst bringt es nichts), genau wie es auch Matt Ahren, Mitentwickler des ZFS-Dateisystems, schreibt:
Man beachte die Reihenfolge, zuerst empfiehlt er ECC RAM und dann erst oben drauf ein Filesystem mit Prüfsummen wie btrfs oder ZFS zu verwenden, wenn man seine Daten liebt und vor Korruption schützen möchte! Nur die billigen Consumer NAS haben das nicht und sollten daher auch keine Augenwischerei betreiben und den Kunden Filesysteme anbieten die für Server entwickelt wurden und dort garantiert auf Plattformen mit ECC RAM genutzt werden.
[F]L4SH schrieb:
nur das Gleiche wie bisher mit mehr Plattern unterjubelt
Die Datendichte wurde schon weiter gesteigert, denn bei 12TB mit 8 Platter sind 1,5TB pro Platter vorhanden, bei 10TB auf 7 Platter war es nur 1,43 TB/Plattern. Das bedeutet auch, dass man mit 1,5TB pro Platter dann 3TB HDDs mit nur 2 statt bisher 3 Platter und damit günstiger bauen kann und auch bei den 6TB kann man dann mit 4 Platter auskommen, statt mit 5 oder gar noch 6 der heutigen 6TB HDDs.
[F]L4SH schrieb:
2020 dürften 20TB Festplatten keine Seltenheit mehr sein (aber vermutlich trotzdem nur Premium+Enterprise) - und selbstverständlich wird es dann auch 20TB SSDs geben.
Wobei die 20TB SSDs dann auch Enterprise Modelle sein werden, denn selbst eine billige Consumer SSD mit 20TB dürfte dann immer noch mindestens 2000$ kosten und die HDDs wäre dann vermutlich immer noch günstiger. Das diese zuerst oder vielleicht künftig nur noch als Enterprise und "Premium", also besseren Modellen wie NAS oder Surveillance kommen werden liegt einfach daran das man solche Kapazitäten vor allem für solche Anwendungen und weniger für den Desktop braucht.
[F]L4SH schrieb:
selbst auf 7nm geshrinkter QLC-3D Flash (Horrorvorstellung... das dürfte dann die Haltbarkeit von aktuellen planeren TLC unterbieten) ist immer noch teurer als Rostscheibchen herzustellen, egal wie präzise die Mechanik dahinter ist.
Bei 3D NANDs, zumindest denen von Samsung und vermutlich denen von Toshiba, sind die Strukturen ja deutlich größer als bei planaren NANDs und selbst wenn man die Fertigung mit sehr kleinen minimalen Strukturbreiten (mehr sagt der Prozess ja nicht aus als die minimale Größe) machen würde, müsste die Zellen und Zellabstände deswegen nicht geringer werden. Die Logik rund um das Array der Zellen schrumpft dann nur, was die Kosten senkt ohne die Haltbarkeit zu verschlechtern. Auch ist fraglich ob es mit dem Aufschichten so vieler Layer dann noch klappt, wenn man zu geringe Strukturbreiten einsetzt.
[F]L4SH schrieb:
Wandert das Know How - namentlich die Datendichte - auch mit Verzögerung in den unteren Marktbereich?
Mit Verzögerung und wenn man die Kosten soweit gesenkt hat, dass dies wirtschaftlicher ist als weiter mehr Platter zu verbauen wie dann unbedingt nötig wäre. Es kann aber auch sein, dass man dort gar nicht mehr genug Absatzpotential sieht um eine Neuentwicklung zu rechtfertigen und damit die alten Modelle einfach noch eine Weile weiter fertigt bevor man sie ganz einstellt.
[F]L4SH schrieb:
Was passt mittlerweile auf einen 3,5" HDD Platter?
Das kann man sich doch wohl leicht selbst ausrechnen indem man die Gesamtkapazität durch die Anzahl der Platter teilt, oder nicht?

[F]L4SH schrieb:
Ich wäre an einer modernen 1-Platter HDD als Ersatz für meine Samsung Spinpoint 1TB interessiert, die sich zwar konstant füllt aber derartig langsam, dass sie absehbar noch auf Jahre reicht.
1TB pro Platter gibt es schon seit Jahren, ich meine die ST1000DM003 war eine der ersten Desktopplatte damit und Geizhals listet die seit 2011. Außerdem ist Deine Samsung nun wohl auch schon bald über 6 Jahre alt und damit jenseits der zu erwartenden 5 Jahre Nutzungsdauer plus der maximalen Lagerzeit von einem Jahr.
Johnsen schrieb:
8 TB bieten schon enormen Speicherplatz ansonsten nimmt man halt einfach mehrere davon :)
Diese Platte werden in aller Regel dort eingesetzt wo man schon mehrere davon verwendet und wenn man dann eben nicht ganz so viele braucht um die gleiche Storagekapazität zu erzielen, dann spart man bei der Infrastruktur und der Stromrechnung gewaltig Kosten ein. Es geht hier ja auch Enterprise HDDs und die sind nicht in erste Linie für Heimanwender gedacht.
muhmaff schrieb:
Nur, die Archive ist mir ihren teils 5MB/s Schreibgeschwindigkeit so mies bewertet, dass ich bisher keine kaufen wollte.
Man muss sie die richtige Nutzung haben, dann schreibt sie sogar sehr schnell und ist perfekt. Die SMR HDDs sind eben etwas besonderes und man kann sie nicht für jede Zweck sinnvoll einsetzen, auch wenn viele das wegen deren Preis gemacht haben.
 
tek9 schrieb:
Ab 12tb besteht ein nicht unwahrscheinliches Risiko das sich Bitfäule (Silent-Data-Corruption)in ein RAID 6 einschleicht und ein Restore auf ein Hot Spare oder Ersatzplatten fehlschlägt :D

Bei einem RAID-5 ist das ein größeres Problem. Bei einem RAID-6 gerade kommt man aber aus diesem Dilemma eher wieder heraus. Denn in einem RAID-6 hat man immer noch 1 x Daten + 2 x Parity. Ist ein Datensatz korrupt, egal welcher, dann lässt sich immer noch feststellen, wenn die anderen beiden zusammenpassen, daß diese korrekt sind. Da müsste es dann schon wirklich zwei von drei zusammengehörigen Datensätzen treffen, damit das erwähnte Szenario passiert - oder man läuft einen Restore und hat somit wie erwähnt nur zwei Datensätze zum Abgleich. Stimmen die nicht überein lässt sich nicht sagen was stimmt. Andererseits sollte man aber auch noch Backups haben ...
 
Zuletzt bearbeitet:
Zurück
Oben