News NAS-Festplatten: Toshiba erhöht auf 24 TB, 1 GB Cache und 309 MB/s

Sieht nach einem sehr interessanten Modell aus. Die Cache-Grösse weiss zu gefallen.
 
  • Gefällt mir
Reaktionen: Mr Peanutbutter, Vexz, Farrinah und eine weitere Person
Problem bei HDDs ist für mich, dass sich beim Preis pro Gigabyte gefühlt so gar nichts tut.

Die größten Platten sind auch oft die mit dem niedrigsten Preis pro Gigabyte.
Aber wenn man eine 10GB Platte so optimiert hätte, dass man für unter 10€/GB landen würde, bekämen die ihre ach so großen Platten wahrscheinlich auch nicht mehr los.
 
  • Gefällt mir
Reaktionen: kieleich, muvmend, Wintermute und 4 andere
UBER von 1 in 10^15 ist schlecht... Das bedeutet, dass statistisch gesehen etwa bei jedem fünften vollständigen Lesen der Platte ein nicht behebbarer Fehler auftritt. Für ein RAID bzw. möglichen Rebuild wäre mir das zu heiß. Daran ändert sich seit Jahren, wie beim Preis auch, nichts.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, brutzler, muh0rsen und 10 andere
Also ist es ja normal und nicht schlechter als sonst? Beziehungsweise welche HDDs sind denn da besser?
 
  • Gefällt mir
Reaktionen: Ko3nich
MichaG schrieb:
Beziehungsweise welche HDDs sind denn da besser?
Enterprise HDDs haben oft 10^16. Persönlich glaube ich, dass da einfach was anderes ins Datenblatt geschrieben wird, es sich technisch aber nicht unterscheidet.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Exfiltratior, brutzler und 10 andere
@Cool Master @Brrr Nur schnell zwei Beispiele rausgesucht. Seagate Exos X24 und WD Ultrastar DC HC580 24TB haben auch <1 in 10^15 bei UBER. War das vielleicht früher mal anders?

@mdPlusPlus UBER steht für uncorrectable bit-error rate.

JEDEC;https://www.jedec.org/standards-documents/dictionary/terms/uncorrectable-bit-error-rate-uber schrieb:
A metric for data corruption rate equal to the number of data errors per bit read after applying any specified error-correction method.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Ko3nich, NMA und eine weitere Person
Heiße Platte, will haben :D
 
  • Gefällt mir
Reaktionen: Mr Peanutbutter
MichaG schrieb:
Also ist es ja normal und nicht schlechter als sonst?

Korrekt, ich sehe es aber nicht als "normal" sondern als Stillstand. Bei den alten HDDs war das ja noch ok, da die Kapazitäten nicht sehr hoch waren, wobei es teilweise auch keine 100% waren (siehe Rechner-Link unten). Als Beispiel die WD Re (WD4000FYYZ), die in 2013 rausgekommen ist, hat ebenfalls 1:10^15. Wie kann es sein, dass sich da seit 12+ Jahren nichts ändert obwohl die HDDs immer größer werden? Um das mal zu Vergleichen: bei 4 TB waren es z.B. noch ~31 vollständige Lesevorgänge bei der in der News erwähnten sind es ~5.

MichaG schrieb:
Beziehungsweise welche HDDs sind denn da besser?

AdHoc fällt mir keine ein, da 1:10^15 lange Zeit als "ok" galt. Bei Größen von 20+ TB kommen wir hier aber langsam an ein Limit vor allem für ein RAID Einsatz. SSDs bekommen es ja auch hin. Die haben im Enterprise sogar teilweise 1:10^17.

mdPlusPlus schrieb:
Wofür steht UBER und wie schlägt sich die Konkurrenz im Vergleich?

Uncorrectable Bit Error Rate also die Rate bei der ein Fehler auftreten kann bzw. statistisch wahrscheinlich ist. Bei einer einzelnen HDD ist das Problem auch eher gering und nicht tragisch, wird einfach erneut gelesen und gut ist. Das Problem kommt zum tragen wenn man mehr als eine HDD hat und eine HDD aus einem RAID aussteigt. Hier kann man mal mit ein paar variablen spielen: https://magj.github.io/raid-failure/ (als Info - bei 100% sieht man nur 00).

Hat man nun also 4 HDDs im RAID 5, was viele Leute heute im NAS haben, ist es zu 44% wahrscheinlich, dass der Rebuild scheitert. Auch im RAID 6 sind es noch 32%, dass es scheitert. Wie gesagt, wahrscheinlich, es muss nicht passieren aber wir alle kennen Murphys Gesetz.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Nasedo00, Mr Peanutbutter und 5 andere
Heißt das dann, das 1 Datei beschädigt ist, oder scheitert der komplette Rebuild (bricht ab)?
 
@Arboster

Genau das ist das Problem, allerdings ist das nicht die Datei die beschädigt ist sondern ein Lesefehler. Lesefehler passieren ständig können aber durch ECC und andere Verfahren ausgeglichen werden. Ein UBER ist aber ein Lesefehler nach dem Anwenden von Fehlerkorrekturen. Aber ja, der gesamte Rebuild scheitert in so einem Fall.
 
  • Gefällt mir
Reaktionen: Smartbomb und NMA
@Cool Master
Dann kann man sich das RAID5 auch gleich schenken.
Ich habs zwar schon mal erlebt, dass bei einem Rebuild eines RAID5 eine weitere Platte unter der Belastung starb, aber das mit dem UBER bei großen Platten ist dann ja in der Tat heftig.
Die Wahrscheinlichkeit ist zu hoch.
Wer weiß, wie lange ein Rebuild dauern kann, wird dann sehr frustriert sein, wenn das Rebuild vielleicht gegen Ende einen UBER meldet und abbricht.
 
Cool Master schrieb:
@Arboster

Genau das ist das Problem, allerdings ist das nicht die Datei die beschädigt ist sondern ein Lesefehler. Lesefehler passieren ständig können aber durch ECC und andere Verfahren ausgeglichen werden.
Bloß gut, habe ein Unraid. Da werden die Lesefehler zwar gemeldet, aber ansonsten wird weiter wiederhergestellt.
 
  • Gefällt mir
Reaktionen: Nordwind2000
Traditionelle RAIDs fallen beim Rebuild aus, weil sie nicht regelmäßig "gewartet" werden.
Unter Wartung ist in diesem Fall das Lesen sämtlicher Inhalte der Platte inkl. Parity-Bits gemeint.
Im Idealfall macht das das Raidsystem bei wenig Last.

Hintergrund
Auf diesen Raids sammeln sich meist Daten über lange Zeit an.
Diese Daten werden nur angefasst (gelesen) wenn sie von einem System/Benutzer angefordert werden.
Über die Zeit liegen da Unmengen an Daten, die nie mehr "angefasst" werden.
Und hier schlummert quasi der Supergau.
Denn von einer großen Anzahl Sektoren hat die Platte keine Info, ob diese lesbar sind. Bis zu dem Zeitpunkt bis die darin lagernden Daten benötigt/gelesen werden!
Und bei einem Rebuild werden sämtliche Sektoren der restlichen Platten angefasst!

Was man auch wissen muss, Sektoren fallen in Platten nicht einfach aus (sehr selten eben). In der Regel nimmt die Lesbarkeit ab, das Plattensystem lagert vorher solange "sterbende" Sektoren aus, solange es noch "Ersatzsektoren" hat. Wird dabei ein Schwellwert überschritten nimmt der Controller die Platte aus dem Verbund.

Klar ist,
  • während der Wartung ist das Raidsystem nicht so schnell wie gewohnt.
  • Festplatten werden früher "aussortiert"

Aber das will man ja auch damit bezwecken, allemal besser als ein "RAID dead"
😉
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, brutzler, Computerfuchs und 7 andere
Cool Master schrieb:
Wie kann es sein, dass sich da seit 12+ Jahren nichts ändert obwohl die HDDs immer größer werden?
Seit vielen Jahren wird die Toshiba MG Serie empfohlen und bis jetzt hatten alle in meinen Händen (MG07 bis MG11) 10^16. Ich wüsste auch nicht was ich anderes empfehlen sollte.
Die Platten sind oft die günstigsten ihrer Größe, sehr ausfallsicher, die heliumgefüllten sogar ziemlich leise und haben 5 Jahre Garantie.

Wer sich da noch an WD oder Seagate klammert hats nicht anders verdient.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, paulemannsen, NMA und 5 andere
Danke für die Info.
Ich hatte mir ja schon die Toshiba Cloud-Scale Capacity MG10ACA 20TB für mein nächstes RAID5 rausgesucht, dann bin beruhigt.

hc_101.jpg

Ergänzung ()

Cool Master schrieb:
AdHoc fällt mir keine ein,
Jetzt kennst Du bessere.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Zurück
Oben