News NAS-Festplatten: Toshiba erhöht auf 24 TB, 1 GB Cache und 309 MB/s

An die Mathelehrer: Ist 1 in 10^15 nicht dasselbe wie 10 in 10^16? 🤯 Vielleicht bin ich aber auch einfach komplett durch für heute. :D
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, brutzler, Mycomser und 9 andere
Verdammt! :)

Moment!

hc_102.jpg
 
Zuletzt bearbeitet:
Also irgend wo stimmt was nicht, der Calculator spuckt das aus:

hc_102.jpg
 
Arboster schrieb:
Also irgend wo stimmt was nicht, der Calculator spuckt das aus:
Naja, bei 5 Platten werden 100TB gelesen. Ist halt die Frage wie da die Wahrscheinlichkeit ist. Bei 10^16 müssten bei ca. 60 lese Vorgängen bei einer Platte ein Fehler auftreten. Wie ist das nun bei 5 Platten, sind es 12 Lesevorgänge oder immernoch 60?
 
Ich hab heute keinen guten Tag, ist zu hoch für mich.
 
  • Gefällt mir
Reaktionen: JDK91
Brrr schrieb:
Ist das so? Würde da nicht einfach nur der Block dann fehlerhaft sein? Die Zellen hängen ja nicht voneinander ab.

Ja das ist so :) Sagt zumindest die Literatur auf div. Seiten. Ich hatte zum Glück nie ein Problem damit und hoffe, dass es auch so bleibt.

Joshua2go schrieb:
Bloß gut, habe ein Unraid. Da werden die Lesefehler zwar gemeldet, aber ansonsten wird weiter wiederhergestellt.

Ja wie der Name schon sagt ist das auch kein RAID. Ist da ggf. ZFS oder BTFRS im Einsatz? Ich hatte mal Unraid aber nie wirklich weiter ich Nutzung. Bei ZFS kann das Filesystem dank Checksums UBER Lesefehler erkennen aber ich möchte mich ungern auf das FS verlassen um Fehler auszubaden.

Salutos schrieb:
Traditionelle RAIDs fallen beim Rebuild aus, weil sie nicht regelmäßig "gewartet" werden.

Nicht wirklich. Selbst mit Scruben kann es passieren das ein Rebuild einfach schief läuft. Da steckt man einfach nicht drin. Am Ende vom Tag ist es ein Würfelwurf.

ruthi91 schrieb:
Seit vielen Jahren wird die Toshiba MG Serie empfohlen und bis jetzt hatten alle in meinen Händen (MG07 bis MG11) 10^16. Ich wüsste auch nicht was ich anderes empfehlen sollte.
Arboster schrieb:
Jetzt kennst Du bessere.

Das ist aber 10:10^16 nicht 1:10^16 ;) Es zeigt sich wieder, dass die Hersteller mit jedem Trick arbeiten.

Neben der UBER haben sich auch die 550 TB Workload seit Jahren nicht geändert. Kommt mir irgendwie so vor als ob die HDD Hersteller da kein Bock mehr drauf haben die Produkte zu verbessern weil die Leute kaufen es ja eh.
 
  • Gefällt mir
Reaktionen: Corpus Delicti und NMA
Ist der empfohlene Workload von ca 10 mal pro Jahr komplett neu beschreiben nicht etwas niedrig? Das geht gefühlt dann eher in Richtung Backup Festplatte anstatt Dauerlast im.RAID?
 
mdPlusPlus schrieb:

Ich möchte eine kleine Kritik an dem dort zugrunde gelegten Verfahren äußern, das hier beschrieben wird:
https://www.raidtips.com/raid5-ure.aspx

Angenommen, ich habe nur eine Festplatte mit 2TB, dann lautet die Berechnung für b (Anzahl der gelesenen Bits):
2*1*8*10^12 = 1,6*10^13

Habe ich nun hingegen zwei Festplatten à 1TB, lautet die Rechnung für b ebenfalls (nur eben mit unterschiedlicher Reihenfolge der Variablen):
1*2*8*10^12 = 1,6*10^13

Es macht aber m.E. einen Unterschied, ob ich x Bits lese und nur eine Festplatte habe, die eine UBER y hat, oder ob ich zwei Festplatten mit jeweils einer UBER y habe.

Mir ist klar, dass das bei größeren Konstellationen nicht mehr analog gilt. Wenn ich z.B. drei HDDs à 2TB habe, ist die Rechnung natürlich ne andere als bei sechs à 1TB wegen N-1 bzw. der Annahme, dass nur eine HDD aussteigt. Geht man aber einfach von der verbleibenden Restkapazität aus, was ja das Entscheidende ist beim Rebuild in Bezug auf die UBER, dann verhält es sich analog zu oben, und deshalb ist diese Art der Berechnung m.E. irgendwie fragwürdig.
Denn die Situation ist doch diese: Mir ist eine Platte beim RAID5 ausgefallen und ich habe jetzt noch eine Restkapazität und eine bestimmte UBER, die aber eigentlich für jede HDD einzeln gilt und nicht für alle zusammen.

Ich kann nachvollziehen, dass man sagt: Ich habe x Platten mit insgesamt y TB und der UBER z für jede Platte und Lese die Datenmenge v, also muss die Fehlerwahrscheinlichkeit gleich sein, wie wenn ich w Platten mit insgesamt ebenfalls y TB und der UBER z habe und ebenfalls die Datenmenge v lese, wobei x>w oder x<w gilt.

Mein Problem damit ist nur: Angenommen, mein Nachbar und ich haben jeweils ne neue 4TB-HDD mit ner UBER von 1 Bitfehler in 8TB. Jetzt lesen ich und mein Nachbar jeweils 4TB Daten. Nun gibt es zwei Fälle, wobei einer statistisch zutreffen muss:
  • Ich hatte den Bitfehler
  • Mein Nachbar hatte den Bitfehler

Haben vier Personen diese Platte und lesen jeweils 4TB:
  • Eine Person hatte zwei Bitfehler
  • Zwei Personen hatten einen Bitfehler

Und ich finde, hier erkennt man dann, dass dieses ganze statistische Geplänkel eben nur sehr begrenzt aussagefähig ist für die Realität.


Der Autor kommt übrigens zu dem Schluss:

These calculations are based on somewhat naive assumptions, making the problem look worse than it actually is. The silent assumptions behind these calculations are that:
  • read errors are distributed uniformly over hard drives and over time,
  • the single read error during the rebuild kills the entire array.
Both of these are not true, making the result useless.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai, mdPlusPlus, Smartbomb und 5 andere
Interessante Info, das Toshiba da noch mit spielt.

Es ist aber schade, das sich an der Übertragungsrate nichts gravierendes mehr tut, bei um die 300MB/s ist bei allen Herstellern Ende.
Ich habe letztes Jahr ein 2x 22T RAID eingerichtet, das macht keinen Spaß, und eine Datensicherung davon ist auch ein Graus.
 
Habe seit ca. 4 Jahren vier von deren 18TB Variante 24/7 am Laufen ohne Standby.
(Truenas Scale, Ryzen 9 3950X, 96GB Ram).

Checke mindestens 1x/Woche manuell die SMART Werte und bis jetzt gab es keine Lese- oder Schreibfehler.
Fehlerhafte oder Nicht korrigierbare Sektoren ebenfalls keine.

Und sollte mal etwas sein, werde ich eh automatisch benachrichtigt.
Gucke also rein aus Interesse immer mal wieder manuell rein.

Was will ich mit dem blabla sagen?
Toshiba ist bei mir in Zukunft sollte das PL Verhältnis ähnlich zu damals ausfallen wieder sehr gerne gesehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Corpus Delicti
Salutos schrieb:
Auf diesen Raids sammeln sich meist Daten über lange Zeit an.
Diese Daten werden nur angefasst (gelesen) wenn sie von einem System/Benutzer angefordert werden.
Über die Zeit liegen da Unmengen an Daten, die nie mehr "angefasst" werden.
Und hier schlummert quasi der Supergau.
Denn von einer großen Anzahl Sektoren hat die Platte keine Info, ob diese lesbar sind. Bis zu dem Zeitpunkt bis die darin lagernden Daten benötigt/gelesen werden!
Und bei einem Rebuild werden sämtliche Sektoren der restlichen Platten angefasst!
Interessant.
Mal eine Frage, ist es da die Datenbereinigung von Synology die soetwas macht?
https://kb.synology.com/de-de/DSM/help/DSM/StorageManager/storage_pool_data_scrubbing?version=7
 
Das ist der normale Scrub/Verify welchen man mindestens 1mal immer Monat macht. Es gibt auch kürzere Versionen fürs Wochenende wo nur ein Teil geprüft wird.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Banned schrieb:
Mein Problem damit ist nur: Angenommen, mein Nachbar und ich haben jeweils ne neue 4TB-HDD mit ner UBER von 1 Bitfehler in 8TB. Jetzt lesen ich und mein Nachbar jeweils 4TB Daten. Nun gibt es zwei Fälle, wobei einer statistisch zutreffen muss:
  • Ich hatte den Bitfehler
  • Mein Nachbar hatte den Bitfehler

Haben vier Personen diese Platte und lesen jeweils 4TB:
  • Eine Person hatte zwei Bitfehler
  • Zwei Personen hatten einen Bitfehler
So wie ich es verstehe, ist UBER eine statistische Größe und kein fixer Wert.
Insofern gibt es für beide Szenarien diverse Konstellationen (von keinen, einen und mehrere Bitfehler pro Nutzer/Platte).
Ich verstehe die Kritik in dem Link so, dass man die Wahrscheinlichkeit für einen gescheiterten Rebuild komplexer zu berechnen ist, als rein über den UBER Wert.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Banned und NMA
Würde gerne meine Festplatten in der NAS (3x6TB) tauschen. Ist mir aber zu teuer.
 
raychan schrieb:
Interessant.
Mal eine Frage, ist es da die Datenbereinigung von Synology die soetwas macht?
https://kb.synology.com/de-de/DSM/help/DSM/StorageManager/storage_pool_data_scrubbing?version=7
Im Prinzip ja, steht ja bereits im ersten Absatz des Artikels.
Ob das die Qualität von professionellen Storages heranreicht kann ich nicht einschätzen. Ist jedoch in jedem Fall besser als nichts!
@JumpingCat
Es muss aber auch aktiviert sein!
Per default läuft da kein regelmäßiger Wartungsplan.
Nur im Bedarfsfall (bspw. Stromausfall) schlägt das OS eine Überprüfung vor.

Aber!
Solltest du jetzt mit dem Gedanken spielen die Datenbereinigung (blödes Wort) zu aktivieren (falls nicht aktiv) und dein System schon etwas älter ist, dann empfehle ich dringend vorher eine Datensicherung durchzuführen!
 
  • Gefällt mir
Reaktionen: raychan
Da gehts direkt los. CB schreibt nix ob die nun von Synology freigegeben sind.
Hallo? NAS-Festplatten? Infos? hm...
 
JumpingCat schrieb:
Das ist der normale Scrub/Verify welchen man mindestens 1mal immer Monat macht. Es gibt auch kürzere Versionen fürs Wochenende wo nur ein Teil geprüft wird.
Bei 1x im Monat ist dann bei vielen Platten der jährliche Workload schon größtenteils aufgebraucht. Im privaten Umfeld bei einem "normalen" Gebrauch ist meiner Erfahrung nach 1-2x im Jahr vollkommen ausreichend.
 
Nachdem mir die teure WD Red als Einzige kaputt gegangen ist (während der andere alte Standardkram von Samsung etc. seit Ewigkeiten läuft), schwöre ich neurdings seit Jahren auf Toshiba Capacity.
Preis Leistung ist super.
Leise, kühl, schnell, relativ wenig Ausfallrate, dafür günstig.
Und keine Mogelpackung mit Altware, also alles was Seagate zb nicht hat und kann. ^^ ;-P
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Zurück
Oben