Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News NAS-Festplatten: Toshiba erhöht auf 24 TB, 1 GB Cache und 309 MB/s
- Ersteller MichaG
- Erstellt am
- Zur News: NAS-Festplatten: Toshiba erhöht auf 24 TB, 1 GB Cache und 309 MB/s
Stimmt. Da habe ich zu ungenau geschaut. Also doch nur Platten mit 10^15.MichaG schrieb:An die Mathelehrer: Ist 1 in 10^15 nicht dasselbe wie 10 in 10^16? 🤯
Naja, bei 5 Platten werden 100TB gelesen. Ist halt die Frage wie da die Wahrscheinlichkeit ist. Bei 10^16 müssten bei ca. 60 lese Vorgängen bei einer Platte ein Fehler auftreten. Wie ist das nun bei 5 Platten, sind es 12 Lesevorgänge oder immernoch 60?Arboster schrieb:Also irgend wo stimmt was nicht, der Calculator spuckt das aus:
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 39.597
Brrr schrieb:Ist das so? Würde da nicht einfach nur der Block dann fehlerhaft sein? Die Zellen hängen ja nicht voneinander ab.
Ja das ist so
Joshua2go schrieb:Bloß gut, habe ein Unraid. Da werden die Lesefehler zwar gemeldet, aber ansonsten wird weiter wiederhergestellt.
Ja wie der Name schon sagt ist das auch kein RAID. Ist da ggf. ZFS oder BTFRS im Einsatz? Ich hatte mal Unraid aber nie wirklich weiter ich Nutzung. Bei ZFS kann das Filesystem dank Checksums UBER Lesefehler erkennen aber ich möchte mich ungern auf das FS verlassen um Fehler auszubaden.
Salutos schrieb:Traditionelle RAIDs fallen beim Rebuild aus, weil sie nicht regelmäßig "gewartet" werden.
Nicht wirklich. Selbst mit Scruben kann es passieren das ein Rebuild einfach schief läuft. Da steckt man einfach nicht drin. Am Ende vom Tag ist es ein Würfelwurf.
ruthi91 schrieb:Seit vielen Jahren wird die Toshiba MG Serie empfohlen und bis jetzt hatten alle in meinen Händen (MG07 bis MG11) 10^16. Ich wüsste auch nicht was ich anderes empfehlen sollte.
Arboster schrieb:Jetzt kennst Du bessere.
Das ist aber 10:10^16 nicht 1:10^16
Neben der UBER haben sich auch die 550 TB Workload seit Jahren nicht geändert. Kommt mir irgendwie so vor als ob die HDD Hersteller da kein Bock mehr drauf haben die Produkte zu verbessern weil die Leute kaufen es ja eh.
JumpingCat
Rear Admiral
- Registriert
- Juli 2023
- Beiträge
- 5.394
Ist der empfohlene Workload von ca 10 mal pro Jahr komplett neu beschreiben nicht etwas niedrig? Das geht gefühlt dann eher in Richtung Backup Festplatte anstatt Dauerlast im.RAID?
Banned
Fleet Admiral
- Registriert
- Sep. 2014
- Beiträge
- 10.774
mdPlusPlus schrieb:
Ich möchte eine kleine Kritik an dem dort zugrunde gelegten Verfahren äußern, das hier beschrieben wird:
https://www.raidtips.com/raid5-ure.aspx
Angenommen, ich habe nur eine Festplatte mit 2TB, dann lautet die Berechnung für b (Anzahl der gelesenen Bits):
2*1*8*10^12 = 1,6*10^13
Habe ich nun hingegen zwei Festplatten à 1TB, lautet die Rechnung für b ebenfalls (nur eben mit unterschiedlicher Reihenfolge der Variablen):
1*2*8*10^12 = 1,6*10^13
Es macht aber m.E. einen Unterschied, ob ich x Bits lese und nur eine Festplatte habe, die eine UBER y hat, oder ob ich zwei Festplatten mit jeweils einer UBER y habe.
Mir ist klar, dass das bei größeren Konstellationen nicht mehr analog gilt. Wenn ich z.B. drei HDDs à 2TB habe, ist die Rechnung natürlich ne andere als bei sechs à 1TB wegen N-1 bzw. der Annahme, dass nur eine HDD aussteigt. Geht man aber einfach von der verbleibenden Restkapazität aus, was ja das Entscheidende ist beim Rebuild in Bezug auf die UBER, dann verhält es sich analog zu oben, und deshalb ist diese Art der Berechnung m.E. irgendwie fragwürdig.
Denn die Situation ist doch diese: Mir ist eine Platte beim RAID5 ausgefallen und ich habe jetzt noch eine Restkapazität und eine bestimmte UBER, die aber eigentlich für jede HDD einzeln gilt und nicht für alle zusammen.
Ich kann nachvollziehen, dass man sagt: Ich habe x Platten mit insgesamt y TB und der UBER z für jede Platte und Lese die Datenmenge v, also muss die Fehlerwahrscheinlichkeit gleich sein, wie wenn ich w Platten mit insgesamt ebenfalls y TB und der UBER z habe und ebenfalls die Datenmenge v lese, wobei x>w oder x<w gilt.
Mein Problem damit ist nur: Angenommen, mein Nachbar und ich haben jeweils ne neue 4TB-HDD mit ner UBER von 1 Bitfehler in 8TB. Jetzt lesen ich und mein Nachbar jeweils 4TB Daten. Nun gibt es zwei Fälle, wobei einer statistisch zutreffen muss:
- Ich hatte den Bitfehler
- Mein Nachbar hatte den Bitfehler
Haben vier Personen diese Platte und lesen jeweils 4TB:
- Eine Person hatte zwei Bitfehler
- Zwei Personen hatten einen Bitfehler
Und ich finde, hier erkennt man dann, dass dieses ganze statistische Geplänkel eben nur sehr begrenzt aussagefähig ist für die Realität.
Der Autor kommt übrigens zu dem Schluss:
These calculations are based on somewhat naive assumptions, making the problem look worse than it actually is. The silent assumptions behind these calculations are that:
- read errors are distributed uniformly over hard drives and over time,
- the single read error during the rebuild kills the entire array.
Zuletzt bearbeitet:
Interessante Info, das Toshiba da noch mit spielt.
Es ist aber schade, das sich an der Übertragungsrate nichts gravierendes mehr tut, bei um die 300MB/s ist bei allen Herstellern Ende.
Ich habe letztes Jahr ein 2x 22T RAID eingerichtet, das macht keinen Spaß, und eine Datensicherung davon ist auch ein Graus.
Es ist aber schade, das sich an der Übertragungsrate nichts gravierendes mehr tut, bei um die 300MB/s ist bei allen Herstellern Ende.
Ich habe letztes Jahr ein 2x 22T RAID eingerichtet, das macht keinen Spaß, und eine Datensicherung davon ist auch ein Graus.
Snoop7676
Lt. Commander
- Registriert
- Mai 2019
- Beiträge
- 1.259
Habe seit ca. 4 Jahren vier von deren 18TB Variante 24/7 am Laufen ohne Standby.
(Truenas Scale, Ryzen 9 3950X, 96GB Ram).
Checke mindestens 1x/Woche manuell die SMART Werte und bis jetzt gab es keine Lese- oder Schreibfehler.
Fehlerhafte oder Nicht korrigierbare Sektoren ebenfalls keine.
Und sollte mal etwas sein, werde ich eh automatisch benachrichtigt.
Gucke also rein aus Interesse immer mal wieder manuell rein.
Was will ich mit dem blabla sagen?
Toshiba ist bei mir in Zukunft sollte das PL Verhältnis ähnlich zu damals ausfallen wieder sehr gerne gesehen.
(Truenas Scale, Ryzen 9 3950X, 96GB Ram).
Checke mindestens 1x/Woche manuell die SMART Werte und bis jetzt gab es keine Lese- oder Schreibfehler.
Fehlerhafte oder Nicht korrigierbare Sektoren ebenfalls keine.
Und sollte mal etwas sein, werde ich eh automatisch benachrichtigt.
Gucke also rein aus Interesse immer mal wieder manuell rein.
Was will ich mit dem blabla sagen?
Toshiba ist bei mir in Zukunft sollte das PL Verhältnis ähnlich zu damals ausfallen wieder sehr gerne gesehen.
Zuletzt bearbeitet:
raychan
Lieutenant
- Registriert
- Jan. 2013
- Beiträge
- 985
Interessant.Salutos schrieb:Auf diesen Raids sammeln sich meist Daten über lange Zeit an.
Diese Daten werden nur angefasst (gelesen) wenn sie von einem System/Benutzer angefordert werden.
Über die Zeit liegen da Unmengen an Daten, die nie mehr "angefasst" werden.
Und hier schlummert quasi der Supergau.
Denn von einer großen Anzahl Sektoren hat die Platte keine Info, ob diese lesbar sind. Bis zu dem Zeitpunkt bis die darin lagernden Daten benötigt/gelesen werden!
Und bei einem Rebuild werden sämtliche Sektoren der restlichen Platten angefasst!
Mal eine Frage, ist es da die Datenbereinigung von Synology die soetwas macht?
https://kb.synology.com/de-de/DSM/help/DSM/StorageManager/storage_pool_data_scrubbing?version=7
JumpingCat
Rear Admiral
- Registriert
- Juli 2023
- Beiträge
- 5.394
Das ist der normale Scrub/Verify welchen man mindestens 1mal immer Monat macht. Es gibt auch kürzere Versionen fürs Wochenende wo nur ein Teil geprüft wird.
- Registriert
- Aug. 2005
- Beiträge
- 7.006
So wie ich es verstehe, ist UBER eine statistische Größe und kein fixer Wert.Banned schrieb:Mein Problem damit ist nur: Angenommen, mein Nachbar und ich haben jeweils ne neue 4TB-HDD mit ner UBER von 1 Bitfehler in 8TB. Jetzt lesen ich und mein Nachbar jeweils 4TB Daten. Nun gibt es zwei Fälle, wobei einer statistisch zutreffen muss:
- Ich hatte den Bitfehler
- Mein Nachbar hatte den Bitfehler
Haben vier Personen diese Platte und lesen jeweils 4TB:
- Eine Person hatte zwei Bitfehler
- Zwei Personen hatten einen Bitfehler
Insofern gibt es für beide Szenarien diverse Konstellationen (von keinen, einen und mehrere Bitfehler pro Nutzer/Platte).
Ich verstehe die Kritik in dem Link so, dass man die Wahrscheinlichkeit für einen gescheiterten Rebuild komplexer zu berechnen ist, als rein über den UBER Wert.
Im Prinzip ja, steht ja bereits im ersten Absatz des Artikels.raychan schrieb:Interessant.
Mal eine Frage, ist es da die Datenbereinigung von Synology die soetwas macht?
https://kb.synology.com/de-de/DSM/help/DSM/StorageManager/storage_pool_data_scrubbing?version=7
Ob das die Qualität von professionellen Storages heranreicht kann ich nicht einschätzen. Ist jedoch in jedem Fall besser als nichts!
@JumpingCat
Es muss aber auch aktiviert sein!
Per default läuft da kein regelmäßiger Wartungsplan.
Nur im Bedarfsfall (bspw. Stromausfall) schlägt das OS eine Überprüfung vor.
Aber!
Solltest du jetzt mit dem Gedanken spielen die Datenbereinigung (blödes Wort) zu aktivieren (falls nicht aktiv) und dein System schon etwas älter ist, dann empfehle ich dringend vorher eine Datensicherung durchzuführen!
john.smiles
Commodore
- Registriert
- Mai 2014
- Beiträge
- 5.040
War macht sowas heute noch mit 3,5" HDDs, vor allem mit teuren Modellen?JumpingCat schrieb:Dauerlast im.RAID?
MoonTower
Lt. Junior Grade
- Registriert
- Apr. 2015
- Beiträge
- 306
Bei 1x im Monat ist dann bei vielen Platten der jährliche Workload schon größtenteils aufgebraucht. Im privaten Umfeld bei einem "normalen" Gebrauch ist meiner Erfahrung nach 1-2x im Jahr vollkommen ausreichend.JumpingCat schrieb:Das ist der normale Scrub/Verify welchen man mindestens 1mal immer Monat macht. Es gibt auch kürzere Versionen fürs Wochenende wo nur ein Teil geprüft wird.
Nachdem mir die teure WD Red als Einzige kaputt gegangen ist (während der andere alte Standardkram von Samsung etc. seit Ewigkeiten läuft), schwöre ich neurdings seit Jahren auf Toshiba Capacity.
Preis Leistung ist super.
Leise, kühl, schnell, relativ wenig Ausfallrate, dafür günstig.
Und keine Mogelpackung mit Altware, also alles was Seagate zb nicht hat und kann. ^^ ;-P
Preis Leistung ist super.
Leise, kühl, schnell, relativ wenig Ausfallrate, dafür günstig.
Und keine Mogelpackung mit Altware, also alles was Seagate zb nicht hat und kann. ^^ ;-P
Ähnliche Themen
- Antworten
- 37
- Aufrufe
- 5.110