News NAS-Festplatten: Toshiba erhöht auf 24 TB, 1 GB Cache und 309 MB/s

Salutos schrieb:
Solltest du jetzt mit dem Gedanken spielen die Datenbereinigung (blödes Wort) zu aktivieren (falls nicht aktiv) und dein System schon etwas älter ist, dann empfehle ich dringend vorher eine Datensicherung durchzuführen!
Ja bei mir ist das seit der Einrichtung der Synology mit Raid 5 aktiv und Datensicherung habe ich so oder so auf 3 Unterschiedlichen Systemen.

Ja den Begriff fand ich auch total verwirrend "Datenbereinigung" wahrscheinlich ein Übersetzungsproblem. 😅
 
Cool Master schrieb:
UBER von 1 in 10^15 ist schlecht... Das bedeutet, dass statistisch gesehen etwa bei jedem fünften vollständigen Lesen der Platte ein nicht behebbarer Fehler auftritt. Für ein RAID bzw. möglichen Rebuild wäre mir das zu heiß. Daran ändert sich seit Jahren, wie beim Preis auch, nichts.
Cool Master schrieb:
@Arboster

Genau das ist das Problem, allerdings ist das nicht die Datei die beschädigt ist sondern ein Lesefehler. Lesefehler passieren ständig können aber durch ECC und andere Verfahren ausgeglichen werden. Ein UBER ist aber ein Lesefehler nach dem Anwenden von Fehlerkorrekturen. Aber ja, der gesamte Rebuild scheitert in so einem Fall.
Mit einem guten Filesystem und soliden rebuild Prozess scheitert da gar nichts.
Wenn einem sowas wichtig ist, dass will man ja eh gegen BitRot abgesichert sein und hat ein entsprechend solides System. Glaube die Panik ist da etwas unangebracht
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
@phanter
Was verstehst Du denn unter einem soliden System?
Was kann ich z. B. bei einem Synology NAS mit einem RAID5 tun, damit es "abgesichert" und "Solide" ist?
 
@Arboster Naja das btrfs von Synology ist ja gar kein echtes btrfs was gut ist. Da macht ein Lesefehler beim rebuild nichts aus. Wenn du natürlich bitrot Schutz im Ausfall haben willst brauchst du unabhängig vom System mindestens RAID 6. (Oder ein Backup von dem du dann die Datei mit Fehler einspielst)[Da ein RAID 5 mit einem Ausfall natürlich keine Redundanz mehr hat]
 
Artikel-Update: Die PR-Agentur von Toshiba hat die Redaktion darüber informiert, dass es die N300 (Pro) mit 24 TB nicht im europäischen Handel und somit auch nicht in Deutschland geben wird. Die N300 Pro wird ohnehin nicht in dieser Region vertrieben. Die N300 ist zwar hierzulande mit bis zu 22 TB erhältlich, wird aber aus nicht genannten Gründen in Europa nicht um 24 TB erweitert.
 
Cool Master schrieb:
UBER von 1 in 10^15 ist schlecht... Das bedeutet, dass statistisch gesehen etwa bei jedem fünften vollständigen Lesen der Platte ein nicht behebbarer Fehler auftritt. Für ein RAID bzw. möglichen Rebuild wäre mir das zu heiß. Daran ändert sich seit Jahren, wie beim Preis auch, nichts.
Das sind aber dann doch zwei paar Schuhe...
Zum einen, wenn du "nur" Single Parity fährst, also bei komplett Ausfall auf 100% Verfügbarkeit aller Blöcke angewiesen bist, dann ist das natürlich perse erstmal eine schlechte Voraussetzung. Im Business nutzt man dazu dann mehr als eine Parität. Bei größeren Disks sogar teilweise Tripple Parity. Bei NetApp bspw. Raid-TEC geschimpft.

Technisch gesehen, fährst du ein Raid 6 like Konstrukt, also Double Parity, dann hast du effektiv jeden Block doppelt im System. Das heißt, kommt es beim Rebuild zu einem Fehler, dann kann ein anständiges System (bspw. ZFS mit Checksummen) diesen Fehler aus dem weiter verfügbaren anderen Block berichtigen. Sprich da passiert exakt gar nix... Und das muss man auch im Detail so sagen - es fallen eben statistisch gesehen quasi nie die selben Blöcke gleichzeitig aus. Ein Problem durch einen UBER wird also real praktisch ganz einfach durch einen drüber liegenden Layer gefixt.



Was das Thema allgemein angeht - das Ding ist doch, die Platten werden zwar größer, aber die Dichte steigt nur bedingt. Meist bedeutet mehr Kapazität = mehr Platter. Es ist doch total egal ob du jetzt 1:10^15 auf sagen wir 4x2TB Scheiben anwendest oder auf 12x2TB Scheiben. Statistisch pro Platter bleibt die Rate exakt identisch. Denn wenn du wie hier im Beispiel nun 3x so viele Daten (8 zu 24TB) drauf schreibst, dann schreibst du jeden Block trotzdem exakt gleich oft.
Die Rechnung anhand der HDD Kapazität aufzubauen ergibt mMn zwar mathematisch Sinn, aber trifft den Kern des Problem nicht. Das gleiche gilt, wenn du die Anzahl der HDDs einfach drauf multiplizierst.
-> denn was mathematisch zwar funktioniert, ist technisch lange so nicht gegeben. Sogut wie Niemand wird das Laufwerk im regulären Betrieb exakt gleichmäßig belasten. Das heißt, es gibt Blöcke, die wurden viel viel viel mehr gelesen und geschrieben als andere. Wo tritt denn statistisch am ehesten ein Fehler auf? Bei leeren Blöcken? Bei den mit den meisten Reads oder Writes?


Sich da am UBER aufzuhängen ist mMn nicht der richtige Weg. Was wahrscheinlich wirklich so ist, dass bei steigender Dichte die "Haltbarkeit" der Blöcke durchaus abnimmt und Technicken wie HAMR und Co. das nochmal in anderer Weise beeinflussen. Aber im "klassischen" Bild, also CMR und ohne irgendwelchen Fancy Kram zur Beeinflussung des Materials durch was auch immer, kann man mMn die Rechnugn per UBER ziemlich vergessen. Ob ich jetzt 2TB auf einen Platter kippe oder 20TB auf 10x dieser 2TB Platter, ändert am statistischen Lesefehler pro Block gar nix. Nur weil die eine Disk dann also 20TB, also 10x so viele Daten trägt, wird ja nicht 10x so viel auf dem selben Block rumhantiert. Das gibt die UBER Rechnung aber gar nicht her...
Salutos schrieb:
Aber!
Solltest du jetzt mit dem Gedanken spielen die Datenbereinigung (blödes Wort) zu aktivieren (falls nicht aktiv) und dein System schon etwas älter ist, dann empfehle ich dringend vorher eine Datensicherung durchzuführen!
Wobei das relativ egal ist. Denn wenn das Kind jetzt schon im Brunnen absäuft bei Blöcken, die nicht mehr lesbar sind, dann kannst du auch keine Datensicherung mehr machen. Zumindest nicht vollständig. Je nachdem wie die Software reagiert, fliegt die Disk aus dem Pool, wenn da Blöcke versucht werden zu lesen, die nicht mehr sauber tun...
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Smartbomb, Banned und eine weitere Person
Ich hab ja 6 20TB toshibas in meinem Server und kann echt nur positives berichten. Die Dinger Laufen an der spec Grenze seit fast 2 Jahren und es gab keinen einzigen Schluckauf bisher. :D

Und die gehen außen auch auf 285MB/s was selbst im Z2 Verbund reicht mir den Geräten die 10GBit auszulasten. Weiter innen machen die aber immernoch über 200 MB/s sodass das nicht weiter auffällt ^^
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Smartbomb und MichaG
Cool Master schrieb:
Neben der UBER haben sich auch die 550 TB Workload seit Jahren nicht geändert. Kommt mir irgendwie so vor als ob die HDD Hersteller da kein Bock mehr drauf haben die Produkte zu verbessern weil die Leute kaufen es ja eh.
Die Frage ist, ob die Angaben wirklich eine technische Messgröße sind, oder nur einen „juristische“. Oder einfach ein Bezugswert, den man als Zielgröße für das Design der Komponenten nimmt. Diese Werte lassen sich ja in der Regel auch nicht einfach nachmessen, sondern sind Abschätzungen über die gesamte Lebensdauer der Festplatte, über alle Betriebsbedingungen und die komplette Serienstreuung. Man kann davon ausgehen, dass die meisten Platten deutlich besser sind als dieser Wert.
Aber klar, die Hersteller nutzen technischen Fortschritt primär für die Erhöhung der Bitdichte bei gleichbleibender Fehlerrate.
JumpingCat schrieb:
Ist der empfohlene Workload von ca 10 mal pro Jahr komplett neu beschreiben nicht etwas niedrig?
Nein, die meisten NAS HDDs werden im Laufe ihres Einsatzes langsam vollgeschrieben und wenn sie voll sind, durch eine Größere ersetzt. Da kommst Du eher auf 1 mal in 3-5 Jahren anstatt 10 mal pro Jahr. Vielleicht 1,5 oder 2 wenn viele sich verändernde Daten da sind.

Ausnahme sind eventuell NAS für Video Überwachung, dafür gibt es aber auch spezielle Festplatten.
 
Cool Master schrieb:
UBER von 1 in 10^15 ist schlecht... Das bedeutet, dass statistisch gesehen etwa bei jedem fünften vollständigen Lesen der Platte ein nicht behebbarer Fehler auftritt.
Hast du das mal ausprobiert denn es mir noch nicht gelungen irgendeinen Fehler zu reproduzieren

Das sind Fantasie Zahlen im Datenblatt bzw. die Mathe lässt sich so nicht anwenden
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und MoonTower
Diese Diskussionen um "nicht korrigierbare Fehler" bei HDs gibt es immer wieder. Und ganz ehrlich: So ganz genau weiß ich es auch nimmer ... aber soweit ich das mitbekommen habe greifen noch andere Schutzmaßnahmen falls die Festplatte diesen seltenen Fehler abliefert. Da kommt es wie schon gesagt auf das Filesystem und OS usw. an.
Also falls hier jemand einen guten aktuellen Link zu diesem Thema hat, bitte her mit .) Müsste doch verschiedene Informatik-Abschluss-Arbeiten zu sowas geben.
 
phanter schrieb:
Wiegesagt ein robustes System ist eh dagegen abgesichert das eine Platte Blödsinn macht.

Abgesichert insofern, dass der Fehler erkannt wird; aber nicht insofern, dass er korrigiert werden kann. Auch deine Aussage bzgl. BTFS und BTRFS unter Synology ändert daran nichts. Synology nutzt so ein Frankenstein BTRFS mit mdadm, was gut ist, weil BTRFS nach wie vor wohl Probleme mit RAID-Konstellationen wie z.B. RAID5 hat.

Wenn du aber z.B. drei HDDs im RAID5 hast und eine steigt aus, und es nun beim Rebuild zu einem URE kommt, kann das auch ZFS oder BTRFS nicht korrigieren - die korrigieren auch nur aus der Redundanz.

Angenommen, die Verteilung der Bits ist(wobei HDD3 die neue HDD beim Rebuild ist):

HDD1-HDD2-HDD3
1--------1----leer

Jetzt hast du auf HDD2 beim Rebuild den URE:

HDD1-HDD2-HDD3
1-------?-----leer

--> Und wenn jetzt eben über den ECC von HDD2 das fehlerhafte Bit nicht wiederhergestellt werden kann, dann scheitert die Sache, weil weder über ECC noch über XOR des RAID eine Wiederherstellung möglich ist.

Mit ZFS/BTRFS/ReFS kannst du solche Fehler besser erkennen, aber nicht besser beheben.
 
  • Gefällt mir
Reaktionen: Smartbomb und Cool Master
Cool Master schrieb:
Selbst mit Scruben kann es passieren das ein Rebuild einfach schief läuft. Da steckt man einfach nicht drin. Am Ende vom Tag ist es ein Würfelwurf.
Das ist richtig aber bedeutungslos.

Kein System kann Zuverlässigkeit echt garantieren, es geht stets um die Minimierung von Eintrittswahrscheinlichkeiten. RAIDs sind besonders von zwei (oder mehr) gleichzeitig auftretenden Fehlern bedroht. Durch Scruben mache ich einen ersten noch unentdeckten Fehler sicht- und behebbar und verringere so die Wahrscheinlichkeit massiv, dass er sich zeitlich mit einem zweiten (dann unbehebbaren) Fehler überlappt. Aber ausschliessen kann man das natürlich nach wie vor nicht.

Dass die Fehlerwahrscheinlichkeit auch mit Scruben nicht auf Null fällt ist daher ein Allgemeinplatz, und dennoch ist es ein Unterschied wie Tag und Nacht. Es gibt schlicht keine Massnahme, die das je erreichen könnte.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und kieleich
@Banned
Wem Datensicherheit wichtig ist sollte daher immer Raids verwenden mit mindestens drei Kopien verteilt auf ebensovielen Laufwerken. Z.B. Raid1 mit drei Laufwerken oder Raid10 entsprechend mit 6 Laufwerken. Ein Backup sollte aber zusätzlich existieren. Dann lässt man sich ausgeben welche Datei defekt ist und stellt sie wieder her.
 
MoonTower schrieb:
Also falls hier jemand einen guten aktuellen Link zu diesem Thema hat, bitte her mit .) Müsste doch verschiedene Informatik-Abschluss-Arbeiten zu sowas geben.
Naja, da gibt es viele Philosophieansätze, sprich nur weil das irgendwo irgendjemand schreibt, wird das ja lange nicht richtig.

Das Thema dabei ist einfach, dass der UBER Wert letztlich nur ein statistisches Mittel ist. Und nicht wirklich klar definiert ist, zu was dieser Wert jetzt genau zählt und unter welchen Bedingungen.

Wie oben erwähnt, nehme ich eine Disk mit einer 2TB Platter und aus der selben Serie eine Disk mit 10x2TB Plattern, dann haben beide Vergleichspartner aus der gleichen Serie den gleichen UBER Wert im Datenblatt. Mathematisch gesehen kann ich logischerweise die Single Platter 2TB Disk 10x so oft vollständig lesen um auf den selben Read Count zu kommen wie die 20TB 10x2TB Platter Disk. Nur welchen Sinn hat diese Rechnung wirklich? Der Platter hält deswegen ja nicht 10x so lange. Und die Blöcke sind auch nicht 10x so robust gegen Lesefehler oder Degeneration oder sonstwas.

phanter schrieb:
Da erzählst du auch nichts neues. Wiegesagt ein robustes System ist eh dagegen abgesichert das eine Platte Blödsinn macht. Da ist es auch egal ob der UBER bei 10^15; 10^16 oder 10^18 liegt
Wobei das aber auch bisschen Einfach gesagt ist. Denn wenn alles was robust ist, gegen Fehler abgesichert ist, dürfte es ja keine Fehler mehr geben... Jeder definiert ja robust irgendwo anders. Auch ein ZFS Volume kann auseinander fliegen, als Beispiel.

Letztlich geht es doch um ein gewisses brauchbares Verhältnis zwischen Aufwand und Nutzen. Du kannst natürlich die Anzahl der Paritäten in einem Volume stark erhöhen um so die Wahrscheinlichkeiten eines Fehlers in der Form zu minimieren. Aber der Aufwand und die Kosten sind vor allem privat relativ hoch. Hier muss man dann eben abwägen zwischen Disk Anzah, Kosten, Verbrauch usw. Und nicht nur in Relation, sondern auch absolut, gerade bei den Preisen.
Eine Datendisk mit zwei Parity Drives zu paaren erzeugt Faktor 3 bei den Kosten. Hab ich 6 Daten Disks und paare das mit zwei Parity Disks, kommen lediglich 1/3 Mehrkosten drauf. Absolut bewegt man sich aber auf viel höherem Preisniveau. Je nach Diskgröße.

Yosup schrieb:
Durch Scruben mache ich einen ersten noch unentdeckten Fehler sicht- und behebbar und verringere so die Wahrscheinlichkeit massiv, dass er sich zeitlich mit einem zweiten (dann unbehebbaren) Fehler überlappt. Aber ausschliessen kann man das natürlich nach wie vor nicht.
Das setzt aber vorraus, dass der zweite Fehler nicht auch schon vorhanden ist. Denn das ganze steht und fällt mit der Anzahl der verfügbaren Infos. Im Falle eines Single Parity Verbunds bedeutet das, dass der Rest im Scrub-Fall trotzdem 100% funktionieren muss. Sonst kommst du nicht an die notwendigen Infos ran.

Meiner Ansicht nach spielt es nur bedingt eine Rolle ob ich jetzt geplant alle x-Tage so einen Job über das Volume drüber jage und mich dann drauf verlasse, dass die Parity Infos den Fehler fixen können, den der Job findet. Oder ob ich es drauf an kommen lasse bis eine Disk wegstirbt oder aus dem Verbund raus fliegt und ich dann ebenso alle Infos aus der gleichen Datenbasis zurück holen muss.
-> in beiden Fällen MUSS die Basis zu 100% funktionieren. Will man sich nicht drauf verlassen, braucht es A) ein Backup, also min. eine weitere Kopie und/oder B) eben eine weitere Partity Info im laufenden Verbund.

Mountainking02 schrieb:
Wem Datensicherheit wichtig ist sollte daher immer Raids verwenden mit mindestens drei Kopien verteilt auf ebensovielen Laufwerken. Z.B. Raid1 mit drei Laufwerken oder Raid10 entsprechend mit 6 Laufwerken. Ein Backup sollte aber zusätzlich existieren. Dann lässt man sich ausgeben welche Datei defekt ist und stellt sie wieder her.
Nicht unbedingt. Das Problem bei simplem Raid 1 oder 10 ist, dass du nicht weißt welcher der Blöcke im Fall von einem Bitflip der korrekte ist. Es benötigt daher viel eher ein System mit eben einer besseren Methode. Bspw. ein Raid Level mit Double Parity Infos. Und/oder ein Filesystem mit Checksummen und entsprechenden Parity Infos in doppelter Form.
Raid 1 ist egal wie viele Kopien man davon hat trotzdem relativ stark anfällig auf Fehler, weil es erstmal in der Basis keine Prüfung auf Korrektheit gibt. Selbst wenn du 10x das Bit kopierst auf verschiedene Platten. Ob die Kopie korrekt ist und welche der Blöcke die eigentlich richtigen Daten haben, ist schlicht nicht Thema des Raid 1.

Und ja, Backup ist immer gut... Aber auch da muss man sich eben Gedanken machen. Denn ob die Daten, die bei ner simplen 1:1 Kopie auf irgend einen anderen Datenträger korrekt sind, ist auch wieder eine Frage von einem ganz anderen Blatt.


ICH für meinen Teil bspw. nutze für simple File based Backups auf externe USB Drives ein kleinen Script, was zyklisch die Checksummen der Files errechnet. So lasse ich hin und wieder auf dem Quellsystem die Prüfung laufen, dass ich geplant zwei drei Werte pro Jahr pro File habe vom Live System und auf den beiden Backup Drives kann ich dann mit Gegenprüfung der dort liegenden Daten schaunen, ob die Kopie 100% korrekt ist. Denn was nutzt es mir zwar ne Kopie einer Datei zu haben, wenn ich nicht weis ob diese Kopie vollständig ist? Der PC, der die Kopie erstellt hat, könnte theoretisch nen Memory Fehler während des Kopie Jobs gehabt haben und einfach ein paar Bits kippen lassen haben...
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Salutos schrieb:
Es muss aber auch aktiviert sein!

Danke für den Hinweis. Betrifft mich aber so nicht :-)
Ergänzung ()

phanter schrieb:
Naja das btrfs von Synology ist ja gar kein echtes btrfs was gut ist. Da macht ein Lesefehler beim rebuild nichts aus. Wenn du natürlich bitrot Schutz im Ausfall haben willst brauchst du unabhängig vom System mindestens RAID 6.

Quelle oder mehr Details bitte. Synology macht doch SHR2 was RAID6 entspricht. Was ist daran jetzt schlecht/falsch?
 
fdsonne schrieb:
Das setzt aber vorraus, dass der zweite Fehler nicht auch schon vorhanden ist. Denn das ganze steht und fällt mit der Anzahl der verfügbaren Infos. Im Falle eines Single Parity Verbunds bedeutet das, dass der Rest im Scrub-Fall trotzdem 100% funktionieren muss. Sonst kommst du nicht an die notwendigen Infos ran.

Ja, herrje, exakt das habe ich doch mit "zwei Fehler dürfen sich zeitlich nicht überschneiden" geschrieben.

Und die Wahrscheinlichkeit dafür sinkt eben, wenn ich den einen Fehler heute beim Scrubben entdecke und nicht erst in zwei Jahren beim Rebuild. Die Eintrittswahrscheinlichkeit wird nicht gleich Null, aber sie sinkt eben, und zwar massiv.
 
  • Gefällt mir
Reaktionen: Smartbomb, kieleich und JumpingCat
Banned schrieb:
Abgesichert insofern, dass der Fehler erkannt wird; aber nicht insofern, dass er korrigiert werden kann. Auch deine Aussage bzgl. BTFS und BTRFS unter Synology ändert daran nichts. Synology nutzt so ein Frankenstein BTRFS mit mdadm, was gut ist, weil BTRFS nach wie vor wohl Probleme mit RAID-Konstellationen wie z.B. RAID5 hat.

Wenn du aber z.B. drei HDDs im RAID5 hast und eine steigt aus, und es nun beim Rebuild zu einem URE kommt, kann das auch ZFS oder BTRFS nicht korrigieren - die korrigieren auch nur aus der Redundanz.

Angenommen, die Verteilung der Bits ist(wobei HDD3 die neue HDD beim Rebuild ist):

HDD1-HDD2-HDD3
1--------1----leer

Jetzt hast du auf HDD2 beim Rebuild den URE:

HDD1-HDD2-HDD3
1-------?-----leer

--> Und wenn jetzt eben über den ECC von HDD2 das fehlerhafte Bit nicht wiederhergestellt werden kann, dann scheitert die Sache, weil weder über ECC noch über XOR des RAID eine Wiederherstellung möglich ist.

Mit ZFS/BTRFS/ReFS kannst du solche Fehler besser erkennen, aber nicht besser beheben.

Du missverstehst meinen Post. Raid 5 ist generell nicht BitRot sicher. Denn ob ein URE beim rebuild auftritt ist gar nicht mal die größte Sorge, da ein rebuild generell nur Stunden bis Tage dauert. Aber ein bitflip und/oder URE kann schon viel länger auf der Platte sein. Scrubben macht man meißtens nur alle 1-3 Monate. Das heißt im ungünstigsten Fall wenn dir eine Platte ausfällt wurden die anderen schon seit 3 Monaten nicht mehr überprüft. Daher ist es generell empfehlenswert auf Raid 6 zu setzen (oder bei statischen Daten Backups zur wiederherstellung zu nutzen).

Ob es einem jetzt ausreicht, über den Fehler Bescheid zu wissen und ihn dann manuell aus eine Backup wieder einzuspielen, oder man direkt auf Raid 6 setzt ist setup Frage. Aber auf eins von beiden sollte man so oder so setzten egal wie das UBER rating ist

JumpingCat schrieb:
Danke für den Hinweis. Betrifft mich aber so nicht :-)
Ergänzung ()



Quelle oder mehr Details bitte. Synology macht doch SHR2 was RAID6 entspricht. Was ist daran jetzt schlecht/falsch?
Nichts. Du musst halt nur auf SHR2/ Raid 6 setzen statt Raid 5/SHR1
 
Zurück
Oben