Test WD Red Pro 26 TB im Test: Elf Magnetscheiben gegen die Laser-Technik HAMR

Früher gab es bei den Smartwerten der Seagate-Festplatten auch immer noch das Attribut "Hardware ECC Recovered". Dieses hatte dann normalerweise den gleichen Rohwert wie die Read Error Rate. Wenn nicht, dann konnte ein Fehler nicht korrigiert werden.

Wie @Snoop7676 richtig dargelegt hat, geben nur die ersten vier Stellen der Hexadezimal-Darstellung bei Seagate die wirklichen Fehler an. Der Rest sind die Logs der Lesevorgänge.
 
  • Gefällt mir
Reaktionen: Snoop7676
Snoop7676 schrieb:
[Der RAW-Wert von unserer ST2000VX008-2E3164 bedeutet 0 Fehler]

Interessant. Aber wenn's 0 Fehler gegeben hat, warum gibt's dann fuer VALUE 113 und WORST 99? Bei den meisten Werten ist der bestmoegliche Wert 100 oder 200.
 
mae schrieb:
Aber wenn's 0 Fehler gegeben hat, warum gibt's dann fuer VALUE 113 und WORST 99?

M.E. steigt der Wert mit der Anzahl der erfolgreichen Lesevorgänge an bzw. wird bei tatsächlichen Lesefehlern (wahrscheinlich in einer Größe, die sich aus der Relation zu den erfolgreichen Lesevorgängen ergibt) herabgesetzt.

Wenn man z.B. mal per Bildersuche schaut, dann sieht man, dass hier HDDs mit geringer Laufzeit auch noch recht geringe Werte haben. Wie der Worst-Wert zustande kommt, kann ich mir hingegen nicht ganz erklären, denn hier findet man komplett unterschiedliche Werte. Evtl. wird hier einfach der schlechteste Wert innerhalb eines bestimmten Zeitraums genommen.


mae schrieb:
Bei den meisten Werten ist der bestmoegliche Wert 100 oder 200.

Noch undurchsichtiger finde ich die Werte der Seek Error Rate. Hier wird wohl oft mit Worst-Wert 253 und Current 100 gestartet. Seagate macht halt Seagate-Dinge. :freaky:
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: mae
Haldi schrieb:
Also meine 4090 ist nicht mehr ganz neuste generation. Aber die sieht hinten und vorne kein land gegen Software encodes mit SVT-AV1. Viel grösser und schlechtere Qualität.
Besonders weil mein 7950x3d so viel CPU power hat das ich um die 200fps rum konvertieren kann.
Kleiner unterschied zu den 5FPS die die erste beta version von av1 damals gebracht haben.


Av1 hat nen speziellen Software filter. Der entfernt die Körnung, encoded das video neu und bringt die Körnung dann als Overlay wieder zurück die Software technisch berechnet wird und nicht im original video gespeichert ist.
Wie gut der wirklich funktioniert hab ich nie ausführlich getestet.
Aber die alten Bud Spencer und James Bond Filme in 520p DVD Qualität sind sowieso mies. Egal was. Kann man nicht mal mehr mit AI enhancern irgendwie verbessern ^^
Das am Ende händisch getunte Software Enkodierung die beste Qualität für die selbe Datei Größe erbringt - keine Frage. Der Sprung in Qualität bei "nur" 30% größeren Dateien war zumindest bei HEVC deutlich spürbar mit Turing und Nachfolgern. Blackwell bekam ja dann laut Nvidia weiter verbesserte ASICs, und die lassen halt bei der Geschwindigkeit in der Enkodierung scheinbar selbst dicke Threadrippers zurück. Frage ist halt, wie gut NVENC jetzt im Vergleich wirklich geworden ist.
@Jan und auch @DevPandi : Wär sehr interessant, wenn Ihr bei Gelegenheit die NVENC und NVDEC ASICs in zB den 5080 oder 5090 Blackwell GPUs mit evaluiert.

Und @Haldi: hab das selbst noch nicht probiert, aber KI-unterstützte Bearbeitung soll gerade bei alten 480p/540p Videos zT wahre Wunder wirken. Bevor Topaz richtig teuer wurde gab's einige Projekte (Joel Hruska war an einem davon beteiligt), die zB Star Trek DS9, das es damals nur auf DVD gab, damit IMHO beeindruckend gut auf 1080p hoch skalierten.
 
mae schrieb:
Bezueglich "selber Batch": Um zu vermeiden, von einer gemeinsamen Fehlerursache erwischt zu werden, kaufen wir fuer unsere RAIDs Platten verschiedener Hersteller.
Naja. Unterschiedliche Disks, unterschiedliche Sektor-Größen und Alignments, unterschiedliche Technologien und Featuresets sowie diverse Performance. Kann man schon so durcheinanderwürfeln, optimal dürfte allerdings anders sein.

mae schrieb:
Bezueglich Alterungszustand: Unsere Erfahrung ist, dass HDDs keine scharfe Steigerung der Ausfallsrate mit dem Alter zeigen; wenn also eine ausfaellt, heisst das nicht, dass die anderen auch bald ausfallen.
Dazu kann ich selbst nicht viel sagen und auch auf eure Aussagen (sofern ihr nicht zehntausende Disks im Betrieb habt) würde ich nicht viel geben. Backblaze wäre hier meine Anlaufstelle. :D

mae schrieb:
Ein fehlerhafter Sektor heisst nicht, dass die Platte ausfaellt (man will sie dann vielleicht aber wechseln, aber erst nach dem Rebuild).
Doch, genau das heisst es dann oft wenn mehrere Sektoren streiken, weil der Controller deine Disk abwirft und faulty markiert. Muss nicht sein, KANN aber. Und gerade privat muss man da ein bisschen anders denken als im Enterprise-Segment.

mae schrieb:
Der fehlerhafte Sektor sollte auch beim Voll-Backup auffallen, wenn er in einem belegten Teil des Dateisystems vorkommt, und wenn nicht, ist es egal.
Im Geschäft ? Ja. Daheim werde ich sicher keine 108 TB voll-backuppen. Geld scheisse ich (noch) nicht. 🤣 Das muss RAID6 lösen + wichtigste Daten in die Cloud.🤣
 
ThirdLife schrieb:
Naja. Unterschiedliche Disks, unterschiedliche Sektor-Größen und Alignments, unterschiedliche Technologien und Featuresets sowie diverse Performance. Kann man schon so durcheinanderwürfeln, optimal dürfte allerdings anders sein.

Wir verwenden seit Jahrzehnten immer HDDs (oder SSDs) verschiedener Hersteller in RAID1-Konfigurationen, und haben damit gute Erfahrungen (und schlechte mit baugleichen HDDs). Wir verwenden dabei die gleiche Sektorgroesse; alignment (von 512B logischen Sektoren zu 4K physischen) so wie die Platte geliefert wurde (wobei wir ungefaehr zu der Zeit, als das relevant wurde, wir langsam auf SSDs umgestiegen sind); wenn Du mit Technologien sowas wie SMR meinst, wir verwenden dafuer keine Platten mit SMR. Grossartigen Performanceunterschiede zwischen Festplatten gibt's nicht, und wenn, dann begrenzt beim Schreiben halt die langsamste die Performance, und beim Lesen die, die jeweils drankommt.

Dazu kann ich selbst nicht viel sagen und auch auf eure Aussagen (sofern ihr nicht zehntausende Disks im Betrieb habt) würde ich nicht viel geben. Backblaze wäre hier meine Anlaufstelle. :D

Na dann erzaehle mal, was Backblaze zu dem Thema schreibt. Soweit ich mich erinnern kann, nichts. Und wenn HDDs grundsaetzlich nach der gleichen Zeit ausfallen wuerden, dann haetten wir das auch mit unserer beschraenkten Zahl (vielleicht 100HDDs ueber die Zeit) schon bemerkt.

Doch, genau das heisst es dann oft wenn mehrere Sektoren streiken, weil der Controller deine Disk abwirft und faulty markiert. Muss nicht sein, KANN aber. Und gerade privat muss man da ein bisschen anders denken als im Enterprise-Segment.

Wir verwenden keine Controller, die solche Entscheidungen treffen. Der md-Treiber von Linux kann mit fehlerhaften Sektoren umgehen, ohne die Platte gleich auszuschliessen. Wie das bei btrfs und zfs geht, die wir seit laengerem statt md einsetzen, habe ich mir nicht angeschaut, auch deswegen, weil kaputte Sektoren, abgesehen vom oben verlinkten Vorfall, bei uns nicht vorgekommen sind.

Im Geschäft ? Ja. Daheim werde ich sicher keine 108 TB voll-backuppen. Geld scheisse ich (noch) nicht. 🤣 Das muss RAID6 lösen + wichtigste Daten in die Cloud.🤣

Das ist dann eine Frage, gegen was man sich absichern will, egal ob Geschaeft oder privat, und wieviel das einem Wert ist. Ausfall einer Platte? RAID hilft. Kaputtes file system? Backup hilft. Verschluesselungstrojaner? Backup hilft, besser mehrere. Die Antworten koennen fuer verschiedene Daten verschieden ausfallen.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
ThirdLife schrieb:
Nö, wieso. Wie man hier ja sieht sind die ja dafür fast doppelt so schnell. Ob ich nun 12x 280 MB/s hab oder 24x 140 MB/s...don't see the point ? Ausser ihr wollt natürlich so viel Strom wie möglich ziehen und euer Risiko so stark wie möglich steigern (doppelt so viele Disks ? Doppelt so hohe Ausfallquote). 😂
Eine normale HDD mit 7200 U/min kann ungefähr 70 Anforderungen/Zugriffe gleichzeitig verarbeiten. Gerade beim Kopieren von vielen kleinen Dateien brechen die dann massiv ein, weil der Lese/Schreibkopf nicht hinterherkommt. Außerdem laufen meist mehrere Backupoperationen gleichzeitig und überlappend - Incremental Abgleich mit dem Datenserver, Schattenkopien, lesender/schreibender Zugriff fürs Bandbackup, lesender Zugriff zum Vergleich des letzten Vollbackups.. Mit 24 Spindeln habe ich neben der höheren Gesamtübertragungsrate (max. 12 GBit/s für SAS) knapp 1800 gleichzeitige Verarbeitung von Lese/Schreibzugriffen. Immer noch lächerlich im Vergleich zu SSDs aber für die Backupaufgaben ausreichend und bezahlbar..
 
@puri Macht in meinen Augen wenig Sinn. Da würde ich dann eine Hybrid-Flash Lösung fahren statt doppelt so vieler Disks für marginale Mehrleistung.

Alles Andere ist eine Frage von Organisation. Selber schuld wenn man alle möglichen Jobs sowie read und write parallel laufen lässt. Auch wüsste ich nicht, welche Backuplösung kleine Dateien schreibt ? Veeam und Konsorten zumindest nicht.

Der grösste Flaschenhals je nach Kompressionsstufe ist zumindest bei mir jeweils immer die CPU in diesem Szenario.
Ergänzung ()

mae schrieb:
Na dann erzaehle mal, was Backblaze zu dem Thema schreibt. Soweit ich mich erinnern kann, nichts. Und wenn HDDs grundsaetzlich nach der gleichen Zeit ausfallen wuerden, dann haetten wir das auch mit unserer beschraenkten Zahl (vielleicht 100HDDs ueber die Zeit) schon bemerkt.
Wieso grundsätzlich nach der gleichen Zeit ? Darum gings doch gar nicht ?

mae schrieb:
Wir verwenden keine Controller, die solche Entscheidungen treffen.
Jeder Hardware-RAID Controller trifft solche Entscheidungen. Muss er ja auch ansonsten kann teils das ganze Array hart eingebremst werden bis hin zur Unbenutzbarkeit.

mae schrieb:
Der md-Treiber von Linux kann mit fehlerhaften Sektoren umgehen, ohne die Platte gleich auszuschliessen.
Stimmt halt so per se auch nicht. Auch MD-Arrays sind bei mir schon getaucht in solchen Szenarien. Muss nicht "gleich" sein, die Toleranz ist höher (kann dafür die Performance auch deutlich negativ beeinflussen) aber früher oder später wirds genauso passieren oder dein Array steht halt irgendwann wenn du die Timeouts manuell anpasst.

mae schrieb:
Das ist dann eine Frage, gegen was man sich absichern will, egal ob Geschaeft oder privat, und wieviel das einem Wert ist. Ausfall einer Platte? RAID hilft. Kaputtes file system? Backup hilft. Verschluesselungstrojaner? Backup hilft, besser mehrere. Die Antworten koennen fuer verschiedene Daten verschieden ausfallen.
Naja, im Geschäft ist es keine Frage, Storage ist für grössere Firmen immer die billigere Lösung als Datenverluste. Privat ist es eine reine Preisfrage und wird fast nie Sinn ergeben ab einer gewissen Datenmenge.

Klar, hätte ich nur 2TB Daten würde ich die auch dreifach redundant absichern - kost ja nüscht. Wenn man aber dann auf 100TB+ kommt wirds kostspielig. :D
 
Zuletzt bearbeitet:
Zurück
Oben