Test WD Red Pro 26 TB im Test: Elf Magnetscheiben gegen die Laser-Technik HAMR

DeusoftheWired schrieb:
The X Files, 11 Staffeln FullHD, insgesamt 1,9 TB.

Dann solltest du mal aber über den verwendeten Codec nachdenken, mit 218 Folgen alá ~1 GB @h264 kann man da eine Menge sparen bei bester Qualität.
 
@Sebbi Qualität war mir da wichtiger als der Platz. Nur der Vollständigkeit halber:

Code:
General
Unique ID                                : 229270589519579831507416347773368462913 (0xAC7BE8CC9F9FCFE259843FF0F612EE41)
Complete name                            
Format                                   : Matroska
Format version                           : Version 2
File size                                : 9.96 GiB
Duration                                 : 48 min 14 s
Overall bit rate mode                    : Variable
Overall bit rate                         : 29.6 Mb/s
Frame rate                               : 23.976 FPS
Title                                    : The X-Files, Season 1 Disc 1
Encoded date                             : 2019-12-30 17:27:46 UTC
Writing application                      : MakeMKV 1.14.7 win(x64-release)
Writing library                          : libmakemkv 1.14.7 (1.3.5/1.4.7) win(x64-release)

Video
ID                                       : 1
ID in the original source medium         : 4113 (0x1011)
Format                                   : AVC
Format/Info                              : Advanced Video Codec
Format profile                           : High@L4.1
Format settings                          : CABAC / 4 Ref Frames
Format settings, CABAC                   : Yes
Format settings, Reference frames        : 4 frames
Format settings, Slice count             : 4 slices per frame
Codec ID                                 : V_MPEG4/ISO/AVC
Duration                                 : 48 min 14 s
Bit rate mode                            : Variable
Bit rate                                 : 24.7 Mb/s
Maximum bit rate                         : 38.0 Mb/s
Width                                    : 1 920 pixels
Height                                   : 1 080 pixels
Display aspect ratio                     : 16:9
Frame rate mode                          : Constant
Frame rate                               : 23.976 (24000/1001) FPS
Color space                              : YUV
Chroma subsampling                       : 4:2:0
Bit depth                                : 8 bits
Scan type                                : Progressive
Bits/(Pixel*Frame)                       : 0.497
Time code of first frame                 : 00:01:38:00
Stream size                              : 8.33 GiB (84%)
Language                                 : English
Default                                  : No
Forced                                   : No
Original source medium                   : Blu-ray

Audio #1
ID                                       : 2
ID in the original source medium         : 4352 (0x1100)
Format                                   : DTS XLL
Format/Info                              : Digital Theater Systems
Commercial name                          : DTS-HD Master Audio
Codec ID                                 : A_DTS
Duration                                 : 48 min 14 s
Bit rate mode                            : Variable
Bit rate                                 : 3 973 kb/s
Channel(s)                               : 6 channels
Channel layout                           : C L R Ls Rs LFE
Sampling rate                            : 48.0 kHz
Frame rate                               : 93.750 FPS (512 SPF)
Bit depth                                : 24 bits
Compression mode                         : Lossless
Stream size                              : 1.34 GiB (13%)
Title                                    : Surround 5.1
Language                                 : English
Default                                  : Yes
Forced                                   : No
Original source medium                   : Blu-ray

Audio #2
ID                                       : 3
ID in the original source medium         : 4355 (0x1103)
Format                                   : DTS
Format/Info                              : Digital Theater Systems
Codec ID                                 : A_DTS
Duration                                 : 48 min 14 s
Bit rate mode                            : Constant
Bit rate                                 : 768 kb/s
Channel(s)                               : 2 channels
Channel layout                           : Lt Rt
Sampling rate                            : 48.0 kHz
Frame rate                               : 93.750 FPS (512 SPF)
Bit depth                                : 24 bits
Compression mode                         : Lossy
Stream size                              : 265 MiB (3%)
Title                                    : Stereo
Language                                 : German
Default                                  : No
Forced                                   : No
Original source medium                   : Blu-ray

Text #1
ID                                       : 4
ID in the original source medium         : 4609 (0x1201)
Format                                   : PGS
Codec ID                                 : S_HDMV/PGS
Codec ID/Info                            : Picture based subtitle format used on BDs/HD-DVDs
Duration                                 : 47 min 44 s
Bit rate                                 : 38.2 kb/s
Frame rate                               : 0.373 FPS
Count of elements                        : 1068
Stream size                              : 13.1 MiB (0%)
Language                                 : English
Default                                  : Yes
Forced                                   : No
Original source medium                   : Blu-ray

Text #2
ID                                       : 5
ID in the original source medium         : 4614 (0x1206)
Format                                   : PGS
Codec ID                                 : S_HDMV/PGS
Codec ID/Info                            : Picture based subtitle format used on BDs/HD-DVDs
Duration                                 : 47 min 57 s
Bit rate                                 : 40.4 kb/s
Frame rate                               : 0.383 FPS
Count of elements                        : 1102
Stream size                              : 13.9 MiB (0%)
Language                                 : German
Default                                  : No
Forced                                   : No
Original source medium                   : Blu-ray

Menu
00:00:00.000                             : en:Chapter 01
00:02:17.262                             : en:Chapter 02
00:11:36.320                             : en:Chapter 03
00:14:44.800                             : en:Chapter 04
00:17:05.816                             : en:Chapter 05
00:20:18.550                             : en:Chapter 06
00:23:24.319                             : en:Chapter 07
00:30:35.708                             : en:Chapter 08
00:34:33.905                             : en:Chapter 09
00:38:44.822                             : en:Chapter 10
00:43:43.454                             : en:Chapter 11
00:47:45.237                             : en:Chapter 12

Und ja, für irgendwelchen Kram, den man nach einmaligem Anschauen wieder löscht, tut es natürlich auch irgendwas Kleineres ohne wahnsinnige Bitrate.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und MalWiederIch
@DeusoftheWired

Overall bit rate : 29.6 Mb/s
da kannst du bei FullHD LOCKER auf 10 - 15 Mb/s runtergehen, ohne große Unterschiede merken wirst.
 
  • Gefällt mir
Reaktionen: Haldi und MegaManX4
Die 26TB WD Red Pro ist schon eine gute HDD, allerdings finde ich es etwas frustrierend, daß WD sehr wenig bis keine Details zu ePMR und OptiNand (Speichergröße, Bauart - SLC, MLC, TLC oder..?) angibt bzw angeben will.
@MichaG : Könntet ihr da bitte noch einmal nachhaken? Mir gefällt diese Geheimniskrämerei von WD nämlich überhaupt nicht.
Hier der Grund dafür:
Eines der Bedenken bei Seagates HAMR ist, daß die Technik noch ziemlich jung ist, und man als Endkunde auch deshalb uU erst einmal abwartet, bevor man sich große HAMR Drives zulegt. WD macht auf "altbewährte Technik" und profitiert dadurch. Aber, wie altbewährt ist die Technik in den WD Drives denn wirklich ? WD benutzt ihre eigenen "innovativen" Techniken wie ePMR und OptiNand. Ersteres erwärmet eben auch die Platter Oberfläche um die mögliche Speicherdichte zu erhöhen, was ältere HDD auch nicht so machten. Wobei IMHO all das okay wäre, wenn WD die Details zu ePMR und OptiNand angeben würde. Das tun sie aber nicht.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
puri schrieb:
Ich denke, da wären ein paar wenige dieser großen Klopper einfach überfordert..
Nö, wieso. Wie man hier ja sieht sind die ja dafür fast doppelt so schnell. Ob ich nun 12x 280 MB/s hab oder 24x 140 MB/s...don't see the point ? Ausser ihr wollt natürlich so viel Strom wie möglich ziehen und euer Risiko so stark wie möglich steigern (doppelt so viele Disks ? Doppelt so hohe Ausfallquote). 😂
Ergänzung ()

ichkriegediekri schrieb:
Bei einem rebuild mit 100mb/s ist das Risiko eines kompletten Datenverlustes unter berücksichtigujg der AFR und UER raten bei einem RAID 5 mit 6 HDDs ca 73 Jahre..

Also "unbrauchbar/ein in kalkulierbares Risiko" ist ein RAID 5 ganz sicher nicht...
Doch. Ist unbrauchbar. Ich hatte den Case 2012 schon als ich meine WD Green 2TB ersetzt hab und war Gottesfroh, dass ich ein RAID6 am Start hatte. Während des Rebuilds hat sich nämlich eine zweite Disk verabschiedet.

73 Jahre....schön, dass ich das jetzt 50 Jahre wieder nicht hätte, aber meine Daten würd ich darauf nicht setzen.🤣
 
Sebbi schrieb:
für mich wäre nun die Frage interessant, welche Technik zuverlässiger vor Bitflips nach dem Schreiben schützt
Ein Dateisystem mir Checksummen wie ZFS oder Btrfs. Diese können die geflipten Bits auch wieder reparieren.

Die Schreibtschnik der Platten spielt da weniger eine Rolle, da die Bits ja erst mit der Zeit flippen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, MalWiederIch und AlphaKaninchen
Für Firmen sicher sinnvoll, für den ein oder anderen Privatanwender auch noch. Wenn ich mich sehe dann bin ich froh vor über 12 Jahren die letzte HDD aus dem System geworfen zu haben.

Mir reichen Großen um 2 bis 4 TB mehr als aus um alles zu speichern was ich brauche. Damit bin ich nicht der Nabel der Welt aber ich bin Happy mit schnellen Zugriffszeiten und hohen Transferraten.

Wird bestimmt noch lange dauern bis die letzte HDD von uns gegan ist. Bin gespannt was in der Zeit bis dahin noch entwickelt wird.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Amelie5000 schrieb:
Versteh ich den Satz richtig, man ist sozusagen genötigt beim Hersteller selbst zu kaufen um keine Fälschung mehr zu bekommen?
Das ist halt das Problem wenn die Kapazitäten nicht steigen. Die Fälscher nehmen 3 bis 10 Jahre alte HDDs kleben einen neuen Sticker drauf, löschen die Smart Werte und bringen sie als neu in Umlauf. Die Möglichkeiten für Händler das zu erkennen sind ähnlich beschränkt wie für dich. Würden die Kapazitäten schneller steigen wäre eine 10 Jahre alte HDD schlicht uninteressant und auffällig weil absurd klein.
Ergänzung ()

DeusoftheWired schrieb:
Die 8-TB-Version der 9100 Pro hat eine UVP von schlappen 964,99 €. Das sind 120,6 € pro TB.
Und eine 8TB SN850X kostet unter 600€, also 75€/TB, ist also nicht mal 3x so teuer pro TB als die WD 26TB zum WD Shop Preis. Die Samsung kauft man wenn nur weil man PCIe 5.0 möchte, wenn einem Geschwindigkeit so wichtig ist das man das braucht, kommt die HDD eh nicht in Frage.
Mir Persönlich ist der Preisunterschied zwischen HDD und SSD bereits zu klein, wenn man HDDs außerhalb des Sweet Spots heranzieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Haldi und ThirdLife
DevPandi schrieb:
Weil eine RAID-Wiederherstellung immer ein "Kraftakt" für Festplatten ist und sobald eine Festplatte abgeraucht ist im RAID und man die ersetzt, kommt es doch durchaus häufiger vor, dass bei der Wiederherstellung die nächsten Festplatten die Gerätsche machen und man dann einen Dominoeffekt hat.

Wo finde ich empirische Daten dazu? M.E. ist das sequenzielle Auslesen der Platte, wie es bei einer Raid-Wiederherstellung geschieht, fuer die Platte weniger belastend als ein logisches volles Backup mit einem nicht-Dateisystem-spezifischen Werkzeug wie tar, bei dem viele Seeks passieren (es gibt Dateisystem-spezifische Werkzeuge wie "zfs send", die die belegten Daten in der Reihenfolge auf der Platte auslesen und daher fuer weniger Seeks sorgen). Bis jetzt ist uns weder bei unseren vollen Backups noch bei unseren RAID-Wiederherstellungen aufgefallen, dass Festplatten dabei besonders haeufig ausfallen.

Eine Ausnahme: mir ist zweimal eine Festplatte in einem iBook G4 beim Videoschauen verstorben, und ich habe auf dem iBook eigentlich nur diese beiden Male laengere Videos angeschaut. Ich vermute einmal, dass dabei irgendetwas ueberhitzt hat (wahrscheinlich hat die CPU oder GPU mitgeholfen, die Platte zu heizen), und die Platten haben das nicht ausgehalten.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und AlphaKaninchen
Banned schrieb:
Aber auch hier mag es manche hartgesottene bzw. halb taube Personen geben, die das nicht stört.
Als halb taub Person, möchte ich anmerken, das einem solange man Hörgeräte an hat, das Betriebsgeräuch einer HDD, genauso auf den Keks geht wie jedem anderen auch... (Und wenn ich hier lese das einige 8+ TB HDDs im NAS dauerhaft laufen haben, wohl ehr mehr)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai und Alphanerd
mae schrieb:
Wo finde ich empirische Daten dazu? M.E. ist das sequenzielle Auslesen der Platte, wie es bei einer Raid-Wiederherstellung geschieht, fuer die Platte weniger belastend als ein logisches volles Backup mit einem nicht-Dateisystem-spezifischen Werkzeug wie tar, bei dem viele Seeks passieren (es gibt Dateisystem-spezifische Werkzeuge wie "zfs send", die die belegten Daten in der Reihenfolge auf der Platte auslesen und daher fuer weniger Seeks sorgen). Bis jetzt ist uns weder bei unseren vollen Backups noch bei unseren RAID-Wiederherstellungen aufgefallen, dass Festplatten dabei besonders haeufig ausfallen.
Naja, unterm Strich hat man schon alle Disks voll ausgelastet und das halt bei einer hohen Kapa über eine entsprechend lange Zeit. Die Wahrscheinlichkeit, dass dir hier auch eine zweite Disk evtl. aussteigt ist sicher höher, als wenn du einen Film startest, der AppleTV kurz mal 30GB in den Buffer schiebt und die Disks danach wieder schlafen.

Der Grund ist aber weniger in der "Belastung" zu suchen. Wenn ein RAID eine Platte verloren hat, sind die anderen oft aus demselben Batch/Alterungszustand -> beim sequentiellen Vollscan (Rebuild) tauchen latent fehlerhafte Sektoren bei den anderen Disks auf, und das führt zum Ausfall weiterer Platten.

Das Hauptproblem ist doch bei einfacher Parität, dass man sich einen weiteren Ausfall (egal woran es lag) gar nicht leisten kann in diesem Moment.

Bei 23,6TB Netto und gehen wir mal von einem average resync speed von 150 MB/s aus sind wir hier gut zwei Tage nackig. Würd ich jetzt ungern riskieren wollen. Zumal mir eben bei einem resync schonmal eine zweite Disk ausgestiegen ist. Äusserst unangenehmes Gefühl. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
ThirdLife schrieb:
Der Grund ist aber weniger in der "Belastung" zu suchen. Wenn ein RAID eine Platte verloren hat, sind die anderen oft aus demselben Batch/Alterungszustand -> beim sequentiellen Vollscan (Rebuild) tauchen latent fehlerhafte Sektoren bei den anderen Disks auf, und das führt zum Ausfall weiterer Platten.

Bezueglich "selber Batch": Um zu vermeiden, von einer gemeinsamen Fehlerursache erwischt zu werden, kaufen wir fuer unsere RAIDs Platten verschiedener Hersteller.

Bezueglich Alterungszustand: Unsere Erfahrung ist, dass HDDs keine scharfe Steigerung der Ausfallsrate mit dem Alter zeigen; wenn also eine ausfaellt, heisst das nicht, dass die anderen auch bald ausfallen.

Ein fehlerhafter Sektor heisst nicht, dass die Platte ausfaellt (man will sie dann vielleicht aber wechseln, aber erst nach dem Rebuild). Der fehlerhafte Sektor sollte auch beim Voll-Backup auffallen, wenn er in einem belegten Teil des Dateisystems vorkommt, und wenn nicht, ist es egal.

Das Hauptproblem ist doch bei einfacher Parität, dass man sich einen weiteren Ausfall (egal woran es lag) gar nicht leisten kann in diesem Moment.

Wenn man es sich nicht leisten kann, auf das letzte Backup zurueckzugehen, dann muss man eben mehr Redundanz einfuehren, z.B. RAID1 mit 3, 4, ... Platten (soviele wie fuer das gewuenschte Mass an Ausfallsicherheit noetig sind).
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
polyphase schrieb:
Ein Dateisystem mir Checksummen wie ZFS oder Btrfs. Diese können die geflipten Bits auch wieder reparieren.

Die Dateisysteme an sich können nicht mehr oder minder reparieren als andere. Sie haben aufgrund der zusätzlichen Prüfsummen auf Dateisystemebene nur eine höhere Wahrscheinlichkeit, gekippte Bits zu erkennen. Repariert werden kann - sofern eben der Sektor-ECC dies nicht mehr kann - nur über eine Redundanz bzw. Parität.
Ein einfaches RAID (also ohne ZFS etc.) kann so auch reparieren, erkennt Fehler aber weniger gut im Vergleich zu einem Dateisystem mit Prüfsummen. Großer Vorteil bei letzterem ist auch, dass man sehen kann, welche Datei(en) betroffen sind.

Es besteht auch die Möglichkeit einer Redundanz durch eine zusätzliche Partition auf demselben Laufwerk. Dann können ZFS etc. auch ohne RAID korrigieren.
 
  • Gefällt mir
Reaktionen: Sebbi, AlphaKaninchen und Purche
Banned schrieb:
Die Dateisysteme an sich können nicht mehr oder minder reparieren als andere. Sie haben aufgrund der zusätzlichen Prüfsummen auf Dateisystemebene nur eine höhere Wahrscheinlichkeit, gekippte Bits zu erkennen.

Im Prinzip richtig, wobei die Wahrscheinlichkeit extrem gering ist, dass gekippte Bits bei funktionierender Hardware zu etwas anderem fuehren als dem korrekten Inhalt (dank Fehlerkorrektur auf dem Laufwerk) oder der Meldung eines Lesefehlers.

Diese Pruefsummen sind eher dafuer da, um Fehler zu erkennen, die sich durch fehlerhafte Hardware auf anderer Ebene ergeben. Die Beispiele, mit denen die ZFS-Leute das verkaufen wollten, sind mir immer sehr esoterisch vorgekommen (Sektor wird bei sonst funktionierender Hardware an die falsche Stelle geschrieben), aber was ich schon mehrmals erlebt habe, waren Faelle, in denen fehlerhafte (zweimal im Auslieferungszustand, einmal nach >15 Jahren Betrieb offenbar als Alterungserscheinung) Motherboards einzelne Bits bei der Uebertragung gekippt haben. Je nachdem, wie vereinzelt das ist, koennen davon Daten betroffen sein, ohne dass man das vorerst z.B. durch Probleme mit Dateisystemen ohne solche Pruefsummen merkt. Bei dem altersbedingten Ausfall war's zwar schon deutlich zu merken, aber die Symptome waren unspezifisch genug, dass unser Techniker zuerst an ein Softwareproblem gedacht hat. Wenn das Dateisystem gleich sagt, da passt etwas nicht, kann das helfen, eine lange Fehlersuche oder z.B. Backups kaputter Daten zu vermeiden.
 
mae schrieb:
Im Prinzip richtig, wobei die Wahrscheinlichkeit extrem gering ist, dass gekippte Bits bei funktionierender Hardware zu etwas anderem fuehren als dem korrekten Inhalt (dank Fehlerkorrektur auf dem Laufwerk) oder der Meldung eines Lesefehlers.

Müsste man meinen. Andererseits kann es eben gerade, wenn selten gelesen wird, dazu kommen, dass sich Fehler kumulieren. Prüfsummen haben immer ihre Grenzen. Ich hatte auf jeden Fall schon Dateien auf alten Laufwerken, die Bitfehler aufgewiesen haben, aber nicht als Fehler korrigiert oder erkannt wurden von der HDD.


mae schrieb:
Diese Pruefsummen sind eher dafuer da, um Fehler zu erkennen, die sich durch fehlerhafte Hardware auf anderer Ebene ergeben.

Dafür könnte man aber auch andere Verfahren nutzen (z.B. Rsync mit Prüfsumme). Somit sehe ich das nicht so.


mae schrieb:
(zweimal im Auslieferungszustand, einmal nach >15 Jahren Betrieb offenbar als Alterungserscheinung) Motherboards einzelne Bits bei der Uebertragung gekippt haben.

Die Übertragung zwischen den Laufwerken und dem jeweiligen Controller ist ja über einen CRC abgesichert. Wenn hier falsche Daten übertragen werden, dann wurden diese schon vorher korrumpiert (oder der Controller hat einen weg).
Gegen Übertragungsfehler zwischen CPU und RAM bzw. für deren Erkennung verwendet man z.B. ECC-RAM.

So oder so können Fehler durch defekte Hardware natürlich generell auftreten. Das hat dann aber nichts mehr mit ZFS zu tun und lässt sich dadurch auch nur bedingt vermeiden. Wenn dein RAM z.B. defekt ist und ständig Daten korrumpiert, hast du ein großes Problem - so oder so.
 
Hab mir zwei 26TB als Whites in externen MyBooks geholt.

Hab hier ca. 20 WD Platten… die meisten extern, aber auch noch ein paar Reds bis 14TB.

Die 26TB Whites sind wohl die leisesten und unauffälligsten, die ich die letzten Jahre erworben habe.

(Erfahrungsgemäß ist da aber auch immer viel Glückssache dabei. Selbst vermeinlich identische Reds können klangcharakteristisch völlig unterschiedlich ausfallen. Sowohl bei Idle-Geräusch (unverbaut) als auch rhythmischem Idle-Klackern, das manche von Haus aus mitbringen, manche gar nicht und bei anderen reduziert es sich auf ein Minimum nach ner Woche)
 
  • Gefällt mir
Reaktionen: Purche
Püppl schrieb:
Handelt es sich fast immer um Videoaufnahmen in großen Auflösungen oder was ist sonst so Speicherintensiv im Privatbereich?
Dokumente, Fotos und Videos machen nur ein ganz ganz kleinen Teil bei mir aus.

Zu 90% sind es bei mir Blu-Ray Ultra-HD und Filme/Serien, sodass ich entspannt über LAN meine Filme schauen kann.

Ich habe allerdings auch nur 2x4TB im RAID 1 (wird demnächst aber auf 2x18TB Toshiba aufgerüstet).
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und Püppl
Spriti schrieb:
Wenn, dann würde ich ein einfaches schlichtes RAID 1 machen, 2 HDD gespiegelt, fertig. Dafür braucht man auch keine teuren Controller oder Zusatztechnik.
In einem Heim-NAS würde ich heutzutage immer auf Software-RAID setzen. Spart viel Geld und man ist flexibel, wo man die Platten einbaut.

Banned schrieb:
Ein einfaches RAID (also ohne ZFS etc.) kann so auch reparieren, erkennt Fehler aber weniger gut im Vergleich zu
War ein „dummes“ RAID überhaupt in der lage, stillen Bitrot zu erkennen? Das geht doch meines Wissens gar nicht ohne Prüfsummen. Das war einer der Hauptgründe, warum ich 2016 gleich zu ZFS gegriffen hatte. ☺️
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Donnerkind schrieb:
War ein „dummes“ RAID überhaupt in der lage, stillen Bitrot zu erkennen? Das geht doch meines Wissens gar nicht ohne Prüfsummen.

Jede HDD/SSD hat unabhängig vom Dateisystem Sektor-Prüfsummen, die auf Firmware-Ebene verwaltet werden. Hier gibt es einen ECC, über den auch Fehler korrigiert werden können. Wenn bei einem einfachen RAID irgendwo ein Sektorfehler erkannt wird, der nicht über den ECC korrigiert werden kann, kann aus der Redundanz bzw. über die Parität des RAID korrigiert werden (vorausgesetzt, es sind keine weiteren Fehler erkannt worden, die dies unmöglich machen).

Bei ZFS hat man zusätzlich noch eine "stärkere" Prüfsumme auf Dateisystem-Ebene, welche nochmals mit einer Prüfsumme abgesichert ist.


Donnerkind schrieb:
Das war einer der Hauptgründe, warum ich 2016 gleich zu ZFS gegriffen hatte. ☺️

Gute Entscheidung. Aber auch ohne ZFS steht man nicht so blank da, wie du angenommen hattest. :)
 
Rawday schrieb:
Was issen für ein NAS sinnvoller? 2x solch dicke Dinger wie hier oder mehrere kleinere?

Weil für mich als Normalo würden die 26Tb wahrscheinlich bis ans Lebensende reichen.
*hust und wegrenn mit 4 x 12 4x 6 tb voll im server * :D speicherplatz ist schnell voll jenachdem was man sammelt
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Zurück
Oben