Neues NAS nach 4 Jahren Nutzung? (Vorher schon Gebrauchtkauf)

end0fseven

Lt. Commander
Registriert
Feb. 2017
Beiträge
1.246
Hallo Zusammen

Ich stehe gerade vor einer kleinen herausvorderung. Ich besitze jetzt seit gut 4 Jahren eine Synology DS411+ (2GB RAM) mit 4x3TB Festplatten.

Jetzt hat vor zwei Tagen eine Festplatte den Dienst aufgegeben. (Weit über 33`000 Betriebsstunde). Das komische, die SMART Werte und Fehlerhaften Sektoren sind immer noch auf 0.

hdd.PNG


Wie dem auch sei. Backups werden Regelmässig von den Wichtigsten Dingen auf eine Externe HDD gemacht.

Das ding ist, die Platte haben scheinbar alle das gleiche Fabrikationsdatum (gleiche Charge), also ist es logisch, das die anderen ggf. bald den Geist aufgeben.

Jedoch habe ich für mich überlegt, brauche ich noch 4 Festplatten? Ich belege von den 8TB Speicher gerademal 2.1TB.
Das andere, dass NAS ist auch nicht mehr das neuste, macht es hier sinn langsam auf ein neues Modell zu gehen, oder halt in diesem Modell anstelle 4 halt nur noch 2 Festplatten zu verbauen?

Welche Festplatten könnt ihr mir da empfehlen?

Auf dem NAS ist Docker mit einem Teamspeak Server und ein VPN Dienst aktiviert.

Vielen Dank
End0fSeven
 
Ich würde wieder eine WD RED Verbauen / bei einem neuen NAS auf diese setzen. So lange du jedoch die Platten im RAID1 laufen hast und backups machst, ist es eigentlich egal was du verbaust, so lange die Platte kein SMR nutzt.

Was das ersetzen des NAS angeht: Bekommt es noch updates vom Hersteller? Nein: Neues kaufen. Ja: Neues kaufen nicht nötig.
 
Das NAS ist im SHR Raid Modus.

Updates kriege ich eigentlich immer noch. Die überlegung ist halt die, dass das neue NAS halt nur noch 2 Laufwerksschächte hat anstelle 4. Somit könnte ich jetzt 2x4TB IronWolf verbauen, Backup zuruückspielen und sollte eines Tages dieses Synology aussteigen, Platte in das neue. Müsste ja eigentlich gehen?

Edit: Warum kein SMR? Habe mich mit Festplatten schon lange nicht mehr auseinandergesetzt. Habe gemeint das ist eine neuere Technologie um Daten auf der Platter effizienter zu Speichern?
 
Zuletzt bearbeitet:
Ich habe mit WD nur gute Erfahrungen gemacht und die Seagate fallen alle aus bei mir. Ich würde wieder auf Red gehen - nur weil 1 Platte ausgestiegen ist müssen es die anderen nicht auch tun. Die können noch Jahre weiter laufen .. theoretisch. Ich würde es so beibehalten - Stichwort. Never change a running system 😉
 
@Ichtiander
Sehr gute sinnfreie Anmerkung. :grr:
Habe ausschließlich WD Platten bei mir im Einsatz (diverse PCs und 2x NAS) und nur gute Erfahrung.
Hilft das dem TE nun weiter?
Natürlich NICHT!

@end0fseven
Auf Nicht-SMR-Platten achten und bei Deiner Datenmenge reicht eigentlich EINE Platte + Sicherungsplatte.
NAS kann weiterleben ..... :D
:mussweg:
 
Ich habe diverse IronWolfs vollkommen problemlos am laufen. SMR kann bei einem Rebuild zu Problemen führen da mehrere Schichten geschrieben werden müssen, dadurch wird die Platte langsam was dazu führen kann das sie als defekt markiert wird.

Entweder WD Red Pro oder IronWolf wobei so wie WD seine Kunden verar**** hat würde ich eher zu Seagate neigen.
 
Zuletzt bearbeitet:
@Ichtiander
Das mit den WDs war ironisch gemeint um auf die wenig sinnhafte Bemerkung von Dir hinzuweisen.

Nächstes Mal setzte ich ein Ironie-Flag damit man das erkennen kann.

Und klar wirft man einen Blick in die Liste.
 
Ich danke für die vielen Antworten. Werde definintiv nur noch zwei Festplatten verbauen. Keine Lust in ein paar Wochen/Monaten wieder Festplatten tauschen zu müssen. Zwei Stück im Raid 1 ist meiner Meinung nach einfacher zu handeln als der SHR Modus / RAID 5 mit 4 Festplatten. Gerade bei einem Rebuild kann es Probleme geben, sollte in der Zeit eine weitere Festplatte ausfallen.

Schlussendlich haben alle Festplatten weit über 33`000 Stunden auf dem Buckel. Also weit über 1300 Tage.
Meine Erfahrung ist, das die meisten ab 30`000 Stunden Probleme machen.
Was habt ihr da so für Erfahrungen?

Werde mich aber für die Seagate IronWolf 4TB entscheiden. Finde die Produkteübersicht bei Seagate besser. WD bietet verschiedene WD Red 4TB an wo man nicht weiss ob es SMR ist oder nicht.
 
Zuletzt bearbeitet:
Das kommt immer ganz drauf an was für Platten es sind und wie sie während der Betriebszeit gekühlt/gelaufen sind. Habe hier im Produktivsystem Platten die deutlich älter sind und noch tadellos laufen.

Die Platten im inzwischen Coldplug Backupsystem haben wenn ich das richtig im Kopf habe auch um die 70k hours.

Code:
~/scripts # ./show-hdd-age.sh                                                                                                                                    
Model: WDC WD40EFRX-68WT0N0 | Start/Stop: 1428 (29.03 h per start)| HoursOn: 41458 (~ 1727 d / 4.731 y)| Pending Sectors 0 | /dev/sda: WDC WD40EFRX-68WT0N0: 37°C
Model: WDC WD40EZRX-00SPEB0 | Start/Stop: 560 (31.83 h per start)| HoursOn: 17826 (~ 742 d / 2.032 y)| Pending Sectors 0 | /dev/sdb: WDC WD40EZRX-00SPEB0: 37°C
Model: ST4000VN000-1H4168  | Start/Stop: 2834 (16.25 h per start)| HoursOn: 46065 (~ 1919 d / 5.257 y)| Pending Sectors 0 | /dev/sdc: ST4000VN000-1H4168: 35°C
Model: ST3000VN000-1H4167  | Start/Stop: 2663 (20.03 h per start)| HoursOn: 53353 (~ 2223 d / 6.090 y)| Pending Sectors 0 | /dev/sdd: ST3000VN000-1H4167: 33°C
Model: ST3000VN000-1H4167  | Start/Stop: 2420 (22.46 h per start)| HoursOn: 54360 (~ 2265 d / 6.205 y)| Pending Sectors 0 | /dev/sde: ST3000VN000-1H4167: 34°C
Model: ST3000VN000-1H4167  | Start/Stop: 2660 (17.68 h per start)| HoursOn: 47044 (~ 1960 d / 5.369 y)| Pending Sectors 0 | /dev/sdf: ST3000VN000-1H4167: 32°C
Model: ST3000VN000-1H4167  | Start/Stop: 1932 (27.63 h per start)| HoursOn: 53384 (~ 2224 d / 6.093 y)| Pending Sectors 0 | /dev/sdg: ST3000VN000-1H4167: 33°C
Model: ST4000VN000-1H4168  | Start/Stop: 1864 (24.02 h per start)| HoursOn: 44785 (~ 1866 d / 5.112 y)| Pending Sectors 0 | /dev/sdh: ST4000VN000-1H4168: 35°C

Platten die im Idealzustand Betrieben werden (wenig start/stop, konstante Temperatur/Luftfeuchtigkeit, keine starken vibrationen bzw. Plattenanzahl innerhalb ihrer Spezifikation) halten ewig.

Das es auch mal ausnahmen gibt und ne Platte abraucht kommt aber durchaus auch mal vor.
 
Zuletzt bearbeitet:
@Harrdy Vielen Dank für deinen auszug. Mein NAS läuft eigentlich 24/7 im Büro. Jedoch können hier Temperaturen von 15-30 Grad je nach Jahreszeit sein. Luftfeuchtigkeit kann ich dir nicht sagen, dürfte aber Konstant sein.

Die Synology bringt jedoch die Festplatte meistens in der Nacht in den Ruhestand wenn keine Aktivität darauf ist. Vielleicht müsste ich das für die Zukunft ausschalten. Jedoch scheinen deine Festplatten weit mehr Start/Stop zu haben als meine.

Bin gerade echt hin und her gerissen was ich machen soll. Oder ob ich halt doch nur die defekte Platte wechsle.

Ich habe aber mal in der Lehre gelernt, das man Festplatten eigentlich immer aus unterschiedlichen Chargen Kaufen soll, was in meinem fall nicht ist. Da es in gewissen Produktionen unterschiede geben kann.

Edit: Weiss jemand ob ich das SHR von 4 Festplatten auf 3 Festplatten schrumpfen kann? Oder muss ich alles komplett neu aufbauen?
 
Zuletzt bearbeitet:
Die hohe Zahl der Start/Stop Zyklen kommen aus der Anfangsphase der Platten wo der Server auch bei Nicht Benutzung heruntergefahren ist. Die letzten 4y läuft er durch und schickt die Platten auch nicht mehr in den Standby.

Hier nochmal nen Auszug von nem anderen System wo die Platten durchgelaufen sind.

Code:
Model: Hitachi HDS723030ALA640 | Start/Stop: 190 (283.21 h per start)| HoursOn: 53810 (~ 2242 d / 6.142 y)| Pending Sectors 0 | /dev/sda: Hitachi HDS723030ALA640: 31°C
Model: Hitachi HDS723030ALA640 | Start/Stop: 192 (280.26 h per start)| HoursOn: 53810 (~ 2242 d / 6.142 y)| Pending Sectors 0 | /dev/sdb: Hitachi HDS723030ALA640: 31°C
Model: Hitachi HDS723030ALA640 | Start/Stop: 227 (237.04 h per start)| HoursOn: 53810 (~ 2242 d / 6.142 y)| Pending Sectors 0 | /dev/sdc: Hitachi HDS723030ALA640: 31°C
Model: Hitachi HDS723030ALA640 | Start/Stop: 226 (238.09 h per start)| HoursOn: 53810 (~ 2242 d / 6.142 y)| Pending Sectors 0 | /dev/sdd: Hitachi HDS723030ALA640: 31°C

Das mit Unterschiedlichen Chargen kann ggf. helfen das dir nicht alle auf einmal ausfallen. Für den Privatgebraucht eigentlich völlig egal. Man braucht sowieso nen Backup und das Raid im Privatbereich ist meist sowieso nur nice2have um sich das zurückspielen vom Backup zu sparen. Ne Hochverfügbarkeit ist im Privaten Bereich ja meist nicht wirklich nötig.
 
Da mir @Harrdy Mut gemacht hat, werde ich jetzt folgendes machen.

Ich werde mein NAS nun mit 3 Festplatten Betreiben, heisst natürlich das ich den Speicherpool komplett neu aufbauen muss. 8TB Brauche ich zurzeit echt nicht. Denke das die anderen Festplatten schon noch eine weile halten werden. (Somit auch Kosten gespart). Backup wird auf 1 Festplatte gemacht und in Zukunft noch in eine Cloud.

Ich habe jetzt die defekte Festplatte ausgebaut und per Crystaldisk ausgelesen. Es scheint alles in Ordnung zu sein mit der Platte? Jedoch ist die Datenratte nach der Formatierung irgendwas bei 1MB/s. Warum erkennt es der SMART Wert nicht, dass was nich in Ordnung ist?
Oder könnte man die Platte ggf. noch irgendwie Retten unter Linux?

hdd.PNG
 
Ich verstehe ehrlich gesagt den Aufriss hier nicht. Ein NAS ist doch eigentlich dafür gedacht, sicheren und verfügbaren Storage zu bieten. Genau das hat dein Ding doch erledigt. Defekte Platte austauschen, rebuild starten und einfach weiternutzen. Brauchst nicht Mal Angst vor dem Ableben während des rebuilds haben, da Du ja auch noch Backups hast. Alles richtig gemacht um sich möglichst wenig Gedanken machen zu müssen. Aber genau das tust du jetzt...
 
@bender_ Da gebe ich dir vollkommen recht. Ich Persönlich hatte so eine Situation halt noch nie. Da das NAS auch nicht mehr das neuste ist, macht man sich da halt Gedanken was das beste ist, was man machen kann.

Leider war es so, das zurzeit absolut keine 3TB Platten mehr Lieferbar gewessen wäre diese Woche. Da das NAS ultra langsam ist, musste ich es halt jetzt mit 3 Festplatten neu aufsetzen.
 
Zurück
Oben