Zyxxel NAS540 keine Reparatur des Volumens mehr möglich

Rick7221

Lieutenant
Dabei seit
Apr. 2010
Beiträge
536
Hallo,

ich habe ein NAS540 mit 4x4TB im RAID5. Vor einigen Tagen ist Disk3 ausgefallenm, die war auch schon etwas älter. Ich habe also das NAS runtergefahren, mir eine neue bestellt, eingebaut und die Reparatur gestartet. Laut Anzeige sollte diese 40h dauern. Ich weiß aber auch, dass die Wiederherstellung bei so großen Platten oft fehlschlagen kann und dann wiederholt wird.

Ich war dann übers Wochenende weg, als ich zurück gekommen bin konnte ich nicht mehr aufs Webinterface zugreifen. Nach dem Login ist es immer eingefroren. Am NAS gab es keine Festplattenaktivität mehr, keine LEDs haben geblinkt und zu hören war auch nichts. Ich habe mich per SSH verbunden und mdadm ausgeführt (kenne mich da nicht so aus, war nur ergoogelt). Das hat angezeigt, dass Disk 1,2 und 4 im State "clean" sind und Disk 3 im State "hot spare". Also habe ich mir gedacht, dass wohl irgendetwas schief gegangen ist.

Da ich keinen Zugriff mehr hatte, habe ich das NAS dann ausgeschaltet. Nach dem Neustart hatte ich wieder Zugriff aufs Webinterface, das zeigt jetzt allerdings nicht mehr "volume degraded" sondern "volume down" an. Es gibt keine Möglichkeit mehr es zu reparieren. Laut Status sind Disk 1,2 und 3 im Status "hot spare", für Disk 4 gibt es keinen Status.

Per SSH habe ich gerade auch keinen Zugriff mehr.

Hat jemand eine Idee? Ich habe jetzt schon ein wenig Sorge, dass ich das RAID nicht mehr reparieren kann.
Natürlich habe ich von den wichtigsten Daten ein extra Backup.
 
4x4TB und eine Platte war älter?! Waren oder sind das denn alles gleiche Modelle?
 
Da du ein Backup hast: NAS zurück setzen, Array neu anlegen, Backup einspielen, fertig.
Wenn du jetzt herum frickeln möchtest weil doch nicht alle wichtigen Daten gesichert waren.. tja dann hast du eine lehrreiche Lektion zum Thema Backup erhalten. NAS zurück setzen, Array neu einrichten, Backup wieder einspielen, kurz ärgern und verlorene Daten wieder beschaffen und dann ein vernünftiges Backup einspielen.

Ansonsten musst dir wieder Zugriff per SSH besorgen oder die Disks in einen PC stecken und ein live-Linux starten und dort dann versuchen das Array zu retten. Dazu kannst du per mdadm und den Parametern assemble & force das Array wieder zusammen fügen aus den Disks 1, 2 und 4 und danach per mdadm re-add die Disk 3 wieder hinzufügen. Mit etwas Glück startet dann der Rebuild. PC laufen lassen bis er fertig ist, danach aus, Disks wieder ins NAS und hoffen.

Vorher in Ruhe u.a. https://linuxwiki.de/mdadm, https://wiki.ubuntuusers.de/Software-RAID/ und https://www.thomas-krenn.com/de/wiki/Software_RAID_mit_MDADM_verwalten lesen und versuchen zu verstehen.

Die Befehle, die du verwenden willst kannst du gerne dann vorher hier posten und wir können drüber gucken ob das so passt bevor du diese auf deine Disks los lässt.
 
Zitat von snakesh1t:
4x4TB und eine Platte war älter?! Waren oder sind das denn alles gleiche Modelle?

Alle dasselbe Modell, zwei waren älter mit ca. 37k Betriebsstunden, zwei sind neuer mit 19k.

Zitat von snaxilian:
...die Disks in einen PC stecken und ein live-Linux starten und dort dann versuchen das Array zu retten. Dazu kannst du per mdadm und den Parametern assemble & force das Array wieder zusammen fügen aus den Disks 1, 2 und 4 und danach per mdadm re-add die Disk 3 wieder hinzufügen. Mit etwas Glück startet dann der Rebuild. PC laufen lassen bis er fertig ist, danach aus, Disks wieder ins NAS und hoffen.
Danke, ich probiere es mal mit mdadm unter Linux!
 
@snaxilian

Habe jetzt mal einen Scan durchgeführt, scheinbar ist disk3 aka sdc3 schon aus dem RAID Verbund entfernt wenn ich das richtig deute? Habe gerade entdeckt, dass die letzte disk sde3 ist. Bis e ging der Befehl vorhin nicht.

cat /proc/mdstat liefert
Code:
Personalities : [raid6] [raid5] [raid4] 
unused devices: <none>

Und sudo mdadm --examine /dev/sd[abcdef]3
Code:
/dev/sda3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 73e88019:b7cf694c:8584cbaa:47f57992
           Name : NAS540:2
  Creation Time : Tue Nov 24 23:18:19 2015
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7805773824 (3722.08 GiB 3996.56 GB)
     Array Size : 11708660160 (11166.25 GiB 11989.67 GB)
  Used Dev Size : 7805773440 (3722.08 GiB 3996.56 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=384 sectors
          State : clean
    Device UUID : ac8c7cd6:a8f3d86e:cb210c2b:bcdfc2eb

    Update Time : Thu Nov 14 16:31:43 2019
       Checksum : 667f486f - correct
         Events : 1210

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 3
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 73e88019:b7cf694c:8584cbaa:47f57992
           Name : NAS540:2
  Creation Time : Tue Nov 24 23:18:19 2015
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7805773824 (3722.08 GiB 3996.56 GB)
     Array Size : 11708660160 (11166.25 GiB 11989.67 GB)
  Used Dev Size : 7805773440 (3722.08 GiB 3996.56 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=384 sectors
          State : active
    Device UUID : 1bbec5f9:dec5a68a:d07cfdbe:e05d0cb4

    Update Time : Mon Nov 11 18:02:11 2019
       Checksum : 1cd3509 - correct
         Events : 74

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 2
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 73e88019:b7cf694c:8584cbaa:47f57992
           Name : NAS540:2
  Creation Time : Tue Nov 24 23:18:19 2015
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7805773824 (3722.08 GiB 3996.56 GB)
     Array Size : 11708660736 (11166.25 GiB 11989.67 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=0 sectors
          State : clean
    Device UUID : 78f30bc0:b68074ee:9a3a223c:93decfd4

    Update Time : Sun Nov 17 23:41:48 2019
       Checksum : c9cda273 - correct
         Events : 1230

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 73e88019:b7cf694c:8584cbaa:47f57992
           Name : NAS540:2
  Creation Time : Tue Nov 24 23:18:19 2015
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7805773824 (3722.08 GiB 3996.56 GB)
     Array Size : 11708660736 (11166.25 GiB 11989.67 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=0 sectors
          State : clean
    Device UUID : 85b74994:874b016e:609081d6:4cfcd0ee

    Update Time : Sun Nov 17 23:41:48 2019
       Checksum : d1f8a2d1 - correct
         Events : 1230

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)

Vielleicht ist das noch interessant?
Code:
ubuntu@ubuntu:~$ sudo mdadm --examine --brief --scan  --config=partitions
ARRAY /dev/md/2  metadata=1.2 UUID=73e88019:b7cf694c:8584cbaa:47f57992 name=NAS540:2
ARRAY /dev/md/0  metadata=1.2 UUID=b705c51b:2360cd8e:6b81c03f:2072f947 name=NAS540:0
ARRAY /dev/md/1  metadata=1.2 UUID=186ed461:615007c3:ab9e4576:7b5f7084 name=NAS540:1
ARRAY /dev/md/2  metadata=1.2 UUID=73e88019:b7cf694c:8584cbaa:47f57992 name=NAS540:2

ubuntu@ubuntu:~$ sudo mdadm --assemble --scan
mdadm: Devices UUID-73e88019:b7cf694c:8584cbaa:47f57992 and UUID-73e88019:b7cf694c:8584cbaa:47f57992 have the same name: /dev/md/2
mdadm: Duplicate MD device names in conf file were found.
 
Zuletzt bearbeitet:
Letzte Ausgabe... du hast zweimal ein Array md2 angegeben... Aber du stümperst probierst ja lieber auf eigene Faust herum.

Wie du gerade lernst, bietet ein Raid nicht nur Vor- sondern auch Nachteile und ersetzt niemals und in keinster Weise ein aktuelles Backup. Hier noch ein netter Artikel zum Thema Raid Recovery: https://raid.wiki.kernel.org/index.php/RAID_Recovery

Ansonsten: Platten löschen, wieder ins NAS, dieses neu einrichten, Backup einspielen, fertig.
 
Ich habe das Array nicht zweimal angegeben, das ist ja eine bloße Ausgabe. Herumgestümpert habe ich auch nicht, ich habe lediglich Informationen gesammelt um mir Hilfe bei diesem Thema zu beschaffen, von dem ich leider wenig Ahnung habe.


Bei meiner Recherche habe ich ähnliche Fälle gefunden, bei denen ein Fehler in der /etc/mdadm.conf manuell behoben wird.

Oder aber das RAID manuell unter Angabe der 4 devices wiederhergestellt wird.
(also in Richtung mdadm--assemble /dev/mdX /dev/sda3 /dev/sdb3 ...) Hier weiß ich allerdings den Namen meines RAID nicht (mdX), die Ausgabe war hier ja leer.

Käme eine der beiden Varianten denn in Frage?
 
Zuletzt bearbeitet:
Dein zweiter Code-Block zeigt eindeutig zweimal das Array md2 mit identischer UUID.

/dev/mdX ist nur ein Bezeichner und kann bei jedem System anders sein. Ich kann in System A ein Array als md1 erstellen, Disks in System B einbauen und das Array dort als md99 wieder zusammen fügen. Das ist nichts anderes als eine einfachere Beschreibung weil Menschen damit besser klar kommen als mit "Array
UUID=73e88019:b7cf694c:8584cbaa:47f57992"

Du musst also prüfen ob und was in deiner mdadm.conf drin steht und dies ggf. anpassen oder mit einer frischen und leeren mdadm.conf anfangen. Aber wie gesagt: Du vertrödelst unnötig viel Zeit. Mit einmal Disks leeren, NAS neu einrichten und Backup wieder herstellen wärst du wieder fertig und hättest Zeit für angenehmere Themen.
 
Dank der Hilfe hier und viel googlen ist das RAID jetzt gerade am recovern.
In 6 Stunden weiß ich ob es geklappt hat.

Ich möchte mich dennoch für deine Hilfe bedanken, hat mich teilweise auf den richtigen Weg gestoßen. Ich weiß nur nicht warum ständige Ermahnungen und der Rat "einfach alles löschen" ständig sein müssen. Ist irgendwie eine Krankheit deutscher Foren.
 
Zuletzt bearbeitet:
Geht halt schneller ;) Hab früher auch gern gefrickelt bzw musste es weil ich den Wert von Backups nicht zu schätzen wusste. Inzwischen hebe ich Logs auf, mach nen Restore aus dem Backup, bin in kürzester Zeit wieder arbeitsfähig und sehe mir dann die Logs an um den Fehler zu finden bzw um zu gucken was ich machen muss um den gleichen Fehler zukünftig zu vermeiden.
Aber schön zu lesen, dass es wieder läuft oder auf dem Weg dahin ist.
 
Zurück
Top