[Probleme] Raid5 qui ne fonctionne plus

Bonjour à tous

J’ai un petit (gros) souci : mon raid 5 ne fonctionne plus !
Je suis loin d’être un expert hélas, je suis surtout les tutoriaux en essayant de comprendre, mais n’y connais pas grand chose.

J’ai monté un NAS sous OpenMediaVault (basé sur une debian).
J’ai 3 disques de 2To dedans, que j’ai monté en raid 5 (via mdadm)

Ca a marché nickel pendant une petite semaine, et là, impossible d’accéder à mes fichiers.

J’utilise notamment samba pour la gestion depuis l’ordinateur principal sous windows, et la lecture des films par un petit raspberry PI dans le salon.

Sous windows : j’arrive à accéder à la liste des dossiers créés (movies, music, data …) mais quand je veux rentrer dans un des dossier, il n’y arrive pas.

Le /dev/md0 existe bien, mais

J’ai fait un

et ainsi de suite pour chaque disque

$ sudo mdadm --examine /dev/sdb
/dev/sdb:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : f5d19069:66dac5cd:64d2b2a2:24446c1c
           Name : openmediavault:0  (local to host openmediavault)
  Creation Time : Sat Oct 24 21:36:17 2015
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 3906765824 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 79d08d11:d89a93aa:cf442fa9:b84635a9

    Update Time : Fri Oct 30 21:42:23 2015
       Checksum : a9688ea1 - correct
         Events : 84

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : A.. ('A' == active, '.' == missing)
$ sudo mdadm --examine /dev/sdc
/dev/sdc:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : f5d19069:66dac5cd:64d2b2a2:24446c1c
           Name : openmediavault:0  (local to host openmediavault)
  Creation Time : Sat Oct 24 21:36:17 2015
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 3906765824 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 6562b46c:264d568f:8ed38e17:e0a9c318

    Update Time : Thu Oct 29 21:34:50 2015
       Checksum : c7407131 - correct
         Events : 5

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAA ('A' == active, '.' == missing)
$ sudo mdadm --examine /dev/sdd
/dev/sdd:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : f5d19069:66dac5cd:64d2b2a2:24446c1c
           Name : openmediavault:0  (local to host openmediavault)
  Creation Time : Sat Oct 24 21:36:17 2015
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 3906765824 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : a5208b64:e14384cd:87ff476d:fe05bd20

    Update Time : Thu Oct 29 21:34:50 2015
       Checksum : 5af7ae45 - correct
         Events : 5

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAA ('A' == active, '.' == missing)

L’état du disque b A… me préoccupe…

j’ai essayé $ sudo mdadm --monitor /dev/md0 mdadm: Warning: One autorebuild process already running. Oct 31 09:24:47: DeviceDisappeared on /dev/md0 unknown device

J’en déduit donc qu’il y a eût un souci et qu’un rebuilt est en cours ? le truc, c’est que j’aurais aimé savoir où cela en est, et d’où vient le problème…

Bref, si vous avez des idées pour que ça remarche sans perdre les données, ça m’irait bien.

Merci d’avance.

cat /proc/mdstat mdadm --detail /dev/md0
Moi c’est plutôt l’état des deux autres disques qui m’inquiète. Si on se réfère à la date de mise à jour et au nombre d’événement, /dev/sdb est resté actif plus longtemps que les deux autres.

Si un seul disque avait dégagé, l’ensemble RAID 5 continuerait à être opérationnel en mode dégradé.

j’ai désinstallé/réinstaller mdadm en lisant des posts ayant résolu un problème similaire au mien en faisant ça… rien à faire, il me met les même messages.

Sous l’interface openmediavault, il ne reconnait pas le raid … j’avoue que je sèche un peu là

[code]root@openmediavault:~# cat /proc/mdstat
Personalities :
md0 : inactive sdb0 sdd2 sdc1
5860150536 blocks super 1.2

[/code]

root@openmediavault:~# mdadm --detail /dev/md0 mdadm: md device /dev/md0 does not appear to be active.

sdc et sdd semblant être en phase (bien que plus anciens que sdb), tu peux essayer de débrancher sdb pour voir si l’ensemble RAID s’active en mode dégradé.

je vais essayer ça… sauf que je sais pas à quel disque physique correspond le sdb… :-/

vous auriez une astuce ?

Par le numéro de série s’il est inscrit sur l’étiquette, lisible avec des commandes comme

hdparm -I /dev/sdb ls -l /dev/disk/by-id/ | grep sdb cat /sys/block/sdb/device/serial
Tu peux aussi essayer d’assembler l’ensemble RAID manuellement avec seulement sdc et sdd.

mdadm --stop /dev/md0 mdadm --assemble /dev/md0 /dev/sdc /dev/sdd --run

Bon, j’ai résolu mon problème sans rien toucher physiquement.

Ca m’étonnait qu’un disque soit HS, d’autant que le raid aurait alors dû continuer à fonctionner, mais en mode dégradé.

puis

ça a relancé l’array, il n’y a plus eût qu’à monter le système de fichier

Bon, par contre, ce qui m’ennui, c’est de ne pas savoir ce qui s’est passé exactement.