Raid : State : clean, degraded

Ce matin j’allume mon serveur et :

[code]# mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Mon Jan 26 16:02:10 2009
Raid Level : raid5
Array Size : 3907039744 (3726.04 GiB 4000.81 GB)
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Raid Devices : 5
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Sat Mar 19 09:36:14 2011
      State : clean, degraded

Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0

     Layout : left-symmetric
 Chunk Size : 64K

       UUID : 20667aa2:3b0e7280:033ad75e:4efe13f9
     Events : 0.103392

Number   Major   Minor   RaidDevice State
   0       8       17        0      active sync   /dev/sdb1
   1       8       33        1      active sync   /dev/sdc1
   2       8       49        2      active sync   /dev/sdd1
   3       8       65        3      active sync   /dev/sde1
   4       0        0        4      removed

[/code]

J’ai l’impression que tous mes disques fonctionnent, et ils apparaissent ds /dev :

# ls /dev/sd sda sda1 sdb sdb1 sdc sdc1 sdd sdd1 sde sde1 sdf

Par contre comment je peux savoir quel est le disque “removed” ? /dev/sdf? ou /dev/sda(1) ?
Sachant que ma racine n’est pas sur le raid, mais sur un disque IDE, et que mon /dev ne comporte pas de /dev/hdx…

Merci à vous…

Bon je me suis décidé pour /dev/sdf, et il semblerait que se c’était le bon :smiley:

# mdadm /dev/md0 -a /dev/sdf mdadm: re-added /dev/sdf

Pourquoi re-added ? Et comment se fait-il qu’un disque en état de marche se soit retiré (sans intervention de ma part) de la grappe raid ?
J’ai besoins des éclaircissements d’un gourou de mdadm…

Bonjour, je refait un petit up :
ce matin lors de mon # mdadm --detail /dev/md0 hebdomadaire j’obtiens à nouveau ceci :

[code]# mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Mon Jan 26 16:02:10 2009
Raid Level : raid5
Array Size : 3907039744 (3726.04 GiB 4000.81 GB)
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Raid Devices : 5
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Sun May  8 15:06:10 2011
      State : clean, degraded

Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0

     Layout : left-symmetric
 Chunk Size : 64K

       UUID : 20667aa2:3b0e7280:033ad75e:4efe13f9
     Events : 0.110444

Number   Major   Minor   RaidDevice State
   0       8        1        0      active sync   /dev/sda1
   1       8       17        1      active sync   /dev/sdb1
   2       8       33        2      active sync   /dev/sdc1
   3       8       49        3      active sync   /dev/sdd1
   4       0        0        4      removed

[/code]
Le disque /dev/sdf manque à nouveau à l’appel (la machine n’a pourtant pas bougée et n’a presque pas été utilisée ni même allumée (quelques heures…)

À même maux même remède je tente :

# mdadm /dev/md0 -a /dev/sdf mdadm: Cannot open /dev/sdf: Device or resource busy
un fdisk -l m’indique qu’il existe une partition /dev/sdf1, je ne sais pas d’où elle soret celle-là…

# mdadm /dev/md0 -a /dev/sdf1 mdadm: Cannot open /dev/sdf1: Device or resource busy

Bon je ne sais plus quoi faire en deux mois c’est la deuxième fois que ça me fait ça je ne comprends pas et je suis stressé : j’ai des données importantes là-dessus…

Si un pro du raid pouvait éclairer ma route vous m’en verriez ravi !

merci à vous !

Bonjour,

Il est possible que le disque soit défectueux.

As-tu regardé les journaux de l’hôte ? (dmesg,/var/log/messages,/var/log/syslog) ?

Il doit certainement avoir une trace pour pratiquer un diagnostic.

Tu peux aussi lancer la commande:
mdadm --detail --scan

Sinon c’est un disque sata, tu peux utiliser la technologie smart pour diagnostiquer le disque défaillanr (smartctl).

Si le disque est défaillant, tu peux le remplacer.

Cordialement.

Finalement j’ai simplement redémarré la machine et mdadm a bien voulu le rajouter à la grappe (mais il a dû tout reconstruire…)
C’est étrange tout de même (et ça fait deux fois que ça se produit…)

# mdadm --detail --scan ARRAY /dev/md0 metadata=0.90 UUID=20667aa2:3b0e7280:033ad75e:4efe13f9
ça ne donne pas grand chose…

Merci à vous !