Crash raid5, disque toujours vivant ?

Bon j’ai donc intaller Debian Lenny ils y a quelques temps.
mon /home est en raid5 (MD5) de 4 disque durs (grâce à mdadm)

Or ce matin je me rend compte que sur le raid un des des disk n’est plus marquer comme active (depuis quelques temps j’imagine)
J’ai donc voulut le rajouter avec

Tous ce passe bien , enfin c’est long la restauration et la bim en plein milieu coupure d’électricité !
Je redémarre donc et la c’est devenu le merdier.

j’ai donc plus de /home

La commande :

Me donne :

[code]/dev/md5:
Version : 00.90
Creation Time : Sun Dec 21 20:16:43 2008
Raid Level : raid5
Used Dev Size : 156577408 (460.63 GiB 494.59 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 5
Persistence : Superblock is persistent

Update Time : Mon Aug 3 10:19:26 2009
      State : active, degraded, Not Started

Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1

     Layout : left-symmetric
 Chunk Size : 64K

       UUID : ae676d5a:2c22caa6:4e59870f:844b8b80
     Events : 0.1797

Number   Major   Minor   RaidDevice State
   0       8        3        0      active sync   /dev/sda3
   1       8       22        1      active sync   /dev/sdb3
   2       8       38        2      active sync   /dev/sdd3
   3       0        0        3      removed

   4       8       35        -      spare   /dev/sdc3[/code]

Si je tente d’add sdc3 il me sort :

Bref je sais vraiment pas quoi faire et j’ai surtout peur de tout perdre (si ce n’est pas déja fait…)

Ce que je ne comprend pas d’ailleurs (outre le fait que ça ne marche pas) c’est l’apparition d’une 5eme ligne removed alors que mon raid est composer que de 4 disque…

Je suis preneur de tout avis ou conseil sur la situation,

Merci d’avance.

Edit: Je précise que dans le BIOS tout les les disques sont OK

alors, en premier lieu, il y un des disques (si tu as de la chance, celui que tu resynchronisais dans le raid) qui n’est pas au bon endroit.

Ce que je te conseille:

  • achète toi un onduleur (ça évitera ce genre de pbs…)

pour l’instant vire le disque de “spare” de l’ensemble et vérifie que ton raid5 se monte bien EN READ-ONLY (pour être sûr de ne pas avoir de pbs derrière), regarde le man de mdadm pour ça. Apparement, ton système dit que le raid5 est tjrs actif

ATTENTION !!! la suite n’est à faire que si tu es sûr d’avoir tes fichiers intacts sur les 3 disques, sinon, tu risque de tout perdre !!!

Si c’est bon et que tous tes fichiers sont intacts (croise les doigts), tu peux passer à l’analyse de ton disque “busy”. essaie de le réinclure dans ton raid, et si ça foire, vire le superblock du disque (man mdadm est toujours ton ami), et retente de l’inclure en tant que disque “neuf”.

Bon, d’un autre coté, regarde un peu sur google, des posts similaires doivent exister…

Bon alors tout d’abord merci pour la réponse,

Pour l’onduleur, j’ai toujours pensé que c’était gadget mais j’ai ouverts les yeux aujourhui :-/

Pour en revenir au problème, il y à 2 point qui me chiffonnent :

mdadm --manage /dev/md5 --add /dev/sdc3
mdadm: Cannot open /dev/sdc3: Device or resource busy
mdadm --manage /dev/md5 -r /dev/sdc3
mdadm: hot remove failed for /dev/sdc3: No such device

C’est comme si sdc3 n’existait pas. (Le disque ne serai t’il pas mort? Comment vérifier ?)

2ème problème à quoi correspond la ligne :

comment la supprimée ?

PS : J’avais déjà bien gratter sur google avant de poster, et je suis venu ici justement car je ne trouvais rien s’explicite.

Edit :
Je ne comprend également pas pourquoi il me dis que md5 est actif quand je fait un :

alors que quand je tape un cat /proc/mdstat

il me donne :

md5 : inactive sda3[0] sdc3[4](S) sdd3[2] sdb3[1] 1932008704 blocks

Bon pour la ligne removed j’ai compris qu’il ne s’agit juste d’un ligne informative permettant de voir qu’il y a normalement une partition dans la raid mais qu’elle est enlevée actuellement.

Concernant le No such Device que j’ai à chaque commande que te tape touchane de près ou de loin /dev/sdc3 je suis beaucoup plus inquiet.

Comment savoir si le disque est toujours opérationnel ? (car le bios le détecte bien mais après…

Bon après avoir débrancher le disque /dev/sdc
je tape :

et j’obtiens:

mdadm -R /dev/md5 [ 606.912284] raid5: cannot start dirty degraded array for md5 [ 606.912284] raid5: failed to run raid set md5 [ 606.912284] md: pers->run() failed ... mdadm: failed to run array /dev/md5: Input/output error

Le raid ne ce lance donc même pas sans le disque en question, il dois y avoir un problème à ce niveau,

qqn à une idée ?

RAid récuperer :
Solution :

mdadm --stop /dev/md5
mdadm --assemble --force /dev/md5
mdadm /dev/md5 -r /dev/sdc3
mdadm /dev/md5 -a /dev/sdc3