Donc je viens de faire pas mal de test :
J’ai virtualisé une install similaire à la tienne, seul la taille des disques et des partoch change, voici les détails :
2 disques de 3GB chacun
Ensemble md0 :
sda1 + sdb1 -> /boot ext3 de 100Mo
Ensemble md1 :
sda2 + sdb2 -> LVM -> swap de 512Mo + / ext3 de 2.5GB
Là, je simule une grosse panne en éteignant la machine virtuelle et en supprimant l’un des deux disques 
la machine redémarre normalement, et biensur on trouve dans le /proc/mdstat ceci :
[code]debian-raid:~# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda2[0]
3044224 blocks [2/1] [U_]
md0 : active raid1 sda1[0]
96256 blocks [2/1] [U_][/code]
Le résultat de la commande mdadm --detail /dev/md? renvoi bien State : clean, degraded sur les 2 ensembles, et le disque /dev/sdb qui a disparu.
Dans ce cas, même pas besoin de retirer /dev/sdb des ensembles raid puisqu’il n’y est déjà plus. On éteins la machine, on remet un nouveau disque, et on prépare les partoch pour qu’elles soient identiques à celle de /dev/sda. Pour ce faire, utilisons sfdisk qui permet de recopier fidèlement la table des partitions d’un disque à l’autre :
# sfdisk -d /dev/sda | sfdisk /dev/sdb
Puis on rajoute nos partoch /dev/sdb1 et /dev/sdb2 aux ensembles /dev/md0 et /dev/md1 :
# mdadm /dev/md0 --add /dev/sdb1
# mdadm /dev/md1 --add /dev/sdb2
La reconstruction se passe :
[code]debian-raid:~# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdb2[2] sda2[0]
3044224 blocks [2/1] [U_]
[>…] recovery = 2.4% (74176/3044224) finish=2.0min speed=24725K/sec
md0 : active raid1 sdb1[1] sda1[0]
96256 blocks [2/2] [UU]
unused devices:
[/code]
…une fois terminée, tout devrait être rentré dans l’ordre
