Je n’en ai pas la moindre idée, n’ayant jamais utilisé ce type de RAID.
Tente la modification de mdadm.conf, de toute façon ça ne peut pas être pire.
voilà le résultat de update-initramfs -u
# update-initramfs -u
update-initramfs: Generating /boot/initrd.img-3.16.0-4-686-pae
W: mdadm: the array /dev/md/imsm0 with UUID metadata=imsm
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.
W: mdadm: the array /dev/md/raidlin_0 with UUID 91449a9d:9242bfe9:d99bceb0:a59f9314
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.
et mkconf renvoi le mauvais mdadm.conf :
[code]# /usr/share/mdadm/mkconf
mdadm.conf
Please refer to mdadm.conf(5) for information about this file.
by default (built-in), scan all partitions (/proc/partitions) and all
containers for MD superblocks. alternatively, specify devices to scan, using
wildcards if desired.
#DEVICE /dev/sdb?* /dev/sdc?*
auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
automatically tag new arrays as belonging to the local system
HOMEHOST
instruct the monitoring daemon where to send mail alerts
MAILADDR root
definitions of existing MD arrays
ARRAY metadata=imsm UUID=d9cfa6d9:2a715e4f:1fbc2095:be342429
ARRAY /dev/md/raidlin container=d9cfa6d9:2a715e4f:1fbc2095:be342429 member=0 UUID=91449a9d:9242bfe9:d99bceb0:a59f9314
ARRAY /dev/md0 UUID=350e253f:863b7b04:b1617c47:b213a024
ARRAY /dev/md1 UUID=086e68ed:3607317f:60b56e23:6bae62bc
ARRAY /dev/md2 UUID=0f6e3ed5:aeee975a:c3647deb:763d68ce
ARRAY /dev/md3 UUID=6b560fe8:f24d6f2e:8942bd3a:1903abbc
ARRAY /dev/md4 UUID=462dab96:b7ca2a17:7c4aebf1:d4d7ec3b
ARRAY /dev/md5 UUID=ea511351:3abc7b12:4c81e838:93dbd21a
ARRAY /dev/md6 UUID=da0d76c6:91422584:dc3d6162:37ced53b
ARRAY /dev/md7 UUID=387c831c:8a6d05e3:b649696c:0870b930
ARRAY /dev/md8 UUID=b07c4ab4:39d0ba53:9913afa9:fd9cc323
This configuration was auto-generated on Fri, 01 May 2015 12:12:14 +0200 by mkconf
[/code]
C’est normal, pas de quoi s’inquiéter.
Si aucun répertoire système n’est sur un des volumes RAID, tu ne risques rien.
ben quand même (mais cela ne concerne pas le md qui pose soucis :
# df -k
Sys. fich. 1K-blocks Util. Disponible Uti% Monté sur
rootfs 4873408 1354372 3519036 28% /
udev 10240 0 10240 0% /dev
tmpfs 830572 2820 827752 1% /run
/dev/md1 4873408 1354372 3519036 28% /
tmpfs 5120 0 5120 0% /run/lock
tmpfs 2051500 0 2051500 0% /run/shm
/dev/md0 459048 81495 353061 19% /boot
/dev/md3 4873408 33100 4840308 1% /tmp
/dev/md4 9757184 3800216 5956968 39% /usr
/dev/md5 4873408 3458108 1415300 71% /var
/dev/md8 4873408 1542664 3330744 32% /var/lib
/dev/md6 4873408 415912 4457496 9% /var/log
/dev/md7 4873408 360480 4512928 8% /var/spool
/dev/sda1 122940780 6064204 110608504 6% /home/archives/downloads
/dev/md126p11 202585004 142435512 60149492 71% /home
/dev/sda1 122940780 6064204 110608504 6% /home/archives/downloads
(oui sda1 est affiché deux fois, ne me demandez pas pourquoi…)
Effectivement…
Au pire, tu peux préparer une version d’initramfs incluant chaque version de mdadm.conf :
- mise en place de la version originelle modifiée de mdadm.conf
- update-initramfs -u
(normalement, tu en est déjà là) - copie de /boot/initrd.img-3.16.0-4-686-pae en /boot/initrd.img-3.16.0-4-686-pae.old
- remise en place de la version originelle non modifiée de mdadm.conf
- update-initramfs -u
Par défaut le système démarrera avec la version originelle non modifiée de mdadm.conf.
Au démarrage tu pourras choisir de charger l’initramfs avec la version originelle modifiée en éditant la ligne [mono]initrd[/mono] dans le menu de GRUB (touche ‘e’).
Après reboot, je n’ai plus de md126 :
[code]# cat /proc/mdstat
Personalities : [raid1]
md5 : active raid1 sdb7[0]
4883648 blocks [2/1] [U_]
md7 : active raid1 sdc9[0]
4883648 blocks [2/1] [U_]
md8 : active raid1 sdb10[0]
4883648 blocks [2/1] [U_]
md0 : active raid1 sdb1[0]
489856 blocks [2/1] [U_]
md6 : active raid1 sdc8[0]
4883648 blocks [2/1] [U_]
md3 : active raid1 sdb5[0]
4883648 blocks [2/1] [U_]
md4 : active raid1 sdc6[0]
9767424 blocks [2/1] [U_]
md1 : active raid1 sdc2[0]
4883648 blocks [2/1] [U_]
md2 : active (auto-read-only) raid1 sdc3[0]
1951808 blocks [2/1] [U_]
md9 : active raid1 sdc11[0] sdb11[1]
202683968 blocks [2/2] [UU]
unused devices:
[/code]
Merci
En revanche, à part md9, tous mes autres Array sont toujours déclarés en [U_]
dmesg :
[ 1.909289] md: bind<sdb11>
[ 2.078528] md: bind<sdc3>
[ 2.087361] md: raid1 personality registered for level 1
[ 2.087601] md/raid1:md2: active with 1 out of 2 mirrors
[ 2.087626] md2: detected capacity change from 0 to 1998651392
[ 2.098852] md: bind<sdc2>
[ 2.099313] md2: unknown partition table
[ 2.100888] md/raid1:md1: active with 1 out of 2 mirrors
[ 2.100914] md1: detected capacity change from 0 to 5000855552
[ 2.101407] md: bind<sdc6>
[ 2.101467] md1: unknown partition table
[ 2.103416] md/raid1:md4: active with 1 out of 2 mirrors
[ 2.103440] md4: detected capacity change from 0 to 10001842176
[ 2.104116] md: bind<sdb5>
[ 2.104293] md4: unknown partition table
[ 2.105890] md/raid1:md3: active with 1 out of 2 mirrors
[ 2.105916] md3: detected capacity change from 0 to 5000855552
[ 2.106552] md3: unknown partition table
[ 2.117521] md: bind<sdc8>
[ 2.119028] md/raid1:md6: active with 1 out of 2 mirrors
[ 2.119054] md6: detected capacity change from 0 to 5000855552
[ 2.124589] md6: unknown partition table
[ 2.152369] md: bind<sdb1>
[ 2.153695] md/raid1:md0: active with 1 out of 2 mirrors
[ 2.153719] md0: detected capacity change from 0 to 501612544
[ 2.162158] md0: unknown partition table
[ 2.205798] md: bind<sdc11>
[ 2.207209] md/raid1:md9: active with 2 out of 2 mirrors
[ 2.207235] md9: detected capacity change from 0 to 207548383232
[ 2.207705] md9: unknown partition table
[ 2.219695] md: bind<sdb10>
[ 2.221090] md/raid1:md8: active with 1 out of 2 mirrors
[ 2.221117] md8: detected capacity change from 0 to 5000855552
[ 2.228791] md8: unknown partition table
[ 2.302280] md: bind<sdc9>
[ 2.303915] md/raid1:md7: active with 1 out of 2 mirrors
[ 2.303941] md7: detected capacity change from 0 to 5000855552
[ 2.304483] md7: unknown partition table
[ 2.330236] md: bind<sdb7>
[ 2.331572] md/raid1:md5: active with 1 out of 2 mirrors
[ 2.331597] md5: detected capacity change from 0 to 5000855552
[ 2.344325] md5: unknown partition table
[ 5.151056] XFS (md1): Mounting V4 Filesystem
[ 5.242630] XFS (md1): Ending clean mount
[ 10.949618] Adding 1951804k swap on /dev/md2. Priority:-1 extents:1 across:1951804k FS
[ 11.918094] EXT4-fs (md0): mounting ext2 file system using the ext4 subsystem
[ 11.944073] EXT4-fs (md0): mounted filesystem without journal. Opts: (null)
[ 11.973837] XFS (md9): Mounting V4 Filesystem
[ 12.238926] XFS (md9): Ending clean mount
[ 12.258201] XFS (md3): Mounting V4 Filesystem
[ 12.477319] XFS (md3): Ending clean mount
[ 12.500441] XFS (md4): Mounting V4 Filesystem
[ 21.168788] XFS (md4): Ending clean mount
[ 21.186143] XFS (md5): Mounting V4 Filesystem
[ 21.375494] XFS (md5): Ending clean mount
[ 21.400560] XFS (md8): Mounting V4 Filesystem
[ 30.117191] XFS (md8): Ending clean mount
[ 30.138897] XFS (md6): Mounting V4 Filesystem
[ 30.321242] XFS (md6): Ending clean mount
[ 30.348642] XFS (md7): Mounting V4 Filesystem
[ 47.723643] XFS (md7): Ending clean mount
daemon.log:
May 1 12:55:07 shax mdadm[3523]: DegradedArray event detected on md device /dev/md8
May 1 12:55:08 shax mdadm[3523]: DegradedArray event detected on md device /dev/md7
May 1 12:55:09 shax mdadm[3523]: DegradedArray event detected on md device /dev/md6
May 1 12:55:09 shax mdadm[3523]: DegradedArray event detected on md device /dev/md5
May 1 12:55:10 shax mdadm[3523]: DegradedArray event detected on md device /dev/md4
May 1 12:55:11 shax mdadm[3523]: DegradedArray event detected on md device /dev/md3
May 1 12:55:11 shax mdadm[3523]: DegradedArray event detected on md device /dev/md2
May 1 12:55:12 shax mdadm[3523]: DegradedArray event detected on md device /dev/md1
May 1 12:55:13 shax mdadm[3523]: DegradedArray event detected on md device /dev/md0
les mdadm -E :
[code]# mdadm -E /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 0.90.00
UUID : 350e253f:863b7b04:b1617c47:b213a024
Creation Time : Mon May 7 20:29:35 2007
Raid Level : raid1
Used Dev Size : 489856 (478.46 MiB 501.61 MB)
Array Size : 489856 (478.46 MiB 501.61 MB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 0
Update Time : Fri May 1 12:53:50 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 63745f3f - correct
Events : 1805
Number Major Minor RaidDevice State
this 0 8 17 0 active sync /dev/sdb1
0 0 8 17 0 active sync /dev/sdb1
1 1 0 0 1 faulty removed
mdadm -E /dev/sdb2
/dev/sdb2:
Magic : a92b4efc
Version : 0.90.00
UUID : 086e68ed:3607317f:60b56e23:6bae62bc
Creation Time : Mon May 7 20:29:41 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 1
Update Time : Fri May 1 12:53:06 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 4fd23362 - correct
Events : 4952
Number Major Minor RaidDevice State
this 0 259 1 0 active sync
0 0 259 1 0 active sync
1 1 0 0 1 faulty removed
mdadm -E /dev/sdb3
/dev/sdb3:
Magic : a92b4efc
Version : 0.90.00
UUID : 0f6e3ed5:aeee975a:c3647deb:763d68ce
Creation Time : Mon May 7 20:29:48 2007
Raid Level : raid1
Used Dev Size : 1951808 (1906.38 MiB 1998.65 MB)
Array Size : 1951808 (1906.38 MiB 1998.65 MB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 2
Update Time : Fri May 1 12:11:02 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 3ccaa574 - correct
Events : 1723
Number Major Minor RaidDevice State
this 0 259 2 0 active sync
0 0 259 2 0 active sync
1 1 0 0 1 faulty removed
mdadm -E /dev/sdb4
/dev/sdb4:
MBR Magic : aa55
Partition[0] : 9767457 sectors at 63 (type fd)
Partition[1] : 19535040 sectors at 9767520 (type 05)
mdadm -E /dev/sdb5
/dev/sdb5:
Magic : a92b4efc
Version : 0.90.00
UUID : 6b560fe8:f24d6f2e:8942bd3a:1903abbc
Creation Time : Mon May 7 20:29:55 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 3
Update Time : Fri May 1 13:01:53 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 44e2e7a1 - correct
Events : 12014
Number Major Minor RaidDevice State
this 0 8 21 0 active sync /dev/sdb5
0 0 8 21 0 active sync /dev/sdb5
1 1 0 0 1 faulty removed
mdadm -E /dev/sdb6
/dev/sdb6:
Magic : a92b4efc
Version : 0.90.00
UUID : 462dab96:b7ca2a17:7c4aebf1:d4d7ec3b
Creation Time : Mon May 7 20:30:02 2007
Raid Level : raid1
Used Dev Size : 9767424 (9.31 GiB 10.00 GB)
Array Size : 9767424 (9.31 GiB 10.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 4
Update Time : Fri May 1 12:53:05 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 945df0ee - correct
Events : 3623
Number Major Minor RaidDevice State
this 0 259 5 0 active sync
0 0 259 5 0 active sync
1 1 0 0 1 faulty removed
mdadm -E /dev/sdb7
/dev/sdb7:
Magic : a92b4efc
Version : 0.90.00
UUID : ea511351:3abc7b12:4c81e838:93dbd21a
Creation Time : Mon May 7 20:30:09 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 5
Update Time : Fri May 1 13:02:01 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 4a644eee - correct
Events : 12850
Number Major Minor RaidDevice State
this 0 8 23 0 active sync /dev/sdb7
0 0 8 23 0 active sync /dev/sdb7
1 1 0 0 1 faulty removed
mdadm -E /dev/sdb8
/dev/sdb8:
Magic : a92b4efc
Version : 0.90.00
UUID : da0d76c6:91422584:dc3d6162:37ced53b
Creation Time : Mon May 7 20:30:15 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 6
Update Time : Fri May 1 12:53:04 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c455f408 - correct
Events : 49092
Number Major Minor RaidDevice State
this 0 259 7 0 active sync
0 0 259 7 0 active sync
1 1 0 0 1 faulty removed
mdadm -E /dev/sdb9
/dev/sdb9:
Magic : a92b4efc
Version : 0.90.00
UUID : 387c831c:8a6d05e3:b649696c:0870b930
Creation Time : Mon May 7 20:30:21 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 7
Update Time : Fri May 1 12:53:04 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c69c7fd8 - correct
Events : 6478
Number Major Minor RaidDevice State
this 0 259 8 0 active sync
0 0 259 8 0 active sync
1 1 0 0 1 faulty removed
mdadm -E /dev/sdb10
/dev/sdb10:
Magic : a92b4efc
Version : 0.90.00
UUID : b07c4ab4:39d0ba53:9913afa9:fd9cc323
Creation Time : Mon May 7 20:30:28 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 8
Update Time : Fri May 1 13:02:10 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c5f70c47 - correct
Events : 31037
Number Major Minor RaidDevice State
this 0 8 26 0 active sync /dev/sdb10
0 0 8 26 0 active sync /dev/sdb10
1 1 0 0 1 faulty removed
mdadm -E /dev/sdb11
/dev/sdb11:
Magic : a92b4efc
Version : 0.90.00
UUID : 36c4edd0:a0492cc9:0cd2fce0:2745e358
Creation Time : Mon May 7 20:30:34 2007
Raid Level : raid1
Used Dev Size : 202683968 (193.29 GiB 207.55 GB)
Array Size : 202683968 (193.29 GiB 207.55 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 9
Update Time : Fri May 1 13:01:52 2015
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Checksum : 5be9ddbf - correct
Events : 1957
Number Major Minor RaidDevice State
this 1 8 27 1 active sync /dev/sdb11
0 0 8 43 0 active sync /dev/sdc11
1 1 8 27 1 active sync /dev/sdb11
[/code]
[code]# mdadm -E /dev/sdc1
/dev/sdc1:
Magic : a92b4efc
Version : 0.90.00
UUID : 350e253f:863b7b04:b1617c47:b213a024
Creation Time : Mon May 7 20:29:35 2007
Raid Level : raid1
Used Dev Size : 489856 (478.46 MiB 501.61 MB)
Array Size : 489856 (478.46 MiB 501.61 MB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 0
Update Time : Fri May 1 12:53:05 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 637460e2 - correct
Events : 1803
Number Major Minor RaidDevice State
this 0 259 0 0 active sync
0 0 259 0 0 active sync
1 1 0 0 1 faulty removed
mdadm -E /dev/sdc2
/dev/sdc2:
Magic : a92b4efc
Version : 0.90.00
UUID : 086e68ed:3607317f:60b56e23:6bae62bc
Creation Time : Mon May 7 20:29:41 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 1
Update Time : Fri May 1 13:01:45 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 4fd233f9 - correct
Events : 4986
Number Major Minor RaidDevice State
this 0 8 34 0 active sync /dev/sdc2
0 0 8 34 0 active sync /dev/sdc2
1 1 0 0 1 faulty removed
mdadm -E /dev/sdc3
/dev/sdc3:
Magic : a92b4efc
Version : 0.90.00
UUID : 0f6e3ed5:aeee975a:c3647deb:763d68ce
Creation Time : Mon May 7 20:29:48 2007
Raid Level : raid1
Used Dev Size : 1951808 (1906.38 MiB 1998.65 MB)
Array Size : 1951808 (1906.38 MiB 1998.65 MB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 2
Update Time : Fri May 1 12:11:02 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 3ccaa574 - correct
Events : 1723
Number Major Minor RaidDevice State
this 0 259 2 0 active sync
0 0 259 2 0 active sync
1 1 0 0 1 faulty removed
mdadm -E /dev/sdc4
/dev/sdc4:
MBR Magic : aa55
Partition[0] : 9767457 sectors at 63 (type fd)
Partition[1] : 19535040 sectors at 9767520 (type 05)
mdadm -E /dev/sdc5
/dev/sdc5:
Magic : a92b4efc
Version : 0.90.00
UUID : 6b560fe8:f24d6f2e:8942bd3a:1903abbc
Creation Time : Mon May 7 20:29:55 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 3
Update Time : Fri May 1 12:53:05 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 44e2e71d - correct
Events : 11978
Number Major Minor RaidDevice State
this 0 259 4 0 active sync
0 0 259 4 0 active sync
1 1 0 0 1 faulty removed
mdadm -E /dev/sdc6
/dev/sdc6:
Magic : a92b4efc
Version : 0.90.00
UUID : 462dab96:b7ca2a17:7c4aebf1:d4d7ec3b
Creation Time : Mon May 7 20:30:02 2007
Raid Level : raid1
Used Dev Size : 9767424 (9.31 GiB 10.00 GB)
Array Size : 9767424 (9.31 GiB 10.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 4
Update Time : Fri May 1 12:57:30 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 945df063 - correct
Events : 3639
Number Major Minor RaidDevice State
this 0 8 38 0 active sync /dev/sdc6
0 0 8 38 0 active sync /dev/sdc6
1 1 0 0 1 faulty removed
mdadm -E /dev/sdc7
/dev/sdc7:
Magic : a92b4efc
Version : 0.90.00
UUID : ea511351:3abc7b12:4c81e838:93dbd21a
Creation Time : Mon May 7 20:30:09 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 5
Update Time : Fri May 1 12:53:04 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 4a644e45 - correct
Events : 12800
Number Major Minor RaidDevice State
this 0 259 6 0 active sync
0 0 259 6 0 active sync
1 1 0 0 1 faulty removed
mdadm -E /dev/sdc8
/dev/sdc8:
Magic : a92b4efc
Version : 0.90.00
UUID : da0d76c6:91422584:dc3d6162:37ced53b
Creation Time : Mon May 7 20:30:15 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 6
Update Time : Fri May 1 13:02:41 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c455f565 - correct
Events : 49196
Number Major Minor RaidDevice State
this 0 8 40 0 active sync /dev/sdc8
0 0 8 40 0 active sync /dev/sdc8
1 1 0 0 1 faulty removed
mdadm -E /dev/sdc9
/dev/sdc9:
Magic : a92b4efc
Version : 0.90.00
UUID : 387c831c:8a6d05e3:b649696c:0870b930
Creation Time : Mon May 7 20:30:21 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 7
Update Time : Fri May 1 13:02:28 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c69c80c4 - correct
Events : 6532
Number Major Minor RaidDevice State
this 0 8 41 0 active sync /dev/sdc9
0 0 8 41 0 active sync /dev/sdc9
1 1 0 0 1 faulty removed
mdadm -E /dev/sdc10
/dev/sdc10:
Magic : a92b4efc
Version : 0.90.00
UUID : b07c4ab4:39d0ba53:9913afa9:fd9cc323
Creation Time : Mon May 7 20:30:28 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 8
Update Time : Fri May 1 12:53:04 2015
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c5f70b51 - correct
Events : 30953
Number Major Minor RaidDevice State
this 0 259 9 0 active sync
0 0 259 9 0 active sync
1 1 0 0 1 faulty removed
mdadm -E /dev/sdc11
/dev/sdc11:
Magic : a92b4efc
Version : 0.90.00
UUID : 36c4edd0:a0492cc9:0cd2fce0:2745e358
Creation Time : Mon May 7 20:30:34 2007
Raid Level : raid1
Used Dev Size : 202683968 (193.29 GiB 207.55 GB)
Array Size : 202683968 (193.29 GiB 207.55 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 9
Update Time : Fri May 1 13:02:22 2015
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Checksum : 5be9ddeb - correct
Events : 1957
Number Major Minor RaidDevice State
this 0 8 43 0 active sync /dev/sdc11
0 0 8 43 0 active sync /dev/sdc11
1 1 8 27 1 active sync /dev/sdb11
[/code]
et mdadm -Es renvoit les bons md:
# mdadm -Es
ARRAY /dev/md0 UUID=350e253f:863b7b04:b1617c47:b213a024
ARRAY /dev/md8 UUID=b07c4ab4:39d0ba53:9913afa9:fd9cc323
ARRAY /dev/md9 UUID=36c4edd0:a0492cc9:0cd2fce0:2745e358
ARRAY /dev/md1 UUID=086e68ed:3607317f:60b56e23:6bae62bc
ARRAY /dev/md2 UUID=0f6e3ed5:aeee975a:c3647deb:763d68ce
ARRAY /dev/md3 UUID=6b560fe8:f24d6f2e:8942bd3a:1903abbc
ARRAY /dev/md4 UUID=462dab96:b7ca2a17:7c4aebf1:d4d7ec3b
ARRAY /dev/md5 UUID=ea511351:3abc7b12:4c81e838:93dbd21a
ARRAY /dev/md6 UUID=da0d76c6:91422584:dc3d6162:37ced53b
ARRAY /dev/md7 UUID=387c831c:8a6d05e3:b649696c:0870b930
L’assemblage erroné précédent des ensembles RAID n’a pas dû faire du bien aux superblocs.
Au lieu qu’il y ait des paires de partitions RAID 1 avec chacune son superbloc, c’était vu comme un ensemble RAID 1 partitionné (le fameux /dev/mda126) contenant une seule partition par ensemble RAID /dev/md*. C’est à ce moment que les ensembles /dev/md* assemblés ont dû être marqués comme dégradés avec un membre manquant. Seul /dev/md9, dont les superblocs n’était pas visibles et qui n’a pas été assemblé, a été préservé.
Tu peux lancer la reconstruction des autres ensembles en ajoutant la partition membre manquante avec [mono]mdadm /dev/mdx --add /dev/sdxx[/mono] (un à la fois, sinon ça va ramer dur).
Quand même, il faudrait trouver comment effacer les méta-données du container imsm sur /dev/sdb et /dev/sdc pour éviter que ce gag se reproduise. L’option [mono]–zero-superblock[/mono] est prévue pour cela mais je ne sais pas comment elle se comporte avec ce type de méta-données, et si elle ne risque pas d’altérer le superbloc de la dernière partition. Je suppose qu’il faudrait ajouter l’option [mono]–metadata=imsm[/mono].
je lance déjà la reconstruction
Merci à toi pour ton aide !
[strike]Comment je sais que c’est fini ?[/strike] c’est bon j’ai trouvé (cat /proc/mdstat)
voici ce que ça donne après un mdadm /dev/md0 --add /dev/sdc1 :
mdstat :
[code]cat /proc/mdstat
Personalities : [raid1]
md5 : active raid1 sdb7[0]
4883648 blocks [2/1] [U_]
md7 : active raid1 sdc9[0]
4883648 blocks [2/1] [U_]
md8 : active raid1 sdb10[0]
4883648 blocks [2/1] [U_]
md0 : active raid1 sdc1[1] sdb1[0]
489856 blocks [2/2] [UU]
md6 : active raid1 sdc8[0]
4883648 blocks [2/1] [U_]
md3 : active raid1 sdb5[0]
4883648 blocks [2/1] [U_]
md4 : active raid1 sdc6[0]
9767424 blocks [2/1] [U_]
md1 : active raid1 sdc2[0]
4883648 blocks [2/1] [U_]
md2 : active (auto-read-only) raid1 sdc3[0]
1951808 blocks [2/1] [U_]
md9 : active raid1 sdc11[0] sdb11[1]
202683968 blocks [2/2] [UU]
[/code]
Je note que ce n’est pas toujours le sdc qui est marqué en faultly, dès fois c’est sdb !
Ce serait bien qu’au final, toutes les partitions actives soient sur le même disque…
Pour chaque ensemble /dev/md, il faudra veiller à ajouter la partition manquante, qu’elle soit sur sdb ou sdc. Une fois ceci terminé, les partitions des deux disques seront actives.
Je viens de tester sur un disque où j’ai créé une situation similaire (métadonnées Intel Matrix Storage et partition RAID 0.9 en fin de disque).
a effacé les métadonnées du container imsm situé à la fin du disque sans effacer le superbloc de la partition.
voilà le résultat final :
[code]# cat /proc/mdstat
Personalities : [raid1]
md5 : active raid1 sdc7[1] sdb7[0]
4883648 blocks [2/2] [UU]
md7 : active raid1 sdb9[1] sdc9[0]
4883648 blocks [2/2] [UU]
md8 : active raid1 sdc10[1] sdb10[0]
4883648 blocks [2/2] [UU]
md0 : active raid1 sdc1[1] sdb1[0]
489856 blocks [2/2] [UU]
md6 : active raid1 sdb8[1] sdc8[0]
4883648 blocks [2/2] [UU]
md3 : active raid1 sdc5[1] sdb5[0]
4883648 blocks [2/2] [UU]
md4 : active raid1 sdb6[1] sdc6[0]
9767424 blocks [2/2] [UU]
md1 : active raid1 sdb2[1] sdc2[0]
4883648 blocks [2/2] [UU]
md2 : active raid1 sdb3[1] sdc3[0]
1951808 blocks [2/2] [UU]
md9 : active raid1 sdc11[0] sdb11[1]
202683968 blocks [2/2] [UU]
[/code]
Est-ce qu’il y a moyen d’homogénéisé les partitions primaires actives ?
ex : avoir sdb en primaire partout
[quote=“PascalHambourg”]mdadm --zero-superblock --metadata=imsm /dev/sdb
a effacé les métadonnées du container imsm situé à la fin du disque sans effacer le superbloc de la partition.[/quote]
tu conseilles de faire ça ? sur sdb et sdc ?
[quote=“sioban”]Est-ce qu’il y a moyen d’homogénéisé les partitions primaires actives ?
ex : avoir sdb en primaire partout[/quote]
Dans l’immédiat je ne vois pas, et surtout je n’en vois pas l’intérêt autre qu’esthétique.
Ah, dilemme.
D’un côté il y a un risque (minime vu l’écart entre la fin de la dernière partition et la fin du disque) d’endommager le superbloc de la dernière partition, et on a coutume de dire que si ça marche il vaut mieux ne toucher à rien.
D’un autre côté, ça ne marche que parce qu’on a exclu les disques entiers comme membres potentiels dans mdadm.conf. Donc si un jour tu refais une configuration par défaut, ou si tu dois booter avec un autre système pour réparer ou autre, le problème risque de se reproduire. Une correction définitive et pérenne serait donc préférable.
Je suggèrerais de le faire sur un seul disque, puis de vérifier avec [mono]mdadm -E[/mono] que le superbloc de sa dernière partition est intact. Dans ce cas tu pourras le faire aussi sur l’autre disque et vérifier le superbloc de sa dernière partition.
en fait ça ne marche pas :
# mdadm --zero-superblock --metadata=imsm /dev/sdb
mdadm: Couldn't open /dev/sdb for write - not zeroing
Pour le coup d’avoir toutes les partitions primaire du raid sur un même disque, c’est que si je me retrouve de nouveau dans l’état d’avant à avoir un mix de partitions active/fail sur un disque et l’autre, ça signifie que si un disque meurt dans cet état, je perds tout…
# mdadm --zero-superblock --metadata=imsm /dev/sdb
mdadm: Couldn't open /dev/sdb for write - not zeroing
Effectivement, j’ai ça aussi si au moins une partition du disque est en cours d’utilisation. Quand j’ai fait mes essais sur un disque de test, j’avais démonté toutes ses partitions et arrêté tous ses ensembles RAID. Mais ce n’est pas possible dans ton cas.
Pour contourner cela, tu peux passer par le shell de l’initramfs en ajoutant [mono]break=mount[/mono] à la ligne de commande du noyau dans le menu de démarrage de GRUB pour que l’initramfs s’interrompe avant l’activation du RAID. Mais le clavier sera en QWERTY, ce n’est pas très pratique. Tu peux aussi le faire depuis l’installateur Debian en mode rescue (ou un autre système live mais il faut s’assurer qu’il n’essaiera pas d’activer le RAID automatiquement).
Ouais, mais rien ne dit que les partitions actives seront toutes celles avec l’index 0 ou 1. Et de toute façon, le but du RAID c’est d’avoir toutes les partitions actives. Si toutes les partitions actives sont sur le disque qui tombe en panne, tu perds tout aussi.
un boot en single marche aussi ?
Pas de soucis pour le qwerty
Non, le boot en single monte la racine qui est en RAID dès l’initramfs et le reste avant de lancer le shell.
Relis mon message précédent car je l’ai modifié entretemps.
ok, je vais faire ça alors.
bon ben au boot, en étant au shell initramfs j’ai la même réponse “mdadm: Couldn’t open /dev/sdb for write - not zeroing”.
Si c’est pas super grave, on va laisser comme ça…
Etonnant. Et avec “break” tout court ?
Tu peux regarder dans /proc/mounts, /proc/swaps et /proc/mdstat s’il y a des partitions déjà montées ou utilisées par le RAID.
Une minute, il faut que je teste si ça peut venir de la partition étendue.