[Résolu] Mise à jour vers Jessie et mdadm

Je n’en ai pas la moindre idée, n’ayant jamais utilisé ce type de RAID.
Tente la modification de mdadm.conf, de toute façon ça ne peut pas être pire.

voilà le résultat de update-initramfs -u

# update-initramfs -u update-initramfs: Generating /boot/initrd.img-3.16.0-4-686-pae W: mdadm: the array /dev/md/imsm0 with UUID metadata=imsm W: mdadm: is currently active, but it is not listed in mdadm.conf. if W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE! W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes. W: mdadm: the array /dev/md/raidlin_0 with UUID 91449a9d:9242bfe9:d99bceb0:a59f9314 W: mdadm: is currently active, but it is not listed in mdadm.conf. if W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE! W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.

et mkconf renvoi le mauvais mdadm.conf :

[code]# /usr/share/mdadm/mkconf

mdadm.conf

Please refer to mdadm.conf(5) for information about this file.

by default (built-in), scan all partitions (/proc/partitions) and all

containers for MD superblocks. alternatively, specify devices to scan, using

wildcards if desired.

#DEVICE /dev/sdb?* /dev/sdc?*

auto-create devices with Debian standard permissions

CREATE owner=root group=disk mode=0660 auto=yes

automatically tag new arrays as belonging to the local system

HOMEHOST

instruct the monitoring daemon where to send mail alerts

MAILADDR root

definitions of existing MD arrays

ARRAY metadata=imsm UUID=d9cfa6d9:2a715e4f:1fbc2095:be342429
ARRAY /dev/md/raidlin container=d9cfa6d9:2a715e4f:1fbc2095:be342429 member=0 UUID=91449a9d:9242bfe9:d99bceb0:a59f9314
ARRAY /dev/md0 UUID=350e253f:863b7b04:b1617c47:b213a024
ARRAY /dev/md1 UUID=086e68ed:3607317f:60b56e23:6bae62bc
ARRAY /dev/md2 UUID=0f6e3ed5:aeee975a:c3647deb:763d68ce
ARRAY /dev/md3 UUID=6b560fe8:f24d6f2e:8942bd3a:1903abbc
ARRAY /dev/md4 UUID=462dab96:b7ca2a17:7c4aebf1:d4d7ec3b
ARRAY /dev/md5 UUID=ea511351:3abc7b12:4c81e838:93dbd21a
ARRAY /dev/md6 UUID=da0d76c6:91422584:dc3d6162:37ced53b
ARRAY /dev/md7 UUID=387c831c:8a6d05e3:b649696c:0870b930
ARRAY /dev/md8 UUID=b07c4ab4:39d0ba53:9913afa9:fd9cc323

This configuration was auto-generated on Fri, 01 May 2015 12:12:14 +0200 by mkconf

[/code]

C’est normal, pas de quoi s’inquiéter.
Si aucun répertoire système n’est sur un des volumes RAID, tu ne risques rien.

ben quand même (mais cela ne concerne pas le md qui pose soucis :

# df -k Sys. fich. 1K-blocks Util. Disponible Uti% Monté sur rootfs 4873408 1354372 3519036 28% / udev 10240 0 10240 0% /dev tmpfs 830572 2820 827752 1% /run /dev/md1 4873408 1354372 3519036 28% / tmpfs 5120 0 5120 0% /run/lock tmpfs 2051500 0 2051500 0% /run/shm /dev/md0 459048 81495 353061 19% /boot /dev/md3 4873408 33100 4840308 1% /tmp /dev/md4 9757184 3800216 5956968 39% /usr /dev/md5 4873408 3458108 1415300 71% /var /dev/md8 4873408 1542664 3330744 32% /var/lib /dev/md6 4873408 415912 4457496 9% /var/log /dev/md7 4873408 360480 4512928 8% /var/spool /dev/sda1 122940780 6064204 110608504 6% /home/archives/downloads /dev/md126p11 202585004 142435512 60149492 71% /home /dev/sda1 122940780 6064204 110608504 6% /home/archives/downloads

(oui sda1 est affiché deux fois, ne me demandez pas pourquoi…)

Effectivement…
Au pire, tu peux préparer une version d’initramfs incluant chaque version de mdadm.conf :

  • mise en place de la version originelle modifiée de mdadm.conf
  • update-initramfs -u
    (normalement, tu en est déjà là)
  • copie de /boot/initrd.img-3.16.0-4-686-pae en /boot/initrd.img-3.16.0-4-686-pae.old
  • remise en place de la version originelle non modifiée de mdadm.conf
  • update-initramfs -u

Par défaut le système démarrera avec la version originelle non modifiée de mdadm.conf.
Au démarrage tu pourras choisir de charger l’initramfs avec la version originelle modifiée en éditant la ligne [mono]initrd[/mono] dans le menu de GRUB (touche ‘e’).

Après reboot, je n’ai plus de md126 :

[code]# cat /proc/mdstat
Personalities : [raid1]
md5 : active raid1 sdb7[0]
4883648 blocks [2/1] [U_]

md7 : active raid1 sdc9[0]
4883648 blocks [2/1] [U_]

md8 : active raid1 sdb10[0]
4883648 blocks [2/1] [U_]

md0 : active raid1 sdb1[0]
489856 blocks [2/1] [U_]

md6 : active raid1 sdc8[0]
4883648 blocks [2/1] [U_]

md3 : active raid1 sdb5[0]
4883648 blocks [2/1] [U_]

md4 : active raid1 sdc6[0]
9767424 blocks [2/1] [U_]

md1 : active raid1 sdc2[0]
4883648 blocks [2/1] [U_]

md2 : active (auto-read-only) raid1 sdc3[0]
1951808 blocks [2/1] [U_]

md9 : active raid1 sdc11[0] sdb11[1]
202683968 blocks [2/2] [UU]

unused devices:
[/code]

Merci :wink:

En revanche, à part md9, tous mes autres Array sont toujours déclarés en [U_]

dmesg :

[ 1.909289] md: bind<sdb11> [ 2.078528] md: bind<sdc3> [ 2.087361] md: raid1 personality registered for level 1 [ 2.087601] md/raid1:md2: active with 1 out of 2 mirrors [ 2.087626] md2: detected capacity change from 0 to 1998651392 [ 2.098852] md: bind<sdc2> [ 2.099313] md2: unknown partition table [ 2.100888] md/raid1:md1: active with 1 out of 2 mirrors [ 2.100914] md1: detected capacity change from 0 to 5000855552 [ 2.101407] md: bind<sdc6> [ 2.101467] md1: unknown partition table [ 2.103416] md/raid1:md4: active with 1 out of 2 mirrors [ 2.103440] md4: detected capacity change from 0 to 10001842176 [ 2.104116] md: bind<sdb5> [ 2.104293] md4: unknown partition table [ 2.105890] md/raid1:md3: active with 1 out of 2 mirrors [ 2.105916] md3: detected capacity change from 0 to 5000855552 [ 2.106552] md3: unknown partition table [ 2.117521] md: bind<sdc8> [ 2.119028] md/raid1:md6: active with 1 out of 2 mirrors [ 2.119054] md6: detected capacity change from 0 to 5000855552 [ 2.124589] md6: unknown partition table [ 2.152369] md: bind<sdb1> [ 2.153695] md/raid1:md0: active with 1 out of 2 mirrors [ 2.153719] md0: detected capacity change from 0 to 501612544 [ 2.162158] md0: unknown partition table [ 2.205798] md: bind<sdc11> [ 2.207209] md/raid1:md9: active with 2 out of 2 mirrors [ 2.207235] md9: detected capacity change from 0 to 207548383232 [ 2.207705] md9: unknown partition table [ 2.219695] md: bind<sdb10> [ 2.221090] md/raid1:md8: active with 1 out of 2 mirrors [ 2.221117] md8: detected capacity change from 0 to 5000855552 [ 2.228791] md8: unknown partition table [ 2.302280] md: bind<sdc9> [ 2.303915] md/raid1:md7: active with 1 out of 2 mirrors [ 2.303941] md7: detected capacity change from 0 to 5000855552 [ 2.304483] md7: unknown partition table [ 2.330236] md: bind<sdb7> [ 2.331572] md/raid1:md5: active with 1 out of 2 mirrors [ 2.331597] md5: detected capacity change from 0 to 5000855552 [ 2.344325] md5: unknown partition table [ 5.151056] XFS (md1): Mounting V4 Filesystem [ 5.242630] XFS (md1): Ending clean mount [ 10.949618] Adding 1951804k swap on /dev/md2. Priority:-1 extents:1 across:1951804k FS [ 11.918094] EXT4-fs (md0): mounting ext2 file system using the ext4 subsystem [ 11.944073] EXT4-fs (md0): mounted filesystem without journal. Opts: (null) [ 11.973837] XFS (md9): Mounting V4 Filesystem [ 12.238926] XFS (md9): Ending clean mount [ 12.258201] XFS (md3): Mounting V4 Filesystem [ 12.477319] XFS (md3): Ending clean mount [ 12.500441] XFS (md4): Mounting V4 Filesystem [ 21.168788] XFS (md4): Ending clean mount [ 21.186143] XFS (md5): Mounting V4 Filesystem [ 21.375494] XFS (md5): Ending clean mount [ 21.400560] XFS (md8): Mounting V4 Filesystem [ 30.117191] XFS (md8): Ending clean mount [ 30.138897] XFS (md6): Mounting V4 Filesystem [ 30.321242] XFS (md6): Ending clean mount [ 30.348642] XFS (md7): Mounting V4 Filesystem [ 47.723643] XFS (md7): Ending clean mount

daemon.log:

May 1 12:55:07 shax mdadm[3523]: DegradedArray event detected on md device /dev/md8 May 1 12:55:08 shax mdadm[3523]: DegradedArray event detected on md device /dev/md7 May 1 12:55:09 shax mdadm[3523]: DegradedArray event detected on md device /dev/md6 May 1 12:55:09 shax mdadm[3523]: DegradedArray event detected on md device /dev/md5 May 1 12:55:10 shax mdadm[3523]: DegradedArray event detected on md device /dev/md4 May 1 12:55:11 shax mdadm[3523]: DegradedArray event detected on md device /dev/md3 May 1 12:55:11 shax mdadm[3523]: DegradedArray event detected on md device /dev/md2 May 1 12:55:12 shax mdadm[3523]: DegradedArray event detected on md device /dev/md1 May 1 12:55:13 shax mdadm[3523]: DegradedArray event detected on md device /dev/md0

les mdadm -E :

[code]# mdadm -E /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 0.90.00
UUID : 350e253f:863b7b04:b1617c47:b213a024
Creation Time : Mon May 7 20:29:35 2007
Raid Level : raid1
Used Dev Size : 489856 (478.46 MiB 501.61 MB)
Array Size : 489856 (478.46 MiB 501.61 MB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 0

Update Time : Fri May  1 12:53:50 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 63745f3f - correct
Events : 1805

  Number   Major   Minor   RaidDevice State

this 0 8 17 0 active sync /dev/sdb1

0 0 8 17 0 active sync /dev/sdb1
1 1 0 0 1 faulty removed

mdadm -E /dev/sdb2

/dev/sdb2:
Magic : a92b4efc
Version : 0.90.00
UUID : 086e68ed:3607317f:60b56e23:6bae62bc
Creation Time : Mon May 7 20:29:41 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 1

Update Time : Fri May  1 12:53:06 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 4fd23362 - correct
Events : 4952

  Number   Major   Minor   RaidDevice State

this 0 259 1 0 active sync

0 0 259 1 0 active sync
1 1 0 0 1 faulty removed

mdadm -E /dev/sdb3

/dev/sdb3:
Magic : a92b4efc
Version : 0.90.00
UUID : 0f6e3ed5:aeee975a:c3647deb:763d68ce
Creation Time : Mon May 7 20:29:48 2007
Raid Level : raid1
Used Dev Size : 1951808 (1906.38 MiB 1998.65 MB)
Array Size : 1951808 (1906.38 MiB 1998.65 MB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 2

Update Time : Fri May  1 12:11:02 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 3ccaa574 - correct
Events : 1723

  Number   Major   Minor   RaidDevice State

this 0 259 2 0 active sync

0 0 259 2 0 active sync
1 1 0 0 1 faulty removed

mdadm -E /dev/sdb4

/dev/sdb4:
MBR Magic : aa55
Partition[0] : 9767457 sectors at 63 (type fd)
Partition[1] : 19535040 sectors at 9767520 (type 05)

mdadm -E /dev/sdb5

/dev/sdb5:
Magic : a92b4efc
Version : 0.90.00
UUID : 6b560fe8:f24d6f2e:8942bd3a:1903abbc
Creation Time : Mon May 7 20:29:55 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 3

Update Time : Fri May  1 13:01:53 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 44e2e7a1 - correct
Events : 12014

  Number   Major   Minor   RaidDevice State

this 0 8 21 0 active sync /dev/sdb5

0 0 8 21 0 active sync /dev/sdb5
1 1 0 0 1 faulty removed

mdadm -E /dev/sdb6

/dev/sdb6:
Magic : a92b4efc
Version : 0.90.00
UUID : 462dab96:b7ca2a17:7c4aebf1:d4d7ec3b
Creation Time : Mon May 7 20:30:02 2007
Raid Level : raid1
Used Dev Size : 9767424 (9.31 GiB 10.00 GB)
Array Size : 9767424 (9.31 GiB 10.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 4

Update Time : Fri May  1 12:53:05 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 945df0ee - correct
Events : 3623

  Number   Major   Minor   RaidDevice State

this 0 259 5 0 active sync

0 0 259 5 0 active sync
1 1 0 0 1 faulty removed

mdadm -E /dev/sdb7

/dev/sdb7:
Magic : a92b4efc
Version : 0.90.00
UUID : ea511351:3abc7b12:4c81e838:93dbd21a
Creation Time : Mon May 7 20:30:09 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 5

Update Time : Fri May  1 13:02:01 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 4a644eee - correct
Events : 12850

  Number   Major   Minor   RaidDevice State

this 0 8 23 0 active sync /dev/sdb7

0 0 8 23 0 active sync /dev/sdb7
1 1 0 0 1 faulty removed

mdadm -E /dev/sdb8

/dev/sdb8:
Magic : a92b4efc
Version : 0.90.00
UUID : da0d76c6:91422584:dc3d6162:37ced53b
Creation Time : Mon May 7 20:30:15 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 6

Update Time : Fri May  1 12:53:04 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c455f408 - correct
Events : 49092

  Number   Major   Minor   RaidDevice State

this 0 259 7 0 active sync

0 0 259 7 0 active sync
1 1 0 0 1 faulty removed

mdadm -E /dev/sdb9

/dev/sdb9:
Magic : a92b4efc
Version : 0.90.00
UUID : 387c831c:8a6d05e3:b649696c:0870b930
Creation Time : Mon May 7 20:30:21 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 7

Update Time : Fri May  1 12:53:04 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c69c7fd8 - correct
Events : 6478

  Number   Major   Minor   RaidDevice State

this 0 259 8 0 active sync

0 0 259 8 0 active sync
1 1 0 0 1 faulty removed

mdadm -E /dev/sdb10

/dev/sdb10:
Magic : a92b4efc
Version : 0.90.00
UUID : b07c4ab4:39d0ba53:9913afa9:fd9cc323
Creation Time : Mon May 7 20:30:28 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 8

Update Time : Fri May  1 13:02:10 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c5f70c47 - correct
Events : 31037

  Number   Major   Minor   RaidDevice State

this 0 8 26 0 active sync /dev/sdb10

0 0 8 26 0 active sync /dev/sdb10
1 1 0 0 1 faulty removed

mdadm -E /dev/sdb11

/dev/sdb11:
Magic : a92b4efc
Version : 0.90.00
UUID : 36c4edd0:a0492cc9:0cd2fce0:2745e358
Creation Time : Mon May 7 20:30:34 2007
Raid Level : raid1
Used Dev Size : 202683968 (193.29 GiB 207.55 GB)
Array Size : 202683968 (193.29 GiB 207.55 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 9

Update Time : Fri May  1 13:01:52 2015
      State : clean

Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Checksum : 5be9ddbf - correct
Events : 1957

  Number   Major   Minor   RaidDevice State

this 1 8 27 1 active sync /dev/sdb11

0 0 8 43 0 active sync /dev/sdc11
1 1 8 27 1 active sync /dev/sdb11
[/code]

[code]# mdadm -E /dev/sdc1
/dev/sdc1:
Magic : a92b4efc
Version : 0.90.00
UUID : 350e253f:863b7b04:b1617c47:b213a024
Creation Time : Mon May 7 20:29:35 2007
Raid Level : raid1
Used Dev Size : 489856 (478.46 MiB 501.61 MB)
Array Size : 489856 (478.46 MiB 501.61 MB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 0

Update Time : Fri May  1 12:53:05 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 637460e2 - correct
Events : 1803

  Number   Major   Minor   RaidDevice State

this 0 259 0 0 active sync

0 0 259 0 0 active sync
1 1 0 0 1 faulty removed

mdadm -E /dev/sdc2

/dev/sdc2:
Magic : a92b4efc
Version : 0.90.00
UUID : 086e68ed:3607317f:60b56e23:6bae62bc
Creation Time : Mon May 7 20:29:41 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 1

Update Time : Fri May  1 13:01:45 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 4fd233f9 - correct
Events : 4986

  Number   Major   Minor   RaidDevice State

this 0 8 34 0 active sync /dev/sdc2

0 0 8 34 0 active sync /dev/sdc2
1 1 0 0 1 faulty removed

mdadm -E /dev/sdc3

/dev/sdc3:
Magic : a92b4efc
Version : 0.90.00
UUID : 0f6e3ed5:aeee975a:c3647deb:763d68ce
Creation Time : Mon May 7 20:29:48 2007
Raid Level : raid1
Used Dev Size : 1951808 (1906.38 MiB 1998.65 MB)
Array Size : 1951808 (1906.38 MiB 1998.65 MB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 2

Update Time : Fri May  1 12:11:02 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 3ccaa574 - correct
Events : 1723

  Number   Major   Minor   RaidDevice State

this 0 259 2 0 active sync

0 0 259 2 0 active sync
1 1 0 0 1 faulty removed

mdadm -E /dev/sdc4

/dev/sdc4:
MBR Magic : aa55
Partition[0] : 9767457 sectors at 63 (type fd)
Partition[1] : 19535040 sectors at 9767520 (type 05)

mdadm -E /dev/sdc5

/dev/sdc5:
Magic : a92b4efc
Version : 0.90.00
UUID : 6b560fe8:f24d6f2e:8942bd3a:1903abbc
Creation Time : Mon May 7 20:29:55 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 3

Update Time : Fri May  1 12:53:05 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 44e2e71d - correct
Events : 11978

  Number   Major   Minor   RaidDevice State

this 0 259 4 0 active sync

0 0 259 4 0 active sync
1 1 0 0 1 faulty removed

mdadm -E /dev/sdc6

/dev/sdc6:
Magic : a92b4efc
Version : 0.90.00
UUID : 462dab96:b7ca2a17:7c4aebf1:d4d7ec3b
Creation Time : Mon May 7 20:30:02 2007
Raid Level : raid1
Used Dev Size : 9767424 (9.31 GiB 10.00 GB)
Array Size : 9767424 (9.31 GiB 10.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 4

Update Time : Fri May  1 12:57:30 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 945df063 - correct
Events : 3639

  Number   Major   Minor   RaidDevice State

this 0 8 38 0 active sync /dev/sdc6

0 0 8 38 0 active sync /dev/sdc6
1 1 0 0 1 faulty removed

mdadm -E /dev/sdc7

/dev/sdc7:
Magic : a92b4efc
Version : 0.90.00
UUID : ea511351:3abc7b12:4c81e838:93dbd21a
Creation Time : Mon May 7 20:30:09 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 5

Update Time : Fri May  1 12:53:04 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 4a644e45 - correct
Events : 12800

  Number   Major   Minor   RaidDevice State

this 0 259 6 0 active sync

0 0 259 6 0 active sync
1 1 0 0 1 faulty removed

mdadm -E /dev/sdc8

/dev/sdc8:
Magic : a92b4efc
Version : 0.90.00
UUID : da0d76c6:91422584:dc3d6162:37ced53b
Creation Time : Mon May 7 20:30:15 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 6

Update Time : Fri May  1 13:02:41 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c455f565 - correct
Events : 49196

  Number   Major   Minor   RaidDevice State

this 0 8 40 0 active sync /dev/sdc8

0 0 8 40 0 active sync /dev/sdc8
1 1 0 0 1 faulty removed

mdadm -E /dev/sdc9

/dev/sdc9:
Magic : a92b4efc
Version : 0.90.00
UUID : 387c831c:8a6d05e3:b649696c:0870b930
Creation Time : Mon May 7 20:30:21 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 7

Update Time : Fri May  1 13:02:28 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c69c80c4 - correct
Events : 6532

  Number   Major   Minor   RaidDevice State

this 0 8 41 0 active sync /dev/sdc9

0 0 8 41 0 active sync /dev/sdc9
1 1 0 0 1 faulty removed

mdadm -E /dev/sdc10

/dev/sdc10:
Magic : a92b4efc
Version : 0.90.00
UUID : b07c4ab4:39d0ba53:9913afa9:fd9cc323
Creation Time : Mon May 7 20:30:28 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 8

Update Time : Fri May  1 12:53:04 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c5f70b51 - correct
Events : 30953

  Number   Major   Minor   RaidDevice State

this 0 259 9 0 active sync

0 0 259 9 0 active sync
1 1 0 0 1 faulty removed

mdadm -E /dev/sdc11

/dev/sdc11:
Magic : a92b4efc
Version : 0.90.00
UUID : 36c4edd0:a0492cc9:0cd2fce0:2745e358
Creation Time : Mon May 7 20:30:34 2007
Raid Level : raid1
Used Dev Size : 202683968 (193.29 GiB 207.55 GB)
Array Size : 202683968 (193.29 GiB 207.55 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 9

Update Time : Fri May  1 13:02:22 2015
      State : clean

Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Checksum : 5be9ddeb - correct
Events : 1957

  Number   Major   Minor   RaidDevice State

this 0 8 43 0 active sync /dev/sdc11

0 0 8 43 0 active sync /dev/sdc11
1 1 8 27 1 active sync /dev/sdb11
[/code]

et mdadm -Es renvoit les bons md:

# mdadm -Es ARRAY /dev/md0 UUID=350e253f:863b7b04:b1617c47:b213a024 ARRAY /dev/md8 UUID=b07c4ab4:39d0ba53:9913afa9:fd9cc323 ARRAY /dev/md9 UUID=36c4edd0:a0492cc9:0cd2fce0:2745e358 ARRAY /dev/md1 UUID=086e68ed:3607317f:60b56e23:6bae62bc ARRAY /dev/md2 UUID=0f6e3ed5:aeee975a:c3647deb:763d68ce ARRAY /dev/md3 UUID=6b560fe8:f24d6f2e:8942bd3a:1903abbc ARRAY /dev/md4 UUID=462dab96:b7ca2a17:7c4aebf1:d4d7ec3b ARRAY /dev/md5 UUID=ea511351:3abc7b12:4c81e838:93dbd21a ARRAY /dev/md6 UUID=da0d76c6:91422584:dc3d6162:37ced53b ARRAY /dev/md7 UUID=387c831c:8a6d05e3:b649696c:0870b930

L’assemblage erroné précédent des ensembles RAID n’a pas dû faire du bien aux superblocs.
Au lieu qu’il y ait des paires de partitions RAID 1 avec chacune son superbloc, c’était vu comme un ensemble RAID 1 partitionné (le fameux /dev/mda126) contenant une seule partition par ensemble RAID /dev/md*. C’est à ce moment que les ensembles /dev/md* assemblés ont dû être marqués comme dégradés avec un membre manquant. Seul /dev/md9, dont les superblocs n’était pas visibles et qui n’a pas été assemblé, a été préservé.

Tu peux lancer la reconstruction des autres ensembles en ajoutant la partition membre manquante avec [mono]mdadm /dev/mdx --add /dev/sdxx[/mono] (un à la fois, sinon ça va ramer dur).

Quand même, il faudrait trouver comment effacer les méta-données du container imsm sur /dev/sdb et /dev/sdc pour éviter que ce gag se reproduise. L’option [mono]–zero-superblock[/mono] est prévue pour cela mais je ne sais pas comment elle se comporte avec ce type de méta-données, et si elle ne risque pas d’altérer le superbloc de la dernière partition. Je suppose qu’il faudrait ajouter l’option [mono]–metadata=imsm[/mono].

je lance déjà la reconstruction :wink:

Merci à toi pour ton aide !

[strike]Comment je sais que c’est fini ?[/strike] c’est bon j’ai trouvé :wink: (cat /proc/mdstat)

voici ce que ça donne après un mdadm /dev/md0 --add /dev/sdc1 :

mdstat :

[code]cat /proc/mdstat
Personalities : [raid1]
md5 : active raid1 sdb7[0]
4883648 blocks [2/1] [U_]

md7 : active raid1 sdc9[0]
4883648 blocks [2/1] [U_]

md8 : active raid1 sdb10[0]
4883648 blocks [2/1] [U_]

md0 : active raid1 sdc1[1] sdb1[0]
489856 blocks [2/2] [UU]

md6 : active raid1 sdc8[0]
4883648 blocks [2/1] [U_]

md3 : active raid1 sdb5[0]
4883648 blocks [2/1] [U_]

md4 : active raid1 sdc6[0]
9767424 blocks [2/1] [U_]

md1 : active raid1 sdc2[0]
4883648 blocks [2/1] [U_]

md2 : active (auto-read-only) raid1 sdc3[0]
1951808 blocks [2/1] [U_]

md9 : active raid1 sdc11[0] sdb11[1]
202683968 blocks [2/2] [UU]
[/code]

Je note que ce n’est pas toujours le sdc qui est marqué en faultly, dès fois c’est sdb !
Ce serait bien qu’au final, toutes les partitions actives soient sur le même disque…

Pour chaque ensemble /dev/md, il faudra veiller à ajouter la partition manquante, qu’elle soit sur sdb ou sdc. Une fois ceci terminé, les partitions des deux disques seront actives.

Je viens de tester sur un disque où j’ai créé une situation similaire (métadonnées Intel Matrix Storage et partition RAID 0.9 en fin de disque).

a effacé les métadonnées du container imsm situé à la fin du disque sans effacer le superbloc de la partition.

voilà le résultat final :

[code]# cat /proc/mdstat
Personalities : [raid1]
md5 : active raid1 sdc7[1] sdb7[0]
4883648 blocks [2/2] [UU]

md7 : active raid1 sdb9[1] sdc9[0]
4883648 blocks [2/2] [UU]

md8 : active raid1 sdc10[1] sdb10[0]
4883648 blocks [2/2] [UU]

md0 : active raid1 sdc1[1] sdb1[0]
489856 blocks [2/2] [UU]

md6 : active raid1 sdb8[1] sdc8[0]
4883648 blocks [2/2] [UU]

md3 : active raid1 sdc5[1] sdb5[0]
4883648 blocks [2/2] [UU]

md4 : active raid1 sdb6[1] sdc6[0]
9767424 blocks [2/2] [UU]

md1 : active raid1 sdb2[1] sdc2[0]
4883648 blocks [2/2] [UU]

md2 : active raid1 sdb3[1] sdc3[0]
1951808 blocks [2/2] [UU]

md9 : active raid1 sdc11[0] sdb11[1]
202683968 blocks [2/2] [UU]
[/code]

Est-ce qu’il y a moyen d’homogénéisé les partitions primaires actives ?
ex : avoir sdb en primaire partout

[quote=“PascalHambourg”]mdadm --zero-superblock --metadata=imsm /dev/sdb
a effacé les métadonnées du container imsm situé à la fin du disque sans effacer le superbloc de la partition.[/quote]

tu conseilles de faire ça ? sur sdb et sdc ?

[quote=“sioban”]Est-ce qu’il y a moyen d’homogénéisé les partitions primaires actives ?
ex : avoir sdb en primaire partout[/quote]
Dans l’immédiat je ne vois pas, et surtout je n’en vois pas l’intérêt autre qu’esthétique.

Ah, dilemme.
D’un côté il y a un risque (minime vu l’écart entre la fin de la dernière partition et la fin du disque) d’endommager le superbloc de la dernière partition, et on a coutume de dire que si ça marche il vaut mieux ne toucher à rien.
D’un autre côté, ça ne marche que parce qu’on a exclu les disques entiers comme membres potentiels dans mdadm.conf. Donc si un jour tu refais une configuration par défaut, ou si tu dois booter avec un autre système pour réparer ou autre, le problème risque de se reproduire. Une correction définitive et pérenne serait donc préférable.

Je suggèrerais de le faire sur un seul disque, puis de vérifier avec [mono]mdadm -E[/mono] que le superbloc de sa dernière partition est intact. Dans ce cas tu pourras le faire aussi sur l’autre disque et vérifier le superbloc de sa dernière partition.

en fait ça ne marche pas :

# mdadm --zero-superblock --metadata=imsm /dev/sdb mdadm: Couldn't open /dev/sdb for write - not zeroing

Pour le coup d’avoir toutes les partitions primaire du raid sur un même disque, c’est que si je me retrouve de nouveau dans l’état d’avant à avoir un mix de partitions active/fail sur un disque et l’autre, ça signifie que si un disque meurt dans cet état, je perds tout…

# mdadm --zero-superblock --metadata=imsm /dev/sdb mdadm: Couldn't open /dev/sdb for write - not zeroing
Effectivement, j’ai ça aussi si au moins une partition du disque est en cours d’utilisation. Quand j’ai fait mes essais sur un disque de test, j’avais démonté toutes ses partitions et arrêté tous ses ensembles RAID. Mais ce n’est pas possible dans ton cas.

Pour contourner cela, tu peux passer par le shell de l’initramfs en ajoutant [mono]break=mount[/mono] à la ligne de commande du noyau dans le menu de démarrage de GRUB pour que l’initramfs s’interrompe avant l’activation du RAID. Mais le clavier sera en QWERTY, ce n’est pas très pratique. Tu peux aussi le faire depuis l’installateur Debian en mode rescue (ou un autre système live mais il faut s’assurer qu’il n’essaiera pas d’activer le RAID automatiquement).

Ouais, mais rien ne dit que les partitions actives seront toutes celles avec l’index 0 ou 1. Et de toute façon, le but du RAID c’est d’avoir toutes les partitions actives. Si toutes les partitions actives sont sur le disque qui tombe en panne, tu perds tout aussi.

un boot en single marche aussi ?
Pas de soucis pour le qwerty :wink:

Non, le boot en single monte la racine qui est en RAID dès l’initramfs et le reste avant de lancer le shell.

Relis mon message précédent car je l’ai modifié entretemps.

ok, je vais faire ça alors.

bon ben au boot, en étant au shell initramfs j’ai la même réponse “mdadm: Couldn’t open /dev/sdb for write - not zeroing”.

Si c’est pas super grave, on va laisser comme ça…

Etonnant. Et avec “break” tout court ?

Tu peux regarder dans /proc/mounts, /proc/swaps et /proc/mdstat s’il y a des partitions déjà montées ou utilisées par le RAID.

Une minute, il faut que je teste si ça peut venir de la partition étendue.