[Résolu] Mise à jour vers Jessie et mdadm

Hello,

J’ai mis à jour mon serveur vers Jessie hier soir, enfin partiellement seulement via un apt-upgrade et installation du kernel et sysv-rc.

Après reboot j’ai un soucis avec mon RAID soft (Raid1)
Une de mes partitions MD a disparue.
Avant la mise à jour j’avais 10 partitions (md0 à md9), après le reboot, md9 a disparue.

Mon fichier mdadm.conf ressemblait à ça avant que je fasse un mdadm -Es :

[code]# mdadm.conf

Please refer to mdadm.conf(5) for information about this file.

by default, scan all partitions (/proc/partitions) for MD superblocks.

alternatively, specify devices to scan, using wildcards if desired.

DEVICE partitions

auto-create devices with Debian standard permissions

CREATE owner=root group=disk mode=0660 auto=yes

automatically tag new arrays as belonging to the local system

HOMEHOST

instruct the monitoring daemon where to send mail alerts

MAILADDR root

definitions of existing MD arrays

ARRAY /dev/md0 level=raid1 num-devices=2 UUID=350e253f:863b7b04:b1617c47:b213a024
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=086e68ed:3607317f:60b56e23:6bae62bc
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=0f6e3ed5:aeee975a:c3647deb:763d68ce
ARRAY /dev/md3 level=raid1 num-devices=2 UUID=6b560fe8:f24d6f2e:8942bd3a:1903abbc
ARRAY /dev/md4 level=raid1 num-devices=2 UUID=462dab96:b7ca2a17:7c4aebf1:d4d7ec3b
ARRAY /dev/md5 level=raid1 num-devices=2 UUID=ea511351:3abc7b12:4c81e838:93dbd21a
ARRAY /dev/md6 level=raid1 num-devices=2 UUID=da0d76c6:91422584:dc3d6162:37ced53b
ARRAY /dev/md7 level=raid1 num-devices=2 UUID=387c831c:8a6d05e3:b649696c:0870b930
ARRAY /dev/md8 level=raid1 num-devices=2 UUID=b07c4ab4:39d0ba53:9913afa9:fd9cc323
ARRAY /dev/md9 level=raid1 num-devices=2 UUID=36c4edd0:a0492cc9:0cd2fce0:2745e358

This file was auto-generated on Wed, 07 Feb 2007 17:15:33 +0000

by mkconf $Id: mkconf 261 2006-11-09 13:32:35Z madduck $[/code]

Après le mdadm -Es, j’ai ça :

[code]# mdadm.conf

Please refer to mdadm.conf(5) for information about this file.

by default, scan all partitions (/proc/partitions) for MD superblocks.

alternatively, specify devices to scan, using wildcards if desired.

DEVICE partitions

auto-create devices with Debian standard permissions

CREATE owner=root group=disk mode=0660 auto=yes

automatically tag new arrays as belonging to the local system

HOMEHOST

instruct the monitoring daemon where to send mail alerts

MAILADDR root

definitions of existing MD arrays

ARRAY metadata=imsm UUID=d9cfa6d9:2a715e4f:1fbc2095:be342429
ARRAY /dev/md/raidlin container=d9cfa6d9:2a715e4f:1fbc2095:be342429 member=0 UUID=91449a9d:9242bfe9:d99bceb0:a59f9314
ARRAY /dev/md0 UUID=350e253f:863b7b04:b1617c47:b213a024
ARRAY /dev/md1 UUID=086e68ed:3607317f:60b56e23:6bae62bc
ARRAY /dev/md2 UUID=0f6e3ed5:aeee975a:c3647deb:763d68ce
ARRAY /dev/md3 UUID=6b560fe8:f24d6f2e:8942bd3a:1903abbc
ARRAY /dev/md4 UUID=462dab96:b7ca2a17:7c4aebf1:d4d7ec3b
ARRAY /dev/md5 UUID=ea511351:3abc7b12:4c81e838:93dbd21a
ARRAY /dev/md6 UUID=da0d76c6:91422584:dc3d6162:37ced53b
ARRAY /dev/md7 UUID=387c831c:8a6d05e3:b649696c:0870b930
ARRAY /dev/md8 UUID=b07c4ab4:39d0ba53:9913afa9:fd9cc323
[/code]

Mes disques sont partitionnés comme suit :

[code]fdisk -l /dev/sdb

Disk /dev/sdb: 250.1 GB, 250059350016 bytes
255 heads, 63 sectors/track, 30401 cylinders, total 488397168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0001edee

Device Boot Start End Blocks Id System
/dev/sdb1 * 63 979964 489951 fd Linux raid autodetect
/dev/sdb2 979965 10747484 4883760 fd Linux raid autodetect
/dev/sdb3 10747485 14651279 1951897+ fd Linux raid autodetect
/dev/sdb4 14651280 488392064 236870392+ 5 Extended
/dev/sdb5 14651343 24418799 4883728+ fd Linux raid autodetect
/dev/sdb6 24418863 43953839 9767488+ fd Linux raid autodetect
/dev/sdb7 43953903 53721359 4883728+ fd Linux raid autodetect
/dev/sdb8 53721423 63488879 4883728+ fd Linux raid autodetect
/dev/sdb9 63488943 73256399 4883728+ fd Linux raid autodetect
/dev/sdb10 73256463 83023919 4883728+ fd Linux raid autodetect
/dev/sdb11 83023983 488392064 202684041 fd Linux raid autodetect
[/code]

[code]fdisk -l /dev/sdc

Disk /dev/sdc: 250.1 GB, 250059350016 bytes
255 heads, 63 sectors/track, 30401 cylinders, total 488397168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000c352c

Device Boot Start End Blocks Id System
/dev/sdc1 * 63 979964 489951 fd Linux raid autodetect
/dev/sdc2 979965 10747484 4883760 fd Linux raid autodetect
/dev/sdc3 10747485 14651279 1951897+ fd Linux raid autodetect
/dev/sdc4 14651280 488392064 236870392+ 5 Extended
/dev/sdc5 14651343 24418799 4883728+ fd Linux raid autodetect
/dev/sdc6 24418863 43953839 9767488+ fd Linux raid autodetect
/dev/sdc7 43953903 53721359 4883728+ fd Linux raid autodetect
/dev/sdc8 53721423 63488879 4883728+ fd Linux raid autodetect
/dev/sdc9 63488943 73256399 4883728+ fd Linux raid autodetect
/dev/sdc10 73256463 83023919 4883728+ fd Linux raid autodetect
/dev/sdc11 83023983 488392064 202684041 fd Linux raid autodetect
[/code]

Et le proc/mdstat a cette tête maintenant :

[code]cat /proc/mdstat
Personalities : [raid1]
md8 : active raid1 md126p10[0]
4883648 blocks [2/1] [U_]

md7 : active raid1 md126p9[0]
4883648 blocks [2/1] [U_]

md6 : active raid1 md126p8[0]
4883648 blocks [2/1] [U_]

md5 : active raid1 md126p7[0]
4883648 blocks [2/1] [U_]

md4 : active raid1 md126p6[0]
9767424 blocks [2/1] [U_]

md3 : active raid1 md126p5[0]
4883648 blocks [2/1] [U_]

md2 : active (auto-read-only) raid1 md126p3[0]
1951808 blocks [2/1] [U_]

md1 : active raid1 md126p2[0]
4883648 blocks [2/1] [U_]

md0 : active raid1 md126p1[0]
489856 blocks [2/1] [U_]

md126 : active raid1 sdc[1] sdb[0]
244195328 blocks super external:/md127/0 [2/2] [UU]

md127 : inactive sdc1 sdb0
6306 blocks super external:imsm

unused devices:
[/code]

Je ne suis pas un expert MD, avec un ami, on a pu retrouver la partition md9 qui est nommée md126p11 et on a pu la monter sans soucis.

Voilà ce qu’on a trouvé dans dmesg :

[ 1.593297] md: bind<sdb> [ 1.598582] md: bind<sdc> [ 1.599902] md: bind<sdb> [ 1.600045] md: bind<sdc> [ 1.606550] md: raid1 personality registered for level 1 [ 1.607396] md/raid1:md126: active with 2 out of 2 mirrors [ 1.607433] md126: detected capacity change from 0 to 250056015872 [ 1.632396] md: md126 switched to read-write mode. [ 1.669910] md126: p1 p2 p3 p4 < p5 p6 p7 p8 p9 p10 p11 > [ 1.670501] md126: p11 size 405368082 extends beyond EOD, truncated [ 4.100396] md: md0 stopped. [ 4.100919] md: bind<md126p1> [ 4.101708] md/raid1:md0: active with 1 out of 2 mirrors [ 4.101734] md0: detected capacity change from 0 to 501612544 [ 4.102179] md0: unknown partition table [ 4.224625] md: md1 stopped. [ 4.225109] md: bind<md126p2> [ 4.225886] md/raid1:md1: active with 1 out of 2 mirrors [ 4.225911] md1: detected capacity change from 0 to 5000855552 [ 4.226658] md1: unknown partition table [ 4.420746] md: md2 stopped. [ 4.421441] md: bind<md126p3> [ 4.422216] md/raid1:md2: active with 1 out of 2 mirrors [ 4.422241] md2: detected capacity change from 0 to 1998651392 [ 4.422677] md2: unknown partition table [ 4.595729] md: md3 stopped. [ 4.596410] md: bind<md126p5> [ 4.597189] md/raid1:md3: active with 1 out of 2 mirrors [ 4.597215] md3: detected capacity change from 0 to 5000855552 [ 4.597638] md3: unknown partition table [ 4.668224] md: md4 stopped. [ 4.668693] md: bind<md126p6> [ 4.669446] md/raid1:md4: active with 1 out of 2 mirrors [ 4.669474] md4: detected capacity change from 0 to 10001842176 [ 4.669909] md4: unknown partition table [ 4.783732] md: md5 stopped. [ 4.784236] md: bind<md126p7> [ 4.785024] md/raid1:md5: active with 1 out of 2 mirrors [ 4.785049] md5: detected capacity change from 0 to 5000855552 [ 4.785479] md5: unknown partition table [ 4.970769] md: md6 stopped. [ 4.971366] md: bind<md126p8> [ 4.972129] md/raid1:md6: active with 1 out of 2 mirrors [ 4.972158] md6: detected capacity change from 0 to 5000855552 [ 4.972594] md6: unknown partition table [ 5.137394] md: md7 stopped. [ 5.138011] md: bind<md126p9> [ 5.138754] md/raid1:md7: active with 1 out of 2 mirrors [ 5.138779] md7: detected capacity change from 0 to 5000855552 [ 5.139232] md7: unknown partition table [ 5.329093] md: md8 stopped. [ 5.330228] md: bind<md126p10> [ 5.330977] md/raid1:md8: active with 1 out of 2 mirrors [ 5.331003] md8: detected capacity change from 0 to 5000855552 [ 5.350896] md8: unknown partition table

Notez la ligne “[ 1.670501] md126: p11 size 405368082 extends beyond EOD, truncated” qui explique pourquoi md9 n’a pas été monté, mais je ne sais pas comment résoudre ce soucis et pourquoi tout d’un coup j’ai ça…

Après avoir forcé le montage de /dev/md126p11, j’ai vu ces messages dans dmesg :

[ 4361.248369] md126p11: rw=32, want=405367936, limit=405366673 [ 4361.248382] XFS (md126p11): Mounting V4 Filesystem [ 4361.657842] XFS (md126p11): Ending clean mount [ 4609.295281] md126p11: rw=32, want=405367936, limit=405366673 [ 4609.295300] XFS (md126p11): Mounting V4 Filesystem [ 4609.513109] XFS (md126p11): Ending clean mount

et dans daemon.log :

Apr 29 20:26:26 shax mdadm[4735]: DeviceDisappeared event detected on md device /dev/md9 Apr 29 20:26:29 shax mdadm[4735]: DegradedArray event detected on md device /dev/md8 Apr 29 20:26:30 shax mdadm[4735]: DegradedArray event detected on md device /dev/md7 Apr 29 20:26:31 shax mdadm[4735]: DegradedArray event detected on md device /dev/md6 Apr 29 20:26:33 shax mdadm[4735]: DegradedArray event detected on md device /dev/md5 Apr 29 20:26:34 shax mdadm[4735]: DegradedArray event detected on md device /dev/md4 Apr 29 20:26:35 shax mdadm[4735]: DegradedArray event detected on md device /dev/md3 Apr 29 20:26:35 shax mdadm[4735]: DegradedArray event detected on md device /dev/md2 Apr 29 20:26:36 shax mdadm[4735]: DegradedArray event detected on md device /dev/md1 Apr 29 20:26:37 shax mdadm[4735]: DegradedArray event detected on md device /dev/md0 Apr 29 20:26:37 shax mdadm[4735]: NewArray event detected on md device /dev/md127 Apr 29 20:26:37 shax mdadm[4735]: NewArray event detected on md device /dev/md126

Je ne sais pas trop comment corriger ces soucis…
J’ai l’impression d’avoir plusieurs soucis :

  • mdadm ne détecte pas md9
  • mon array semble bancal (un seul U et non 2)

Vous pouvez m’aider ?

version du kernel : Linux shax 3.16.0-4-686-pae #1 SMP Debian 3.16.7-ckt9-3~deb8u1 (2015-04-24) i686 GNU/Linux

C’est bizarre on diraitque tu as un raid qui fonctionne: /dev/md126 sur lequel on trouve les disques sdb et sdc. Bon, et sur ce raid, tu aurais 9 raid1 dégradés de md0 à md8. Bizarre comme structure… Je ne comprends pas l’intérêt de mettre les raid md0 à md8.

Que donne
fdisk -l /dev/md126

Pour les md0 à md8, je n’ai rien fait de spécial, ça a été fait comme ça lors de l’install par l’outil d’install debian à l’époque

Pour le fdisk :

[code]fdisk -l /dev/md126

Disk /dev/md126: 250.1 GB, 250056015872 bytes
255 heads, 63 sectors/track, 30400 cylinders, total 488390656 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000c352c

  Device Boot      Start         End      Blocks   Id  System

/dev/md126p1 * 63 979964 489951 fd Linux raid autodetect
/dev/md126p2 979965 10747484 4883760 fd Linux raid autodetect
/dev/md126p3 10747485 14651279 1951897+ fd Linux raid autodetect
/dev/md126p4 14651280 488392064 236870392+ 5 Extended
/dev/md126p5 14651343 24418799 4883728+ fd Linux raid autodetect
/dev/md126p6 24418863 43953839 9767488+ fd Linux raid autodetect
/dev/md126p7 43953903 53721359 4883728+ fd Linux raid autodetect
/dev/md126p8 53721423 63488879 4883728+ fd Linux raid autodetect
/dev/md126p9 63488943 73256399 4883728+ fd Linux raid autodetect
/dev/md126p10 73256463 83023919 4883728+ fd Linux raid autodetect
/dev/md126p11 83023983 488392064 202684041 fd Linux raid autodetect
[/code]

Ton premier mdadm.conf me parait logique mais là, je ne comprends pas le truc. Peut être que la gestion des raids a été revu dans Jessie mais là je ne comprends pas.

Ah bah si même les experts ne comprennent pas, je ne suis pas sorti de l’auberge :frowning:

je vois des choses étranges dans le nombre de cylindre et de secteurs quand je compare sdc et md126 :

As tu essayé de monter à la main /dev/md2 par exemple en y mettant /dev/sdb2 et /dev/sdc2?
Autre chose, as tu essayé de monter directement /dev/md126p2 en tant que système ext3? Mais je ne voudrais pas foutre ton raid en l’air. Peut être le monter en dégradé pour garder un disque complet? Un avis d’un connaisseur plus expérimenté serait utile si tu veux être sur de ne rien perdre.

En fait d"habitude soit tu fais un seul gros raid md = sdb/sdc que tu partitionne comme un disque et utilise comme tel, ce serait /dev/md126 mais il devrait y avoir des partitions normales,soit tu fais une série de petit1 raid1 /dev/mdx, x=0…8 par exemple chacun correspondant à une partition. Ça correspondart à /dev/sd[b|c]x avec x= 1,2,3,5,6,7,8,9,10 et 11 et les partition correspondantes apparaitraient comme des partitions raid. On a l’impression que tu as l’un et l’autre.

md2 c’est le swap, je ne vois pas trop ce que tu veux dire pour un autre fs.

C’est le swap :wink:
les autres fs sont en XFS sauf md0 qui est en ext2 (/boot)

Si ça existe je suis p^reneur;)

J’avais fait un raid avec une série de partition à l’install

Bon ben /dev/sdc1 et /dev/sdb1 donc en tant que raid.

Puis /dev/md126p1 en tant que ext2

Que donne

mount /dev/md126p1 -o ro -t ext2 /mnt

?

Pas grand chose :

mount /dev/md126p1 -o ro -t ext2 /mnt/test mount: /dev/md126p1 already mounted or /mnt/test busy

Je crois comprendre ce qui s’est passé (mais pas le lien avec la mise à niveau vers Jessie). Comme l’a écrit François, un avis d’un connaisseur plus expérimenté serait utile si tu veux être sûr de ne rien perdre.

Visiblement, mdadm a considéré à tort les disques complets /dev/sdb et /dev/sdc comme des membres d’un ensemble RAID. Cela peut arriver que le superbloc au format 0.9 de la dernière partition en fin de disque soit considéré à tort comme s’appliquant au disque entier. C’est pourquoi il est recommandé de ne plus utiliser ce format, entre autres raisons, et de préférer les nouveaux formats 1.x. Le format par défaut actuel est 1.2. Quel est le format des superblocs (visible avec [mono]mdadm -E[/mono] sur chaque partition membre RAID) ?

mdadp a donc assemblé le volume résultant /dev/md126 dans lequel le noyau a vu une table de partition sur ce volume, considéré qu’il s’agit d’un ensemble RAID partitionnable et “créé” les partitions correspondantes /dev/md126p*. mdadm a vu sur ces partitions les superblocs RAIDS avec les UUID correspondants aux ensembles RAID /dev/md0 à /dev/md8 et les a “assemblés”, mais avec un seul membre /dev/md126p* au lieu des partitions /dev/sdb* et /dev/sdc* sur chaque disque.

Par contre je ne comprends pas l’apparition du container (je n’en ai jamais utilisé).

Restaurer le mdadm.conf original et modifier la ligne DEVICE comme suit pour exclure les disques entiers et n’examiner que les partitions devrait empêcher cela, mais ce n’est qu’un palliatif :

Note : Il faudra peut-être regénérer l’initramfs avec [mono]update-initramfs -u[/mono] pour qu’il intègre le changement si c’est lui qui assemble les volumes RAID.

J’espère qu’il n’y a pas plus de dommages, certains messages relatifs aux tailles sont un peu inquiétants.

voilà le résultat de mdadm -E pour chaque md0 à md9 :

[code]# mdadm -E /dev/md0
mdadm: No md superblock detected on /dev/md0.

mdadm -E /dev/md1

mdadm: No md superblock detected on /dev/md1.

mdadm -E /dev/md2

mdadm: No md superblock detected on /dev/md2.

mdadm -E /dev/md3

mdadm: No md superblock detected on /dev/md3.

mdadm -E /dev/md4

mdadm: No md superblock detected on /dev/md4.

mdadm -E /dev/md5

mdadm: No md superblock detected on /dev/md5.

mdadm -E /dev/md6

mdadm: No md superblock detected on /dev/md6.

mdadm -E /dev/md7

mdadm: No md superblock detected on /dev/md7.

mdadm -E /dev/md8

mdadm: No md superblock detected on /dev/md8.

mdadm -E /dev/md9

mdadm: cannot open /dev/md9: No such file or directory
[/code]

vu le peu de résultat j’ai testé avec les md126pX :

[code]# mdadm -E /dev/md126p0
mdadm: cannot open /dev/md126p0: No such file or directory

mdadm -E /dev/md126p1

/dev/md126p1:
Magic : a92b4efc
Version : 0.90.00
UUID : 350e253f:863b7b04:b1617c47:b213a024
Creation Time : Mon May 7 20:29:35 2007
Raid Level : raid1
Used Dev Size : 489856 (478.46 MiB 501.61 MB)
Array Size : 489856 (478.46 MiB 501.61 MB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 0

Update Time : Thu Apr 30 08:00:08 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 6372ca75 - correct
Events : 1769

  Number   Major   Minor   RaidDevice State

this 0 259 0 0 active sync /dev/md/raidlin_0p1

0 0 259 0 0 active sync /dev/md/raidlin_0p1
1 1 0 0 1 faulty removed

mdadm -E /dev/md126p2

/dev/md126p2:
Magic : a92b4efc
Version : 0.90.00
UUID : 086e68ed:3607317f:60b56e23:6bae62bc
Creation Time : Mon May 7 20:29:41 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 1

Update Time : Thu Apr 30 20:57:21 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 4fd14bc9 - correct
Events : 3980

  Number   Major   Minor   RaidDevice State

this 0 259 1 0 active sync /dev/md/raidlin_0p2

0 0 259 1 0 active sync /dev/md/raidlin_0p2
1 1 0 0 1 faulty removed

mdadm -E /dev/md126p3

/dev/md126p3:
Magic : a92b4efc
Version : 0.90.00
UUID : 0f6e3ed5:aeee975a:c3647deb:763d68ce
Creation Time : Mon May 7 20:29:48 2007
Raid Level : raid1
Used Dev Size : 1951808 (1906.38 MiB 1998.65 MB)
Array Size : 1951808 (1906.38 MiB 1998.65 MB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 2

Update Time : Thu Apr 30 18:27:58 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 3cc9ac24 - correct
Events : 1703

  Number   Major   Minor   RaidDevice State

this 0 259 2 0 active sync /dev/md/raidlin_0p3

0 0 259 2 0 active sync /dev/md/raidlin_0p3
1 1 0 0 1 faulty removed

mdadm -E /dev/md126p4

/dev/md126p4:
MBR Magic : aa55
Partition[0] : 9767457 sectors at 63 (type fd)
Partition[1] : 19535040 sectors at 9767520 (type 05)

mdadm -E /dev/md126p5

/dev/md126p5:
Magic : a92b4efc
Version : 0.90.00
UUID : 6b560fe8:f24d6f2e:8942bd3a:1903abbc
Creation Time : Mon May 7 20:29:55 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 3

Update Time : Thu Apr 30 20:57:18 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 44e1e6e6 - correct
Events : 7856

  Number   Major   Minor   RaidDevice State

this 0 259 4 0 active sync /dev/md/raidlin_0p5

0 0 259 4 0 active sync /dev/md/raidlin_0p5
1 1 0 0 1 faulty removed

mdadm -E /dev/md126p6

/dev/md126p6:
Magic : a92b4efc
Version : 0.90.00
UUID : 462dab96:b7ca2a17:7c4aebf1:d4d7ec3b
Creation Time : Mon May 7 20:30:02 2007
Raid Level : raid1
Used Dev Size : 9767424 (9.31 GiB 10.00 GB)
Array Size : 9767424 (9.31 GiB 10.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 4

Update Time : Thu Apr 30 20:57:14 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 945d0c07 - correct
Events : 2999

  Number   Major   Minor   RaidDevice State

this 0 259 5 0 active sync /dev/md/raidlin_0p6

0 0 259 5 0 active sync /dev/md/raidlin_0p6
1 1 0 0 1 faulty removed

mdadm -E /dev/md126p7

/dev/md126p7:
Magic : a92b4efc
Version : 0.90.00
UUID : ea511351:3abc7b12:4c81e838:93dbd21a
Creation Time : Mon May 7 20:30:09 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 5

Update Time : Thu Apr 30 20:57:18 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : 4a634da7 - correct
Events : 8626

  Number   Major   Minor   RaidDevice State

this 0 259 6 0 active sync /dev/md/raidlin_0p7

0 0 259 6 0 active sync /dev/md/raidlin_0p7
1 1 0 0 1 faulty removed

mdadm -E /dev/md126p8

/dev/md126p8:
Magic : a92b4efc
Version : 0.90.00
UUID : da0d76c6:91422584:dc3d6162:37ced53b
Creation Time : Mon May 7 20:30:15 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 6

Update Time : Thu Apr 30 20:57:31 2015
      State : active

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c4540a0c - correct
Events : 30082

  Number   Major   Minor   RaidDevice State

this 0 259 7 0 active sync /dev/md/raidlin_0p8

0 0 259 7 0 active sync /dev/md/raidlin_0p8
1 1 0 0 1 faulty removed

mdadm -E /dev/md126p9

/dev/md126p9:
Magic : a92b4efc
Version : 0.90.00
UUID : 387c831c:8a6d05e3:b649696c:0870b930
Creation Time : Mon May 7 20:30:21 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 7

Update Time : Thu Apr 30 20:57:10 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c69b931a - correct
Events : 4852

  Number   Major   Minor   RaidDevice State

this 0 259 8 0 active sync /dev/md/raidlin_0p9

0 0 259 8 0 active sync /dev/md/raidlin_0p9
1 1 0 0 1 faulty removed

mdadm -E /dev/md126p10

/dev/md126p10:
Magic : a92b4efc
Version : 0.90.00
UUID : b07c4ab4:39d0ba53:9913afa9:fd9cc323
Creation Time : Mon May 7 20:30:28 2007
Raid Level : raid1
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Array Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 8

Update Time : Thu Apr 30 20:57:28 2015
      State : clean

Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Checksum : c5f5d015 - correct
Events : 19271

  Number   Major   Minor   RaidDevice State

this 0 259 9 0 active sync /dev/md/raidlin_0p10

0 0 259 9 0 active sync /dev/md/raidlin_0p10
1 1 0 0 1 faulty removed

mdadm -E /dev/md126p11

mdadm: No md superblock detected on /dev/md126p11.
[/code]

md126p0 et md126p11 ne donne rien, bizarre (surtout pour p11)

Pour ce qui est de de update-initramfs, j’attends d’avoir plus d’infos sur une vrai solution :wink:

j’ai écrit “mdadm -E sur chaque partition membre RAID”. Il s’agit des partitions /dev/sd??* qui composent les ensembles RAID, pas des volumes /dev/md?* résultants.
Mais les partitions /dev/md126p?* devraient faire l’affaire, on voit que les superblocs sont en version 0.90. Ces ensembles RAID ont été créés il y a longtemps ou bien tu avais forcé cette version, car cela fait quand même pas mal de temps que la version par défaut est 1.2.

Normal. /dev/md126p0 n’existe pas. Quant à /dev/md126p11, elle ne contient pas de superbloc qui est considéré (dans cette situation anormale) comme faisant partie du membre disque entier /dev/sd[bc] : le volume logique /dev/md126 résultant est l’équivalent d’un disque entier sans le superbloc de /dev/sd[bc]11 (situé à la fin de la partition et du disque), et la partition /dev/md126p11 est l’équivalent de /sd[bc]11 mais sans le superbloc qui est en dehors du volume RAID. D’où le message concernant l’incohérence de la taille de cette partition. Je ne sais pas si je suis clair.

L’idéal serait de recréer les ensembles RAID en version 1.2. Une sauvegarde est préférable.
A défaut de les recréer, il est possible de les convertir en version 1.0. Cf. https://raid.wiki.kernel.org/index.php/RAID_superblock_formats#Converting_between_superblock_versions (jamais fait moi-même).

Ce que je propose dans mon message précédent a l’avantage d’être minimal en terme de modifications et de rétablir la situation, du moins je le pense, avant d’éventuellement appliquer une solution plus durable et robuste.

Première installation du système : 2007, puis upgrade successifs.

Au temps pour moi, désolé. De toutes façons j’ai le même résultat que pour les md0 à 9 (no such device)

[code]# mdadm -E /dev/sdb0
mdadm: cannot open /dev/sdb0: No such file or directory

mdadm -E /dev/sdb1

mdadm: cannot open /dev/sdb1: No such device or address

mdadm -E /dev/sdb2

mdadm: cannot open /dev/sdb2: No such device or address

mdadm -E /dev/sdb3

mdadm: cannot open /dev/sdb3: No such device or address

mdadm -E /dev/sdb4

mdadm: cannot open /dev/sdb4: No such device or address

mdadm -E /dev/sdb5

mdadm: cannot open /dev/sdb5: No such device or address

mdadm -E /dev/sdb6

mdadm: cannot open /dev/sdb6: No such device or address

mdadm -E /dev/sdb7

mdadm: cannot open /dev/sdb7: No such device or address

mdadm -E /dev/sdb8

mdadm: cannot open /dev/sdb8: No such device or address

mdadm -E /dev/sdb9

mdadm: cannot open /dev/sdb9: No such device or address

mdadm -E /dev/sdb10

mdadm: cannot open /dev/sdb10: No such device or address

mdadm -E /dev/sdb11

mdadm: cannot open /dev/sdb11: No such device or address
[/code]

[code]# mdadm -E /dev/sdc0
mdadm: cannot open /dev/sdc0: No such file or directory

mdadm -E /dev/sdc1

mdadm: cannot open /dev/sdc1: No such device or address

mdadm -E /dev/sdc2

mdadm: cannot open /dev/sdc2: No such device or address

mdadm -E /dev/sdc3

mdadm: cannot open /dev/sdc3: No such device or address

mdadm -E /dev/sdc4

mdadm: cannot open /dev/sdc4: No such device or address

mdadm -E /dev/sdc5

mdadm: cannot open /dev/sdc5: No such device or address

mdadm -E /dev/sdc6

mdadm: cannot open /dev/sdc6: No such device or address

mdadm -E /dev/sdc7

mdadm: cannot open /dev/sdc7: No such device or address

mdadm -E /dev/sdc8

mdadm: cannot open /dev/sdc8: No such device or address

mdadm -E /dev/sdc9

mdadm: cannot open /dev/sdc9: No such device or address

mdadm -E /dev/sdc10

mdadm: cannot open /dev/sdc10: No such device or address

mdadm -E /dev/sdc11

mdadm: cannot open /dev/sdc11: No such device or address
[/code]

Pourquoi pas, mais vu mon niveau, je veux bien la liste des étapes :wink:

Il faut remplacer la ligne DEVICE suivante :

par

puis un upgrade-initramfs -u

?

Sinon pour le rapport avec la mise à jour, cela vient peut-être de l’upgrade de noyau

C’est effectivement vieux. D’après https://raid.wiki.kernel.org/index.php/RAID_superblock_formats, le changement de format par défaut a eu lieu plus tard, vers 2009.

[quote=“sioban”]# mdadm -E /dev/sdb1
mdadm: cannot open /dev/sdb1: No such device or address[/quote]
Ah, il me semble avoir lu (mais je retrouve plus où) que les partitions d’un disque utilisée en entier comme membre d’un ensemble RAID sont désactivées. Pas grave, on a déjà eu la version de superbloc plus haut.
Note : il n’y a jamais de partition 0. La numérotation des partitions commence à 1, même dans GRUB 2 (elle commençait à 0 dans GRUB 1 aka grub-legacy).

[quote=“sioban”]Il faut remplacer la ligne DEVICE suivante :

par

puis un upgrade-initramfs -u ?[/quote]
Non, pas d’approximation.
Avant, il faut restaurer la version originelle de mdadm.conf telle qu’avant sa modification par [mono]mdadm -Es[/mono].

Puis remplacer [mono]partitions[/mono] par [mono]/dev/sd??[/mono] sinon les partitions avec un numéro à deux chiffres comme /dev/sdb10 ne seront pas prises en compte.
Le premier [mono]?[/mono] est pour la lettre du disque.
Le second [mono]?[/mono] est pour le premier chiffre de la partition (pour ne pas prendre en compte un disque entier).
[mono]
[/mono] est pour les éventuels autres chiffres de la partition.

Ensuite, exécuter [mono]update-initramfs -u[/mono] pour mettre à jour l’initramfs.
Puis redémarrer.

Par contre il reste un doute concernant l’intégrité du contenu du dernier ensemble RAID /dev/md9 qui a été vu comme tronqué.

je prévoyais de mettre ça (car j’ai un /dev/sda et je ne voudrais pas qu’il interfère…):

[code]# mdadm.conf

Please refer to mdadm.conf(5) for information about this file.

by default, scan all partitions (/proc/partitions) for MD superblocks.

alternatively, specify devices to scan, using wildcards if desired.

DEVICE /dev/sdb?* /dev/sdc?*

auto-create devices with Debian standard permissions

CREATE owner=root group=disk mode=0660 auto=yes

automatically tag new arrays as belonging to the local system

HOMEHOST

instruct the monitoring daemon where to send mail alerts

MAILADDR root

definitions of existing MD arrays

ARRAY /dev/md0 level=raid1 num-devices=2 UUID=350e253f:863b7b04:b1617c47:b213a024
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=086e68ed:3607317f:60b56e23:6bae62bc
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=0f6e3ed5:aeee975a:c3647deb:763d68ce
ARRAY /dev/md3 level=raid1 num-devices=2 UUID=6b560fe8:f24d6f2e:8942bd3a:1903abbc
ARRAY /dev/md4 level=raid1 num-devices=2 UUID=462dab96:b7ca2a17:7c4aebf1:d4d7ec3b
ARRAY /dev/md5 level=raid1 num-devices=2 UUID=ea511351:3abc7b12:4c81e838:93dbd21a
ARRAY /dev/md6 level=raid1 num-devices=2 UUID=da0d76c6:91422584:dc3d6162:37ced53b
ARRAY /dev/md7 level=raid1 num-devices=2 UUID=387c831c:8a6d05e3:b649696c:0870b930
ARRAY /dev/md8 level=raid1 num-devices=2 UUID=b07c4ab4:39d0ba53:9913afa9:fd9cc323
ARRAY /dev/md9 level=raid1 num-devices=2 UUID=36c4edd0:a0492cc9:0cd2fce0:2745e358

This file was auto-generated on Wed, 07 Feb 2007 17:15:33 +0000

by mkconf $Id: mkconf 261 2006-11-09 13:32:35Z madduck $

[/code]

Les ARRAY correspondent au fichier créé avant le reboot.
Si je refait un mdadm -Es, j’obtiens ça pour les ARRAY et ce n’est pas propre je pense :

# definitions of existing MD arrays ARRAY metadata=imsm UUID=d9cfa6d9:2a715e4f:1fbc2095:be342429 ARRAY /dev/md/raidlin container=d9cfa6d9:2a715e4f:1fbc2095:be342429 member=0 UUID=91449a9d:9242bfe9:d99bceb0:a59f9314 ARRAY /dev/md0 UUID=350e253f:863b7b04:b1617c47:b213a024 ARRAY /dev/md1 UUID=086e68ed:3607317f:60b56e23:6bae62bc ARRAY /dev/md2 UUID=0f6e3ed5:aeee975a:c3647deb:763d68ce ARRAY /dev/md3 UUID=6b560fe8:f24d6f2e:8942bd3a:1903abbc ARRAY /dev/md4 UUID=462dab96:b7ca2a17:7c4aebf1:d4d7ec3b ARRAY /dev/md5 UUID=ea511351:3abc7b12:4c81e838:93dbd21a ARRAY /dev/md6 UUID=da0d76c6:91422584:dc3d6162:37ced53b ARRAY /dev/md7 UUID=387c831c:8a6d05e3:b649696c:0870b930 ARRAY /dev/md8 UUID=b07c4ab4:39d0ba53:9913afa9:fd9cc323

Parallèlement je suis en train de créer un thread sur le ML linux raid pour voir si on je ne loupe rien.

Il n’y a aucune raison pour que /dev/sda interfère s’il ne contient pas de RAID (et même s’il en contient). Ça ne peut pas être pire qu’avec [mono]DEVICE partitions[/mono].

Pour ma part j’évite maintenant d’utiliser les noms de disques en dur où que ce soit (fstab, mdadm.conf…) à cause de la nature fondamentalement non persistante du nommage des disques.

Pour le reste, ça semble correct.
Avant, tu pourrais donner le résultate de

mdadm -D /dev/md126 mdadm -E /dev/sdb

[code]# mdadm -D /dev/md126
/dev/md126:
Container : /dev/md/imsm0, member 0
Raid Level : raid1
Array Size : 244195328 (232.88 GiB 250.06 GB)
Used Dev Size : 244195328 (232.88 GiB 250.06 GB)
Raid Devices : 2
Total Devices : 2

      State : active 

Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

       UUID : 91449a9d:9242bfe9:d99bceb0:a59f9314
Number   Major   Minor   RaidDevice State
   1       8       32        0      active sync   /dev/sdc
   0       8       16        1      active sync   /dev/sdb

[/code]

[code]# mdadm -E /dev/sdb
mdmon: /dev/sdb is not attached to Intel® RAID controller.
mdmon: /dev/sdb is not attached to Intel® RAID controller.
/dev/sdb:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.1.00
Orig Family : 26b5a9e0
Family : 26b5a9e0
Generation : 00004db7
Attributes : All supported
UUID : d9cfa6d9:2a715e4f:1fbc2095:be342429
Checksum : 261d2aed correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1

Disk01 Serial : VFC100R10BE79D
State : active
Id : 00010000
Usable Size : 488390862 (232.88 GiB 250.06 GB)

[raidlin]:
UUID : 91449a9d:9242bfe9:d99bceb0:a59f9314
RAID Level : 1
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 1
Array Size : 488390656 (232.88 GiB 250.06 GB)
Per Dev Size : 488390656 (232.88 GiB 250.06 GB)
Sector Offset : 0
Num Stripes : 1907776
Chunk Size : 64 KiB
Reserved : 0
Migrate State : idle
Map State : normal
Dirty State : dirty

Disk00 Serial : VFC100R10BRKMD
State : active
Id : 00000000
Usable Size : 488390862 (232.88 GiB 250.06 GB)
[/code]

[code]# mdadm -E /dev/sdc
mdmon: /dev/sdc is not attached to Intel® RAID controller.
mdmon: /dev/sdc is not attached to Intel® RAID controller.
/dev/sdc:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.1.00
Orig Family : 26b5a9e0
Family : 26b5a9e0
Generation : 00004dbc
Attributes : All supported
UUID : d9cfa6d9:2a715e4f:1fbc2095:be342429
Checksum : 261c2af2 correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1

Disk00 Serial : VFC100R10BRKMD
State : active
Id : 00000000
Usable Size : 488390862 (232.88 GiB 250.06 GB)

[raidlin]:
UUID : 91449a9d:9242bfe9:d99bceb0:a59f9314
RAID Level : 1
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 0
Array Size : 488390656 (232.88 GiB 250.06 GB)
Per Dev Size : 488390656 (232.88 GiB 250.06 GB)
Sector Offset : 0
Num Stripes : 1907776
Chunk Size : 64 KiB
Reserved : 0
Migrate State : idle
Map State : normal
Dirty State : clean

Disk01 Serial : VFC100R10BE79D
State : active
Id : 00010000
Usable Size : 488390862 (232.88 GiB 250.06 GB)
[/code]

Contrairement à ce que je pensais, ce n’est pas le superbloc à la fin de la dernière partition qui est considéré à tort comme s’appliquant au disque entier. Il y a visiblement autre chose : mdadm voit sur ces disques un “container” de type RAID Intel Matrix Storage /dev/md/imsm0 contenant le volume nommé /dev/md126. C’est cohérent avec la sortie de mdadm -Es.

Est-ce que cela te dit quelque chose ? Ces disques auraient-ils était utilisés à un moment avec du RAID Intel ?

Pas dans la configuration actuelle, en tout cas pas que je me souvienne…
En revanche j’ai du changer de carte mère il y a quelques mois, cela peut venir de là ?