Raid 5 pas monté

je voulais ajouter un disk a mon raid, j’ai du ajouter une carte pci avec 2 ports sata 3 supplémentaires n’en n’ayant plus de disponibles. Dans l’opération je pense que bêtement j’ai du intervertir des câbles sata.
mon raid 5 n’est pas monté au reboot, voici quelques infos, je n’ai aucune expérience des raids a part en créer un ce que j’ai fait il y a quelques mois que je préfère ne pas faire n’importe quoi. Idéalement j’aimerais que mon raid se remonte et puis ensuite ajouter mon nouveau disque.
dmesg | grep md0

[ 3.853416] md: md0 stopped. [ 4.355208] md/raid:md0: device sde1 operational as raid disk 1 [ 4.355428] md/raid:md0: allocated 3228kB [ 4.355587] md/raid:md0: not enough operational devices (2/3 failed) [ 4.356149] md/raid:md0: failed to run raid set. [ 7.544899] EXT4-fs (md0): unable to read superblock
cat /proc/mdstat

Personalities : [raid6] [raid5] [raid4] 
md0 : inactive sde1[1]
      1953382488 blocks super 1.2
       
unused devices: <none>

mdadm --detail /dev/md0

/dev/md0:
        Version : 1.2
  Creation Time : Tue Nov  6 15:41:25 2012
     Raid Level : raid5
  Used Dev Size : 1953381888 (1862.89 GiB 2000.26 GB)
   Raid Devices : 3
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Sun May 19 21:32:00 2013
          State : active, FAILED, Not Started 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : bigbenn:0  (local to host bigbenn)
           UUID : e7c87d29:37d0d6b4:9a336d4f:0e239a13
         Events : 18627

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       65        1      active sync   /dev/sde1
       2       0        0        2      removed

cat /etc/mdadm/mdadm.conf

ARRAY /dev/md/0 level=raid5 num-devices=3 metadata=1.2 name=bigbenn:0 UUID=e7c87d29:37d0d6b4:9a336d4f:0e239a13
   devices=/dev/sdb1,/dev/sdd1,/dev/sde1
MAILADDR xxx@gmail.com

fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000

Disk /dev/sda doesn't contain a valid partition table

Disk /dev/sdb: 256.1 GB, 256060514304 bytes
255 heads, 63 sectors/track, 31130 cylinders, total 500118192 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x8aaed40e

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048   336275455   168136704    7  HPFS/NTFS/exFAT
/dev/sdb2       336277502   500117503    81920001    5  Extended
/dev/sdb5   *   336277504   493387775    78555136   83  Linux
/dev/sdb6       493389824   500117503     3363840   82  Linux swap / Solaris

WARNING: GPT (GUID Partition Table) detected on '/dev/sdc'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
16 heads, 63 sectors/track, 3876021 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048  3907029167  1953513560   fd  Linux raid autodetect

WARNING: GPT (GUID Partition Table) detected on '/dev/sdf'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/sdf: 2000.4 GB, 2000398934016 bytes
80 heads, 63 sectors/track, 775204 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x092c2257

   Device Boot      Start         End      Blocks   Id  System
/dev/sdf1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/sde: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x873db73f

   Device Boot      Start         End      Blocks   Id  System
/dev/sde1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/sdd: 1000.2 GB, 1000204886016 bytes
81 heads, 63 sectors/track, 382818 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x1433120b

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1            2048  1953525167   976761560   83  Linux

en regardant le résultat de fdisk comparé a mdadm.conf je me dit que les devices=/dev/sdb1,/dev/sdd1,/dev/sde1 ne sont plus les bons car maintenant /dev/sdb est un disk de 256Gb sur lequel est mon système, De même /dev/sdd est un disque de 1To qui contient mes backups.
Enfin j’imagine que /dev/sda contient mon nouveau disque car il n’a pas de table de partition.
En revanche aucune idée de comment procéder pour remettre tout en ordre proprement :slightly_smiling: Merci d’avance

Le nommage des disques SATA n’est pas fiable, il peut changer notamment lors de l’ajout de nouveaux disques.

Il devrait suffire de virer l’option “devices=” de mdadm.conf et laisser mdadm rechercher automatiquement les membres de l’ensemble RAID par son UUID.

[quote=“PascalHambourg”]Le nommage des disques SATA n’est pas fiable, il peut changer notamment lors de l’ajout de nouveaux disques.

Il devrait suffire de virer l’option “devices=” de mdadm.conf et laisser mdadm rechercher automatiquement les membres de l’ensemble RAID par son UUID.[/quote]
laisser mdadm rechercher automatiquement après un reboot ou je peux éviter ce dernier ?

Pas besoin de redémarrer. Il devrait suffire d’assembler le volume RAID en exécutant mdadm. Je n’ai pas la commande exacte en tête, cf. man mdadm.

résolu avec :
sudo mdadm --stop /dev/md0
sudo mdadm -A --force /dev/md0 /dev/sd[cfe]1

et puis j’ai pu --grow mon raid, ca se construit là, 20h de prévues :slightly_smiling:
merci