Raid5 changement disque [Résolu]

Bonjour,
J’ai construis un raid5 constitué de 4 disque de 500Go l’un des disque (le plus vieux connecté en IDE) est mort :confused: c’était /dev/sde je le remplace par un autre disque (mais connecté en SATA) et là je bloque pour remonter le raid.

root@raid5:~#  mdadm -D /dev/md1
/dev/md1:
        Version : 1.2
  Creation Time : Wed Dec 28 17:26:00 2016
     Raid Level : raid5
  Used Dev Size : 488254464 (465.64 GiB 499.97 GB)
   Raid Devices : 4
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Sun Jan 29 12:14:10 2017
          State : active, FAILED, Not Started 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           Name : raid5:RAID5  (local to host raid5)
           UUID : cf58492c:0a0c5281:f298b880:b09f2499
         Events : 20689

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       33        1      active sync   /dev/sdc1
       4       0        0        4      removed
       6       0        0        6      removed

Je ne comprend pas pourquoi les disque apparaissent comme removed alors qu’il sont bien visible dans le gestionnaire de disque.

root@raid5:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md1 : inactive sdc1[1]
      488254488 blocks super 1.2
       
unused devices: <none>
root@raid5:~#  mdadm -D /dev/md1
/dev/md1:
        Version : 1.2
  Creation Time : Wed Dec 28 17:26:00 2016
     Raid Level : raid5
  Used Dev Size : 488254464 (465.64 GiB 499.97 GB)
   Raid Devices : 4
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Sun Jan 29 12:14:10 2017
          State : active, FAILED, Not Started 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           Name : raid5:RAID5  (local to host raid5)
           UUID : cf58492c:0a0c5281:f298b880:b09f2499
         Events : 20689

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       33        1      active sync   /dev/sdc1
       4       0        0        4      removed
       6       0        0        6      removed
root@raid5:~# ^C
root@raid5:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md1 : inactive sdc1[1]
      488254488 blocks super 1.2
       
unused devices: <none>
root@raid5:~# mdadm --examine /dev/sd[bcde]1
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : cf58492c:0a0c5281:f298b880:b09f2499
           Name : raid5:RAID5  (local to host raid5)
  Creation Time : Wed Dec 28 17:26:00 2016
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 976508976 (465.64 GiB 499.97 GB)
     Array Size : 1464763392 (1396.91 GiB 1499.92 GB)
  Used Dev Size : 976508928 (465.64 GiB 499.97 GB)
    Data Offset : 261760 sectors
   Super Offset : 8 sectors
   Unused Space : before=261672 sectors, after=432 sectors
          State : active
    Device UUID : 40f4e8de:5b25967c:9b004779:4f075b15

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun Jan 29 12:14:10 2017
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : d45b4e41 - correct
         Events : 20689

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AA.A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : cf58492c:0a0c5281:f298b880:b09f2499
           Name : raid5:RAID5  (local to host raid5)
  Creation Time : Wed Dec 28 17:26:00 2016
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 976508976 (465.64 GiB 499.97 GB)
     Array Size : 1464763392 (1396.91 GiB 1499.92 GB)
  Used Dev Size : 976508928 (465.64 GiB 499.97 GB)
    Data Offset : 261760 sectors
   Super Offset : 8 sectors
   Unused Space : before=261672 sectors, after=432 sectors
          State : active
    Device UUID : a72ee3a0:8bbefda7:2411eddd:1a93af1b

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun Jan 29 12:14:10 2017
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 2cb7be2e - correct
         Events : 20689

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : AA.A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : cf58492c:0a0c5281:f298b880:b09f2499
           Name : raid5:RAID5  (local to host raid5)
  Creation Time : Wed Dec 28 17:26:00 2016
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 976508976 (465.64 GiB 499.97 GB)
     Array Size : 1464763392 (1396.91 GiB 1499.92 GB)
  Used Dev Size : 976508928 (465.64 GiB 499.97 GB)
    Data Offset : 261760 sectors
   Super Offset : 8 sectors
   Unused Space : before=261672 sectors, after=432 sectors
          State : active
    Device UUID : f2018069:bf8cfbd3:b5ab0862:ef873a25

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun Jan 29 12:14:10 2017
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : aef8ef15 - correct
         Events : 20689

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 3
   Array State : AA.A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde1:
   MBR Magic : aa55
Partition[0] :   1920221962 sectors at    218137203 (type 70)
Partition[1] :   1920298864 sectors at    544370800 (type 74)
Partition[2] :    544145418 sectors at    225600882 (type 82)
Partition[3] :        51637 sectors at   2760638474 (type 61)

Attention : le remplacement d’un disque PATA/IDE par un disque SATA peut provoquer le renommage de tous les disques. Par exemple le nouveau disque peut être sda, l’ancien sda devient sdb et ainsi de suite.
Vérifie donc que sde est bien le disque nouvellement ajouté.

“removed” signifie qu’ils ont été retirés de l’ensemble RAID, pas du système.

Ce que je ferais :

  • arrêter l’ensemble RAID avec
    mdadm --stop /dev/md1
  • assembler l’ensemble RAID en mode dégradé à partir des 3 partitions restantes avec
    mdadm --assemble /dev/md1 /dev/sd[bcd]1
    et vérifier qu’il est bien actif
  • ajouter la partition du nouveau disque avec
    mdadm --add /dev/md1 /dev/sde1
    et vérifier que la resynchronisation commence.

Note : la resynchronisation peut ne commencer que lors d’une écriture sur l’ensemble RAID s’il est démarré en auto-read-only lors de l’assemblage.

Bonjour et merci pour votre réponse,
Cependant j’ai un problème pour démarrer le raid

root@raid5:~# mdadm --stop /dev/md127 
mdadm: stopped /dev/md127
root@raid5:~# mdadm --assemble /dev/md1 /dev/sd[bcd]1
mdadm: /dev/md1 assembled from 3 drives - not enough to start the array while not clean - consider --force.  
root@raid5:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md1 : inactive sdb1[0](S) sdd1[4](S) sdc1[1](S)
      1464763464 blocks super 1.2
       
unused devices: <none>
root@raid5:~# mdadm --assemble --force /dev/md1 /dev/sd[bcd]1
mdadm: /dev/sdb1 is busy - skipping
mdadm: /dev/sdc1 is busy - skipping
mdadm: /dev/sdd1 is busy - skipping

J’ai fais un
mdadm --stop /dev/md*
mdadm --assemble /dev/md127 /dev/sdb1 /dev/sdc1 /dev/sdd1 -f
et là c’est bon :smiley:

root@raid5:~# mdadm --add /dev/md127 /dev/sde1
mdadm: added /dev/sde1
root@raid5:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md127 : active raid5 sde1[5] sdb1[0] sdd1[4] sdc1[1]
      1464763392 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/3] [UU_U]
      [>....................]  recovery =  0.1% (708012/488254464) finish=91.8min speed=88501K/sec
      bitmap: 4/4 pages [16KB], 65536KB chunk

unused devices: <none>

Merci Pascal :smiley: normalement tout est bon, il ne me reste plus qu’a attendre la fin de la reconstruction.
Mais du coup mon raid j’ai pu le lancer juste avec 3 disque pour une capacité de stockage de 1.5To donc le 4é disque que je rajoute c’est pour la parité mais en sois il n’est pas vitale (si ont sais que les données peuvent êtres perdu en cas de panne).