Soucis sur un RAID 6

Bonjour à tout le monde.
Ce n’est pas la première que j’ai des soucis avec un RAID mais avec pas mal de bourdes les années précédentes, j’arrête de faire n’importe quoi et je viens demander de l’aide ici.

Suite à une longue période de non utilisation, mon serveur a été éteint. Il est constitué de plusieurs grappes RAID : un md1, RAID1,
un md2, RAID1,
un md0, RAID6, avec 9 disques

Et le problème est là, le md0 pose problème au démarrage :

Checking file systems...fsck from util_linux 2.20.1
/dev/md1: clean, 30263/61046784 files, 47770974/244157584 blocks
/dev/md2: clean, 72455/122093568 files, 337543282/488345584 blocks
fsck.ext4; No such file or directory while trying to open /dev/md0
Possibly non-existent device?
fsck died with status 8
failed (code 8).
[...] File system check failed. Alog is being saved in /var/log/fsck/checkfs if that location is writable. Please repair the f
[FAILystem manually. ... failed!
[warn]A maintenance shell will now be started. CONTROL-D will terminate this shell and resume system boot. ... (warning).
Give root password for maintenance
(or type Control-D to continue):

En cherchant, j’ai découvert que les disques sdm1 et sdn1 n’étaient plus reconnus.
Je me suis dépêché de les changer par

--remove

et

--add

Sauf que depuis le RAID6 refuse de se lancer.
J’ ai réussi à avoir quelque chose en faisant :

mdadm --assemble /dev/md0 /dev/sd[fghijklmn]1
mdadm: no RAID superblock on /dev/sdm1
mdadm: /dev/sdm1 has no superblock - assembly aborted

Donc j’ai fait :

mdadm --assemble /dev/md0 /dev/sd[fghijkl]1
mdadm: /dev/md0 assembled from 5 drives - not enough to start the array.

Et là :

cat /proc/mdstat
Personalities : [raid1]
md0 : inactive sdg1[1](S) sdl1[6](S) sdk1[5](S) sdj1[4](S) sdi1[3](S) sdh1[2](S) sdf1[0](S)
      13673677416 blocks super 1.2

md2 : active raid1 sdd1[0] sde1[1]
      1953382336 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[2]
      976630336 blocks super 1.2 [2/2] [UU]

Il n’y a que 7 disques durs, pourquoi? Et ils sont en Spare, que puis-je faire?

Merci d’avance à tous ceux qui auraient des idées.

Comment ça, “plus reconnus” ?

Deux membres défaillants n’auraient pas dû empêcher l’activation d’un ensemble RAID 6 (mais sans aucune redondance).

Peut-on voir les commandes complètes ?

Comment vois-tu que tous les membres sont en spare ?

Peut-on voir la sortie des commandes suivantes ?

fdisk -l
mdadm --examine --scan --verbose
mdadm --detail /dev/md0
mdadm --examine /dev/sd[fghijklm]*

Je n’ai plus la copie d’écran de la commande

lshw -class disk

Je me retrouvais avec le sdm qui n’avait plus de chiffre dans la liste et le sdn qui était carrément absent.

Je n’ai plus les copies d’écran non plus mais j’avais tapé :

mdadm --remove /dev/md0 /dev/sdm1

J’avais mis le nouveau disque dur en place, puis :

mdadm --add /dev/md0 /dev/sdm1

La même chose pour le sdn1.

Ils sont marqués comme (S)

 cat /proc/mdstat
Personalities : [raid1]
md0 : inactive sdg1[1] (S) sdl1[6] (S) sdk1[5] (S) sdj1[4] (S) sdi1[3] (S) sdh1[2] (S) sdf1[0] (S)
      13673677416 blocks super 1.2

md2 : active raid1 sdd1[0] sde1[1]
      1953382336 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[2]
      976630336 blocks super 1.2 [2/2] [UU]

Sinon pour les autres commandes que tu me demandes, aucun soucis par contre les nouveaux disques durs sont placés dans le serveur.

fdisk -l
Disque /dev/sde : 2000.4 Go, 2000398934016 octets
81 têtes, 63 secteurs/piste, 765633 cylindres, total 3907029168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0xbac9a474

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sde1            2048  3907029167  1953513560   fd  RAID Linux autodétecté

Disque /dev/sdc : 1000.2 Go, 1000204886016 octets
81 têtes, 63 secteurs/piste, 382818 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0x647bda2b

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdc1            2048  1953525167   976761560   fd  RAID Linux autodétecté

Disque /dev/sdd : 2000.4 Go, 2000398934016 octets
81 têtes, 63 secteurs/piste, 765633 cylindres, total 3907029168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0xc99c21e2

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdd1            2048  3907029167  1953513560   fd  RAID Linux autodétecté

Disque /dev/sda : 400.1 Go, 400087375360 octets
255 têtes, 63 secteurs/piste, 48641 cylindres, total 781420655 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x0001dfa5

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sda1   *        2048   765091839   382544896   83  Linux
/dev/sda2       765093886   781418495     8162305    5  Étendue
/dev/sda5       765093888   781418495     8162304   82  partition d'échange Linux / Solaris

Disque /dev/sdb : 1000.2 Go, 1000204886016 octets
81 têtes, 63 secteurs/piste, 382818 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x0006c90e

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdb1            2048  1953525167   976761560   fd  RAID Linux autodétecté

Disque /dev/sdg : 2000.4 Go, 2000398934016 octets
81 têtes, 63 secteurs/piste, 765633 cylindres, total 3907029168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0x535f5b86

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdg1            2048  3907029167  1953513560   fd  RAID Linux autodétecté

Disque /dev/sdh : 2000.4 Go, 2000398934016 octets
81 têtes, 63 secteurs/piste, 765633 cylindres, total 3907029168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x00000000

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdh1            2048  3907029167  1953513560   fd  RAID Linux autodétecté

Disque /dev/sdi : 2000.4 Go, 2000398934016 octets
81 têtes, 63 secteurs/piste, 765633 cylindres, total 3907029168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x00000000

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdi1            2048  3907029167  1953513560   fd  RAID Linux autodétecté

Disque /dev/sdj : 2000.4 Go, 2000398934016 octets
81 têtes, 63 secteurs/piste, 765633 cylindres, total 3907029168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0x757de65e

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdj1            2048  3907029167  1953513560   fd  RAID Linux autodétecté

Disque /dev/sdf : 2000.4 Go, 2000398934016 octets
81 têtes, 63 secteurs/piste, 765633 cylindres, total 3907029168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0xf3b83620

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdf1            2048  3907029167  1953513560   fd  RAID Linux autodétecté

Disque /dev/sdk : 2000.4 Go, 2000398934016 octets
81 têtes, 63 secteurs/piste, 765633 cylindres, total 3907029168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0xef2b2081

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdk1            2048  3907029167  1953513560   fd  RAID Linux autodétecté

Disque /dev/sdl : 2000.4 Go, 2000398934016 octets
81 têtes, 63 secteurs/piste, 765633 cylindres, total 3907029168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0x62e19310

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdl1            2048  3907029167  1953513560   fd  RAID Linux autodétecté

Disque /dev/sdm : 2000.4 Go, 2000398934016 octets
81 têtes, 63 secteurs/piste, 765633 cylindres, total 3907029168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0x0c79a8f2

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdm1            2048  3907029167  1953513560   fd  RAID Linux autodétecté

Disque /dev/sdn : 2000.4 Go, 2000398934016 octets
81 têtes, 63 secteurs/piste, 765633 cylindres, total 3907029168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0x0c2d4859

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdn1            2048  3907029167  1953513560   fd  RAID Linux autodétecté

Disque /dev/md1 : 1000.1 Go, 1000069464064 octets
2 têtes, 4 secteurs/piste, 244157584 cylindres, total 1953260672 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0x00000000

Le disque /dev/md1 ne contient pas une table de partitions valable

Disque /dev/md2 : 2000.3 Go, 2000263512064 octets
2 têtes, 4 secteurs/piste, 488345584 cylindres, total 3906764672 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Identifiant de disque : 0x00000000

Le disque /dev/md2 ne contient pas une table de partitions valable
 mdadm --examine --scan --verbose
ARRAY /dev/md/2 level=raid1 metadata=1.2 num-devices=2 UUID=11bb7b05:604a5ff1:034f4873:15bb4dc9 name=SERVERHOME:2
   devices=/dev/sdd1,/dev/sde1
ARRAY /dev/md/1 level=raid1 metadata=1.2 num-devices=2 UUID=25576a1e:8b29c612:363ad2d1:7ad82d92 name=SERVERHOME:1
   devices=/dev/sdb1,/dev/sdc1
ARRAY /dev/md/0 level=raid6 metadata=1.2 num-devices=9 UUID=e76fe4d4:21ea2130:2e24ae3c:06285d3a name=SERVERHOME:0
   devices=/dev/sdl1,/dev/sdk1,/dev/sdf1,/dev/sdj1,/dev/sdi1,/dev/sdh1,/dev/sdg1
 mdadm --detail /dev/md0
mdadm: md device /dev/md0 does not appear to be active.
 mdadm --examine /dev/sd[fghijklm]*
/dev/sdf:
   MBR Magic : aa55
Partition[0] :   3907027120 sectors at         2048 (type fd)
/dev/sdf1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : e76fe4d4:21ea2130:2e24ae3c:06285d3a
           Name : SERVERHOME:0  (local to host SERVERHOME)
  Creation Time : Tue Aug  8 03:10:47 2017
     Raid Level : raid6
   Raid Devices : 9

 Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
     Array Size : 13673673216 (13040.23 GiB 14001.84 GB)
  Used Dev Size : 3906763776 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : ec8fd545:9248fe35:fae90a2c:e61c5847

    Update Time : Fri Jan 26 04:25:36 2018
       Checksum : 6fc425a0 - correct
         Events : 50099

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAAAAAA.A ('A' == active, '.' == missing)
/dev/sdg:
   MBR Magic : aa55
Partition[0] :   3907027120 sectors at         2048 (type fd)
/dev/sdg1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : e76fe4d4:21ea2130:2e24ae3c:06285d3a
           Name : SERVERHOME:0  (local to host SERVERHOME)
  Creation Time : Tue Aug  8 03:10:47 2017
     Raid Level : raid6
   Raid Devices : 9

 Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
     Array Size : 13673673216 (13040.23 GiB 14001.84 GB)
  Used Dev Size : 3906763776 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 761bea13:3aaa2c05:9798c5aa:ececc56b

    Update Time : Sat Feb  3 20:35:16 2018
       Checksum : b03d0418 - correct
         Events : 50969

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : .AAA.AA.A ('A' == active, '.' == missing)
/dev/sdh:
   MBR Magic : aa55
Partition[0] :   3907027120 sectors at         2048 (type fd)
/dev/sdh1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : e76fe4d4:21ea2130:2e24ae3c:06285d3a
           Name : SERVERHOME:0  (local to host SERVERHOME)
  Creation Time : Tue Aug  8 03:10:47 2017
     Raid Level : raid6
   Raid Devices : 9

 Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
     Array Size : 13673673216 (13040.23 GiB 14001.84 GB)
  Used Dev Size : 3906763776 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 4f6fd413:19a573d4:e434b958:04b1d422

    Update Time : Sat Feb  3 20:35:16 2018
       Checksum : e470b336 - correct
         Events : 50969

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : .AAA.AA.A ('A' == active, '.' == missing)
/dev/sdi:
   MBR Magic : aa55
Partition[0] :   3907027120 sectors at         2048 (type fd)
/dev/sdi1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : e76fe4d4:21ea2130:2e24ae3c:06285d3a
           Name : SERVERHOME:0  (local to host SERVERHOME)
  Creation Time : Tue Aug  8 03:10:47 2017
     Raid Level : raid6
   Raid Devices : 9

 Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
     Array Size : 13673673216 (13040.23 GiB 14001.84 GB)
  Used Dev Size : 3906763776 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 4c62a1f9:d25c7ce4:b274f61f:5d579cf1

    Update Time : Sat Feb  3 20:35:16 2018
       Checksum : 704b4416 - correct
         Events : 50969

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : .AAA.AA.A ('A' == active, '.' == missing)
/dev/sdj:
   MBR Magic : aa55
Partition[0] :   3907027120 sectors at         2048 (type fd)
/dev/sdj1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : e76fe4d4:21ea2130:2e24ae3c:06285d3a
           Name : SERVERHOME:0  (local to host SERVERHOME)
  Creation Time : Tue Aug  8 03:10:47 2017
     Raid Level : raid6
   Raid Devices : 9

 Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
     Array Size : 13673673216 (13040.23 GiB 14001.84 GB)
  Used Dev Size : 3906763776 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : active
    Device UUID : 3860459f:11d894a3:edcdae82:9302d91b

    Update Time : Sat Feb  3 19:25:53 2018
       Checksum : 61fbb178 - correct
         Events : 50964

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 4
   Array State : .AAAAAA.A ('A' == active, '.' == missing)
/dev/sdk:
   MBR Magic : aa55
Partition[0] :   3907027120 sectors at         2048 (type fd)
/dev/sdk1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : e76fe4d4:21ea2130:2e24ae3c:06285d3a
           Name : SERVERHOME:0  (local to host SERVERHOME)
  Creation Time : Tue Aug  8 03:10:47 2017
     Raid Level : raid6
   Raid Devices : 9

 Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
     Array Size : 13673673216 (13040.23 GiB 14001.84 GB)
  Used Dev Size : 3906763776 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : fac36f86:3cfa49b2:66b779ae:cf94f865

    Update Time : Sat Feb  3 20:35:16 2018
       Checksum : cdc6c355 - correct
         Events : 50969

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 5
   Array State : .AAA.AA.A ('A' == active, '.' == missing)
/dev/sdl:
   MBR Magic : aa55
Partition[0] :   3907027120 sectors at         2048 (type fd)
/dev/sdl1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : e76fe4d4:21ea2130:2e24ae3c:06285d3a
           Name : SERVERHOME:0  (local to host SERVERHOME)
  Creation Time : Tue Aug  8 03:10:47 2017
     Raid Level : raid6
   Raid Devices : 9

 Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
     Array Size : 13673673216 (13040.23 GiB 14001.84 GB)
  Used Dev Size : 3906763776 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 217bdf86:d4ed34ec:14941879:577af6ea

    Update Time : Sat Feb  3 20:35:16 2018
       Checksum : 57be304c - correct
         Events : 50969

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 6
   Array State : .AAA.AA.A ('A' == active, '.' == missing)
/dev/sdm:
   MBR Magic : aa55
Partition[0] :   3907027120 sectors at         2048 (type fd)
mdadm: No md superblock detected on /dev/sdm1.

Et avec :

mdadm --examine /dev/sd[fghijklmn]*
/dev/sdn:
   MBR Magic : aa55
Partition[0] :   3907027120 sectors at         2048 (type fd)
mdadm: No md superblock detected on /dev/sdn1.

Merci encore beaucoup pour ta réponse

Comment ça, “chiffre dans la liste” ? Tu veux parler de la partition sdm1 ?

Mon interprétation du résultat de --examine :

  1. Les deux nouveaux disques sdm et sdn n’ont pas été initialisés comme membres d’un ensemble RAID. La commande --add semble avoir été sans effet. Peut-être parce que l’ensemble md0 était inactif.

  2. sdf1, qui a le rôle n° 0, n’est plus synchronisé depuis le 26/01/2018. A cette date, il manquait déjà un disque : le rôle n° 7.

  3. sdj1, qui a le rôle n° 4, n’est plus n’est plus synchronisé depuis le 03/02/2018 à 19:25. A cette date, il manquait donc deux disques : les rôles n° 0 (sdf1) et 7.

  4. Les 5 autres membres ont été mis à jour pour la dernière fois le 03/02/2018 à 20:35. A cette date, il manquait donc trois disques : les rôles n° 0 (sdf1), 4 (sdj1) et 7.

Avec 3 membres manquants ou hors synchronisation, l’ensemble RAID 6 ne pouvait déjà plus fonctionner. Mais en plus un des membres qui était encore marqué actif lors de la dernière mise à jour des superblocs, le rôle n° 8, est aussi manquant maintenant.

Ma conclusion pessimiste est qu’avec seulement 5 membres encore présents et en synchronisation sur 9, l’ensemble RAID est mort. Tu peux essayer de forcer l’activation sans redondance avec les 7 membres présents, mais comme deux sont hors synchronisation (dont un avec un retard de 8 jours), le contenu risque de contenir des incohérences.

mdadm --run --force /dev/md0

Ensuite, si l’ensemble veut bien s’activer, tu pourras ajouter les partitions sdm1 et sdn1, ce qui devrait démarrer la longue reconstruction.

Merci beaucoup tes explications. Ça parait mal engagé, c’est clair. Voila ce qu’il s’est passé :

 mdadm --run --force /dev/md0

mdadm: failed to run array /dev/md0: Input/output error

Tu peux regarder dans les logs du noyau avec dmesg pour voir s’il y a des messages relatifs à cette erreur d’entrée/sortie.

Je t’avoue que je n’ai jamais essayé de faire de récupération de RAID 6, je navigue à vue. Il faut peut-être forcer le démarrage lors de l’assemblage . Tu peux essayer d’arrêter l’ensemble et de le réassembler avec tous ses membres présents, verifier s’il est bien actif et ajouter les deux nouveaux membres.

mdadm --stop /dev/md0
mdadm --assemble --force --run /dev/md0 /dev/sd[fghijkl]1
cat /proc/mdstat
mdadm --add /dev/md0 /dev/sd[mn]1
 mdadm --stop /dev/md0

mdadm: stopped /dev/md0

mdadm --assemble --force --run /dev/md0 /dev/sd[fghijkl]1

mdadm: forcing event count in /dev/sdj1(4) from 50964 upto 50969
mdadm: forcing event count in /dev/sdf1(0) from 50099 upto 50969
mdadm: /dev/md0 has been started with 7 drives (out of 9).

cat /proc/mdstat

Personalities : [raid1] [raid6] [raid5] [raid4]
md0 : active raid6 sdf1[0] sdl1[6] sdk1[5] sdj1[4] sdi1[3] sdh1[2] sdg1[1]
13673673216 blocks super 1.2 level 6, 512k chunk, algorithm 2 [9/7] [UUUUUUU__]

md2 : active raid1 sdd1[0] sde1[1]
1953382336 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[2]
976630336 blocks super 1.2 [2/2] [UU]

unused devices:

Par contre petite question avant d’ajouter les deux disques durs dans le RAID, maintenant qu’il est lancé, je peux récupérer mes données ou y accéder, à ton avis???

Tu peux essayer puisque l’ensemble est actif. S’il contient un unique système de fichiers, je commencerais par faire un fsck pour vérifier son état. Un des disques avait un retard de synchronisation de 8 jours, alors je pense qu’il y aura forcément des incohérences, sauf si le volume n’était utilisé qu’en lecture.

fsck /dev/md0

fsck de util-linux 2.20.1
e2fsck 1.42.5 (29-Jul-2012)
exet2fs_check_desc: Descripteur de groupe corrompu : bloc invalide pour le bitmap de blocs
fsck.ext4 : Les descripteurs de groupe semblent en mauvais état... tentons d'utiliser les blocs de sauvetage...
le drapeau needs_recovery n'est pas activé, mais le journal contient des données.
Le drapeau de récupération n'est pas activé dans le superbloc de secours, le journal sera donc quand même exécuté.
/dev/md0 : récupération du journal
Passe 1 : vérification des i-noeuds, des blocs et des tailles
l'i-noeud 7 a un(des) bloc(s) illégal(aux). Effacer<o>?

Je ne suis pas complètement sûr de ce que je dois répondre…

Moi non plus. Les entrailles d’ext4 ne sont pas ma spécialité, et comme disait l’autre, “je préfère que ce soit toi qui tiennes la tronçonneuse”. Un i-noeud (inode) contient les méta-données d’un fichier ou répertoire ; j’ignore si fsck propose d’effacer l’inode donc supprimer ce fichier ou effacer les références de blocs illégaux de l’inode.

Si je comprends bien, il n’y a pas de sauvegarde du contenu de ce volume ?

Je crains que le choix soit de toute façon limité : ne pas corriger les erreurs avec le risque de laisser le volume dans un état inutilisable, ou corriger avec le risque de supprimer certains fichiers contenant des erreurs.

Idéalement, il faudrait faire une image du volume pour pouvoir travailler dessus sans risque, mais cela nécessiterait un espace de 14 To et prendrait un temps fou.

Eventuellement tu peux annuler la réparation et essayer de monter le volume en lecture seule (mount -r) pour voir ce qui est accessible.

Je te dois un apéro et un resto, c’est obligé…

Ça a fonctionné.

Respect et merci

Alors suite de mes questions :
dois-je ajouter les deux disques maintenant?
dois-je modifier quelque chose pour ne plus avoir les messages d’erreur au boot de mon serveur?
dois-je modifier ma manière de configurer mon RAID?
Que dois-je faire pour que mon fichier mdadm.conf soit correct?

Et enfin, je t’ai lu dans un autre post, où tu disais que pour les RAID il vaut mieux configurer les disques durs avec leurs UUID plutôt qu’avec leurs lettres, comment fait-on ça?

A ta place je ne me réjouirais pas si tôt. Tu risques de découvrir à l’usage que certains fichiers sont manquants ou endommagés.

Le RAID 6 a quand même pour but premier de fournir de la redondance, or actuellement il n’y en a aucune, ce qui n’est pas une situation d’avenir. La probabilité de panne avec 7 disques est 7 fois plus élevée qu’avec un seul. Donc oui.

Les messages d’erreur au démarrage, c’était quoi déjà ? L’absence de /dev/md0 ? Si md0 est à nouveau en état de démarrer automatiquement, cette erreur et ses conséquences disparaîtront d’elles-mêmes.
Si l’activation et le montage de md0 ne sont pas indispensables au démarrage du système, alors tu peux ajouter l’option nofail à la ligne correspondante dans /etc/fstab. Mais en contrepartie tu ne verras pas forcément immédiatement qu’il y a un problème. Ceci dit, avec le RAID il vaut mieux ne pas attendre ce genre de problème (car il est alors souvent déjà trop tard) mais l’anticiper, et notamment détecter au plus tôt quand un disque sort du RAID, et planifier son remplacement avant qu’un autre suive.

A quoi penses-tu ?

Il est probablement déjà correct.
Pour recevoir les alertes il faut s’assurer que mdadm tourne en tant que démon de surveillance (monitor) et que l’adresse mail de destination des alertes est bien configurée.

J’écrivais probablement qu’il vaut mieux désigner un système de fichiers contenus dans un ensemble RAID par l’UUID du système de fichiers plutôt que par le nom de périphérique de l’ensemble RAID dans le fichier /etc/fstab. D’ailleurs c’est ce que fait l’installateur Debian quand on fait une installation sur du RAID. En effet les noms de périphériques /dev/md* des ensembles RAID ne sont pas totalement garantis constants, tout comme les noms de périphériques des disques et partitions /dev/sd*.

Je voudrais revenir sur un point qui me chiffonne. Tu as écrit que deux disques n’étaient plus reconnus, et nous avons vu que deux autres étaient encore reconnus mais étaient sortis du RAID. Je trouve que cela fait beaucoup. Il a dû se passer quelque chose, et cela pourrait se reproduire. Tu peux rechercher dans les logs du noyau (/var/log/kern.log*) et de mdadm (/var/log/daemon.log*) s’il y a des traces de ce qui s’est passé.

As-tu pu déterminer pourquoi les deux disques que tu as retirés n’étaient plus reconnus ? Sont-ils effectivement défectueux, vérifiés avec smartctl sur une autre machine ?