Probleme RAID 6

Bonjour tout le monde,

je viens vers vous car j’ai chercher, et appliqué quelques ptite chose que j’ai trouvé pour mon soucis, mais cela ne solutionne pas mon probleme.

J’ai un Serveur En raid6 sur lequel tout fonctionnait correctement jsuqua ce weekend.
Pour une raison que j’ignore, celui ci a figé et depuis l’arret relance sauvage, je n’ai plus acces a mon RAID.

Un disque semble avoir un soucis, je l’ai donc demonté mais je n’arrive pas a le remettre dans le raid apres l’avoir formater, comme si il s’agissait d’un noveau disque.

mdadm --detail /dev/md3

/dev/md3:
Version : 1.2
Creation Time : Sun Apr 6 17:53:21 2014
Raid Level : raid6
Used Dev Size : 976629248 (931.39 GiB 1000.07 GB)
Raid Devices : 10
Total Devices : 9
Persistence : Superblock is persistent

Update Time : Sat Aug 15 05:27:07 2015
      State : active, degraded, Not Started

Active Devices : 9
Working Devices : 9
Failed Devices : 0
Spare Devices : 0

     Layout : left-symmetric
 Chunk Size : 512K

       Name : megatron:3  (local to host megatron)
       UUID : ae4efee1:ac3abde8:0f33a433:ad30cf2c
     Events : 399667

Number   Major   Minor   RaidDevice State
   0       8       33        0      active sync   /dev/sdc1
  10       8       49        1      active sync   /dev/sdd1
   2       8       65        2      active sync   /dev/sde1

3 0 0 3 removed << me manque ici le sdf
11 8 97 4 active sync /dev/sdg1
5 8 113 5 active sync /dev/sdh1
6 8 129 6 active sync /dev/sdi1
7 8 145 7 active sync /dev/sdj1
8 8 161 8 active sync /dev/sdk1
9 8 177 9 active sync /dev/sdl1

le reste fonctionne, l’os boot mais avec des erreurs, on voit clairement ici le /dev/md3 qui reste inactif.

cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md3 : inactive sdc10 sdf12 sdl19 sdk18 sdj17 sdi16 sdh15 sdg111 sde12 sdd110
9766299352 blocks super 1.2

md2 : active raid1 sda3[0] sdb3[1]
727071552 blocks super 1.2 [2/2] [UU]

md1 : active (auto-read-only) raid1 sda2[0] sdb2[1]
4878272 blocks super 1.2 [2/2] [UU]

md0 : active raid1 sda1[0] sdb1[1]
487104 blocks super 1.2 [2/2] [UU]

SVP je veux bien un coup de main, je ne voudrais pas perdre 9 teras de données.
Merci d’avance pour vos retours.

mnicolas35 bonjour

J’ai aussi un RAID 6 sur mon n40l et j’ai utilisé la totalité 12TB (sur 20 pour la tolérance de deux pannes disque et avec parité répartie) en cinq disques 4 TB avec un LVM global (Volume Group VG0) et après avec des volumes logiques.

Il ne faudrait pas que tu intervienne “en ligne” ; avec l’OS en RAID mais plutôt avec un CD / DVD live. Je crois. En ligne de commande.

L’indicateur (S) est significatif d’un état particulier. Je cherche la signification. Stopped ?
édition : http://www.linuxquestions.org/questions/linux-general-1/mdadm-s-symbol-what-does-it-mean-4175462517/

Il est urgent d’attendre et de prendre son temps.

State : active, degraded, Not Started est tant soit peu quand même rassurant.

Après, il me semble qu’il ne manque l’assemblage de md3.

Ton nouveau disque sdf demande un partitionnement RAID particulier ; sdc et sdl doivent l’avoir. Pour les deux le même. La déclaration de la partition Linux RAID. Le partitionnement de sdf ne peut différer.

Vérifie en lecture avec un outil de partitionnement.

Je suis le fil.

Courage.

Après la longue reconstruction, tu feras un fsck de ta ou tes partitions mais démontées ; soit depuis un cd live, en ligne de commande.

Mais je n’arrive pas à voir où se trouve la tolérance de panne de md3 …

j’interviens bien en ligne de commande, il s’agit d’un serveur.
Je viens de brancher un ecran dessus afin de verifier ce qui se passait, mais je ne dipose pas d’interface grafique, uniquement un shell shh.

Pour le [S] il sagit bien d’un stop, je 'effectué ceci pour verifier si ca se stoppait ou non.

J’espere avoir d’autre reponses, merci encore.

je continue donc mes investigations, j’espere avoir de votre aide.

j’ai donc editer le Fstab et commenter la ligne suivante, et n’obtiens plus de message d’erreur au boot, mais je ne dipose toujours pas de mes 12 tera de données lol … :blush:
#/dev/mapper/data-data /data ext4 defaults 0 2

formatage du disque avec les indications que tu m’as donné en utilisant la commandes suivante.
sfdisk -d /dev/sdi | sfdisk -f /dev/sdf

root@megatron:/# fdisk -l |grep -i sdf
Disque /dev/sdf : 1000.2 Go, 1000204886016 octets
/dev/sdf1 2048 1953523711 976760832 fd RAID Linux autodétecté
Le disque /dev/md0 ne contient pas une table de partitions valable
Le disque /dev/md1 ne contient pas une table de partitions valable
Le disque /dev/md2 ne contient pas une table de partitions valable

root@megatron:/# fdisk -l |grep -i sdi
Le disque /dev/md0 ne contient pas une table de partitions valable
Le disque /dev/md1 ne contient pas une table de partitions valable
Le disque /dev/md2 ne contient pas une table de partitions valable
Disque /dev/sdi : 1000.2 Go, 1000204886016 octets
/dev/sdi1 2048 1953523711 976760832 fd RAID Linux autodétecté

les disques sont donc maintenant indentiques, mais j’ai toujours un soucis.
L’import du disque dans le systeme RAID ne fonctionne pas.

root@megatron:~# mdadm --manage /dev/md3 --add /dev/sdf1
mdadm: Cannot open /dev/sdf1: Device or resource busy
root@megatron:~# mdadm --manage /dev/md3 --add /dev/sdf
mdadm: Cannot open /dev/sdf: Device or resource busy

:013

La commande suivante me donne ceci :

root@megatron:/# mdadm --assemble --scan
mdadm: device 8 in /dev/md/3 has wrong state in superblock, but /dev/sdk1 seems ok
mdadm: device 10 in /dev/md/3 has wrong state in superblock, but /dev/sdf seems ok
mdadm: /dev/md/3 assembled from 9 drives and 1 spare - not enough to start the array while not clean - consider --force.

root@megatron:~# mdadm --manage /dev/md3 --add /dev/sdf1 mdadm: Cannot open /dev/sdf1: Device or resource busy
C’est pourtant bien comme ça que je voyais la chose.

root@megatron:~# mdadm --manage /dev/md3 --add /dev/sdf Est une erreur.

En relisant le lien donné en premier (à partir de 05-18-2013, 04:58 PM) je vois que richinsc s’en sort (avec un RAID1). Dans l’exemple :

Le (S) ne serait pas “Stopped” mais “Spare”

Toute la manip est à 05-18-2013, 05:09 PM

Je propose :

[code]# mdadm --manage /dev/md3 --remove /dev/sdf1

mdadm --zero-superblock /dev/sdf1

mdadm --manage /dev/md3 --add /dev/sdf1[/code]

Il reste néanmoins le :

Lequel, j’espère, ne va pas poser trop de problème. (consider --force ?)

En cas de souci avec sdk1, il faudrait - peut-être - procéder à la reconstruction sans lui (mais avec sdf1) pour ensuite appliquer le même --zero-superblock pour sdk1 ; tout ça sans perte de données.

Je m’avance un peu … car je ne connais pas la redondance de ton RAID ; Quelle est-t’elle ?

Une alternative complémentaire à propos de ce que je viens d’évoquer est de rajouter un disque supplémentaire (même capacité au minimum) au raid et de l’incorporer de manière à ne pas perdre la parité du RAID. Et reconstruire avant de “réparer” sdk1.

édition : Je ne sais pas du tout si il est possible en l’état de faire sans perte de données un :

[code]…

mdadm --zero-superblock /dev/sdk1

…[/code]

alors … voila ce que ca donne.

root@megatron:~# mdadm --manage /dev/md3 --remove /dev/sdf1
mdadm: cannot find /dev/sdf1: No such file or directory

root@megatron:~# mdadm --zero-superblock /dev/sdf1
mdadm: Couldn’t open /dev/sdf1 for write - not zeroing

root@megatron:~# mdadm --manage /dev/md3 --add /dev/sdf1
mdadm: cannot find /dev/sdf1: No such file or directory

root@megatron:~# mdadm --manage /dev/md3 --remove /dev/sdf
mdadm: hot removed /dev/sdf from /dev/md3

root@megatron:~# dadm --zero-superblock /dev/sdf
-bash: dadm : commande introuvable

root@megatron:~# mdadm --zero-superblock /dev/sdf
pas de retour d’erreur c’est deja ca … !!!

root@megatron:~# mdadm --manage /dev/md3 --add /dev/sdf
mdadm: add new device failed for /dev/sdf as 12: Invalid argument

root@megatron:~# mdadm --manage /dev/md3 --add /dev/sdf1
mdadm: cannot find /dev/sdf1: No such file or directory

si tu as d’autres idées je suis preneur … !!!

Tu as bien formaté sdf avec sdf1 comme partition Linux RAID ?
Car là, il ne trouve pas la partition sdf1 de sdf

Reliste fdisk -l | less pour vérifier la présence physique de tous tes disques (dont sdf)

Ou alors un par un de sdc à sdl.

Le système peut ne plus lire correctement ; planté. As-tu une unité d’amorçage externe ?

Tu as un drôle de RAID faut avouer ; Beaucoup de disques et quelle redondance ?

Les disques doivent être formatés avec une partition identique de type Linux RAID.

Je commence à craindre une défaillance matérielle.

Quel contrôleur te donne la possibilité de brancher 12 unités de masse ? Quel serveur ?

Indique aussi la redondance prévue (nombre de disques pouvant défaillir) stp ?

root@megatron:~# mdadm --zero-superblock /dev/sdf pas de retour d'erreur c'est deja ca .. !!!
Là, tu t’adresses au disque entier et ce n’est pas correct.
Recrée sdf1 comme tu l’avais fait en recopiant la partition et recommence avec ma proposition.
Tu avais fait des multiples essais entre sdf et sdf1 et il s’agit de s’adresser à sdf1 correctement partitionné uniquement. Pas à sdf.

pour le disque je pense que c’est bon … mai sje t’avoue que je ne suis plus sur de rien avec toutes ces manips.

root@megatron:~# fdisk -l | grep -i sdf
Disque /dev/sdf : 1000.2 Go, 1000204886016 octets
/dev/sdf1 2048 1953525167 976761560 fd RAID Linux autodétecté

et en gros … j’ai 10 disque durs en raid 6, donc 2 disques de tolerance de pannes.

un fdisk -l me remonte tout ceci:

root@megatron:~# fdisk -l

Disque /dev/sda : 750.2 Go, 750156374016 octets
64 têtes, 32 secteurs/piste, 715404 cylindres, total 1465149168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x032363eb

Périphérique Amorce Début Fin Blocs Id Système
/dev/sda1 * 2048 976895 487424 fd RAID Linux autodétecté
/dev/sda2 976896 10741759 4882432 fd RAID Linux autodétecté
/dev/sda3 10741760 1465147391 727202816 fd RAID Linux autodétecté

Disque /dev/sdb : 750.2 Go, 750156374016 octets
64 têtes, 32 secteurs/piste, 715404 cylindres, total 1465149168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x00097b5e

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdb1 * 2048 976895 487424 fd RAID Linux autodétecté
/dev/sdb2 976896 10741759 4882432 fd RAID Linux autodétecté
/dev/sdb3 10741760 1465147391 727202816 fd RAID Linux autodétecté

Disque /dev/sdc : 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0xb9163717

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdc1 2048 1953523711 976760832 fd RAID Linux autodétecté

Disque /dev/sdd : 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x07f48cc3

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdd1 2048 1953523711 976760832 fd RAID Linux autodétecté

Disque /dev/sde : 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x000d232f

Périphérique Amorce Début Fin Blocs Id Système
/dev/sde1 2048 1953523711 976760832 fd RAID Linux autodétecté

Disque /dev/sdf : 1000.2 Go, 1000204886016 octets
46 têtes, 16 secteurs/piste, 2654246 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x747a644b

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdf1 2048 1953525167 976761560 fd RAID Linux autodétecté

Disque /dev/sdg : 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x000bdd19

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdg1 2048 1953523711 976760832 fd RAID Linux autodétecté

Disque /dev/sdh : 1000.2 Go, 1000204886016 octets
64 têtes, 32 secteurs/piste, 953869 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x000b8140

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdh1 2048 1953523711 976760832 fd RAID Linux autodétecté

Disque /dev/sdi : 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x0008c86c

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdi1 2048 1953523711 976760832 fd RAID Linux autodétecté

Disque /dev/sdj : 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x220cea58

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdj1 2048 1953523711 976760832 fd RAID Linux autodétecté

Disque /dev/sdk : 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0xa27f6d52

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdk1 2048 1953523711 976760832 fd RAID Linux autodétecté

Disque /dev/sdl : 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres, total 1953525168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x9c91f466

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdl1 2048 1953523711 976760832 fd RAID Linux autodétecté

Disque /dev/md0 : 498 Mo, 498794496 octets
2 têtes, 4 secteurs/piste, 121776 cylindres, total 974208 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x00000000

Le disque /dev/md0 ne contient pas une table de partitions valable

Disque /dev/md1 : 4995 Mo, 4995350528 octets
2 têtes, 4 secteurs/piste, 1219568 cylindres, total 9756544 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x00000000

Le disque /dev/md1 ne contient pas une table de partitions valable

Disque /dev/md2 : 744.5 Go, 744521269248 octets
2 têtes, 4 secteurs/piste, 181767888 cylindres, total 1454143104 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x00000000

Le disque /dev/md2 ne contient pas une table de partitions valable

pour ce qui est du model : sauf que le mien a 16 baies et que j’en utilise 12.
toolinux.com/article/dxl-120 … t-de-gamme

Bonjour mnicolas35

Ta partiton sdf1 est légèrement plus grande, tu n’as pas réutilisé la copie de partition comme auparavant mais ce ne devrait pas être important.

Redonne ton /proc/mdstat

Réessaie :

[code]# mdadm --manage /dev/md3 --remove /dev/sdf1

mdadm --zero-superblock /dev/sdf1

mdadm --manage /dev/md3 --add /dev/sdf1[/code]

Puis ensuite :

Ou aussi :

Donne les résultats.

voila l’ensmeble des reposes :

root@megatron:~# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md3 : inactive sdc1[0] sdf12 sdl1[9] sdk1[8] sdj1[7] sdi1[6] sdh1[5] sdg1[11] sde1[2] sdd1[10]
9766299352 blocks super 1.2

md2 : active raid1 sda3[0] sdb3[1]
727071552 blocks super 1.2 [2/2] [UU]

md1 : active (auto-read-only) raid1 sda2[0] sdb2[1]
4878272 blocks super 1.2 [2/2] [UU]

md0 : active raid1 sda1[0] sdb1[1]
487104 blocks super 1.2 [2/2] [UU]

unused devices:
root@megatron:~# mdadm --manage /dev/md3 --remove /dev/sdf1
mdadm: cannot find /dev/sdf1: No such file or directory

root@megatron:~# mdadm --zero-superblock /dev/sdf1
mdadm: Couldn’t open /dev/sdf1 for write - not zeroing

root@megatron:~# mdadm --manage /dev/md3 --add /dev/sdf1
mdadm: cannot find /dev/sdf1: No such file or directory

root@megatron:~# mdadm --assemble --scan --force

root@megatron:~# mdadm --assemble /dev/md3 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1 /dev/sdk1 /dev/sdl1
mdadm: /dev/sdc1 is busy - skipping
mdadm: /dev/sdd1 is busy - skipping
mdadm: /dev/sde1 is busy - skipping
mdadm: cannot open device /dev/sdf1: No such file or directory
mdadm: /dev/sdf1 has no superblock - assembly aborted

La bonne nouvelle suivant :

root@megatron:~# cat /proc/mdstat Personalities : [raid1] [raid6] [raid5] [raid4] md3 : inactive sdc1[0] sdf[12](S) sdl1[9] sdk1[8] sdj1[7] sdi1[6] sdh1[5] sdg1[11] sde1[2] sdd1[10] 9766299352 blocks super 1.2
Est que il ne reste que sdf[12] en état (S) Mais justement ;

Pourquoi “sdf[12]” et non pas sdf1[x] ; Là est le problème.

Il va falloir écraser totalement sdf, pour arriver à créer un sdf1 qui tienne ;

De quel type est la table de partition de sdf ?

[quote=“fdisk”] Créer une nouvelle étiquette
g créer une nouvelle table vide de partitions GPT
G créer une nouvelle table vide de partitions SGI (IRIX)
o créer une nouvelle table vide de partitions DOS
s créer une nouvelle table vide de partitions Sun[/quote]
Je te recommande de créer une nouvelle table vide de partitions pour le disque sdf et avec le même type que tes autres disques.
Je pense que tes tables de partition sont de type DOS.

Puis de recréer sdf1 par recopie de partition comme tu l’as fait avec une commande précédente :

[quote=“mnicolas35”]formatage du disque avec les indications que tu m’as donné en utilisant la commandes suivante.
sfdisk -d /dev/sdi | sfdisk -f /dev/sdf[/quote]
Je n’ai pas vérifié exactement cette commande mais j’en comprends le principe ; Un dump d’un schéma de partitionnement appliqué à un autre disque.

Il faut utiliser [mono]partprobe[/mono] pour que cette modification (création de sdf1) soit prise en compte sans redémarrer. Je pense que c’est là l’oubli : [mono]partprobe[/mono]

Mais avant tout (!) : il faut retirer sdf du RAID :

mdadm --manage /dev/md3 --remove /dev/sdf

eueuehu … lol il veut pas … enfin bon il dit qu’il n’y est pas. !

root@megatron:~# mdadm --manage /dev/md3 --remove /dev/sdf
mdadm: hot remove failed for /dev/sdf: No such device or address

root@megatron:~# mdadm --manage /dev/md3 --remove /dev/sdf1
mdadm: cannot find /dev/sdf1: No such file or directory

On s’en fiche. sdf1 fait suer pour le moment à incorporer. Et sdf prétend y être - sans pouvoir être retiré.

Ton disque sdf est-il en forme ?

Ta baie RAID ne risque plus grand chose maintenant car elle n’a qu’un disque défaillant même si md3 n’est pas en route.

Depuis combien de temps tu n’as pas redémarré ta baie ?

Je peux te donner de quoi redémarrer md3 - je crois - mais sans sdf - pour le moment.

Disposes-tu d’un autre disque de taille équivalente ou supếrieure à sdf ?

Redémarre ta baie et reprends au retrait de sdf du raid si il est encore présent.

Je suis.

bon en fait . le tout est stoppé depuis dimanche.
Pour une raison qu eje ne connais pas, tout fonctionnait ce week end .; et dimanche soir quand j’ai voulu lancé une serie sur la TV de l’etage, rien ne s’est lancé.
J’ai donc verifier que le NAS etait joignable .; et la plus rien … pas de ping … tout etait figé.

j’ai donc fait une relance sauvegarde et mon soucis est présent depuis.

/dev/md3 ne demarrent plus car je l’ai commenté dans le Fstab, lorsque je le decommente, le serveur ne boot pas et reste coincé sur le fait que fsck ne trouve pas de systeme de fichier, sans doute parcequ’il ne demarre pas le RAID.
Du coup il est coupé depuis.

Alors vas y, dis moi .; et je commmence les actions.
Que souhaites tu que je fasse ?

Tu as un shell ?

md3 n’est pas indispensable à l’amorçage de ton système ; Il me semble qu’il contient plutôt des données.

Il ne faut pas chercher à démarrer immédiatement le RAID md3. Donc dès que tu peux commente md3 dans fstab (comme c’est déjà fait d’après tes propos).

Après allumage, ton système te donne-t’il un shell root ? Oui ou Non

Si oui, alors, on va assembler md3 sans sdf ni sdf1.

Avant de faire cette commande, donne une fois de plus le /proc/mdstat

Puis tu peux essayer :

Remarquer l’absence de /dev/sdf ou de /dev/sdf1

Si md3 se reconstruit, laisse faire jusqu’au bout. Quoique nous allons incorporer sdf1 pendant ce temps.

Une fois cette commande lancée, la reconstruction de md3 doit être visible dans /proc/mdstat (avec cat) ; Jspr

Mais tu ne sera qu’avec un (ou zéro) disque de redondance de panne. Je n’ai pas encore bien saisi la tolérance de panne de ton RAID6.

Ce ne sera pas important si cela ne dure pas.

J’ai comme l’impression que ta baie NAS a un réel besoin d’un bon dépoussiérage et d’une rénovation électrique des contacts SATA (Bombe contact)

Donc voila … on reprend de zero . je reboot la machine
Je ne dispose en effet que d’un Shell , tout est en shell, j en’ai pas d’écran ni d’interface graphique sur mes serveurs.

root@megatron:~# uptime
19:07:35 up 0 min, 1 user, load average: 1,01, 0,26, 0,09

root@megatron:~# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md3 : inactive sdc1[0] sdl1[9] sdk1[8] sdj1[7] sdi1[6] sdh1[5] sdg1[11] sde1[2] sdd1[10]
8789667840 blocks super 1.2

md2 : active raid1 sda3[0] sdb3[1]
727071552 blocks super 1.2 [2/2] [UU]

md1 : active (auto-read-only) raid1 sda2[0] sdb2[1]
4878272 blocks super 1.2 [2/2] [UU]

md0 : active raid1 sda1[0] sdb1[1]
487104 blocks super 1.2 [2/2] [UU]

unused devices:

Tu as fait le

# mdadm --assemble /dev/md3 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1 /dev/sdk1 /dev/sdl1 ?