RAID5 en carafe sur une Jessie

Tags: #<Tag:0x00007f63f1e8d030>

Problème de RAID5

Bonjour à tous,

J’ai un serveur RAID5 monté sous Debian 8
Suite à des coupures de courant répétées (je vais acheter un onduleur pour éviter cela à l’avenir), l’un des disques est passé en défaut. Il donnait du moins l’apparence d’être défectueux dans la machine. Après un set de test très complet, ce disque est tout à fait opérationnel.

Je l’ai remplacé par un disque identique partitionné de même mais le système refuse de démarrer normalement avec ce disque neuf testé il y a moins de 3 mois.
Je suis obligé de passer en mode dégradé et je ne bénéficie que de la console (Emergency Shell started)

La machine possède le système sur un SSD (sda)
Le RAID5 est composé de 3 disques 4 To (sdb, sdc, sdd) et md0 est monté automatiquement sous /data une fois le système lancé.

Comme je ne parvenais pas à faire repartir le système tel que, j’ai voulu repartionner sdc à l’identique via GParted. Je n’ai pas pu faire cette manipulation car il refusait d’intervenir sur le disque. De plus c’était une erreur de ma part car je n’ai pas touché à sdb. Mais il n’a plus de superblock raid depuis.

Bref, voivi les réponses aux commandes “classiques” pour un premier diagnostic (sde est une clef USB qu’il m’a fallu pour exporter les résultat des commandes).

lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 119,2G 0 disk
├─sda1 8:1 0 953M 0 part /boot
├─sda2 8:2 0 1K 0 part
├─sda3 8:3 0 112,7G 0 part /
└─sda5 8:5 0 5,6G 0 part [SWAP]
sdb 8:16 0 3,7T 0 disk
└─sdb1 8:17 0 3,7T 0 part
sdc 8:32 0 3,7T 0 disk
└─sdc1 8:33 0 3,7T 0 part
sdd 8:48 0 3,7T 0 disk
└─sdd1 8:49 0 3,7T 0 part
sde 8:64 1 3,8G 0 disk
└─sde1 8:65 1 3,8G 0 part /media/NAS200
sr0 11:0 1 1024M 0 rom

fdisk -l
Disque /dev/sda : 119,2 GiB, 128031448576 octets, 250061423 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Type d’étiquette de disque : dos
Identifiant de disque : 0x0001e78c

Device Boot Start End Sectors Size Id Type
/dev/sda1 * 2048 1953791 1951744 953M 83 Linux
/dev/sda2 238342142 250060799 11718658 5,6G 5 Extended
/dev/sda3 1953792 238340095 236386304 112,7G 83 Linux
/dev/sda5 238342144 250060799 11718656 5,6G 82 Linux swap / Solaris

Les entrées de la table de partitions ne sont pas dans l’ordre du disque.
Disque /dev/sdc : 3,7 TiB, 4000782802432 octets, 7814028911 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d’E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d’étiquette de disque : gpt
Identifiant de disque : 74FC50E9-818F-4AA8-8B61-1BDC65A7812F

Device Start End Sectors Size Type
/dev/sdc1 2048 7814027263 7814025216 3,7T Linux filesystem

Disque /dev/sdd : 3,7 TiB, 4000787030016 octets, 7814037168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d’E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d’étiquette de disque : gpt
Identifiant de disque : 48F258EB-94CD-4A3E-BD15-3276F4AB50F9

Device Start End Sectors Size Type
/dev/sdd1 2048 7814035455 7814033408 3,7T Linux RAID

Disque /dev/sdb : 3,7 TiB, 4000787030016 octets, 7814037168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d’E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d’étiquette de disque : gpt
Identifiant de disque : 1360BD30-FDEB-46A4-A107-1948EC650A91

Device Start End Sectors Size Type
/dev/sdb1 2048 7814035455 7814033408 3,7T Linux filesystem

Disque /dev/sde : 3,8 GiB, 4089446400 octets, 7987200 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d’E/S (minimale / optimale) : 512 octets / 512 octets
Type d’étiquette de disque : dos
Identifiant de disque : 0x7193e23e

Device Boot Start End Sectors Size Id Type
/dev/sde1 * 2048 7987199 7985152 3,8G b W95 FAT32

blkid
/dev/sda1: UUID=“86191623-7102-47a3-9048-2872a512f530” TYPE=“ext4” PARTUUID=“0001e78c-01”
/dev/sda3: UUID=“1db801b0-b0e2-4bed-9e9b-74eba4a6d8b7” TYPE=“ext4” PARTUUID=“0001e78c-03”
/dev/sda5: UUID=“39457b6d-3487-4fbf-89a2-60ee82e58eb9” TYPE=“swap” PARTUUID=“0001e78c-05”
/dev/sdc1: UUID=“e2241f5d-0983-4e4b-8d5d-50ab97d22e87” TYPE=“ext4” PARTUUID=“76b87240-40f6-4735-afcb-12acf2fe6587”
/dev/sdd1: UUID=“d75dbd50-ec86-6320-2d57-aa6ba13d6750” UUID_SUB=“82e90dca-2c1e-0bd0-3046-1b9806de41e7” LABEL=“SATURN:0” TYPE=“linux_raid_member” PARTUUID=“a3943d63-1acf-4811-8ce9-6b519861d8d9”
/dev/sdb1: UUID=“4534076e-4144-41d1-9730-73c0e7e57ad3” TYPE=“ext4” PARTUUID=“14ac8f16-3f50-4c23-9cd8-439ce5a1eb36”
/dev/sde1: UUID=“4398-6349” TYPE=“vfat” PARTUUID=“7193e23e-01”

mdadm --examine --scan -v /dev/sd[b-d]*
ARRAY /dev/md/0 level=raid5 metadata=1.2 num-devices=3 UUID=d75dbd50:ec866320:2d57aa6b:a13d6750 name=SATURN:0
devices=/dev/sdd1

cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
unused devices:

cat /etc/mdadm/mdadm.conf
’# mdadm.conf
’#
’# Please refer to mdadm.conf(5) for information about this file.
’#

‘# by default (built-in), scan all partitions (/proc/partitions) and all
’# containers for MD superblocks. alternatively, specify devices to scan, using
’# wildcards if desired.
#DEVICE partitions containers

'# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

'# automatically tag new arrays as belonging to the local system
HOMEHOST

'# instruct the monitoring daemon where to send mail alerts
MAILADDR root

'# definitions of existing MD arrays
ARRAY /dev/md/0 metadata=1.2 UUID=d75dbd50:ec866320:2d57aa6b:a13d6750 name=SATURN:0

'# This configuration was auto-generated on Fri, 15 Apr 2016 21:19:22 +0200 by mkconf

Y’a-t-il un médecin dans l’assistance ? :slight_smile:
Merci pour votre aide.

Trois disques ou trois partitions sdb1, sdc1, sdd1 ?

A l’identique de quoi, dans quel but ?

sdc, sdb ? On s’y perd.

Le résultat des commandes blkid et mdadm est sans appel : il ne reste qu’un seul superblock RAID sur sdd1. sdb1 et sdc1, pour une raison que toi seul peut connaître (mais une chose est sûre : ce n’est pas arrivé tout seul), contiennent de simples systèmes de fichiers ext4. Et forcément, du RAID 5 avec un seul membre restant, ça ne marche pas.

Il ne reste plus qu’à recréer l’ensemble RAID et à restaurer la sauvegarde.

Pardon. Je précise :slight_smile:

Chaque disque de 4 To contient une partition de 4 To : sdb1, sdc1, sdd1

J’ai voulu repartitionner sdc à l’identique => Croyant sdc défectueux, je l’ai remplacé par un modèle équivalent et qui fonctionne puisque je l’avais testé lors de sa réception. Il me fallait donc repartitionner à l’identique. J’ai voulu utiliser gparted. Mais un sfdisk aurait sans aucun doute été plus indiqué pour recréer une table de partition identique à celle de sdb ou sdd.

Je confirme que lorsque j’ai utilisé Gparted en souhaitant recréer la même table de partition que sur sdb/sdd :
1 - je n’ai pas pu pratiquer l’opération car pas de possibilité d’affecter sdc en tant que volume Raid
2 - je n’ai pas touché sdb. Mais je n’ai pas pu récupérer un boot normal de la machine avec un Raid en mode dégradé comme aupravant. J’ai donc supposé que Gparted avait mis son grain de sel sur sdb d’une façon ou d’une autre et contre mon gré.

OK. Je dois recréer le RAID. Ca je saurai faire.
Mais c’est dommage. Ma politique de sauvegarde n’était pas assez “agressive”. Je vais perdre un petite cinquantaine de giga qui n’étaient pas vitaux mais qui avaient leur importance. Pour les 3,9 To de données restantes, j’avais en revanche les backups.

Merci.