bonjour,
je veux monter un raid 1. J’ai suivit le tuto raid. Donc j’ai bien mon raid qui se créer. mais quand je redémarre il semble partir dans les nimbes. Je dois rater une commande la création d’un fichier pour le rendre permanant mais je en vois pas lequel.
Merci
C’est-à-dire ? Peux-tu être plus concret ?
Informations utiles :
- configuration debconf de mdadm
debconf-show mdadm
- contenu de /etc/mdadm/mdadm.conf et /etc/default/mdadm
- scan des partitions RAID :
mdadm --verbose --examine --scan
pour la conf mbadm
mdadm --verbose --examine --scan
ARRAY /dev/md/0 level=raid1 metadata=1.2 num-devices=2 UUID=2319e90e:f1e654b7:ace4e868:05753e9a name=pcharles:0
devices=/dev/sda,/dev/sdb
la ou cela ce gâte c’est que je ne trouve pas le fichier de mdadm.conf de dossier mdadm d’ailleur
mdadm --verbose --examine --scan
ARRAY /dev/md/0 level=raid1 metadata=1.2 num-devices=2 UUID=2319e90e:f1e654b7:ace4e868:05753e9a name=pcharles:0
devices=/dev/sda,/dev/sdb
le debconf
# debconf-show mdadm
mdadm/initrdstart_msg_errexist:
mdadm/initrdstart_msg_errmd:
mdadm/initrdstart_msg_errconf:
mdadm/initrdstart_msg_errblock:
* mdadm/initrdstart: all
mdadm/initrdstart_notinconf: false
mdadm/autocheck: true
mdadm/start_daemon: true
mdadm/mail_to: root
mdadm/initrdstart_msg_intro:
Les membres sont bien détectés. Que donne une tentative d’assemblage manuel ?
mdadm --assemble /dev/md0 /dev/sda /dev/sdb
Note : Je recommande de partitionner les disques même avec une seule partition RAID qui occupe le disque entier plutôt que d’utiliser directement les disques comme membres RAID car cela évite à un oeil distrait de croire que les disques sont vides.
la commande
mdadm --assemble /dev/md0 /dev/sda /dev/sdb
mdadm: /dev/sda is busy - skipping
mdadm: /dev/sdb is busy - skipping
Elle fait
Qu’affichent cat /proc/mdstat
et fdisk -l
?
je precise que le raid marche quand je le monte c’est au démarrage qu’il disparait. Il n’est donc pas permanent. De plus la commande mdadm --detail --scan --verbose > /etc/mdadm/mdadm.conf
ne retourne rien et je n’ai ni dossier mdadm et encore moins mdadm.conf.
cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sda[1] sdb[0]
976631488 blocks super 1.2 [2/2] [UU]
[>....................] resync = 2.5% (24969088/976631488) finish=88.4min speed=179282K/sec
bitmap: 8/8 pages [32KB], 65536KB chunk
unused devices:
une jolie erreur dans
Partition table entries are not in disk order.
The primary GPT table is corrupt, but the backup appears OK, so that will be used.
Disk /dev/sdb: 931,5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: C6560E68-5574-43C6-AC6B-31B955C9D986
The primary GPT table is corrupt, but the backup appears OK, so that will be used.
Disk /dev/sda: 931,5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 7FF9A85B-8F91-4711-94EA-5BFFD4EE416D
Disk /dev/md0: 931,4 GiB, 1000070643712 bytes, 1953262976 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
voici la le mdadm --detail
cat | mdadm --detail --scan --verbose
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=1.2 name=pcharles:0 UUID=263b2128:38d9a7c7:2a9e4792:b63efe08
devices=/dev/sda,/dev/sdb
Comme cet ensemble RAID utilise les disques bruts et non des partitions RAID, les disques ne devraient pas avoir de table de partition, d’autant plus que le superbloc RAID 1.2 et la table de partition GPT occupent les mêmes secteurs, d’où le message d’erreur.
C’est pourquoi j’ai recommandé de ne pas utiliser les disques bruts mais des partitions comme membres. Cela évite le risque de confusion.
- Il faut utiliser l’opérateur >> et non > pour ajouter le résultat du scan à mdadm.conf au lieu de l’écraser.
- Il vaut mieux ne pas utiliser l’option --verbose quand on utilise cette commande pour inscrire les ensembles RAID dans mdadm.conf car cela ajoute les noms des périphériques membres qui ne sont pas indispensables et peuvent varier d’un démarrage à l’autre.
- Si la commande n’a pas retourné d’erreur, alors le fichier /etc/mdadm/mdadm.conf existe forcément.
Qu’affichels -l /etc/mdadm
?
Comment le montes-tu ?
D’après /proc/mdstat, l’ensemble RAID est en tout début de reconstruction, donc soit il a été recréé et non assemblé, soit mdadm a estimé qu’il était endommagé lors de l’assemblage et il faut trouver pourquoi.
Edit : En relisant le fil je vois que l’UUID de l’ensemble RAID rapporté par mdadm a changé entre le message 3 et le message 9, donc je pense que tu l’as recréé (–create) et non assemblé (–assemble).
le premier point c’est que je n’avais pas compris la contruction donc je redemarrais avant qu’il est fini.
Donc j’ai laissé faire le processus jusqu’a la fin .
dans le mdadm.conf
at /etc/mdadm/mdadm.conf
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=1.2 name=pcharles:0 UUID=aa004354:35c399f6:612a8493:d91a067b
devices=/dev/sda,/dev/sdb
ARRAY /dev/md0 metadata=1.2 name=pcharles:0 UUID=d985cfb0:b5844d41:c84e675d:b8c3d56e
ls -l /etc/mdadm
total 4
-rw-r--r-- 1 root root 225 janv. 21 18:07 mdadm.conf
Il ne me semble pas qu’on doive attendre la fin de la reconstruction.
Le fichier /etc/mdadm/mdadm.conf existe bien mais les UUID qu’il contient en doublon poyur /dev/md0 ne correspondent pas au dernier UUID de l’ensemble RAID relevé dans le message 10. Ils doivent correspondre, sinon l’ensemble RAID ne sera pas assemblé automatiquement.
Un ensemble RAID est assemblé automatiquement seulement s’il est mentionné dans une ligne ARRAY ou s’il n’y a aucune ligne ARRAY dans le fichier.
construction finie avec la commande mdadm -Cv /dev/md0 -l1 -n2 /dev/sda /dev/sdb
donc ensuite je me laisse guider parce que là je nage
raid up
[raid1]
md0 : active raid1 sdb[1] sda[0]
976631488 blocks super 1.2 [2/2] [UU]
bitmap: 0/8 pages [0KB], 65536KB chunk
Donc c’est bon ?
oui mais il n’est toujours pas permanent
lorsque que je redémarre il n’est plus là.
On va faire les choses proprement.
Supprime toute ligne ARRAY du fichier /etc/mdadm/mdadm.conf.
Supprime les méta-données RAID des deux disques :
mdadm --zero-superblock /dev/sda /dev/sdb
Crée une nouvelle table de partition et une partition de type RAID sur chacun des deux disques avec ce que tu veux : fdisk, parted, gdisk, gparted…
Crée un ensemble RAID à partir des deux partitions /dev/sda1 et /dev/sdb1.
Ne rajoute rien dans mdadm.conf.
-
Ne touche pas à l’ensemble RAID, n’écris pas dedans.
Redémarre.
Si l’ensemble RAID n’est pas démarré automatiquement, résultat des commandes suivantes :cat /proc/mdstat
mdadm --examine --scan --verbose
mdadm --examine /dev/sda1 /dev/sdb1
mdadm --assemble --scan
pour résumer
j’ai fait un fdisk g
sur les deux disque
ensuite mdadm -Cv /dev/md0 -l1 -n2 /dev/sda /dev/sdb
puis les commandes
la commande qui ne marche pas
mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sda[1] sdb[0]
976631488 blocks super 1.2 [2/2] [UU]
bitmap: 0/8 pages [0KB], 65536KB chunk
mdadm --examine --scan --verbose
ARRAY /dev/md/0 level=raid1 metadata=1.2 num-devices=2 UUID=579253c1:f5eb3d82:452a8228:4b2776db name=pcharles:0
devices=/dev/sdb,/dev/sda
mdadm --examine /dev/sda /dev/sdb
/dev/sda:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 579253c1:f5eb3d82:452a8228:4b2776db
Name : pcharles:0 (local to host pcharles)
Creation Time : Sun Jan 22 21:41:36 2017
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 1953263024 (931.39 GiB 1000.07 GB)
Array Size : 976631488 (931.39 GiB 1000.07 GB)
Used Dev Size : 1953262976 (931.39 GiB 1000.07 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=48 sectors
State : clean
Device UUID : f24bc29e:fd29c523:169f1924:2dbd4b08
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jan 22 23:44:37 2017
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : 4e2121aa - correct
Events : 1498
Device Role : Active device 1
Array State : AA (‘A’ == active, ‘.’ == missing, ‘R’ == replacing)
/dev/sdb:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 579253c1:f5eb3d82:452a8228:4b2776db
Name : pcharles:0 (local to host pcharles)
Creation Time : Sun Jan 22 21:41:36 2017
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 1953263024 (931.39 GiB 1000.07 GB)
Array Size : 976631488 (931.39 GiB 1000.07 GB)
Used Dev Size : 1953262976 (931.39 GiB 1000.07 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=48 sectors
State : clean
Device UUID : 9f573d73:f3c62c5a:00dfb6d1:66e853e8
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jan 22 23:44:37 2017
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : e6a93570 - correct
Events : 1498
Device Role : Active device 0
Array State : AA (‘A’ == active, ‘.’ == missing, ‘R’ == replacing)
Toujours pas de disque raid au redemarrage. Donc à nouveau totalement perdu. Il doit vraiment y avoir quelque chose que je fais de travers.
Tu n’as pas suivi mes instructions.
Tu as encore utilisé les disques entiers /dev/sd[ab] au lieu de partitions /dev/sd[ab]1.
Tu as visiblement exécuté les commandes avant de redémarrer et non après puisque l’ensemble est marqué démarré et actif dans /proc/mdstat, donc le résultat n’est pas pertinent.
D’autre part tu as visiblement écrit dans /dev/md0 contrairement à ce que je demandais.