Comment configurer /etc/mdadm/mdadm.conf

Bonjour,
j’aurais besoin d’aide pour finir l’installation de debian voué à me servir de serveur.

Il s’agit de la mise en place d’un RAID logiciel + LVM sur trois disques durs avant l’installation de debian.

J’ai principalement suivi ce tuto.

Je suis débutante et ne sais pas comment gérer l’après l’installation.

J’ai trois problèmes principaux :

  1. les dernières lignes (pour chaque partition) du retour de la commande fdisk -l me semblent indiquer que mon installation est mauvaise :
Disque /dev/sda : 160.0 Go, 160041885696 octets
255 têtes, 63 secteurs/piste, 19457 cylindres, total 312581808 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x00069443

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sda1   *        2048     1757183      877568   fd  RAID Linux autodétecté
/dev/sda2         1757184   312580095   155411456   fd  RAID Linux autodétecté

Disque /dev/sdc : 160.0 Go, 160041885696 octets
255 têtes, 63 secteurs/piste, 19457 cylindres, total 312581808 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x0009efaa

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdc1   *        2048     1757183      877568   fd  RAID Linux autodétecté
/dev/sdc2         1757184   312580095   155411456   fd  RAID Linux autodétecté

Disque /dev/sdb : 160.0 Go, 160041885696 octets
255 têtes, 63 secteurs/piste, 19457 cylindres, total 312581808 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x00080de0

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdb1   *        2048     1757183      877568   fd  RAID Linux autodétecté
/dev/sdb2         1757184   312580095   155411456   fd  RAID Linux autodétecté

Disque /dev/md0 : 898 Mo, 898039808 octets
2 têtes, 4 secteurs/piste, 219248 cylindres, total 1753984 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x00000000

Le disque /dev/md0 ne contient pas une table de partitions valable

Disque /dev/md1 : 318.0 Go, 318013177856 octets
2 têtes, 4 secteurs/piste, 77639936 cylindres, total 621119488 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 524288 octets / 1048576 octets
Identifiant de disque : 0x00000000

Le disque /dev/md1 ne contient pas une table de partitions valable

Disque /dev/mapper/lvmgrp-root : 20.0 Go, 19998441472 octets
255 têtes, 63 secteurs/piste, 2431 cylindres, total 39059456 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 524288 octets / 1048576 octets
Identifiant de disque : 0x00000000

Le disque /dev/mapper/lvmgrp-root ne contient pas une table de partitions valable

Disque /dev/mapper/lvmgrp-swap : 1996 Mo, 1996488704 octets
255 têtes, 63 secteurs/piste, 242 cylindres, total 3899392 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 524288 octets / 1048576 octets
Identifiant de disque : 0x00000000

Le disque /dev/mapper/lvmgrp-swap ne contient pas une table de partitions valable

Disque /dev/mapper/lvmgrp-home : 15.0 Go, 14998831104 octets
255 têtes, 63 secteurs/piste, 1823 cylindres, total 29294592 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 524288 octets / 1048576 octets
Identifiant de disque : 0x00000000

Le disque /dev/mapper/lvmgrp-home ne contient pas une table de partitions valable

Disque /dev/mapper/lvmgrp-var : 15.0 Go, 14998831104 octets
255 têtes, 63 secteurs/piste, 1823 cylindres, total 29294592 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 524288 octets / 1048576 octets
Identifiant de disque : 0x00000000

Le disque /dev/mapper/lvmgrp-var ne contient pas une table de partitions valable

Disque /dev/mapper/boot-boot : 893 Mo, 893386752 octets
255 têtes, 63 secteurs/piste, 108 cylindres, total 1744896 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x00000000

Le disque /dev/mapper/boot-boot ne contient pas une table de partitions valable
  1. Il m’est impossible d’installer grub sur chaque disque :
apt-get install grub

puis

grub> root (hd0,0)
root (hd0,0)
 Filesystem type is ext2fs, partition type 0xfd
grub> setup (hd0)
setup (hd0)
 Checking if "/boot/grub/stage1" exists... no
 Checking if "/grub/stage1" exists... no

Error 2: Bad file or directory type
grub> root (hd1,0)
root (hd1,0)
 Filesystem type is ext2fs, partition type 0xfd
grub> setup (hd1)
setup (hd1)
 Checking if "/boot/grub/stage1" exists... no
 Checking if "/grub/stage1" exists... no

Error 2: Bad file or directory type
  1. Je me suis dit qu’il fallait modifier le fichier /etc/mdadm/mdadm.conf après l’installation, mais je ne sais pas comment le modifier.

Pour l’instant il ressemble à cela :

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root
  1. Faut-il que je fasse un grub-install hd1 puis grub-install hd2, comme je l’ai lu dans certains tuto ?

Pour m’aider vous aurez peut-être besoin de retour de cat /proc/mdstat

Personalities : [raid1] [raid6] [raid5] [raid4] 
md1 : active raid5 sda2[0] sdc2[2] sdb2[1]
      310559744 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      
md0 : active raid1 sda1[0] sdc1[2](S) sdb1[1]
      876992 blocks super 1.2 [2/2] [UU]
      
unused devices: <none>

et de sfdisk -s :

/dev/sda: 156290904
/dev/sdc: 156290904
/dev/sdb: 156290904
/dev/md0:    876992
/dev/md1: 310559744
/dev/mapper/lvmgrp-root:  19529728
/dev/mapper/lvmgrp-swap:   1949696
/dev/mapper/lvmgrp-home:  14647296
/dev/mapper/lvmgrp-var:  14647296
/dev/mapper/boot-boot:    872448
total : 831955912 blocs

Merci beaucoup d’avance

Bonjour,

Alors sur ta machine tu as créé un volume raid md0 qui doit contenir le /boot et à mon avis dans ton installation tu as oublié de le spécifier. Envoie nous le resultat de la commande df -h

Non il n’y a qu’un seul grub qui ce trouve sur le /boot, et il est installé à l’installation (à la fin de ton installation, il te demande si tu veux installer grub, si tu met oui il va s’installer sur le /boot, si tu met non, ton serveur ne démarrera pas, à moins d’avoir déjà un programme d’amorçage ou de vouloir l’installer après en mode barbu). Et si tu as fait l’erreur du dessus et installé ton grub par l’installation, alors il a du le mettre sur /

Normalement l’utilitaire d’installation à “correctement” (ça marche) configuré le mdadm.conf, qui correspond, a la configuration du logiciel de raid. Sinon si tu veux le modifier, soit tu as google ou alors la commande man mdadm.conf

Non plus :slightly_smiling:, alors comme je te l’es dit ton grub s’installe à l’installation et de plus les disques hdX correspondes a des disques IDE ou SCSI, alors que toi tes disques commence pas sdX, donc tu doit avoir des disques dur en Sata.

Tes trois disques c’est pour du raid1 avec un disque de spare ?

Peux-tu envoyer le résultat de

Merci.

merci de vos réponses,

le retour de df -h :

Sys. fich.              Taille Util. Dispo Uti% Monté sur
rootfs                     19G  3,4G   15G  20% /
udev                       10M     0   10M   0% /dev
tmpfs                     101M  668K  100M   1% /run
/dev/mapper/lvmgrp-root    19G  3,4G   15G  20% /
tmpfs                     5,0M     0  5,0M   0% /run/lock
tmpfs                     201M  228K  201M   1% /run/shm
/dev/mapper/boot-boot     839M   36M  761M   5% /boot
/dev/mapper/lvmgrp-home    14G  202M   13G   2% /home
/dev/mapper/lvmgrp-var     14G  493M   13G   4% /var

Lors de l’installation j’ai bien répondu “oui” pour l’installation de grub.

Pardon,

Les 3 disques parce que cette phrase (d’intro du wiki que j’ai suivi) m’a convaincu :

[quote]
un RAID1 afin de s’assurer que la machine démarre quoi qu’il arrive, la partition /boot sera installée sur du RAID 1 afin que même avec un seul disque la machine démarre, et pour le reste des partitions du RAID 5, pour le compromis redondance/espace perdu (là ou du RAID 1 condamne la moitié du stockage, le RAID 5 permet d’avoir une capacité totale de n-1 disques.
[/qote]

Voilà merci encore

Il me semble que (hd0) est la désignation pour grub du premier disque sdn, et n’a rien a voir avec un disque SATA ou autre.

J’ai cherché un peu comment vérifier que j’avais bien répondu “oui” lors de l’installation pour que grub soit installer sur le premier disque.

Et il me semble que cette commande montre que j’ai bien répondu “oui”.

ls /boot/grub | grep stage1

Retour :

e2fs_stage1_5
fat_stage1_5
jfs_stage1_5
minix_stage1_5
reiserfs_stage1_5
stage1
xfs_stage1_5

Par contre on dirait qu’il y a un problème avec le fichier /boot/grub

grub-install --recheck "(hd0)"

Retour

Searching for GRUB installation directory ... found: /boot/grub
The file /boot/grub/stage1 not read correctly.

Si une personne qui a un installé un Raid logiciel pouvait poster ici le contenu de son fichier /boot/grub/stage1 que je puisse comparer avec le mien ce serait vraiment sympa.

bonjour,

Effectivement :

Source : https://wiki.archlinux.org/index.php/GRUB

Je n’ai pas suivi en détail mais il est utile d’installer grub sur tout les disques d’un raid (personnellement raid1 sur 2 disques, et grub installé sur les deux disques)

bonjour,

si c’est pas trop long pour toi, pourrais-tu m’indiquer comment tu as fait ou le tuto tu as suivi ? Est-ce avec wheezy, un raid1 avec LVM ? Avais-tu laissé de l’espace avant tes partitions pour pouvoir installer grub sur chaque disque ?

Je me demande comment tu as fait, parce que j’ai essayé d’installer grub sans succès, puis, j’ai trouvé cela qui correspond à mon cas :

à cette page, et je n’ai pas prévu d’espace avant mes partitions ! :119 Je ne sais plus quoi faire !

Tu as les deux solutions, soit tu fais une installation directe et dans ce cas cela ne pose aucun souci, à la fin de l’installation de grub, tu complètes le procédé en refaisant l’initramfs avec les modules nécessaires au raid (ajout de raid1 dans /etc/initramfs-tools/modules) et en vérifiant le grub.cfg (il faut qu’il y ait un insmod mdraid et une racine raid:

insmod mdraid09 insmod ext2 set root='mduuid/db60a4b7487d052ba4d2adc226fd5302' if [ x$feature_platform_search_hint = xy ]; then search --no-floppy --fs-uuid --set=root --hint='mduuid/db60a4b7487d052ba4d2adc226fd5302' 3a947837-3d64-4dd8-8384-038b210f47d3 else search --no-floppy --fs-uuid --set=root 3a947837-3d64-4dd8-8384-038b210f47d3 le mduuid se retrouve par mdadm --detail /dev/md..et l’uuid de la racine via ls -l /dev/disk/by-uuid
puis tu fais un grub-install /dev/sda et grub-install /dev/sdb
et ça doit fonctionner

En fait, pour me faire une idée, j’ai fait une installation sur deux clefs USB en raid. Mis à part préciser un délai plus important pour monter la racine, ça m’a permis de fixer les choses.

Sinon j’ai récemment converti un système simple en raid1 et là effectivement j’ai conservé une petite partition de boute au début des deux disques pour la transition.

Bonjour,

merci de ta réponse fran.b,

j’ai essayé avec mon niveau de débutante de suivre la première méthode, l’installation raid étant finie.

Mais sans résultat.

Pour récupérer mduuid, je fais mdadm --detail /dev/md1

le retour est :

/dev/md1:
        Version : 1.2
  Creation Time : Sun Apr 20 12:13:30 2014
     Raid Level : raid5
     Array Size : 310559744 (296.17 GiB 318.01 GB)
  Used Dev Size : 155279872 (148.09 GiB 159.01 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Sat Apr 26 06:46:11 2014
          State : clean 
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : debian:1  (local to host debian)
           UUID : d1156d2c:ddcab616:3bf8e2dd:a1ac62f2
         Events : 22

c’est bien de cette ligne dont il s’agit : UUID : d1156d2c:ddcab616:3bf8e2dd:a1ac62f2 ?

Par contre pour l’uuid de la racine du fait du raid, et ls -l /dev/disk/by-uuid
je me retrouve avec ce retour :

lrwxrwxrwx 1 root root 10 avril 26 06:30 2547e699-bc93-4a61-983d-506b1014e597 -> ../../dm-3
lrwxrwxrwx 1 root root 10 avril 26 06:30 7ebdebce-86c7-49b9-9577-6d7359620b82 -> ../../dm-4
lrwxrwxrwx 1 root root 10 avril 26 06:30 aedb8a80-d6f0-4696-9e7a-7495de31dd59 -> ../../dm-1
lrwxrwxrwx 1 root root 10 avril 26 06:30 b344b31d-68e0-4eb0-b92a-295d8f1f3b7e -> ../../dm-2
lrwxrwxrwx 1 root root 10 avril 26 06:30 b4c6645a-da92-4207-b7f1-130720abfe43 -> ../../dm-0

Pour connaître l’uuid de mes autres partitions j’ai fait : blkid

/dev/mapper/lvmgrp-swap: UUID="aedb8a80-d6f0-4696-9e7a-7495de31dd59" TYPE="swap" 
/dev/sdc1: UUID="88057869-9497-2f9e-3811-e49ae9b82e5f" UUID_SUB="1595b23b-ef05-1ca9-2f04-651bc547b84f" LABEL="debian:0" TYPE="linux_raid_member" 
/dev/sdc2: UUID="d1156d2c-ddca-b616-3bf8-e2dda1ac62f2" UUID_SUB="40f9c8a0-66e5-48f2-7e77-9d0101d3fd37" LABEL="debian:1" TYPE="linux_raid_member" 
/dev/sda1: UUID="88057869-9497-2f9e-3811-e49ae9b82e5f" UUID_SUB="90906b26-deb8-9018-5fbe-810784acadd8" LABEL="debian:0" TYPE="linux_raid_member" 
/dev/sda2: UUID="d1156d2c-ddca-b616-3bf8-e2dda1ac62f2" UUID_SUB="550f7531-d679-d3fd-fd39-52d0b3a4e8dd" LABEL="debian:1" TYPE="linux_raid_member" 
/dev/sdb1: UUID="88057869-9497-2f9e-3811-e49ae9b82e5f" UUID_SUB="ab27bb6c-4d03-b730-4f3d-a1f378d050c3" LABEL="debian:0" TYPE="linux_raid_member" 
/dev/sdb2: UUID="d1156d2c-ddca-b616-3bf8-e2dda1ac62f2" UUID_SUB="2df004df-9c35-2dfc-30f6-52a5f120d52d" LABEL="debian:1" TYPE="linux_raid_member" 
/dev/md0: UUID="5viRi0-ASNR-P7aQ-hIhJ-3LpE-FOCU-f9Gcjj" TYPE="LVM2_member" 
/dev/md1: UUID="wkr8Gv-40YJ-Q0Nn-IGNL-QNoQ-p6gW-jcIH3F" TYPE="LVM2_member" 
/dev/mapper/lvmgrp-root: UUID="b4c6645a-da92-4207-b7f1-130720abfe43" TYPE="ext4" 
/dev/mapper/lvmgrp-home: UUID="b344b31d-68e0-4eb0-b92a-295d8f1f3b7e" TYPE="ext4" 
/dev/mapper/lvmgrp-var: UUID="2547e699-bc93-4a61-983d-506b1014e597" TYPE="ext4" 
/dev/mapper/boot-boot: UUID="7ebdebce-86c7-49b9-9577-6d7359620b82" TYPE="ext4"

Je n’ai jamais fait de programmation pour configurer mon fichier /etc/initramfs-tools/modules
J’ai pris exemple sur le tien. Je ne sais pas du tout si c’est correct comme ceci :

# List of modules that you want to include in your initramfs.
# They will be loaded at boot time in the order below.
#
# Syntax:  module_name [args ...]
#
# You must run update-initramfs(8) to effect this change.
#
# Examples:
#
# raid1
# sd_mod

insmod mdraid0
 insmod ext4
 set root='mduuid/d1156d2c:ddcab616:3bf8e2dd:a1ac62f2'
 if [ x$feature_platform_search_hint = xy ]; then
          search --no-floppy --fs-uuid --set=root --hint='mduuid/d1156d2c:ddcab616:3bf8e2dd:a1ac62f2' b4c6645a-da92-4207-b7f1-130720abfe43
 else
          search --no-floppy --fs-uuid --set=root 88057869-9497-2f9e-3811-e49ae9b82e5f

Mon problème semble venir du fichier stage1

 grub-install /dev/sda
Searching for GRUB installation directory ... found: /boot/grub
The file /boot/grub/stage1 not read correctly.

Je ne sais plus trop quoi faire :doh:

[quote=“malone”]
Pour récupérer mduuid, je fais mdadm --detail /dev/md1

le retour est :
[…]
c’est bien de cette ligne dont il s’agit : UUID : d1156d2c:ddcab616:3bf8e2dd:a1ac62f2 ?
[/quote]Oui[quote]
Par contre pour l’uuid de la racine du fait du raid, et ls -l /dev/disk/by-uuid
je me retrouve avec ce retour :

lrwxrwxrwx 1 root root 10 avril 26 06:30 2547e699-bc93-4a61-983d-506b1014e597 -> ../../dm-3
lrwxrwxrwx 1 root root 10 avril 26 06:30 7ebdebce-86c7-49b9-9577-6d7359620b82 -> ../../dm-4
lrwxrwxrwx 1 root root 10 avril 26 06:30 aedb8a80-d6f0-4696-9e7a-7495de31dd59 -> ../../dm-1
lrwxrwxrwx 1 root root 10 avril 26 06:30 b344b31d-68e0-4eb0-b92a-295d8f1f3b7e -> ../../dm-2
lrwxrwxrwx 1 root root 10 avril 26 06:30 b4c6645a-da92-4207-b7f1-130720abfe43 -> ../../dm-0

Pour connaître l’uuid de mes autres partitions j’ai fait : blkid

/dev/mapper/lvmgrp-swap: UUID="aedb8a80-d6f0-4696-9e7a-7495de31dd59" TYPE="swap" 
/dev/sdc1: UUID="88057869-9497-2f9e-3811-e49ae9b82e5f" UUID_SUB="1595b23b-ef05-1ca9-2f04-651bc547b84f" LABEL="debian:0" TYPE="linux_raid_member" 
/dev/sdc2: UUID="d1156d2c-ddca-b616-3bf8-e2dda1ac62f2" UUID_SUB="40f9c8a0-66e5-48f2-7e77-9d0101d3fd37" LABEL="debian:1" TYPE="linux_raid_member" 
/dev/sda1: UUID="88057869-9497-2f9e-3811-e49ae9b82e5f" UUID_SUB="90906b26-deb8-9018-5fbe-810784acadd8" LABEL="debian:0" TYPE="linux_raid_member" 
/dev/sda2: UUID="d1156d2c-ddca-b616-3bf8-e2dda1ac62f2" UUID_SUB="550f7531-d679-d3fd-fd39-52d0b3a4e8dd" LABEL="debian:1" TYPE="linux_raid_member" 
/dev/sdb1: UUID="88057869-9497-2f9e-3811-e49ae9b82e5f" UUID_SUB="ab27bb6c-4d03-b730-4f3d-a1f378d050c3" LABEL="debian:0" TYPE="linux_raid_member" 
/dev/sdb2: UUID="d1156d2c-ddca-b616-3bf8-e2dda1ac62f2" UUID_SUB="2df004df-9c35-2dfc-30f6-52a5f120d52d" LABEL="debian:1" TYPE="linux_raid_member" 
/dev/md0: UUID="5viRi0-ASNR-P7aQ-hIhJ-3LpE-FOCU-f9Gcjj" TYPE="LVM2_member" 
/dev/md1: UUID="wkr8Gv-40YJ-Q0Nn-IGNL-QNoQ-p6gW-jcIH3F" TYPE="LVM2_member" 
/dev/mapper/lvmgrp-root: UUID="b4c6645a-da92-4207-b7f1-130720abfe43" TYPE="ext4" 
/dev/mapper/lvmgrp-home: UUID="b344b31d-68e0-4eb0-b92a-295d8f1f3b7e" TYPE="ext4" 
/dev/mapper/lvmgrp-var: UUID="2547e699-bc93-4a61-983d-506b1014e597" TYPE="ext4" 
/dev/mapper/boot-boot: UUID="7ebdebce-86c7-49b9-9577-6d7359620b82" TYPE="ext4"

[/quote]Bien vu, je ne connais pas lvm mais c’est cohérent.[quote]
Je n’ai jamais fait de programmation pour configurer mon fichier /etc/initramfs-tools/modules
J’ai pris exemple sur le tien. Je ne sais pas du tout si c’est correct comme ceci :

# List of modules that you want to include in your initramfs.
# They will be loaded at boot time in the order below.
#
# Syntax:  module_name [args ...]
#
# You must run update-initramfs(8) to effect this change.
#
# Examples:
#
# raid1
# sd_mod

insmod mdraid0
 insmod ext4
 set root='mduuid/d1156d2c:ddcab616:3bf8e2dd:a1ac62f2'
 if [ x$feature_platform_search_hint = xy ]; then
          search --no-floppy --fs-uuid --set=root --hint='mduuid/d1156d2c:ddcab616:3bf8e2dd:a1ac62f2' b4c6645a-da92-4207-b7f1-130720abfe43
 else
          search --no-floppy --fs-uuid --set=root 88057869-9497-2f9e-3811-e49ae9b82e5f

Houla non, il s’agit ic des modules du noyau (à ne pas confondre avec les modules grub. DOnc ce serait

[code]# List of modules that you want to include in your initramfs.

They will be loaded at boot time in the order below.

Syntax: module_name [args …]

You must run update-initramfs(8) to effect this change.

Examples:

raid1

sd_mod

raid1
raid456
[/code]tout bêtement.
Mon problème semble venir du fichier stage1

 grub-install /dev/sda
Searching for GRUB installation directory ... found: /boot/grub
The file /boot/grub/stage1 not read correctly.

Je ne sais plus trop quoi faire :doh:[/quote]
Essaye de faire

cp /boot/grub/device.map /boot/grub/device.map.backup grub-mkdevicemap grub-install "(hd0)" grub-install "(hd1)" update-initramfs -u update-grub

Bonjour,

et merci de ton retour :slightly_smiling:

S’il te plait pourquoi raid456 ?

J’ai suivi tes conseils :

après avoir renommé /boot/grub/device.map
(cp /boot/grub/device.map /boot/grub/device.map.backup)

voilà le retour des autres commandes :

grub-mkdevicemap

ok retour du prompt.

 grub-install "(hd0)"
Searching for GRUB installation directory ... found: /boot/grub
The file /boot/grub/stage1 not read correctly.

idem pour grub-install “(hd1)”

update-initramfs -u
update-initramfs: Generating /boot/initrd.img-3.2.0-4-amd64
W: Possible missing firmware /lib/firmware/tigon/tg3_tso5.bin for module tg3
W: Possible missing firmware /lib/firmware/tigon/tg3_tso.bin for module tg3
W: Possible missing firmware /lib/firmware/tigon/tg3.bin for module tg3
root@debian:/home/hypathie# update-grub
Searching for GRUB installation directory ... found: /boot/grub
Searching for default file ... found: /boot/grub/default
Testing for an existing GRUB menu.lst file ... found: /boot/grub/menu.lst
Searching for splash image ... none found, skipping ...
Found kernel: /vmlinuz-3.2.0-4-amd64
Updating /boot/grub/menu.lst ... done
Searching for GRUB installation directory ... found: /boot/grub
Searching for default file ... found: /boot/grub/default
Testing for an existing GRUB menu.lst file ... found: /boot/grub/menu.lst
Searching for splash image ... none found, skipping ...
Found kernel: /vmlinuz-3.2.0-4-amd64
Updating /boot/grub/menu.lst ... done

Merci beaucoup de m’aider. Tu m’as appris un truc : je pensais, parce que beaucoup de tuto sur l’installation d’un raid associent cela à LVM, qu’il le fallait. Comme tu as l’air de bien t’y connaître en raid logiciel, et que tu en fais sans LVM, je me dis que j’aurais dû commencer par un raid sans LVM…

Je me dis aussi que si c’est complètement fichu, il faudrait peut-être que je change de disques (parce que le raid est irréversible). Penses-tu que je doive opter pour une solution radicale, tout recommencer ? Je tiens à réaliser un raid logiciel encore plus qu’avant, je veux comprendre!

Enfin, pour essayer, j’ai refait l’installation sur une machine virtuelle sans LVM et j’ai les mêmes problèmes.

-non reconnaissance de la commande grub une fois l’installation terminée ;

-j’installe donc grub : apt-get install grub : et pendant que l’installation je lis que grub legacy est supprimé puis que grub2 est installé ;

-puis même retour pour grub-install /dev/sda (ou sdb) ; pour grub => root (hd0) ; grub install (hd0,0) (puis idem pour (hd1,0) )

Y a-t-il aurait-il une question d’architecture matérielle qui pourrait entraîner ces problèmes ?

Bon, en attendant une meilleure idée, je vais essayer un chroot en suivant le wiki debian.

Je me demande aussi si je ne devrais pas renommer ce fil en “problème pour installer grub sur 2ième disque après installation”.

Merci encore

[quote=“malone”]Bonjour,

et merci de ton retour :slightly_smiling:

S’il te plait pourquoi raid456 ?[/quote]Inutile a priori mais je suis prudent, ce sont les modules mis dans l’initramfs pour le boute.[quote]

J’ai suivi tes conseils :

après avoir renommé /boot/grub/device.map
(cp /boot/grub/device.map /boot/grub/device.map.backup)

voilà le retour des autres commandes :

grub-mkdevicemap

ok retour du prompt.[/quote]Que contient le fichier /boot/grub/device.map?[quote]

 grub-install "(hd0)"
Searching for GRUB installation directory ... found: /boot/grub
The file /boot/grub/stage1 not read correctly.

Tout le probleme est là. Il ne trouve pas cette foutue partition.

update-initramfs: Generating /boot/initrd.img-3.2.0-4-amd64
W: Possible missing firmware /lib/firmware/tigon/tg3_tso5.bin for module tg3
W: Possible missing firmware /lib/firmware/tigon/tg3_tso.bin for module tg3
W: Possible missing firmware /lib/firmware/tigon/tg3.bin for module tg3
root@debian:/home/hypathie# update-grub
Searching for GRUB installation directory ... found: /boot/grub
Searching for default file ... found: /boot/grub/default
Testing for an existing GRUB menu.lst file ... found: /boot/grub/menu.lst
Searching for splash image ... none found, skipping ...
Found kernel: /vmlinuz-3.2.0-4-amd64
Updating /boot/grub/menu.lst ... done

[/quote]
Ah, c’est un vieux grub, un grub-legacy et non un grub2. Ça change les choses même si le pbm semble être le même. Est ce que grub-legacy sait bouter sdur du lvm+raid?

[quote][…]
Je me dis aussi que si c’est complètement fichu, il faudrait peut-être que je change de disques (parce que le raid est irréversible). Penses-tu que je doive opter pour une solution radicale, tout recommencer ? Je tiens à réaliser un raid logiciel encore plus qu’avant, je veux comprendre!
[/quote]Insiste un peu mais installe grub2 plutôt que grub-legacy[quote]
Enfin, pour essayer, j’ai refait l’installation sur une machine virtuelle sans LVM et j’ai les mêmes problèmes.

-non reconnaissance de la commande grub une fois l’installation terminée ;

-j’installe donc grub : apt-get install grub : et pendant que l’installation je lis que grub legacy est supprimé puis que grub2 est installé ;

-puis même retour pour grub-install /dev/sda (ou sdb) ; pour grub => root (hd0) ; grub install (hd0,0) (puis idem pour (hd1,0) )

Y a-t-il aurait-il une question d’architecture matérielle qui pourrait entraîner ces problèmes ?
[/quote]Essaye les commandes précédentes avec grub2. Il faut juste qu’il localise la racine, c’est tout.

edit: je vais essayer sur deux clefs USB ton histoire…

coucou

voici le fichier /boot/grub/device.map

(hd0)   /dev/disk/by-id/ata-ST3160812AS_4LS2HGJC
(hd1)   /dev/disk/by-id/ata-VB0160EAVEQ_9VY8CEB4
(hd2)   /dev/disk/by-id/ata-SAMSUNG_HD161HJ_S14JJACQ116784

Désolée, je n’ai pas vu ta réponse plutôt j’essayais avec un live-cd qui a boot-repair-disk.

J’ai essayé d’installer grub2 en faisant : update-grub
Retour :

Searching for GRUB installation directory ... found: /boot/grub
Searching for default file ... found: /boot/grub/default
Testing for an existing GRUB menu.lst file ... found: /boot/grub/menu.lst
Searching for splash image ... none found, skipping ...
Found kernel: /vmlinuz-3.2.0-4-amd64
Updating /boot/grub/menu.lst ... done

J’espère que c’est bon ?
Je préfère redémarrer la machine avant de réessayer les commandes, et je poste de suite leurs retours.

Merci d’essayer mon truc :007

Le fais-tu avec la netinst ?

Voilà,

malheureusement toujours les mêmes retours :
cp /boot/grub/device.map /boot/grub/device.map.backup

grub-mkdevicemap (retour prompt)

grub-install "(hd0)"Searching for GRUB installation directory ... found: /boot/grub
The file /boot/grub/stage1 not read correctly.
update-initramfs -u
update-initramfs: Generating /boot/initrd.img-3.2.0-4-amd64
W: Possible missing firmware /lib/firmware/tigon/tg3_tso5.bin for module tg3
W: Possible missing firmware /lib/firmware/tigon/tg3_tso.bin for module tg3
W: Possible missing firmware /lib/firmware/tigon/tg3.bin for module tg3

j’vais essayer d’installer grub2 avec un live cd…

Bon, j’ai installé sur 2 clefs USB en raid1 LVM avec une partition /boot et une autre pour la racine /.

Il n’y a pas eu de souci, juste un rootdelay à mettre à 15s pour attendre tranquillement que les clefs USB s’installent. Donc c’est faisable (je ne pense pas que le raid5 soit fondamentalement différent, l’initrd étant sur du raid1.

Mais j’ai fait cela avec grub2. Essaye le donc, ça ira sans doute mieux.

Merci, je voudrais bien le faire avec grub2, mais comment l’ajouter, j’ai essayé beaucoup de choses à partir du système en place :

  • avec une clé usb unetbootin et super-grub,
  • avec un live usb de la netinst en mode rescue, (là grub ne veut pas s’installer)
  • en ligne de commandes: impossible encore pour upgrader grub, il y a comme besoin qu’il lise ce fichu fichier /boot/grub/stage1.

Je voudrais refaire l’installation à zéro pour le faire avec grub2, mais pourquoi n’est-ce pas grub2 qui s’installe sur le premier disque à la fin de l’installation avec la netinst ?

Est-ce qu’il ne vaut pas mieux que j’ouvre un autre fil, pour demander les prérequis et présenter la méthode que je pense emploier car je fais peut-être une erreur lors du partitionnement.

Est-ce que cela peut ce faire ici, je veux dire détailler un projet, et la façon que l’on pense mettre en place pour être aidé dans sa réalisation ?

Réussis-tu Raid1 + LVM avec simplement une image iso qui permet de faire une installation basique ?

Merci encore

Source potentiel de problème, le RAID5 sur la racine peut être (c’est pour ça que j’avais mis à tout hasard le raid456 dans l’initrd) mais le pbm n’est pas là, il n’arrive pas à trouver ton disque.

Je suis parti de la netinstall wheezy (la 7.3), installation standard non grapque.

Au partitionnement j’ai sélectionné un RAID1, puis LVM, le tout en manuel. J’ai passé pas mal de temps là dessus (ne serais ce que pour ne pas pourrir mon portable, j’ai tout mon boulot dessus).

Si tu fais une réinstallation, je te suggère une partition root en raid1 sans LVM et une ou plusieurs partitions (je mettrais /var, /usr et /home) en raid5 LVM. Ça te garantira que ça marche. Passe du temps sur ce point à mon avis.

Ensuite l’installation se poursuit de manière standard. J’ai demandé à installer grub, cet abruti ne l’a installé que sur un seul disque (choisi le premier dans ce cas), ça a été pénible pour le premier boute, mes deux clefs boutaient en syslinux avant. Eventuellement si tu as la possibilité, demande à installer également un grub sur une clef USB.

Ensuite tu reboutes, j’ai du personnellement éditer la ligne grub (touche «e» au menu afin de rajouter «rootdelay=15» pour laisser aux clefs USB le temps de se réveiller, tu ne devrais pas avoir besoin de ça. Une fois sur le système, j’ai fait grub-install /dev/sdb et sdc (les deux clefs USB), j’ai modifié /etc/default/grub pour rajouter le rootdelay et j’ai fait un update-grub. J’ai maintenant deux clefs USB en RAID1+LVM boutant indifféremment.

coucou,

Je vais devoir creuser plein trucs avant de me relancer.

J’ai réussi à supprimer le raid et à formater mes disques : ouufffff !

Je crois aussi avoir trouvé l’erreur que j’ai faite lors de l’installation, dès que j’ai le temps, je poste ici ce qu’il ne faut pas faire pour ce retrouver dans le même cas.

Grand merci d’avoir pris autant de temps.

A bientôt, peut-être sur ce forum :slightly_smiling: