LVM sur RAID5 , grub2 et boot

Bonjour à tous !

Je n’ai pas l’habitude de poster des questions, mais là je sèche complètement !
J’essaie de mettre en place un RAID5 avec du LVM par dessus (j’ai 4 disques de 750 Go).
Je me suis dis, le plus simple c’est de faire une partition sur le disque, et de mettre / dedans.
Donc j’ai créé mon raid, puis mon LVM.
Tout est bon, ça boote ! Par contre, dès que je retire un disque, impossible de booter !

J’ai donc installé grub2 sur tous les disques (grub-install /dev/sdX sur a b c et d), et j’ai maintenant le prompt grub2 “rescue : file not found…”.

Cependant, il n’est pas possible de booter, j’ai essayé de faire
root=’(vol1-vol_log1)'
insmod /boot/grub/linux.mod

Et là il me sort une erreur assez bizarre “invalid arch independent elf magic”. J’ai essayé de faire ça parce que grub me dis qu’il ne connait pas les commande ‘linux’ ni ‘help’.

Je suis a court d’idée ! Vous pouvez m’aider ? Quelqu’un a-t-il déjà fait ça ?

Le chemin n’est pas le bon pour atteindre le /boot.

C’est un raid matériel ? peut-tu poster le fstab, tu peut le récupérer depuis un sysrescuecd au besoin ?

Salut, merci pour ta réponse !

Je pense que le chemin est bon, puisqu’en faisant ls /boot/grub, je vois bien le fichier…

Voilà mon fstab :
proc /proc proc defaults 0 0
/dev/mapper/vol1-vol_log1 / ext4 errors=remount-ro 0 1
/dev/scd0 /media/cdrom0 udf,iso9660 user,noauto 0 0

C’est un raid logiciel, créé au moment de l’installation de debian (squeeze).

Alors, j’ai trouvé plus d’informations !

  1. Si on installe son système sur une partition RAID5, et qu’on rajoute du LVM par dessus, grub sait faire et boot sans problème sur la partition.

Sauf que si on retire le premier disque, cela ne boote plus ! Je n’ai pas trouvé la réponse à ce phénomène…mais je suppose que le grub.cfg pointe vers le premier disque dur…d’une manière ou d’une autre…
Après avoir installé grub sur le MBR des autres disques on boot bien sur le système en démarrant sur l’un des disques, à condition que tous les disques soient là. En enlevant le premier, cela ne boote plus car grub n’arrive pas à monter la partition LVM, ce qui est plutot étonnant puisqu’il voit bien les disques et monte bien le RAID (on le vois avec un ls).

Ma solution pour l’instant est de créer une partition en RAID1 contenant /, sans LVM, et une seconde en RAID5 avec LVM.
Mais même dans cette configuration, il doit y avoir un problème car impossible de booter sur les autres disques en ayant enlevé le premier.
J’ai été obligé de faire :

grub-setup -r "(hd1)" /dev/sdX grub-install /dev/sdX

Avec X la lettre du disque, et de répéter ça pour chaque disque.

De cette façon, ça marche !!

Si quelqu’un comprend tout ça, je serais curieux de comprendre :slightly_smiling:

C’est surtout ça que je ne comprends pas, moi.
Comment as-tu installé grub sur le MBR des autres disques ?

En toute logique, il faut que grub soit installé sur tous les MBR, via grub-install /dev/sdX (pour tous les X possibles pour que chaque disque puisse booter). Si seul le premier disque a grub sur son MBR, tu ne pourras pas booter sans…

Personnellement, j’utilise grub1, donc je ne sais pas ce que fait grub-setup. Le man me dit que ça définit le disque comme « root device ». Mais c’est pas très clair pour moi (c’est l’équivalent de device.map pour grub2 ??).