Probleme Xen et LVM

Bonjour,
Je voudrais mettre en place un serveur-maquette quasi identique a celui qui est en production, mise a part que je ne ferai pas de heartbeat et de DRBD.
Donc sur ma maquette se trouve d’installé xen 2.6.18-6-686 et du lvm.
Voici ce que j’ai fait:
Installation d’une version etch
creation de 2 partition (swap et /)
installation de xen
installation du lvm et creation des LV a l’identique du serveur que je veux virtualiser (alize):

[quote]— Logical volume —
LV Name /dev/vg_1/swap
VG Name vg_1
LV UUID cak03w-5DEV-cm6u-ZN87-D9wI-O5O5-a8X6Jw
LV Write Access read/write
LV Status available

open 0

LV Size 2,00 GB
Current LE 512
Segments 1
Allocation inherit
Read ahead sectors 0
Block device 254:0

— Logical volume —
LV Name /dev/vg_1/slash
VG Name vg_1
LV UUID IGoow9-bdas-M4ip-9QHK-Q8c2-IhGM-GtCS9Q
LV Write Access read/write
LV Status available

open 0

LV Size 3,00 GB
Current LE 768
Segments 1
Allocation inherit
Read ahead sectors 0
Block device 254:1

— Logical volume —
LV Name /dev/vg_1/tmp
VG Name vg_1
LV UUID 5RSELu-KfSK-h5bu-JD8u-nvvT-T8W8-SgsYkc
LV Write Access read/write
LV Status available

open 0

LV Size 1,00 GB
Current LE 256
Segments 1
Allocation inherit
Read ahead sectors 0
Block device 254:2

— Logical volume —
LV Name /dev/vg_1/var
VG Name vg_1
LV UUID yljIoT-8Jkq-YHXT-iM5P-CKnK-hPcr-2uEp2r
LV Write Access read/write
LV Status available

open 0

LV Size 5,00 GB
Current LE 1280
Segments 1
Allocation inherit
Read ahead sectors 0
Block device 254:3

— Logical volume —
LV Name /dev/vg_1/home
VG Name vg_1
LV UUID T9738B-5ZKS-wVdY-VBr0-uN9z-XtaU-Le70ln
LV Write Access read/write
LV Status available

open 0

LV Size 200,00 GB
Current LE 51200
Segments 1
Allocation inherit
Read ahead sectors 0
Block device 254:4[/quote]
Puis j’ai copié les disques de la machine en production vers la maquette :
dd if=/dev/vg_1/slash | ssh root@192.6.2.56 “dd of=/dev/vg_1/slash” et ainsi de suite pour chaque LV.

Création du fichier de conf du domU dans /etc/xen (nom du fichier alize)

[quote]# Kernel image file.
kernel = “/boot/vmlinuz-2.6.18-6-xen-686”

Optional ramdisk.

ramdisk = “/boot/initrd.img-2.6.18-6-xen-686”

The domain build function. Default is ‘linux’.

#builder=‘linux’

memoire alouees

memory = 2048

nom du DomU

name = “alize”

List of which CPUS this domain is allowed to use, default Xen picks

cpus = '1-3’
vcpus = 3

Define network interfaces.

vif = [ ‘mac=00:16:3e:00:00:01, bridge=eth1’ ]

#disk = [ ‘drbd:alize,hda,w’ ]
disk = [ ‘phy:/dev/vg_1/slash,/dev/mapper/vg_1-slash,w’, ‘phy:/dev/vg_1/swap,/dev/mapper/vg_1-swap,w’, ‘phy:/dev/vg_1/tmp,/dev/mapper/vg_1-tmp,w’, ‘phy:/dev/vg_1/var,/dev/mapper/vg_1-var,w’, ‘phy:/dev/vg_1/home,/dev/mapper/vg_1-home,w’ ]

Set root device.

root = “/dev/mapper/vg_1-slash ro”

Sets runlevel 4.

extra = “4”[/quote]

Pas besoin de modifier le fstab du domU puisque le lvm est identique

Je decide de lancer le domU:
xm create -c alize

[quote]…
Begin: Running /scripts/init-premount …
FATAL: Error inserting fan (/lib/modules/2.6.18-6-xen-686/kernel/drivers/acpi/fan.ko): No such device
FATAL: Error inserting thermal (/lib/modules/2.6.18-6-xen-686/kernel/drivers/acpi/thermal.ko): No such device
Done.
Begin: Mounting root file system… …
Begin: Running /scripts/local-top …
Uniform Multi-Platform E-IDE driver Revision: 7.00alpha2
ide: Assuming 50MHz system bus speed for PIO modes; override with idebus=xx
device-mapper: ioctl: 4.7.0-ioctl (2006-06-24) initialised: dm-devel@redhat.com
Volume group “vg_1” not found
Done.
Begin: Waiting for root file system… …
Done.
Check root= bootarg cat /proc/cmdline
or missing modules, devices: cat /proc/modules ls /dev
ALERT! /dev/mapper/vg_1-slash does not exist. Dropping to a shell!

BusyBox v1.1.3 (Debian 1:1.1.3-4) Built-in shell (ash)
Enter ‘help’ for a list of built-in commands.

/bin/sh: can’t access tty; job control turned off
(initramfs)[/quote]
Les deux fatal error je pense que cela ne pose pas de probleme, par contre Volume group “vg_1” not found la c’est autre chose.

J’ai essayé plusieurs manipes et passé quelques jours sur google mais la je seche et vous demande de l’aide.

Merci d’avance

Bonjour,
Alors personne n’aurait une petite idee ?

ça doit venir de là:[quote=“ysyldur”]ALERT! /dev/mapper/vg_1-slash does not exist[/quote]
le fichier de conf pointe vers /dev/mapper/… mais des partitions lvm sont sur /dev/… d’après le lvdisplay

bonjour je viens d’essayer :
disk = [ ‘phy:/dev/vg_1/slash,/dev/vg_1/slash,w’, ‘phy:/dev/vg_1/swap,/dev/vg_1/swap,w’, ‘phy:/dev/vg_1/tmp,/dev/vg_1/tmp,w’, ‘phy:/dev/vg_1/var,/dev/vg_1/var,w’, ‘phy:/dev/vg_1/home,/dev/vg_1/home,w’ ]

et voila la réponse qu’il me renvoie:
device-mapper: ioctl: 4.7.0-ioctl (2006-06-24) initialised: dm-devel@redhat.com
Volume group “vg_1” not found
Done.
Begin: Waiting for root file system… …
Done.
Check root= bootarg cat /proc/cmdline
or missing modules, devices: cat /proc/modules ls /dev
ALERT! /dev/mapper/vg_1-slash does not exist. Dropping to a shell!

J’avais mis /dev/mapper/vg_1-slash car le fstab du DomU est comme ça:
proc /proc proc defaults 0 0
/dev/mapper/vg_1-swap none swap sw 0 0
/dev/mapper/vg_1-slash / ext3 defaults,errors=remount-ro 0 1
/dev/mapper/vg_1-tmp /tmp ext3 defaults 0 0
/dev/mapper/vg_1-var /var ext3 defaults 0 0
/dev/mapper/vg_1-home /home ext3 defaults,acl 0 0

J’ai vu aussi que certains dans leur configue avec des domU en LVM avaient déclaré des lecteur xvda1…
J’ai essayé ça:
disk = [ ‘phy:/dev/vg_1/slash,xvda1,w’, ‘phy:/dev/vg_1/swap,xvda2,w’, ‘phy:/dev/vg_1/tmp,xvda3,w’, ‘phy:/dev/vg_1/var,xvda4,w’, ‘phy:/dev/vg_1/home,xvda5,w’ ]
malheureusement j’ai toujours la meme réponse.

J’ai lu aussi quelques truc comme quoi il fallait modifier le initrd pour lui intrégrer le volume group mais je ne comprend pas bien la marche à suivre.

merci de l’aide
si vous avez d’autres pistes merci d’avance

essaye de rajouter la ligne:root = '/dev/xvda1 ro' dans le .cfg

oui effectivement je n’avais pas compris.
j’ai fait le changement
je n’ai plus le volmue group not found mais j’ai toujours :

Check root= bootarg cat /proc/cmdline
or missing modules, devices: cat /proc/modules ls /dev
ALERT! /dev/xvda1 does not exist. Dropping to a shell!

Pourtant une fois que je suis en initramfs
je fais un ls /dev ; je vois xvda1 xvda2 xvda3 xvda4 xvda5

En relisant ton premier message, je vois que tu es en etch. Or, il semble que la dénomination xvdX ne soit valable que pour lenny (ou supérieure)…
Sinon, as-tu essayé de créer un guest normalement (sans dd…) ? Est-ce que ça marche ?

excuse moi je ne comprend pas bien ce que tu enttends par

sinon je viens de reéussir a démarrer mon domU en faisant:
disk = [ ‘phy:/dev/vg_1/slash,/dev/mapper/vg_1-slash,w’, ‘phy:/dev/vg_1/swap,/dev/mapper/vg_1-swap,w’, ‘phy:/dev/vg_1/tmp,/dev/mapper/vg_1-tmp,w’, ‘phy:/dev/vg_1/var,/dev/mapper/vg_1-var,w’, ‘phy:/dev/vg_1/home,/dev/mapper/vg_1-home,w’ ]
root = ‘/dev/xvda1 ro’

seuleument voila j’ai toujours des problemes, il ne me monte que le / et pas les autres partitions:
Setting up LVM Volume Groups…
No volume groups found
No volume groups found
No volume groups found

mount: special device /dev/mapper/vg_1-tmp does not exist
mount: special device /dev/mapper/vg_1-var does not exist
mount: special device /dev/mapper/vg_1-home does not exist

voila ou j’en suis

j’ai contourner les problemes du montage en modifiant le fstad du DomU comme ceci
[b]# /etc/fstab: static file system information.

proc /proc proc defaults 0 0
/dev/mapper/vg_1-swap none swap sw 0 0
/dev/mapper/vg_1-slash / ext3 defaults,errors=remount-ro 0 1
#/dev/mapper/vg_1-tmp /tmp ext3 defaults 0 0
#/dev/mapper/vg_1-var /var ext3 defaults 0 0
#/dev/mapper/vg_1-home /home ext3 defaults,acl 0 0

/dev/xvda2 /tmp ext3 defaults 0 0
/dev/xvda3 /var ext3 defaults 0 0
/dev/xvda4 /home ext3 defaults,acl 0 0
[/b]

la tout fonctionne a part un petit probleme avec MySql.

Mais cette solution ne me plait pas trop car d’une part j’ai perdu ma config en LVM et d’autre part je pense que c’est pas la bonne façon de faire (un peu trop de bidouille).

Donc je suis toujours preneur pour une autre configue ou d’autres info
et encore merci a Ursus

la ligne disk sert à exporter les volumes de l’hôte dans la machine virtuelle donc le deuxième argument doit correspondre à ce qu’il y a dans le fstab du domU.
par ex:phy:volume_sur_dom0,volume_sur_domU,r

peux-tu donner le fstab du domU initial ?

voici le fstab du domU initial:
[b]# /etc/fstab: static file system information.

proc /proc proc defaults 0 0
/dev/mapper/vg_1-swap none swap sw 0 0
/dev/mapper/vg_1-slash / ext3 defaults,errors=remount-ro 0 1
/dev/mapper/vg_1-tmp /tmp ext3 defaults 0 0
/dev/mapper/vg_1-var /var ext3 defaults 0 0
/dev/mapper/vg_1-home /home ext3 defaults,acl 0 0[/b]

avec :disk = [ 'phy:/dev/vg_1/slash,xvda1,w', 'phy:/dev/vg_1/swap,xvda2,w', 'phy:/dev/vg_1/tmp,xvda3,w', 'phy:/dev/vg_1/var,xvda4,w', 'phy:/dev/vg_1/home,xvda5,w' ]dans le fichier cfg et un fstab comme celui-ci:[code]# /etc/fstab: static file system information.

proc /proc proc defaults 0 0
/dev/xvda2 none swap sw 0 0
/dev/xvda1 / ext3 defaults,errors=remount-ro 0 1
/dev/xvda3 /tmp ext3 defaults 0 0
/dev/xvda4 /var ext3 defaults 0 0
/dev/xvda5 /home ext3 defaults,acl 0 0[/code]
ça devrait marcher et c’est plus propre me semble-t-il…

Bonjour,
Oui je suis d’accord avec toi ça fonction comme ça, seuleument de cette maniere je n’ai plus de LVM sur mon DomU.
Peut etre puis je le reconstruire par dessus ?

ok, ça explique pourquoi il y avait du /dev/mapper dans le domU… quel est l’intérêt d’ailleurs ?
ici: lists.xensource.com/archives/htm … 00347.html ils parlent d’une situation similaire mais ils semblent aussi dire que ce n’est pas une très bonne idée d’avoir du LVM sur dom0 et sur les domU…

Bonjour,
Oui effectivement après d’autre recherche je n’ai trouvé que des personnes qui arrive à le faire mais sous centos en modifiant le initrd avec mkinitrd.
En fait la j’ai changé ma configue en mettant des images sur le dom0 et j’ai pu ainsi monté les LV sur le domU. Je voulais garder le LVM sur le domU pour la simple raison que je désirais avoir une maquette exacte de notre serveur pour pouvoir tester la migration de sarge à lenny. Comme ça toute mauvaise surprise est évitée. Normalement ce n’est pas le LVM qui devrait poser problème, vu que j’ai déjà fait la migration des serveurs de backup (backuppc) sans problème, mais bon je préfère prendre les devants.

En tous cas merci de l’aide