IPfailover OVH

Bonjour a tous

j’ai un p’tit soucis qui ma foi sera resolue d’ici peu :075 … j’ai 2 adresse ip publique qui ne sont pas dans le même sous-reseaux peut-on mettre en place du ipfailover avec heartbeat avec ces 2 adresse… :119

Merci d’avance

[quote=“figo”]Bonjour a tous

j’ai un p’tit soucis qui ma foi sera resolue d’ici peu :075 … j’ai 2 adresse ip publique qui ne sont pas dans le même sous-reseaux peut-on mettre en place du ipfailover avec heartbeat avec ces 2 adresse… :119

Merci d’avance[/quote]

Vue qu’il n’y a pas de point d’interrogation je suppose que ce n’est pas une question.

Qu’attends tu donc de nous ?

Si c’est une question, la réponse est oui :wink:

je m’excuse j’ai oublié le " ?" en effet c’est une question … en effet jai 2 VM qui ne sont pas dans le même sous réseau avec chacune une adresse ip publique l’ors de ma configuration de ipfailover avec Hearbeat, en faisant la commande #ifconfig je remarque l’adresse ip virtuel qui est aussi une adresse publique apparait sur les 2 noeuds ce qui n’est pas normal? et tapant la commande # crm_mon -i5 sur chacun des deux serveurs, seul le serveur sur lequel jai tapé la commande est detecté comme online… d’apres vous d’ou peut venir le probleme… est ce que c’est un probleme lié au routage ?

Merci d’avance

[quote=“figo”]je m’excuse j’ai oublié le " ?" en effet c’est une question … en effet jai 2 VM qui ne sont pas dans le même sous réseau avec chacune une adresse ip publique l’ors de ma configuration de ipfailover avec Hearbeat, en faisant la commande #ifconfig je remarque l’adresse ip virtuel qui est aussi une adresse publique apparait sur les 2 noeuds ce qui n’est pas normal? et tapant la commande # crm_mon -i5 sur chacun des deux serveurs, seul le serveur sur lequel jai tapé la commande est detecté comme online… d’apres vous d’ou peut venir le probleme… est ce que c’est un probleme lié au routage ?

Merci d’avance[/quote]

La VIP est monté sur lequel, peut-tu nous fournir un ifconfig -a de chaque VM ?

voici un ha.cf ultra basique :

logfacility daemon # Les logs du démon heartbeat seront envoyé au syslog, dans la catégorie daemon node XXX.XXX.XXX.XXX XXX.XXX.XXX.XXX # Liste de tous les membres de notre cluster heartbeat keepalive 3 # Le keepalive définit la vitesse de polling/controle des noeud entre eux, ici 1 seconde deadtime 10 # Au bout de 10 secondes, on déclare qu'un des noeuds est planté bcast eth0 # Quelle carte réseau utiliser pour les broadcasts Heartbeat, ici eth0 ping XXX.XXX.XXX.XXX # Adresse du routeur pour vérifier la connectivité Internet auto_failback no

Sinon quelque recommandations :

[list=]

  • Ne pas configurer l’IP virtuelle sur votre système Linux. C’est Heartbeat qui s’en occupera lorsque le besoin s’en fera sentir.
  • Les services qui seront lancés par Heartbeat ne doivent pas être chargés automatiquement au démarrage de Linux. C’est également Heartbeat qui se chargera de cela le moment venu.
  • Enfin, Les fichiers de paramètres doivent être identiques sur les deux serveurs pour fonctionner.
    [/list]

Pour te faire une idée, j’ai quelque part au taff un tutoriel en cours de rédaction mais en ce moment c’est fou ce que j’ai comme temps à moi :confused:

http://www.linux-ha.org/ha.cf

Pour vérifier tu ping ta VIP, ensuite tu vérifie que la VIP soit monté sur l’un ou l’autre.

Merci beaucoup pour ton aide clochette
j’ai respecté toutes les consignes que vous avez évoqué … bon en bref j’ai mis en place des clusters au seins de nos serveur en interne tout fonctionne très bien nikel … maintenant je dois reproduire la même procédure en production là avec plûtot les adresse IP publique n’appartenant pas au même sous-réseau et cela ne fonctionne pas l’ip virtuel est monté sur les deux noeuds …
vci le retour de la commande ifconfig -a sur mon serveur maitre eth0 Link encap:Ethernet HWaddr 00:y:y:y:y:y:y inet addr:x.x.x.x Bcast: x.x.x.x Mask:255.255.255.255 inet6 addr: fe80::y:y:y:y/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:110779 errors:0 dropped:844 overruns:0 frame:0 TX packets:29697 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:27973247 (26.6 MiB) TX bytes:4776787 (4.5 MiB) eth0:0 Link encap:Ethernet HWaddr 00:y:y:y:y:y inet adr:x.x.x.x Bcast:x.x.x.x Masque:255.255.255.0 UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 inet6 addr: ::1/128 Scope:Host UP LOOPBACK RUNNING MTU:16436 Metric:1 RX packets:453967 errors:0 dropped:0 overruns:0 frame:0 TX packets:453967 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:100150775 (95.5 MiB) TX bytes:100150775 (95.5 MiB)
et voici ce que me retourne la commande ifconfig -a sur mon serveur esclave


eth0      Link encap:Ethernet  HWaddr 00:yy:yy:yy:yy:yy
          inet addr:yy.yy.yy.yy  Bcast:yy.yy.yy.yy  Mask:255.255.255.255
          inet6 addr: yyyy::yyyy:yyyy:yyyy:yyyy/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:111338 errors:0 dropped:844 overruns:0 frame:0
          TX packets:29787 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:28123591 (26.8 MiB)  TX bytes:4788627 (4.5 MiB)
eth0:0    Link encap:Ethernet  HWaddr 00:y:y:y:y:y
          inet adr:x.x.x.x  Bcast:x.x.x.x  Masque:255.255.255.0
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

lo        Link encap:Local Loopback
          inet addr:127.0.0.1  Mask:255.0.0.0
          inet6 addr: ::1/128 Scope:Host
          UP LOOPBACK RUNNING  MTU:16436  Metric:1
          RX packets:453967 errors:0 dropped:0 overruns:0 frame:0
          TX packets:453967 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:100150775 (95.5 MiB)  TX bytes:100150775 (95.5 MiB)

et je parviens a ping ma VIP et quand je me connecte via ssh (putty) sur la VIP, la commande # uname -n me montre que je suis sur le noeud maître et quand je fais un #ifdown eth0 la VIP n’est pas monté automatique sur le serveur esclave; pourtant en test avec les adresses privées une fois le maître tombé, la VIP était monté automatiquement monté sur l’esclave… voilà donc mon problème en gros espérant vous relire de suite
merci encore une fois

C’est quoi l’hyperviseur ? xen ? xencenter ? openvz ? kvm ? vmware ? autre ?

je suis sur une VMware… et celà me prend déjà énormément la tête j’ai lu un article dans lequel il est écrit qu’il est preferable que les 2 adresse ip soient dans le même sous-réseau https://wiki.archlinux.org/index.php/Simple_IP_Failover_with_Heartbeat

Préférable ne veut pas dire obligatoire :wink:
En principe cela doit fonctionner.
Cela coince quelque part ? Si oui à quelle étape ?