Répartiteur de charge serveur web (cluster)

Bonjour a tous,
je me pose beaucoups questions,
voila j’ai des serveurs web (apache/php, mysql, ftp en général) qui commence a être saturé,
j’aimerai éssayé quelques choses, plutôt que de racheter a chaques fois un serveur plus performent ou d’augmenter la mémoire, séparer les fonctions de chaques serveur…etc
j’aimerais administrer un “cluster” (je crois que c’est le therme)
l’idéal serait une machine maître avec tous les services dessus, qui délegue les taches a des esclaves (j’avait regardé pour mosix, mais j’ai 2 problèmes,
l’un est que je voudrais être en kernel 2.6 et non 2.4,
et le 2ème car d’après ce que j’ai compris, on ne peut pas répartir un processus sur plusieurs machines)

Je pense que c’est spécifique a chaques système de clustering, mais comment se passe la répartition d’un service, il “suffit juste” que le service soir “multi-treathing”??

Je trouve très peu de documentation… Pouvez-vous éclairé ma lanterne??

Merci

Hello

Je ne maitrise pas trop le cluster web mais tu peux, à mon avis, regarder du côté des load-balancers avec hba (heartbeat) et LVS. Cela implique une machine supplémentaire.

Sinon faire du Load-balancing via le DNS mais les requêtes seront envoyées aléatoirement (DNS - Round Robin) donc pas l’idéal mais moins cher …

M.

avant le cluster, tu peux repenser ton architecture

mettre des machines squid en frontal (cache)

les apache derrière (avec répartition de charge)

les mysql encore derrière sur des machines ayant de gros accès disque

C’est ce que je compte faire,
mais comme je me lance dans un très gros projet, je vais vite être saturé,
et je prefère penser a l’avenir avant que se soit le cas,
d’ou l’envie de tester le clustering…

oui mais pour des appli web, il y a justement plein de mécanismes pour faire fonctionner les serveurs entre eux et gérer la répartition de charge sans justement nécessiter de cluster a proprement parler (grappe de calcul).

il faut identifier les besoins de chaque composant (cache , serveur web, BDD) en terme de disque, memoire, cpu, … et mettre chaque composant logiciel sur les serveurs les mieux adaptés.

même pour aller plus loin il te faudrait avoir des machines implantées dans chaque pays ou tu a beaucoup d’utilisateurs. ou au moins des caches.

quelques lectures du soir j’ai pas tout lu mais deja les schémas sont intéressants :

http://www.linux-ha.org/

http://www.webinterdit.com/content/index.php/2006/01/19/34-comment-ca-marche-la-haute-disponiblite-web

http://www.haute-disponibilite.net/

Merçi beaucoup pour cette éclaircicement, c’est ce que je vais faire pour le moments

le plus intéressant pour nous bien sur serait que tu nous détaille les changements dans ton architecture, un petit tuto de 150 pages sur la haute disponibilité, et surtout savoir ce que tu gagne en perfs selon les architectures retenues.

j’aimerais bien bosser là dessus … :cry:
ça me manque de ne pas faire de l’architecture

dans ma boite on n’a ni site web, ni serveur de mail, … tout le monde travail sur excel … j’en ai marre … heureusement que j’ai quand même quatre serveurs debian pour me remonter le moral quand ça va pas …

bonne chance

C’est sur, vu comment je m’interesse au projet, je risque de ressortir les vieus pc et les pc industriels qui sont aux greniers!!! Et faire des tests, et je pense que je vais imprimer pas mal de docs, et acheter des livres, en gros je vais m’investir (investissement de temps bien sur…) et je pense faire un tuto ou au moin un article car le sujet est (a mon gout) trop maigre sur internet (même en anglais).

Voila, merci pour tous
et bonne continuation