bonjour,
nous avons un serveur sous Debian 4.
Celui-ci sert de d’authentification NIS + montage NFS des dossiers personnels (homes) des “clients” semi-légers.
J’ignore pourquoi, depuis plusieurs semaines, dans les journaux, j’ai des lignes de ce style :
Jun 14 10:38:59 localhost kernel: printk: 27 messages suppressed.
Jun 14 10:38:59 localhost kernel: lockd: too many open TCP sockets, consider increasing the number of nfsd threads
Jun 14 10:38:59 localhost kernel: lockd: last TCP connect from 172.20.17.35:907
Jun 14 10:39:04 localhost kernel: printk: 29 messages suppressed.
Jun 14 10:39:04 localhost kernel: lockd: too many open TCP sockets, consider increasing the number of nfsd threads
Jun 14 10:39:04 localhost kernel: lockd: last TCP connect from 172.20.17.43:710
Jun 14 10:39:09 localhost kernel: printk: 29 messages suppressed.
Jun 14 10:39:09 localhost kernel: lockd: too many open TCP sockets, consider increasing the number of nfsd threads
Jun 14 10:39:09 localhost kernel: lockd: last TCP connect from 172.20.18.45:677
dans /etc/default/nfs-kernel-server, j’ai bien tenté d’augmenter le nombre de threads avec :
Mais cela n’a pas l’air d’avoir des répercussions.
Ce qui me surprend aussi, c’est les valeurs nulles sur la ligne TH de /proc/net/rpc/nfsd :
cat /proc/net/rpc/nfsd
rc 0 25020854 19157796
fh 276 0 0 0 0
io 899844043 2470085989
th 1024 0 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000
ra 2048 4250593 118232 55926 31504 20253 13815 9875 7028 5546 3991 171551
net 44179842 1 44179026 3092
rpc 44177753 0 0 0 0
proc2 18 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
proc3 22 747 7259760 1383711 1570520 3464939 8436 4688207 21668847 1173194 6457 2127 172 213538 1253 556401 14950 1101 56245 90790 742 367 1989658
proc4 2 0 0
proc4ops 40 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
J’avais dans le passé pensé que c’était lié à un problème relatif au stockage car il est vrai que ce serveur avait eu un disque dur en panne et que la grappe RAID était en reconstruction.
Mais là, c’est réparé et le stockage ne semble pas surexploité :
[code]# iostat -xmd 2
Linux 2.6.18-5-vserver-686 (profil) 14.06.2010
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await svctm %util
sda 1,55 113,23 30,49 53,49 0,17 0,65 19,92 7,71 91,79 1,85 15,51
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await svctm %util
sda 0,00 8,00 9,50 3,00 0,07 0,04 18,24 1,01 80,48 23,20 29,00
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await svctm %util
sda 0,00 1085,28 3,05 517,26 0,01 5,92 23,34 98,87 163,57 1,48 76,95
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await svctm %util
sda 1,00 227,50 31,00 42,50 0,20 1,39 44,46 2,56 219,27 5,52 40,60
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await svctm %util
sda 3,96 584,16 22,77 307,92 0,18 3,27 21,37 36,59 73,69 0,93 30,89
[/code]
Si vous avez des pistes ça m’aiderait bien car là je sature un peu, d’autant qu’à chaque changement de config ça pénalise les utilisateurs :
D’avance, merci et bonne semaine.


