Performances minables RAID5 logiciel DEBIAN Server

Bonjour à toutes et à tous,

Je n’ai pas pour habitude de poster mes soucis… car généralement, je trouves des solutions sur les forums comme celui-ci !!! Mais la, je suis à court d’idées… je vais tenter de faire court,

Ma config :

  • Core deux duo 5200 (2.5Ghz)
  • 2 Go DDR2 6400
  • Carte mère Gygabite GA-G31M-ES2L
  • 1x 80Go (pour DEBIAN)
  • 3x 1.5 To WD 5400Tr/min 64Mo cash

J’installe DEBIAN, je monte mon RAID 5 logiciel sans problème avec mdadm, je déplace sur mon RAID 2.6To de données a partir de Windows 7 (bécane en I7 GTX295 etc ca ne vient pas de là…) et d’un réseau GIGABIT doté de câble compatibles et supercopier m’annonce 12h !!! vitesse moyenne de copie : 30Mo/s la déception en image ICI

Avec la même configuration et Windows serveur 2008, un RAID 5 (seul différence : les disques formatés en NTFS) la vitesse de copie était de 80Mo/s en moyenne :smiley:

Vous vous demanderez pourquoi je ne suis pas resté tout simplement sous Windows … et bien car ce dernière ne permet pas d’étendre un RAID 5 logiciel sans le casser et perdre les données, alors que GNU et Linux oui.

Que puis-je faire pour retrouver ces performance sous DEBIAN ?

Je tenterai bien de formater mon raid 5 en NTFS mais est-ce possible, comment faire, et est-ce que cela changera quelque chose ?

Je suis ouvert à toutes remarques ou propositions,
D’avance merci pour l’intérêt que vous porterez à mon appel a l’aide …

Voici quelques info utiles tirées de DEBIAN :

[quote]SERVEUR:/home/flust# hdparm -Tt /dev/sdb
/dev/sdb:
Timing cached reads: 2492 MB in 2.00 seconds = 1245.70 MB/sec
Timing buffered disk reads: 296 MB in 3.00 seconds = 98.63 MB/sec

SERVEUR:/home/flust# hdparm -Tt /dev/sdc
/dev/sdc:
Timing cached reads: 2452 MB in 2.00 seconds = 1225.57 MB/sec
Timing buffered disk reads: 300 MB in 3.01 seconds = 99.72 MB/sec

SERVEUR:/home/flust# hdparm -Tt /dev/sdd
/dev/sdd:
Timing cached reads: 2476 MB in 2.00 seconds = 1237.51 MB/sec
Timing buffered disk reads: 282 MB in 3.01 seconds = 93.60 MB/sec

RAID 5 :
SERVEUR:/home/flust# hdparm -Tt /dev/md0
/dev/md0:
Timing cached reads: 2492 MB in 2.00 seconds = 1245.50 MB/sec
Timing buffered disk reads: 472 MB in 3.01 seconds = 156.88 MB/sec

SERVEUR:/home/flust# hdparm -i /dev/sdb

/dev/sdb:

Model=WDC WD15EARS-00Z5B1 , FwRev=80.00A80, SerialNo= WD-WMAVU2167815
Config={ HardSect NotMFM HdSw>15uSec SpinMotCtl Fixed DTR>5Mbs FmtGapReq }
RawCHS=16383/16/63, TrkSize=0, SectSize=0, ECCbytes=50
BuffType=unknown, BuffSize=0kB, MaxMultSect=16, MultSect=?16?
CurCHS=16383/16/63, CurSects=16514064, LBA=yes, LBAsects=18446744072344861488
IORDY=on/off, tPIO={min:120,w/IORDY:120}, tDMA={min:120,rec:120}
PIO modes: pio0 pio3 pio4
DMA modes: mdma0 mdma1 mdma2
UDMA modes: udma0 udma1 udma2 udma3 udma4 udma5 *udma6
AdvancedPM=no WriteCache=enabled
Drive conforms to: Unspecified: ATA/ATAPI-1,2,3,4,5,6,7

  • signifies the current active mode

SERVEUR:/home/flust# hdparm -i /dev/sdc

/dev/sdc:

Model=WDC WD15EARS-00Z5B1 , FwRev=80.00A80, SerialNo= WD-WMAVU2630647
Config={ HardSect NotMFM HdSw>15uSec SpinMotCtl Fixed DTR>5Mbs FmtGapReq }
RawCHS=16383/16/63, TrkSize=0, SectSize=0, ECCbytes=50
BuffType=unknown, BuffSize=0kB, MaxMultSect=16, MultSect=?16?
CurCHS=16383/16/63, CurSects=16514064, LBA=yes, LBAsects=18446744072344861488
IORDY=on/off, tPIO={min:120,w/IORDY:120}, tDMA={min:120,rec:120}
PIO modes: pio0 pio3 pio4
DMA modes: mdma0 mdma1 mdma2
UDMA modes: udma0 udma1 udma2 udma3 udma4 udma5 *udma6
AdvancedPM=no WriteCache=enabled
Drive conforms to: Unspecified: ATA/ATAPI-1,2,3,4,5,6,7

  • signifies the current active mode

SERVEUR:/home/flust# hdparm -i /dev/sdd

/dev/sdd:

Model=WDC WD15EARS-00Z5B1 , FwRev=80.00A80, SerialNo= WD-WMAVU1324156
Config={ HardSect NotMFM HdSw>15uSec SpinMotCtl Fixed DTR>5Mbs FmtGapReq }
RawCHS=16383/16/63, TrkSize=0, SectSize=0, ECCbytes=50
BuffType=unknown, BuffSize=0kB, MaxMultSect=16, MultSect=?16?
CurCHS=16383/16/63, CurSects=16514064, LBA=yes, LBAsects=18446744072344861488
IORDY=on/off, tPIO={min:120,w/IORDY:120}, tDMA={min:120,rec:120}
PIO modes: pio0 pio3 pio4
DMA modes: mdma0 mdma1 mdma2
UDMA modes: udma0 udma1 udma2 udma3 udma4 udma5 *udma6
AdvancedPM=no WriteCache=enabled
Drive conforms to: Unspecified: ATA/ATAPI-1,2,3,4,5,6,7

[/quote]

Bonjour,
j’ai déja constaté la même chose sur un montage NFS. Je n’ai plus les chiffres en tête, mais le taux de tansfert est très bas, bien en dessous des capacité de transfert des disques ou du réseau. Je n’ai pas trouvé d’explications.
J’ai aussi trouvé que le CPU était pas mal sollicité lors du transfert, mais je n’ai pas pu faire le lien avec le faible débit constaté.
Je pencherai plus vers un problème de routeur qui ne passe pas le débit dans mon cas, ce qui ne semble pas étre le cas chez toi.
Entre win et nux, la seule différence que je vois est le protocole de transfert entre les machines qui est différent, car si j’ai bien compris, tu transfère depuis une machine win vers ton serveur en RAID.

Je ne peux pas refaire le test en ce moment, j’attends une alim pour mon serveur car elle m’a laché.

Les perf raid5 avec mdadm dépendandent beaucoup de la taille par défaut des blocs du système de fichier et du réglage du chunk-size sur ton array.

Jette un oeil à la fin de cet article : http://tldp.org/HOWTO/Software-RAID-HOWTO-5.html

Bonjour à vous deux !

Je vous remercie pour vos réponses et l’intérêt que vous avez portez à mon message.

J’ai fais quelques tests depuis en voici les résultats, on remarque une nette amélioration :

TEST 1 (Config par default) :

La commande lance la lecture de 4Go sur ta pile raid (ou moins en fonction des données présentes) et les envoyer à la poubelle (ça ne supprime rien de ta pile, c’est comme si ça copiait dans le vide)

[quote]SERVEUR:/home/flust# dd if=/dev/md0 of=/dev/null bs=4096 count=1000000
1000000+0 enregistrements lus
1000000+0 enregistrements écrits
4096000000 bytes (4,1 GB) copied, 21,5787 s, 190 MB/s[/quote]

Cette commande écrit un fichier test.bidon de 4Go sur le raid et donner les rsultats

[quote]SERVEUR:/home/flust# dd if=/dev/zero of=/mnt/raid/test.bidon bs=4096 count=1000000
1000000+0 enregistrements lus
1000000+0 enregistrements écrits
4096000000 bytes (4,1 GB) copied, 181,842 s, 22,5 MB/s [/quote]

On remarque que la vitesse de mon RAID et médiocre, j’ai donc de suite modifié la mémoire cache :

[quote]SERVEUR:/home/flust# cat /sys/block/md0/md/stripe_cache_size
256
SERVEUR:/home/flust# echo 8192 > /sys/block/md0/md/stripe_cache_size

SERVEUR:/home/flust# blockdev --getra /dev/md0
512
SERVEUR:/home/flust# blockdev --setra 16384 /dev/md0

SERVEUR:/home/flust# mdadm --grow -b /dev/md0
mdadm: an md device must be given in this mode[/quote]

TEST 2 (Après modification de la mémoire cache):

[quote]SERVEUR:/home/flust# dd if=/dev/zero of=/mnt/raid/test.bidon bs=4096 count=1000000
1000000+0 enregistrements lus
1000000+0 enregistrements écrits
4096000000 bytes (4,1 GB) copied, 164,041 s, 25,0 MB/s[/quote]

On remarque une légère amélioration, mais lorsque j’ai réaliser un transfert de fichier avec les paramètres de mémoire cache à 8192 en écriture et 16384 en lecture supercopier m’affichait environ 10Mo/s supplémentaire lors d’un transfert de Windows à Linux sur mon raid 5, c’est une petite victoire mais qui fait plaisir, car l’amélioration de la vitesse de transfert est belle est bien réalisable !!!

Malheureusement, lors du redémarrage du serveur, les valeur du cache ce réinitialisent … je cherche actuellement la solution …

Ta réponse, SpaTule, M’intrigue ! Je vais regarder de ce coté mais étant une bille en anglais, je ne m’attends pas a faire de miracle.

Merci encore !