Reconfiguration d'un raid5 existant

Bonjour

Ma becane possède 5 disques.
1 disque systeme sur lequel il y a 2 partitions :

  • XP sur laquelle je boote
  • 1 VMWAre sur lequel tourne Linux Ubuntu (Linux ubuntu 2.6.28-11-generic #42-Ubuntu SMP Fri Apr 17 01:58:03 UTC 2009 x86_64 GNU/Linux) qui pilote un RAID 5, composé de 4 HDD.

Pour une raison encore inconnue (MEMTest et CheckDsk ok), mon PC a crashé et n’a plus été en mesure de booter le XP.
Le probleme était assez serieux pour que je doive formater le disque systeme, et tout reinstaller.

J’ai donc resintaller VMWare et Ubunutu.
je souhaite a present configurer linux pour que je puisse de nouveau avoir accés au mon Raid qui, techniquement, n’a pas été impacté.

C’est là que ca se corse.

sudo mdadm --assemble /dev/md0 /dev/sd[abcd]1 mdadm: failed to add /dev/sda1 to /dev/md0: Device or resource busy mdadm: failed to add /dev/sdc1 to /dev/md0: Device or resource busy mdadm: /dev/md0 assembled from 2 drives - not enough to start the array.

contenu du mdstat :

[code] cat /proc/mdstat
Personalities :
md0 : inactive sda12 sdd13 sdb11
2930279808 blocks

unused devices:
[/code]
Pourquoi je ne vois que 3 diques au lieu de 4 ?
Le sdc est pourtant bien reconnu :

[code]sudo fdisk -l /dev/sdc

Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x49a27536

Device Boot Start End Blocks Id System
/dev/sdc1 1 121601 976760001 fd Linux raid autodetect[/code]
et

[code]sudo mdadm --examine /dev/sdc1
/dev/sdc1:
Magic : a92b4efc
Version : 00.90.00
UUID : 405876ee:e346a8f5:e368bf24:bd0fce41
Creation Time : Wed Apr 14 16:08:38 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0

Update Time : Tue Jun 19 14:22:01 2012
      State : clean

Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 4326e520 - correct
Events : 115040

     Layout : left-symmetric
 Chunk Size : 64K

  Number   Major   Minor   RaidDevice State

this 0 8 1 0 active sync /dev/sda1

0 0 8 1 0 active sync /dev/sda1
1 1 8 17 1 active sync /dev/sdb1
2 2 8 33 2 active sync /dev/sdc1
3 3 8 49 3 active sync /dev/sdd1[/code]

Voici mon fichier de conf :

DEVICE /dev/sd[abcd]1 ARRAY /dev/md0 devices=/dev/sda1,/dev/sdb1,/dev/sdc1/,/dev/sdd1/
Vous confirmez qu’il est correct ?

J’ai déja vu qu’il fallait arreter md0 pour faire l’assemblage, mais j’ai toujours le meme soucis :

sudo mdadm --stop /dev/md0 mdadm: stopped /dev/md0 tiste@ubuntu:~$ cat /proc/mdstat Personalities : unused devices: <none> tiste@ubuntu:~$ sudo mdadm --assemble /dev/md0 /dev/sd[abcd]1 mdadm: failed to add /dev/sda1 to /dev/md0: Device or resource busy mdadm: failed to add /dev/sdc1 to /dev/md0: Device or resource busy mdadm: /dev/md0 assembled from 2 drives - not enough to start the array.

J’ai lancé un dmesg /var/log/messages :

[ 15.734766] VMware PVSCSI driver - version 0.0.0.7 [ 15.803052] VMware memory control driver initialized [ 15.803383] vmmemctl: started kernel thread pid=2534 [ 20.011197] e1000: eth0: e1000_set_tso: TSO is Enabled [ 21.030792] Bluetooth: BNEP (Ethernet Emulation) ver 1.3 [ 21.030794] Bluetooth: BNEP filters: protocol multicast [ 21.034742] Bridge firewalling registered [ 26.457936] e1000: eth0: e1000_watchdog: NIC Link is Up 1000 Mbps Full Duplex, Flow Control: None [ 26.459227] ADDRCONF(NETDEV_UP): eth0: link is not ready [ 26.462743] ADDRCONF(NETDEV_CHANGE): eth0: link becomes ready [ 36.868541] eth0: no IPv6 routers present [ 2968.948618] md: md0 stopped. [ 2968.948720] md: unbind<sda1> [ 2968.964954] md: export_rdev(sda1) [ 2968.965070] md: unbind<sdb1> [ 2968.976661] md: export_rdev(sdb1) [ 2968.992359] md: bind<sdb1> [b][ 2968.992405] md: could not bd_claim sda1.[/b] [ 2968.992411] md: md_import_device returned -16 [ 2968.996051] md: bind<sdd1> [b][ 2968.996070] md: could not bd_claim sdc1.[/b] [ 2968.996073] md: md_import_device returned -16 [ 2968.997933] md: bind<sda1> [ 3172.602419] md: md0 stopped. [ 3172.602459] md: unbind<sda1> [ 3172.616674] md: export_rdev(sda1) [ 3172.616703] md: unbind<sdd1> [ 3172.628389] md: export_rdev(sdd1) [ 3172.628420] md: unbind<sdb1> [ 3172.640105] md: export_rdev(sdb1) [ 3183.171428] md: md0 stopped. [ 3183.183038] md: bind<sdb1> [b][ 3183.183055] md: could not bd_claim sda1.[/b] [ 3183.183058] md: md_import_device returned -16 [ 3183.185863] md: bind<sdd1> [b][ 3183.185878] md: could not bd_claim sdc1.[/b] [ 3183.185880] md: md_import_device returned -16 [ 3183.187259] md: bind<sda1>
Est-ce que ce serait lié ?

Je ne sais pas plus quoi faire maintenant.

Pouvez-vous m’aider sur ce sujet ?

Merci d’avance o_o

Salut,

La gestion de mdadm est particulièrement soignée sur notre wiki. As-tu été voir s’il n’y avait rien à glaner pour toi ?

J’y suis allé, ou j’ai pu en effet avoir pu pas mal d’infos.
Mais je bute toujours sur le pb

Re,

Tu ne trouves pas fantaisiste ta manière de placer les virgules, s’il y en a besoin ?

Hmmm, j’avais trouve cette syntaxe sur ce site : web.mit.edu/rhel-doc/4/RH-DOCS/r … -raid.html

Mais n’etant pas un expert, j’ai peut etre foire l’interpretation :confused:

Tu places les virgules deux fois derrière le nom, la troisième fois entre deux slashes. Je ne pense même pas qu’il y en ait besoin.

Pour connaitre la syntaxe d’une commande : man <la_commande>

Bonjour

tu m’as mis la puce a l’oreille : c’etait bien ca le probleme.
C’est corrigé et tout fonctionne correctement.

Un grand merci pour ton aide.

A bientot

Re,

N’oublies pas la petite coche verte disant que le problème est résolu et si tu fais un copié/collé de la ligne telle qu’elle est maintenant çà peut servir à un chercheur :slightly_smiling: