Bonjour,
Je viens poster car plus trop le choix ; toutes les tentatives que j’ai pu trouvé sur le sujet ne fonctionnent pas chez moi …
J’avais un volume RAID (mdadm SANS LVM) sur une Etch.5 (4 disques au total dans la grappe dont 1 disque en spare) qui tournait super bien. Tout était pour le mieux dans le meilleur des mondes … jusqu’à la réinstall de mon système, avec un passage sur Squeeze et un noyau 64 bits.
Depuis, c’est à ni rien comprendre ; j’ai correctement redéfini mon volume, il semble bien reconnu
root@SRVHOME:~# mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Apr 28 14:47:23 2011
Raid Level : raid5
Array Size : 585952256 (558.81 GiB 600.02 GB)
Used Dev Size : 292976128 (279.40 GiB 300.01 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun May 1 02:21:16 2011
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Name : SRVHOME:0 (local to host SRVHOME)
UUID : f3ee0d7c:e5d92762:3a8d0f79:a1824ea1
Events : 36
Number Major Minor RaidDevice State
0 8 21 0 active sync /dev/sdb5
1 8 37 1 active sync /dev/sdc5
2 8 53 2 active sync /dev/sdd5
3 8 69 - spare /dev/sde5
pourtant …
root@SRVHOME:~# mount -t nfs /dev/md0 /data
mount.nfs: remote share not in 'host:dir' format
J’ai appris qu’un changement majeur était apparu sur les nouveaux noyaux … la gestion des disques par UUID !? j’ai cherché de ce côté là, mais en vain…
A côté de ça, je ne retrouve pas mon l’UUID de mon volume le /dev/disk/by-uuid/
root@SRVHOME:~# ls -l /dev/disk/by-uuid/
total 0
lrwxrwxrwx 1 root root 10 28 avril 14:19 06df50e8-3648-44ee-970f-2b5a2e96ac51 -> ../../sda8
lrwxrwxrwx 1 root root 11 28 avril 14:19 089880a7-d89b-4b58-b41a-cd65f114e333 -> ../../sda10
lrwxrwxrwx 1 root root 10 28 avril 14:19 26eea5af-4b8f-410c-b1af-9a8926959e37 -> ../../sda5
lrwxrwxrwx 1 root root 10 28 avril 14:19 82700dc6-10d5-4acf-9fdb-57fb1f21dde5 -> ../../sda1
lrwxrwxrwx 1 root root 10 28 avril 14:19 a34cc302-76df-46da-ab1b-2271ef48d35b -> ../../sda9
lrwxrwxrwx 1 root root 10 28 avril 14:19 c2abe277-47a7-4307-98fa-35623bb972c2 -> ../../sda6
lrwxrwxrwx 1 root root 11 28 avril 14:19 eecae4ad-c2b5-482a-9020-a6d07235642e -> ../../sda11
lrwxrwxrwx 1 root root 10 28 avril 14:19 f3f90728-d4d6-4430-bd98-7173a2dd6c09 -> ../../sda7
Alors que juste au-dessus, j’ai bien l’UUID de mon volume RAID : UUID : f3ee0d7c:e5d92762:3a8d0f79:a1824ea1
Par contre, avec toutes les manip que j’ai tenté, je me retrouve avec une ligne qui m’étonne dans le fichier de conf de mdadm :
ARRAY /dev/md0 metadata=1.2 spares=1 name=SRVHOME:0 UUID=f3ee0d7c:e5d92762:3a8d0f79:a1824ea1
Avant, j’avais qqch dans ce goût là :
ARRAY /dev/md0 level=raid5 num-devices=3 metadata=00.90 spares=1 UUID=e85e8707:33911834:220e06b2:08863e75
devices=/dev/sdb5,/dev/sdc5,/dev/sdd5,/dev/sde5
et donc, une question, qu’est ce qui fait que le metadata a changé ? 00.90 --> 1.2 ??
Toute idée est la bienvenue 
Par avance merci.


