Remontage d'un RAID5 après réinstall

Bonjour,

Je viens poster car plus trop le choix ; toutes les tentatives que j’ai pu trouvé sur le sujet ne fonctionnent pas chez moi …

J’avais un volume RAID (mdadm SANS LVM) sur une Etch.5 (4 disques au total dans la grappe dont 1 disque en spare) qui tournait super bien. Tout était pour le mieux dans le meilleur des mondes … jusqu’à la réinstall de mon système, avec un passage sur Squeeze et un noyau 64 bits.

Depuis, c’est à ni rien comprendre ; j’ai correctement redéfini mon volume, il semble bien reconnu

root@SRVHOME:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Thu Apr 28 14:47:23 2011
     Raid Level : raid5
     Array Size : 585952256 (558.81 GiB 600.02 GB)
  Used Dev Size : 292976128 (279.40 GiB 300.01 GB)
   Raid Devices : 3
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Sun May  1 02:21:16 2011
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

           Name : SRVHOME:0  (local to host SRVHOME)
           UUID : f3ee0d7c:e5d92762:3a8d0f79:a1824ea1
         Events : 36

    Number   Major   Minor   RaidDevice State
       0       8       21        0      active sync   /dev/sdb5
       1       8       37        1      active sync   /dev/sdc5
       2       8       53        2      active sync   /dev/sdd5

       3       8       69        -      spare   /dev/sde5

pourtant …

root@SRVHOME:~# mount -t nfs /dev/md0 /data
mount.nfs: remote share not in 'host:dir' format

J’ai appris qu’un changement majeur était apparu sur les nouveaux noyaux … la gestion des disques par UUID !? j’ai cherché de ce côté là, mais en vain…

A côté de ça, je ne retrouve pas mon l’UUID de mon volume le /dev/disk/by-uuid/

root@SRVHOME:~# ls -l /dev/disk/by-uuid/
total 0
lrwxrwxrwx 1 root root 10 28 avril 14:19 06df50e8-3648-44ee-970f-2b5a2e96ac51 -> ../../sda8
lrwxrwxrwx 1 root root 11 28 avril 14:19 089880a7-d89b-4b58-b41a-cd65f114e333 -> ../../sda10
lrwxrwxrwx 1 root root 10 28 avril 14:19 26eea5af-4b8f-410c-b1af-9a8926959e37 -> ../../sda5
lrwxrwxrwx 1 root root 10 28 avril 14:19 82700dc6-10d5-4acf-9fdb-57fb1f21dde5 -> ../../sda1
lrwxrwxrwx 1 root root 10 28 avril 14:19 a34cc302-76df-46da-ab1b-2271ef48d35b -> ../../sda9
lrwxrwxrwx 1 root root 10 28 avril 14:19 c2abe277-47a7-4307-98fa-35623bb972c2 -> ../../sda6
lrwxrwxrwx 1 root root 11 28 avril 14:19 eecae4ad-c2b5-482a-9020-a6d07235642e -> ../../sda11
lrwxrwxrwx 1 root root 10 28 avril 14:19 f3f90728-d4d6-4430-bd98-7173a2dd6c09 -> ../../sda7

Alors que juste au-dessus, j’ai bien l’UUID de mon volume RAID : UUID : f3ee0d7c:e5d92762:3a8d0f79:a1824ea1

Par contre, avec toutes les manip que j’ai tenté, je me retrouve avec une ligne qui m’étonne dans le fichier de conf de mdadm :

ARRAY /dev/md0 metadata=1.2 spares=1 name=SRVHOME:0 UUID=f3ee0d7c:e5d92762:3a8d0f79:a1824ea1

Avant, j’avais qqch dans ce goût là :

ARRAY /dev/md0 level=raid5 num-devices=3 metadata=00.90 spares=1 UUID=e85e8707:33911834:220e06b2:08863e75
devices=/dev/sdb5,/dev/sdc5,/dev/sdd5,/dev/sde5

et donc, une question, qu’est ce qui fait que le metadata a changé ? 00.90 --> 1.2 ??

Toute idée est la bienvenue :wink:
Par avance merci.

oulha pas facile à lire tout ca…
j’ai un nas avec un raid5 donc je connais un peu le sujet. Pour ma part ton montage en raid 5 semble bien reconnu et fonctionnel, ce que je ne comprend pas c’est la facon dont tu veux le monter…

Tu essai de monter une grappe raid 5 en local avec nfs ???
Nfs est pour moi un protocole de partage de disque en réseau…
enfin c’est ce que j’utilise pour monter les disque de mon nas sur mon desktop…

autrement pour monter un partage nfs il faut qu’il soit comme le dit explicitement le message d’erreur au format [host:dir]

soit par exemple chez moi cela donne :

mount -t nfs 192.168.0.100:/raid0/data/mondir[/code]


Edit : je viens de controller sur le mien et tout semble conforme : voici mes deux raid :

Mon raid 5 :
[code]/dev/md0:
        Version : 00.90.02
  Creation Time : Sat Apr 23 22:01:07 2011
     Raid Level : raid1
     Array Size : 1956736 (1911.20 MiB 2003.70 MB)
    Device Size : 1956736 (1911.20 MiB 2003.70 MB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Tue May  3 12:56:07 2011
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0

           UUID : d5a8ebf8:45993afa:c0af65e6:e83471ce
         Events : 0.338426

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync   /dev/sdc1
       3       8       49        3      active sync   /dev/sdd1
       4       8       65        4      active sync   /dev/sde1

[code]/dev/md1:
Version : 00.90.02
Creation Time : Fri Apr 15 22:09:45 2011
Raid Level : raid5
Array Size : 3903103104 (3722.29 GiB 3996.78 GB)
Device Size : 1951551552 (1861.14 GiB 1998.39 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 1
Persistence : Superblock is persistent

Update Time : Tue May  3 03:00:41 2011
      State : clean

Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0

     Layout : left-symmetric
 Chunk Size : 64K

       UUID : e3634f1e:adc643b5:88c50266:7966ed36
     Events : 0.102468

Number   Major   Minor   RaidDevice State
   0       8        2        0      active sync   /dev/sda2
   1       8       18        1      active sync   /dev/sdb2
   2       8       34        2      active sync   /dev/sdc2[/code]

Un simple mount de ces deux volumes ext2 sur un point de montage et tout ok.

Yep,
Merci de t’intéresse à mon problème :wink:

tu vas rire, ou pas ^^
j’ai complètement craqué sur mon type de FS ; c’est du JFS, et non pas NFS comme tu l’as souligné.
sauf que :

root@SRVHOME:~# mount -t jfs /dev/md0 /data
mount: wrong fs type, bad option, bad superblock on /dev/md0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

sinon, quand je recréé mon array et que je tente de monter le volume, voici ce que j’ai en retour dans le dmesg :

[464836.048540] raid5: device sdd5 operational as raid disk 2
[464836.048545] raid5: device sdc5 operational as raid disk 1
[464836.048549] raid5: device sdb5 operational as raid disk 0
[464836.049229] raid5: allocated 3230kB for md0
[464836.050990] 2: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0
[464836.050996] 1: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0
[464836.051000] 0: w=3 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0
[464836.051042] raid5: raid level 5 set md0 active with 3 out of 3 devices, algorithm 2
[464836.051045] RAID5 conf printout:
[464836.051047]  --- rd:3 wd:3
[464836.051050]  disk 0, o:1, dev:sdb5
[464836.051053]  disk 1, o:1, dev:sdc5
[464836.051055]  disk 2, o:1, dev:sdd5
[464836.051103] md0: detected capacity change from 0 to 600015110144
[464836.051544]  md0: unknown partition table
[464859.038751] JFS: nTxBlock = 2967, nTxLock = 23741

le “md0: unknown partition table” n’est pas sans m’inquiéter -_-
Enfin, faut que je retrouve un forum ou qq parlait de recréé l’array jusqu’à trouver le bon ordre des disques …
à 4 disques, ça me fait quelques combinaisons … :angry:

Si tu as une autre idée, je prends quand même !?

effectivement, utiliser du jfs… enfin c’est un choix ^^
Le problème d’ordre de montage des disques est possible.
Elimine le disque de spare lors de la configuration du raid, avec trois disque les combinatoires sont réduites. tu pourra toujours le rajouter par la suite !

EDIT : ordre des disques, on en parle ici :
en.wikipedia.org/wiki/Mdadm
et ici :
linuxquestions.org/questions … er-671016/
la commande serait de cette forme :

Bonjour,
je pense moi aussi que tu as inversé tes disques.
essaie la commande mdam assemble
linux.die.net/man/8/mdadm

Hum, dommage,
je viens de me refaire toutes les combinaisons possibles à grand coups de “mdadm --create …” et rien de plus -_-

Toujours ceci dans le dmesg (quelque soit l’ordre de disques)

[584974.036044]  md0: unknown partition table

Et hélas,

root@SRVHOME:~# jfs_fsck /dev/md0
jfs_fsck version 1.1.12, 24-Aug-2007
processing started: 5/5/2011 8.56.20
Using default parameter: -p
The current device is:  /dev/md0

The superblock does not describe a correct jfs file system.

If device /dev/md0 is valid and contains a jfs file system,
then both the primary and secondary superblocks are corrupt
and cannot be repaired, and fsck cannot continue.

Otherwise, make sure the entered device /dev/md0 is correct.

je commence vraiment à avoir peur pour mes 600Go de données :unamused: :open_mouth:

Une idée :exclamation: :question:
Par avance merci,

et pour mdadm assemble ?