Point de montage raid 5 en lecture seule

Bonjour,

J’ai un petit soucis avec le point de montage de mon raid 5 soft (mdadm) que je viens de refaire intégralement il y a de cela quelque jours. (renouvellement des 5 disques)
Il se monte automatiquement en lecture seule a chaque reboot, et je n’en comprends pas la raison. ?
le device concerné est /dev/md1.

Pour info ce serveur est encore sous squeeze.

root@#####:~# cat /proc/mdstat 
Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] 
md1 : active raid5 sdb2[0] sdf2[4] sde2[3] sdd2[2] sdc2[1]
      7806048256 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
      
md0 : active (auto-read-only) raid1 sdb1[0] sdf1[4] sde1[3] sdd1[2] sdc1[1]
      1998836 blocks super 1.2 [5/5] [UUUUU]
      
unused devices: <none>
root@#####:~# mount
/dev/sda1 on / type ext4 (rw,noatime,nodiratime,discard,errors=remount-ro)
tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
proc on /proc type proc (rw,noexec,nosuid,nodev)
sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)
udev on /dev type tmpfs (rw,mode=0755)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620)
tmpfs on /tmp type tmpfs (rw,noatime,nodiratime,mode=1777)
tmpfs on /var/log type tmpfs (rw,noatime,nodiratime,mode=0755)
tmpfs on /var/run type tmpfs (rw,noatime,nodiratime,mode=0755)
tmpfs on /var/lock type tmpfs (rw,noatime,nodiratime,mode=0755)
tmpfs on /media/cache type tmpfs (rw,noatime,nodiratime,mode=0755)
/dev/md1 on /mnt/raid5 type ext4 (rw)

/dev/md1 est bien indiqué rw comme je l’ai explicité dans mon fstab.

root@#####:~# touch /mnt/raid5/test
touch: impossible de faire un touch « /mnt/raid5/test »: Système de fichiers accessible en lecture seulement

un simple remount rw et le périphérique repasse en écriture.

Avez vous une idée ?

Merci.

uname -a umount /mnt/raid5 && fsck /dev/md1 mdadm --detail /dev/md1 dmesg | grep md1?

root@######:~# uname -a
Linux ###### 2.6.32-5-686 #1 SMP Fri May 10 08:33:48 UTC 2013 i686 GNU/Linux
root@######:~# mdadm --detail /dev/md1
/dev/md1:
        Version : 1.2
  Creation Time : Fri Jun 28 21:56:27 2013
     Raid Level : raid5
     Array Size : 7806048256 (7444.43 GiB 7993.39 GB)
  Used Dev Size : 1951512064 (1861.11 GiB 1998.35 GB)
   Raid Devices : 5
  Total Devices : 5
    Persistence : Superblock is persistent

    Update Time : Wed Jul  3 18:21:42 2013
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : #####:1  (local to host #####)
           UUID : 7669a437:5325029c:7167c093:95bfa1be
         Events : 10

    Number   Major   Minor   RaidDevice State
       0       8       18        0      active sync   /dev/sdb2
       1       8       34        1      active sync   /dev/sdc2
       2       8       50        2      active sync   /dev/sdd2
       3       8       66        3      active sync   /dev/sde2
       4       8       82        4      active sync   /dev/sdf2
root@#####:~# dmesg | grep md1
[    7.900545] md: md1 stopped.
[    7.919911] raid5: allocated 5265kB for md1
[    7.921798] raid5: raid level 5 set md1 active with 5 out of 5 devices, algorithm 2
[    7.921862] md1: detected capacity change from 0 to 7993393414144
[    7.923900]  md1:
[    9.643412] EXT4-fs (md1): mounted filesystem with writeback data mode
[  683.175466] JBD: barrier-based sync failed on md1-8 - disabling barriers

Je zappe le fsck sur cette array de 8To opour le moment. Je peux pas la mettre offline pendant plusieurs heures. :blush:

[quote]e2fsck 1.42.5 (29-Jul-2012)
/dev/md1 : propre, 533218/487882752 fichiers, 908341690/1951512064 blocs
[/quote]

J’ai upgrade ma distrib en wheezy, problème toujours présent.
Je vais revenir a un fstab “minimal” pour eviter toute interaction avec mes points de montage bind.
Hésitez pas si vous avez une idée. :think:

Trouvé ! :mrgreen:

Le problème venait bien d’un des mes bind.
Je montais un sous répertoire de mon raid en “bind,ro” pour un utilisateur particulier et cela repassait le point de montage du raid complet en ro…
Je ne saisi pas toute la subtilité de la chose mais le problème est résolu.