Raid et boot sur 4 disques

Voici la réponse à ma question:

[quote]When creating a RAID5 array, mdadm will automatically create a degraded
array with an extra spare drive. This is because building the spare
into a degraded array is in general faster than resyncing the parity on
a non-degraded, but not clean, array. This feature can be overridden
with the --force option.[/quote]

Maintenant il serait temps d’attaquer la seconde partie: l’installation de LVM.
J’ai vérifié que j’ai bien LVM2.

Je fais:

  1. pvcreate /dev/md0
  2. vgcreate myRaid5LVM /dev/md0
  3. vgscan

A partir de là j’ai besoin de l’aide de @clochette.

J’ai un disque de 1.5Tb sur lequel est installé Debian + des données + des machines virtuelles.
Mon idée est de “copier” intelligemment ce disque dans myRaid5LVM sinon il faudrait tout réinstaller.
Je précise que ce disque ne fera pas partie de mon Raid.

Mon disque de 1.5Tb est configuré par défaut:

[code]Disk /dev/sdb: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders, total 2930277168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0003053b

Device Boot Start End Blocks Id System
/dev/sdb1 * 2048 2882127871 1441062912 83 Linux
/dev/sdb2 2882129918 2930276351 24073217 5 Extended
/dev/sdb5 2882129920 2930276351 24073216 82 Linux swap / Solaris
[/code]

Je vois deux approches:

  1. soit faire 3 volumes loqiques sur myRAID5LVM et copier les 3 partitions du disque 1.5Tb
  2. soit configurer un certain nombre de volumes logiques sur myRAID5LVM et copier des répertoires dedans, c’est la variante “intelligente”.
    A partir de là je suis perdu. Créer avec lvcreate c’est facile mais créer quoi ?
  • une partition /
  • une partition /home
  • une partition /swap
  • etc

Voici un how-to assez complet ma foi :083

http://www.tldp.org/pub/Linux/docs/HOWTO/translations/fr/text/LVM-HOWTO.txt

Sinon l’idée est de déplacer tes volume logique d’un groupe de volume à un autre.

Sachant qu’en générale il y a :

  • la première couche que l’on appelle volume physique autrement = PV pour ‘physical volume’
  • un ou plusieurs groupe de volume = VG pour ‘volume group’ (personnellement j’évite de travailler sans raid avec un VG sur plusieurs disque afin d’éviter la catastrophe en cas de perte d’un disque ce qui n’est pas tyon cas ici)
  • un ou plusieurs volume logique dans chaque groupe de volume = lv pour ‘logical volume’

Le but étant que tu créer un VG dans lequel tu déplacera tes LV initialement construits sur ton précédent système LVM.

Il me semble que ED avait abordé ce type d’opération dans un fil dédié à la maintenance de la machine hébergeant le forum dans la partie ‘forum interne’, j’avais trouvé ça fort instructif à l’époque.

http://www.debian-fr.org/2013-nouveau-serveur-t42669.html?hilit=lvm

Mais tu peu aussi lancé un rsync depuis un chroot le temps de rapatrier les données :033

Non ! le précédent système est ni en Raid ni en LVM.
Je ne suis pas dans le même cas que ed.

Je vais lire tout ça …

On est bien d’accord: pas de /boot en “dehors” du Raid ?
Donc, je peux commencer comme cela:
a) création de 4 lv:
/dev/myRaid5LVM/home /home (lvcreate -L xG -n home myRaid5LVM)
/dev/myRaid5LVM/swap swap (lvcreate -C y -L xG -n swap myRaid5LVM)
/dev/myRaid5LVM/root / (lvcreate -L xG -n root myRaid5LVM)
/dev/myRaid5LVM/boot /boot (lvcreate -L xG -n boot myRaid5LVM)

b) création des filesystems
c) depuis mon disque 1.5Tb:
rsync … /home /dev/myRaid5LVM/home
rsync … /swap /dev/myRaid5LVM/swap
rsync … / /dev/myRaid5LVM/root
rsync … /boot /dev/myRaid5LVM/boot

Ca m’a l’air trop simple pour être juste :blush:

C’est bien ce que je pensais …
J’ai créé mes lv:
root,home,var,swap,boot,usr,tmp
J’ai crée les filesystems:
mkfs.ext4 /dev/myRaid5LVM/root
etc…
Puis j’ai commencé à migrer /home:
a) mkdir /mnt/dest
b) mount /dev/myRaid5LVM/home /mnt/dest
c) rsync -av /home/* /mnt/dest

après 10 minutes, la migration stoppe:

rsync: writefd_unbuffered failed to write 4 bytes to socket [sender]: Broken pipe (32) rsync: write failed on "/mnt/dest/jpc/Downloads/testdisk-6.14/recup_dir.12/f415678472.pyc": No space left on device (28) rsync error: error in file IO (code 11) at receiver.c(322) [receiver=3.0.9] rsync: connection unexpectedly closed (582213 bytes received so far) [sender] rsync error: error in rsync protocol data stream (code 12) at io.c(605) [sender=3.0.9]

Certains disent que c’est un problème d’inodes !?
La commande df i donne:

Alors ? alors ?