en particulier, comment savoir si cette partition physique est utilisée?
Est-ce qu’elle est définie dans un volume group. Ce que tu peux vérifier avec la commande pvs
Bonjour,
oui, c’est /dev/nvme1n1p3 , dans le groupe VG0:
PV VG Fmt Attr PSize PFree
/dev/nvme0n1p2 VG0 lvm2 a-- 59,60g 59,60g
/dev/nvme0n1p3 VG0 lvm2 a-- 3,58t 1,61t
/dev/nvme1n1p3 VG0 lvm2 a-- 3,58t 3,58t
J’ai installé le système et commencé à l’utiliser avant d’ajouter ce SSD.
Mais compte tenu de l’alerte sur ces deux SSD, j’aimerais, si c’est sans risque, libérer ce 2e SSD pour le tester, si c’est nécessaire, et peut être le destiner à des sauvegardes plutôt qu’à un système RAID/lvm mirroir, car le risque humain me semble bien supérieur au risque matériel!
Une mauvaise manœuvre de ma part sur mes données est plus probable qu’une panne de SSD, et même dans ce cas, une sauvegarde fera presque le travail.
Quand j’utilise un disque externe pour des sauvegardes, je n’utilise pas LVM, car ça ne présente pas d’intérêt.
Bonjour,
C’est bien ce que je pensais.
Le man de pvremove affiche «A PV cannot be removed from a VG while it is used by an active LV.»
donc cette manœuvre me paraît risquée.
Cependant la commande lvs affiche:
$sudo lvs -a -o name,copy_percent,devices VG0
LV Cpy%Sync Devices
Eric /dev/nvme0n1p3(41721)
Eric /dev/nvme0n1p3(473704)
Local /dev/nvme0n1p3(29801)
Racine /dev/nvme0n1p3(0)
VAR /dev/nvme0n1p3(17881)
Work /dev/nvme0n1p3(59602)
boot /dev/nvme0n1p3(515944)
swap /dev/nvme0n1p3(483944)
qui montre que /dev/ncme1n1 n’est pas utilisé.
Me déconseillez vous de supprimer /dev/ncme1 du groupe de volume ave une commande pvremove?
Si tu veux sortir tes partition du LVM, il faut comprendre que tu vas perdre toutes les données des LV (Logicial Volume) du VG (Volume Group) concerné.
Pour pouvoir supprimer le PV (Physical Volume) il faut le supprimer du VG auquel il appartient. Cela signifie aussi qu’il faut supprimer tous les LV du VG.
Pour supprimer un LV il faut de désactiver avec
lvchange -an <device du lv>
Quand tous tes LV sont désactivés tu les supprimer avec lvremove
Puis tu peux donc faire un vgremove
et enfin un pvremove
Sinon la méthode rapide si cela signifie que tu va tout supprimer, c’est de faire:
# Supprimer toutes les partitions
fdisk --delete /dev/nvme0n1
# Nettoyer les header et autres metadata
dd if=/dev/zero if=/dev/nvme0n1 bs=512 count 1000
je ne veux surtout pas perdre les LV (le système + les données!).
Donc ce que j’envisageai ne semble pas possible.
Mais il m’est venu une autre idée (peut-être loufoque?):
Si j’ai bien compris l’intérêt du «LVM mirror», c’est de pouvoir continuer à travailler avec un disque si l’autre tombe en panne, qu’on peut théoriquement remplacer à chaud.
Ce qui, dans mon esprit, signifie que la fonction mirror (RAID1) distribue automatiquement les LV et leur copie sur les 2 disques physiques.
Si c’est bien ça, ne serait il pas possible de faire en 2 temps:
- créer un mirroir de tous les volumes logiques
- «mettre en panne» le 2e SSD , par exemple avec
fdisk --delete /dev/nvme1n1
et constater que les LV originaux sont indemnes et fonctionnels?
puis repartitionner nvme1n1 sans le remettre dans le VG.
C’est une possibilité. La difficultée c’est que je ne suis pas sur que tu puisses passer d’un LVM classique à un LVM mirror, mais ca vaudrait le coup de regarder
Je pense que c’est possible, par exemple, c’est exposé ici:
## Créer des miroirs LVM
La commande suivante convertit le volume logique linéaire ‘datavg/testlv’ en volume logique miroir :
# lvconvert -m1 datavg/testlv
et plus simplement dans la définition de lvconvert donnée par le WIKI debian:
lvconvert — Convert a Logical Volume from linear to mirror or snapshot.
J’ai aussi trouvé cette page, mais en anglais, dont je lirai la traduction par deepl après cette journée dédiée à d’autres activités sociales.
parfait dans ce cas.
Il faudra bien t’assurer de la position de ta partition LVM ensuite, pour quelles soient sur le bon disque.
j’espère que ce qu’affiche cette commande est sure,
merci