Raid à l'installation

Salut,

Une bonne âme peut-elle m’indiquer la marche suivre pour installer une Debian (fraîche) avec un Raid logiciel ? Désolé pour le manque de subtilité, mais je n’ai pas saisi toutes les options offertes par le Raid…

J’ai sondé le Net toute le journée sans tomber sur LE tuto (même en anglais pas de soucis) qui va bien…
Mon objectif, activer un raid (logiciel) dés l’installation, mais je n’ai rien trouvé dans les options des netinstall ou businesscard pour faire ça…
C’est surement “con” mais je ne suis pas tombé dessus…

Merci d’avance :006

Salut,

Je viens de tester ce tuto dans une lenny “vboxée” et ça fonctionne très bien :exclamation: Je pense même qu’on peut zapper la partie LVM en créant directement des systèmes de fichiers classiques dans la partie 3. du tuto … Mais tant qu’à faire, autant se mettre au LVm :stuck_out_tongue:

En ce moment je m’intéresse beaucoup au raid logiciel car je suis en train de rédiger un T&A dessus. Ce T&A sera de niveau débutant (donc long et détaillé) et ne traitera que d’un cas particulier, à savoir un raid1 de données (donc pas sur le système). J’espère le finir dans la semaine… (oui je fais ça pendant mes heures perdues au boulot :069)

[quote=“SpaTule”]Salut,

Je viens de tester ce tuto dans une lenny “vboxée” et ça fonctionne très bien :exclamation: Je pense même qu’on peut zapper la partie LVM en créant directement des systèmes de fichiers classiques dans la partie 3. du tuto … Mais tant qu’à faire, autant se mettre au LVm :stuck_out_tongue:

En ce moment je m’intéresse beaucoup au raid logiciel car je suis en train de rédiger un T&A dessus. Ce T&A sera de niveau débutant (donc long et détaillé) et ne traitera que d’un cas particulier, à savoir un raid1 de données (donc pas sur le système). J’espère le finir dans la semaine… (oui je fais ça pendant mes heures perdues au boulot :069)[/quote]

Salut,
Merci pour ta réponse. C’est marrant je suis tombé sur le même tuto hier soir…
Ce n’est pas un sujet “simple”… J’ai du mal à m’y retrouver entre le 0/1/5/6/ et 10 par exemple.

Hier j’ai fait une installation et tenté de monter le Raid APRèS… Fiasco et comme je ne comprends pas franchement comment ça s’articule, difficile d’intervenir pour corriger le problème.

Je vais retenter le coup ce matin et essayer la mise ne place du Raid à priori, peut-être plus de chance 8)
Je viens de commencer, il me trouve les “résidus” de mon installation d’hier et détecte le Raid…
A suivre !

Re,

Mon serveur est réinstallé.
Deux partitions, /boot et un volume lvm.
J’ai bien activé le Raid logiciel (Raid1).

Maintenant… Comment être sur que ça fonctionne convenablement :question: (que les données sont écrites sur les deux disques ?) :017

Et comment faire (c’est quand même le but du Raid non ?) pour démarrer sur l’un ou l’autre disque ?
Suffit-il de modifier grub et fstab ? Me proposera-t-il un menu en cas de “failure” sur un des deux disques ? (ce serait bien ça…) :smiley:

salut,

Pour le monitoring tu peux consulter le fichier système /proc/mdstat

Si tu as un truc du genre :

[code]Personalities : [raid1]
read_ahead 1024 sectors
md0 : active raid1 sdb1[0] sdc1[1]
976759936 blocks [2/2] [UU]

unused devices: [/code]

C’est que tout va bien

Note que toi tu aura 2 ensembles raid (md0 et md1) donc cela ne sera pas tout à fait pareil.
L’important ce sont les [UU] qui indiquent que les 2 disques sont clean. Quand il y a un problème tu as un truc du style [U_] ou [_U] suivant le disque qui pose problème.

Tu peux aussi être averti par mail automatiquement (cf man mdadm)

Salut SpaTule,
Merci pour tes réponses.

[code]laurent@lol:~$ cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda2[0] sdb2[1]
487893952 blocks [2/2] [UU]
[=====>…] resync = 29.9% (145912576/487893952) finish=96.3min speed=59157K/sec

md0 : active raid1 sda1[0] sdb1[1]
489856 blocks [2/2] [UU][/code]

Je suppose que tout va bien !
Le resync, c’est parce qu’il est en train de recopier les données de sda2 vers sdb2 ? (je suis en train de faire une grosse installation…)

Ma deuxième question concernait la conduite à tenir en cas de “failure” d’un disque…
Je préfère d’avance savoir que faire… 8)
Une idée sur ce sujet ?

Tu as donc mit ton LVM sur md1 et il fait environ 500Go ?

Tu devrais laisser finir la synchro avant de toucher au système (plus qu’1h30 ! :mrgreen:)
Une fois ta synchro terminée, tu peux générer le fichier de conf de mdadm en tapant la commande suivant :

# mdadm --detail --scan --verbose > /etc/mdadm/mdadm.conf

Pour ce qui est de la maintenance en cas de panne, je connais bien le sujet sur une grappe de données mais pas sur un raid système, donc je ne veux pas m’avancer la dessus.

Si cela se passe de la même façon qu’un raid de données, alors il faut d’abord identifier le disque hs grâce à dmesg et /proc/mdstat ou encore mdadm --detail /dev/md?

Ensuite tu retire les partition avec la commande : (ex avec le disque sdb)

# mdadm /dev/md0 --remove /dev/sdb1
# mdadm /dev/md1 --remove /dev/sdb2

Eteindre la machine, remplacer le disque, recréer les partition sdb1 et sdb2 comme sur l’ancien disque puis faire :

# mdadm /dev/md0 --add /dev/sdb1
# mdadm /dev/md1 --add /dev/sdb2

Attendre ensuite la reconstruction (voir /proc/mdstat et mdadm --detail /dev/md?)
puis pour finir, refaire un :

# mdadm --detail --scan --verbose > /etc/mdadm/mdadm.conf

mais bon, tout ceci à vérifier car il ne s’agit pas du même cas…

Edit : j’ai rectifié mes dires parce que c’était un peu n’importe quoi :unamused:

Re,
Merci beaucoup pour tes explications.

J’ai attendu…
Oui j’ai mis /boot sur md0 et un lvm sur md1

Je vais me documenter à partir de tes explications, il est impératif que je sache exactement quoi faire en cas de soucis.
Je vais peut-être même racheter un disque de 500 Go pour faire un essais de remplacement “anticipé” :smiley:

je fais actuellement des tests dans une lenny virtualisée, je te tiens au jus

Donc je viens de faire pas mal de test :

J’ai virtualisé une install similaire à la tienne, seul la taille des disques et des partoch change, voici les détails :

2 disques de 3GB chacun

Ensemble md0 :
sda1 + sdb1 -> /boot ext3 de 100Mo

Ensemble md1 :
sda2 + sdb2 -> LVM -> swap de 512Mo + / ext3 de 2.5GB

Là, je simule une grosse panne en éteignant la machine virtuelle et en supprimant l’un des deux disques :exclamation:
la machine redémarre normalement, et biensur on trouve dans le /proc/mdstat ceci :

[code]debian-raid:~# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda2[0]
3044224 blocks [2/1] [U_]

md0 : active raid1 sda1[0]
96256 blocks [2/1] [U_][/code]
Le résultat de la commande mdadm --detail /dev/md? renvoi bien State : clean, degraded sur les 2 ensembles, et le disque /dev/sdb qui a disparu.

Dans ce cas, même pas besoin de retirer /dev/sdb des ensembles raid puisqu’il n’y est déjà plus. On éteins la machine, on remet un nouveau disque, et on prépare les partoch pour qu’elles soient identiques à celle de /dev/sda. Pour ce faire, utilisons sfdisk qui permet de recopier fidèlement la table des partitions d’un disque à l’autre :

# sfdisk -d /dev/sda | sfdisk /dev/sdb

Puis on rajoute nos partoch /dev/sdb1 et /dev/sdb2 aux ensembles /dev/md0 et /dev/md1 :

# mdadm /dev/md0 --add /dev/sdb1
# mdadm /dev/md1 --add /dev/sdb2

La reconstruction se passe :

[code]debian-raid:~# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdb2[2] sda2[0]
3044224 blocks [2/1] [U_]
[>…] recovery = 2.4% (74176/3044224) finish=2.0min speed=24725K/sec

md0 : active raid1 sdb1[1] sda1[0]
96256 blocks [2/2] [UU]

unused devices:
[/code]

…une fois terminée, tout devrait être rentré dans l’ordre :stuck_out_tongue: :023

Salut,
Merci infiniment (c’est le minimum) d’avoir pris la peine de faire tout ce boulot…
C’est clair, précis, et… j’aurais dû (et pu) le faire moi-même quand même :blush:
Je te suis redevable, pas sur que j’arrive à te rendre la pareil, mes connaissances étant limitées…
Encore merci !

Mais de rien, et sans le savoir tu m’as déjà aidé, je suis souvent tombé sur des topic où tes contributions m’étaient bénéfiques.

Et puis comme je l’ai déjà dit, si je m’investis autant sur le sujet c’est parce que je prépare un T&A dessus… :mrgreen:

[quote=“SpaTule”]Mais de rien, et sans le savoir tu m’as déjà aidé, je suis souvent tombé sur des topic où tes contributions m’étaient bénéfiques.

Et puis comme je l’ai déjà dit, si je m’investis autant sur le sujet c’est parce que je prépare un T&A dessus… :mrgreen:[/quote]

Re,
Ce sujet débroussaille bien le terrain, ça a fonctionné nickel chez moi ! Je l’ai mis dans mes favoris.
Un T&A sera le bienvenu. Et je sais que tu penseras au Wiki en plus ! :smiley:
Je suis en train de basculer mes confs et base de l’ancien serveur vers le nouveau :023 Ce soir c’est opérationnel !

Pour ce qui est de mes contributions… merci!
Mais je connais mes limites :mrgreen: J’ai raconté pas mal de calembredaines par ici… Je suis autodidacte, mes connaissances sont souvent limitées par un manque de vision d’ensemble (bref, je vais pas raconter ma vie, j’ai un serveur à configurer… :arrow_right: )

Des débutants il y en a plus que tu imagines, et moi le premier… Et c’est pas parce qu’on en fait son métier qu’on en sait plus qu’un autodidacte :exclamation:

Salut,
Je n’ai même pas eu besoin de simuler une panne :mrgreen:

Elle est arrivée toute seule :wink:
J’ai reçu un mail sympa hier…

[quote]This is an automatically generated mail message from mdadm
running on lol.isalo.org

A Fail event had been detected on md device /dev/md1.

It could be related to component device /dev/sdc2.

Faithfully yours, etc.

P.S. The /proc/mdstat file currently contains the following:

Personalities : [raid1]
md1 : active raid1 sda2[0] sdc21
487893952 blocks [2/1] [U_]

md0 : active raid1 sda1[0] sdc1[1]
489856 blocks [2/2] [UU]

unused devices:
[/quote]

Et deux autres ce matin, dans ce style…

[quote]This is an automatically generated mail message from mdadm
running on lol.isalo.org

A DegradedArray event had been detected on md device /dev/md0.

Faithfully yours, etc.

P.S. The /proc/mdstat file currently contains the following:

Personalities : [raid1]
md1 : active raid1 sda2[0]
487893952 blocks [2/1] [U_]

md0 : active raid1 sda1[0]
489856 blocks [2/1] [U_]

unused devices:
[/quote]

Y’a plus qu’a racheter un disque… :unamused:

J’ai tout de même une petite question…
Faut-il que ce soit un disque rigoureusement identique (même marque, modèle, etc.) ou simplement même capacité et même nappe (SATA en l’occurence) ?

Intéressant ! Enfin pas très cool mais intéressant quand même :stuck_out_tongue:

Tu n’es pas obligé de récupérer un disque de même marque/modèle ni même de même taille. La seule contrainte est évidemment d’avoir un disque suffisamment gros pour répliquer celui qui est sain ; donc un disque de taille = ou > à l’autre.

Je trouve étrange quand même que ton disque sdc ait tenu si peu. Il était neuf ou pas ?.. Il serait intéressant de savoir si le disque a vraiment un problème avant de le désigner comme coupable. Car il se peut aussi que ce soit le système (mdadm, lvm, debian, ou autre) qui ait posé problème.

POur vérifier que le disque fonctionne ou pas je ferais ceci

1- Le démonter de l’ensemble raid et effacer sa table des partitions avec fdisk (option “o”)

2- Utiliser “shred” pour écrire n’importe quoi sur l’intégralité du disque et voir si ça se passe sans erreur :

(-f pour forcer, -v pour bavard, -z pour faire une dernière passe avec des zeros partout, -n pour le nombre de passes)
C’est assez long… Et si la commande shred se passe sans encombre je pense que ton disque est sain.

3- Redemarre un ptit coup ça fera pas de mal (oui je sais c’est très windozien tout ça mais bon…)

4- Ton disque /dev/sdc est donc complètement vierge, copies la table des partoch de sda sur sdc

5- Ajoute sdc1 à ton ensemble md0 (/boot)

Et attends que la synchro soit faite avant de continuer (cat /proc/mdstat). Ca devrait être “rapide”, /boot est pas très gros.

6- Ajoute sdc2 à ton ensemble md1 (le système avec le LVM et compagnie)

La par contre ça va être long…

Si ton disque est vraiment mort, alors procure toi un nouveau disque et fais tout ça à partir de l’étape 4

Bonne chance

Salut,

Merci pour les infos.
Non le disque n’était pas neuf… environ 4 ans, et il a bien travaillé.
J’ai commandé un disque neuf, il arrive demain. Je n’ai pas envie de prendre de risques.
J’en profite pour passer ma propre bécane en Raid, j’en suis tellement content que je vais généraliser… Je ne comprend pas pourquoi je n’avais pas fait ça avant…
J’ai fait un essai avec une VM d’un Raid1 sous SID, pas de problèmes !
Le disque qui m’a fait des misères je vais le remettre à zéro et le passer à la moulinette secteur/secteur. Il n’est peut-être pas complètement foutu et pourra peut-être encore servir, mais pas pour des données importantes…

:006

Pour redonner vie à des disques qui semblent mort j’utilise HDD regenerator sur le cd hiren’s. Il m’a permis plusieurs fois de ressusciter des disques afin de faire une image de celui ci pour ensuite le laisser mourir tranquillement…

euh… :107 Je viens de mettre en pratique dans une VM mes précédentes instructions concernant ton problème et ma patoch boot ne boot plus :013 Plus de grub, plus rien, un prompt underscore et c’est tout ! :108 Pourtant tout c’était bien passé la fois d’avant en supprimant complètement le disque… Je comprend pas trop là… Donc fais gaffe à toi, je voudrais pas que ça te fasse la même. Mais je soupçonne grandement quand même un problème lié à la virtualisation (lenny sous vmware sous win2k :unamused:)

Salut,

Dans quel paquet Debian est cachée la commande shred :slightly_smiling: