Plusieurs RAID avec mdadm ?

Hello !

J’inaugure mon premier message sur ce forum, je remercie d’avance les personnes qui prendront le temps de le lire et d’y répondre.

Je monte actuellement un serveur sous proxmox (debian 6) avec comme configuration :

2x SSD 256go -> RAID 1 (qui me sert à hoster mes VM)
3x4 HDD 4to -> RAID 5 (qui va me permettre de partager mes 8To (enfin 7) de stockage sur une vm OpenMediaVault)

J’ai réussi à configuré le raid 1 logiciel sous mdadm sans trop de soucis… mais je n’arrive pas à faire cohabiter les 2 raids (raid 1 et raid 5 donc). J’ai d’abord configuré mon raid1 en ligne de commande (avec succès) et j’ai ensuite ajouté mon raid5 via webmin.

Suite à cela pas moyen de boot, il me montait uniquement mon raid5 au démarrage (et je me suis amusé à édité le fstab/mdadm.conf/grub). Du coup pour faire un contre essai j’ai tout viré & réinstallé puis configuré mes 2 raids via webmin, mais dès que je reboot mon serv la config saute et je me retrouve avec 1 seul raid.

Du coup je me actuellement entrain de me demander si mon montage est possible (je recherche en même temps sur le fofo mdadm) ou si je suis juste une brèle…

Si quelqu’un peut m’éclaircir je suis preneur.

Merci encore de m’avoir lu.

Etienne.

Bonjour,
mdadm permet de gérer plusieurs grappes RAID sans soucis.
Dans ton ca, ce n’est pas clair ce qui pose probléme:

  • la gestion de 2 RAID ?
  • le boot sur un des 2 RAIDs ?

[quote=“piratebab”]Bonjour,
mdadm permet de gérer plusieurs grappes RAID sans soucis.[/quote]

Ok j’en ai donc le coeur net, c’est moi qui ai mal config alors.

Bah je cherche simplement à faire un raid1 avec mon debian dessus sur mes 2 SSD et un raid5 avec mes 3 HDD pour mon stockage mais je pense que le soucis vient de moi je vais encore m’acharner pour trouver la solution.

Le seul moment ou ça marchait à moitié c’est quand mon debian se lancait, montait le raid5, mais pas le raid1 avec debian donc pas de boot (mais si je le montait manuellement avec mdadm --assemble --scan il était reconnu)

Merci pour ta réponse :slightly_smiling:

Suggestion :
Le problème viendrait-il de webmin?

Essaye de faire tes 2 raids en CLI, histoire de vérifier, non ? :slightly_smiling:

perso je n’ai testé qu’avec un RAID, mais quand je lis le man:

[quote]Name

mdadm - manage MD devices aka Linux Software RAID
Synopsis

mdadm [mode] [options] [/quote]

Si il faut préciser le c’est bien qu’il peux en gérer plusieurs …

Salut !
T’as pas un warning au boot ?
Qu’as tu dans /etc/fstab ?
Qu’as tu dans /etc/mdadm/mdadm.conf ?

Il faut que ces 2 fichier soient correctement renseignés.

Pour fstab, tu dupliques la ligne de md0 avec md1

Si mdadm.conf n’est pas renseigné avec ton md1 => mdadm -Es pour récupérer les uid et si tu veux pas te faire chier

@Kristy : C’est justement la question que je me posais… et je pense que oui, je vais tester tout en cli demain
@Piratebab : Merci de re-confirmer qu’il gère bien plusieurs raid. Ça me semblais logique mais vu l’erreur que j’ai eu je me posais la question

@Swoosh : après avoir monté mon raid 1 avec mdadm et ensuite mon raid5 avec webmin en effet j’avais un message d’erreur (au boot) qui m’expliquait qu’il arrivait a monter md2 (raid5) mais le boot n’était pas trouvable (forcément car en fait le raid1 ne se montait pas automatiquement) du coup j’étais bloqué dans le mode initramfs
J’avais tout déclaré dans fstab/mdadm.conf je n’ai plus la config exacte en tête mais d’après mes recherches sur internet c’était refait proprement. En live CD avec un --assemble --scan les 2 se montaient sans soucis.

J’ai suivi un tuto pour monter mon raid 1 et le mec désactive le uuid dans grub, bonne ou mauvaise idée ? (http://boffblog.wordpress.com/2013/08/22/how-to-install-proxmox-ve-3-0-on-software-raid/)

Je pense tenir mon coupable (webmin) demain je formate et je refais tout en ligne de commande (mon raid 1 et mon raid5) je reviendrai vous donner mes résultats.

Merci de vous donner du mal pour répondre a mes questions de novice, je suis particulièrement attaché a l’open source malgré certaines difficultés d’administration (ça fait parfois peur) mais en persistant (et avec de l’aide) on arrive toujours à ses fins :wink:

Bon… après plusieurs jours de tests (et une bonne douzaine de réinstallations) j’ai trouvé l’origine d’un de mes problèmes.

Entre chaque re-installation & création d’array je ne “formatais” pas correctement mes disques, du coup après une installation toute fraîche il me gardait en mémoire la config de la distri installée précédemment… c’est pour ça que dès que j’installais MDADM sur ma distri toute fraiche bah il reprennait les vieilles config raid pas écrasées par le formatage… je ne savais pas. Pourtant sous gparted j’avais supprimé toutes les partitions mais ça doit venir de la structure du disque directement.

Du coup avec une installation complètement propre (j’ai fais un SSD erase sur mes 2 disques) le raid 1 fonctionne (par contre si je débranche un disque et que je boot en dégradé puis reboot avec les 2 branchés, j’ai le droit à md0 md1 md126 md127 je suis obligé de remettre mes partition manuellement dans la grappe qui fait défaut pour qu’il puisse re-synchroniser.

J’attaque le raid5 maintenant.

Tu mets bien à jour ton fichier de config mdadm.conf à la fin de tes manips fait un :

et regarde si le résultat se retrouve bien dans ton fichier /etc/mdadm/mdadm.conf, par exemple cela peut donner ceci :

....
ARRAY /dev/md1 metadata=0.90 UUID=8fef8545:c09d4250:a4d2adc2:26fd5302
ARRAY /dev/md3 metadata=0.90 UUID=eddf3994:bb6f6020:a4d2adc2:26fd5302
ARRAY /dev/md4 metadata=1.2 UUID=0d572bb8:078435c9:d71e395e:e1b4a531
ARRAY /dev/md5 metadata=1.2 UUID=53678a0a:06480190:f0de6dc2:7bd3f3f7

Ouaip de ce côté la pas de soucis :slightly_smiling:

C’est juste après déconnexion d’un disque & reboot (quand je me retrouve avec md12X), pour qu’il puisse re-synchro je dois faire un

[quote]mdadm --add /dev/sdbX /dev/mdX
mdadm --add /dev/sdaX /dev/mdX[/quote]

Et ensuite il refait la synchro sans problème. Bon c’est vraiment pas un problème ça pour le moment mais si quelqu’un à déjà eu le cas je suis preneur ^^

/proc/mdstat

[quote]md1 : active raid1 sda2[2] sdb2[1]
233774912 blocks super 1.2 [2/2] [UU]

md0 : active raid1 sda1[2] sdb1[1]
522944 blocks super 1.2 [2/2] [UU][/quote]

/etc/fstab

[quote]/dev/pve/root / ext3 errors=remount-ro 0 1
/dev/pve/data /var/lib/vz ext3 defaults 0 1
/dev/md0 /boot ext3 defaults 0 1
/dev/pve/swap none swap sw 0 0
proc /proc proc defaults 0 0
[/quote]

/etc/mdadm/mdadm.conf

J’vais faire mon raid5 en CLI maintenant :slightly_smiling:

Hello !

Je déterre mon topic car j’ai trouvé la solution, si ça peut aider certaines personnes.

Rapide résumé du problème :

Création du raid1 (sur 2x250gb ssd) en ligne de commande puis reboot -> ça marche, installation de webmin et création d’un raid5 (sur 3x4TO HDD) via l’interface de webmin -> création ok, reboot -> bloqué dans initramfs, le raid5 est reconnu mais pas le RAID1 (donc pas de boot)

En fait quand j’ai crée mon raid5 via l’interface de webmin, dans mdadm.conf il rajoute l’option “DEVICE” (qui est commentée par défaut). Il est plus simple de laisser cette option commentée car par défaut il scanne toutes les partitions (sda1/sdb1/sdc1/sdd1/sde1 dans mon cas) pour ensuite monter le raid.

Du coup j’avais une ligne DEVICE sdc1/sdd1/sde1, il scannait donc uniquement mes partitions intégrées dans le raid5 et pas dans le raid1…

Etant bloqué dans le initramfs, j’ai monté manuellement mon raid1 + mes LVM, j’ai réussi à boot, j’ai virer la ligne DEVICE de mdadm.conf. Pour refaire un mdadm.conf propre j’ai lancé un

mdadm --detail --scan >> /etc/mdadm/mdadm.conf

suivit d’un

update-initramfs -u

Et maintenant tout fonctionne correctement :mrgreen:

merci pour ce retour.
Si c’est OK, tu peux mettre la coche verte.