Mise en place d'un RAID 5 avec 4 HDD

euh au fait une fois trouver et installé sur le serveur via le ssh, je le retrouve comment ?
je peux le faire via le ssh ?

merci

"DL un log"
Pardon ?

"reformater/repartitionner"
Seulement repartitionner.

"je choisis quel format ? ext3 ?"
Ça dépend du besoin. Mais tu brûles les étapes, cela se fera sur le volume RAID une fois créé, pas sur les disques.

"je le retrouve comment ?"
En exécutant la commande par son nom, comme n’importe quelle commande.

"je peux le faire via le ssh ?"
Bien sûr.

DL = DownLoader = telecharger

donc en ssh gparted ne s’ouvre pas … pas grave j’irais su rle serveur.

alors donc probleme avec le partitionnement qui ne veut pas se faire (j’ai fait une tentative en live)
j’ai pas tres bien lu le rapport d’erreur mais ca veut pas et sur aucun des 4 disques, de plus le pseudo raid que j’ai fait et ce sans apre, ne fait que 6To … Ils sont ou les 6 autres ??? ca me fait 6To et 250 balles qui disparaissent !!!
je suis pas rat, mais y a des limites quand je voulais 8To, je les voulais vraiment !!!

bon je reviendrais pour en reparler

Gparted est une application graphique, il faut faire un export X pour pouvoir l’utiliser par SSH. Sinon il reste les outils en ligne de commande comme parted. Il faut ensuite créer une nouvelle table de partition au format GPT et non MS-DOS, puis une partition de 3 Go.

Autre possibilité : créer le volume RAID directement sur les disques entiers /dev/sd[bcde] sans les partitionner. Dans ce cas il vaudrait mieux effacer le MBR auparavant. Et quand je dis “effacer”, ce n’est pas juste créer une table de partition vide, mais un effacement total du MBR avec une commande du type (remplacer sdX par le nom du disque) :

3To, tu veux dire, je présume…

[quote]Autre possibilité : créer le volume RAID directement sur les disques entiers /dev/sd[bcde] sans les partitionner. Dans ce cas il vaudrait mieux effacer le MBR auparavant. Et quand je dis “effacer”, ce n’est pas juste créer une table de partition vide, mais un effacement total du MBR avec une commande du type (remplacer sdX par le nom du disque) :

beh là j’avoue que tu viens de me perdre dans des méandres…
alors pour le MBR, le boot en simplifié pour moi, je veux bien mais quelles seront les conséquences (meme si je n’en vois pas vu que selon moi ce ne sont pas ces disques qui bootent et puis le serveur reste allumé… )

est-ce que tu peux m’expliquer ta commande stp ? (dsl mais j’aime savoir ce que je fais quand je le fais :slightly_smiling: )

en tout cas merci de m’aider (meme si tres dure est la tâche !)

Salut,

dd if=/dev/zero of=/dev/sdX bs=512 count=1

Envoi des zeros sur la disque sdx pour un bloc de taille 512, un seul bloc
Ce qui remet donc à blanc le premier bloc du disque, ce bloc portant le doux nom de MBR pour le disque “booteur”

donc si je prends un disque sdb :

dd if=/dev/zero of=/dev/sdb bs=512 count=1

c’est ça ?
et là donc ca “efface”, ensuite je partitionne ?
par contre fdisk ne prend pas les GPT donc autant que ej passe via Gparted ?? non ?

merci encore :wink:

Ça efface le contenu du MBR, incluant la table de partition “héritée” au format MS-DOS.
Ensuite, comme je l’ai écrit, tu n’es pas obligé de partitionner. Tu peux utiliser les disques entiers pour créer un volume RAID en spécifiant /dev/sd[bcde] au lieu de /dev/sd[bcde]1 dans la commande mdadm.

Si tu veux partitionner, il te faut un outil qui gère le format GPT. Si tu n’as pas de déport X avec ta session SSH, il te faut un outil en ligne de commande comme parted ou GNU fdisk (commande fdisk/cfdisk du paquet gnu-fdisk).

Re,

Et comme Pascal te l’a déjà dit le format GPT a pour code “ee” sous fdisk, qu’il a exprimé sous sa forme hexadécimale 0Xee :slightly_smiling:

je suis passé par parted en ligne de commande et j’ai réussi à mettre les tables de partition des disques en GPT
par contre je crois qu’il me reste un raid dessus de 6To… je ne sais pas trop comment faire

… une dernière chose, je n’arive plus à accéder à mon serveur …

avec un ping sur l’ip du serveur

srait-ce dû au fait que ce matin j’ai installer Debian en dualboot sur mon pc perso et défini une adresse ip autre ? (je ne pense pas mais je ne suis pas expert…

merci a vous

Je ne pense pas non plus. Il va falloir vérifier directement sur le serveur.

fausse alerte, il était éteint (pffff la honte !!! mais la crainte aussi !!!)
je suis pas à coté et donc pas facile de faire des allers-retours !!! vive le téphone !!!

donc pour RAID, je vais essayer de trouver comment virer (si c’est pas déjà fait avec le partitionnement que j’ai fait (si c’en est un du moins)) le raid à 6To md0 et voir avec la méthode de base pour recréer un raid md0 (au pire il me dira qu’il existe déjà…

quelqu’un aurait une ligne de commande juste pour me dire comment mettre un spare avec 4HDD en RAID 5 ? (je n’ai pas réussit a trouver ce schéma encore)

merci en totu cas pour votre patience

Cf. man mdadm.
A la création, pour spécifier qu’un composant est un spare : option -x 1
Sur un ensemble RAID existant, pour ajouter un composant en spare : option -a

je ne vois pas trop comment faire avec-X et -a
j’ai donc retenté avec "mdadm --create /dev/md0 --level=5 --raid-devices=4 spare-devices=1 /dev/sd[bcde]"
je mets “–raid-devices=4 spare-devices=1” car selon moi j’ai 3 disques dans mon RAID et 1 en spare car si j mets 4 raid-devices et 1 spare, il me dit que les devices ne sont pas suffiant…

mais je constate encore des petites erreurs (selon moi toujours en estimant que 75% de 12To fait 8To et non 6To)
sans compter les spare !! entre-autre…

[quote]/dev/md0:
Version : 1.2
Creation Time : Wed Feb 13 18:29:27 2013
Raid Level : raid5
Array Size : 5860530176 (5589.04 GiB 6001.18 GB)
Used Dev Size : 2930265088 (2794.52 GiB 3000.59 GB)
Raid Devices : 3
Total Devices : 4

Persistence : Superblock is persistent

Update Time : Wed Feb 13 18:29:27 2013
      State : [b]clean, degraded[/b]

Active Devices : 2
Working Devices : 4
Failed Devices : 0
Spare Devices : 2

     Layout : left-symmetric
 Chunk Size : 512K

       Name : debian-server:0  (local to host debian-server)
       UUID : ba96ef4e:0d948df3:7eb9582a:1051f50c
     Events : 0

[b]Number   Major   Minor   RaidDevice State
   0       8       16        0      active sync   /dev/sdb
   1       8       32        1      active sync   /dev/sdc
   2       0        0        2      removed

   3       8       64        -      spare   /dev/sde
   4       8       48        -      spare   /dev/sdd[/b][/quote]

et enfin ce tableau que je ne comprends pas

autre méthode en suivant ce tuto http://doc.ubuntu-fr.org/raid_logiciel
mais là je dois dire qu eje n’ai pas spécifié de spare… et je me retrouve avec un raid5 de 9To en partant de 12To sans spare !!! et les 4 HDD sont actifs !! quelqu’un a une idée svp parcce que je ne peux rien avancé sans le support raid…

merci à vous

[quote]ARNING: GPT (GUID Partition Table) detected on ‘/dev/sdb’! The util fdisk doesn
t support GPT. Use GNU Parted.

isk /dev/sdb: 3000.6 GB, 3000592982016 bytes
55 heads, 63 sectors/track, 364801 cylinders
nits = cylinders of 16065 * 512 = 8225280 bytes
ector size (logical/physical): 512 bytes / 4096 bytes
/O size (minimum/optimal): 4096 bytes / 4096 bytes
isk identifier: 0x00000000

Device Boot Start End Blocks Id System
dev/sdb1 1 267350 2147483647+ ee GPT
artition 1 does not start on physical sector boundary.

ARNING: GPT (GUID Partition Table) detected on ‘/dev/sdc’! The util fdisk doesn
t support GPT. Use GNU Parted.

isk /dev/sdc: 3000.6 GB, 3000592982016 bytes
55 heads, 63 sectors/track, 364801 cylinders
nits = cylinders of 16065 * 512 = 8225280 bytes
ector size (logical/physical): 512 bytes / 4096 bytes
/O size (minimum/optimal): 4096 bytes / 4096 bytes
isk identifier: 0x00000000

Device Boot Start End Blocks Id System
dev/sdc1 1 267350 2147483647+ ee GPT
artition 1 does not start on physical sector boundary.

ARNING: GPT (GUID Partition Table) detected on ‘/dev/sdd’! The util fdisk doesn
t support GPT. Use GNU Parted.

isk /dev/sdd: 3000.6 GB, 3000592982016 bytes
55 heads, 63 sectors/track, 364801 cylinders
nits = cylinders of 16065 * 512 = 8225280 bytes
ector size (logical/physical): 512 bytes / 4096 bytes
/O size (minimum/optimal): 4096 bytes / 4096 bytes
isk identifier: 0x00000000

Device Boot Start End Blocks Id System
dev/sdd1 1 267350 2147483647+ ee GPT
artition 1 does not start on physical sector boundary.

ARNING: GPT (GUID Partition Table) detected on ‘/dev/sde’! The util fdisk doesn
t support GPT. Use GNU Parted.

isk /dev/sde: 3000.6 GB, 3000592982016 bytes
55 heads, 63 sectors/track, 364801 cylinders
nits = cylinders of 16065 * 512 = 8225280 bytes
ector size (logical/physical): 512 bytes / 4096 bytes
/O size (minimum/optimal): 4096 bytes / 4096 bytes
isk identifier: 0x00000000

Device Boot Start End Blocks Id System
dev/sde1 1 267350 2147483647+ ee GPT
artition 1 does not start on physical sector boundary.

isk /dev/md0: 9001.8 GB, 9001774350336 bytes
heads, 4 sectors/track, -2097268480 cylinders
nits = cylinders of 8 * 512 = 4096 bytes
ector size (logical/physical): 512 bytes / 4096 bytes
/O size (minimum/optimal): 524288 bytes / 1572864 bytes
isk identifier: 0x00000000

isk /dev/md0 doesn’t contain a valid partition table
oot [~] > mdadm --detail /dev/md0
dev/md0:
Version : 1.2
Creation Time : Wed Feb 13 20:38:31 2013
Raid Level : raid5
Array Size : 8790795264 (8383.56 GiB 9001.77 GB)
Used Dev Size : 2930265088 (2794.52 GiB 3000.59 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Wed Feb 13 20:38:31 2013
State : clean
Active Devices : 4
orking Devices : 4
Failed Devices : 0
Spare Devices : 0

    Layout : left-symmetric
Chunk Size : 512K

      Name : debian-server:0  (local to host debian-server)
      UUID : ecc7427f:bd0e0d37:aef98e20:b0164dd3
    Events : 0

Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
3 8 64 3 active sync /dev/sde
oot [~] >

[/quote]

C’est -x (minuscule), et c’est l’un ou l’autre, selon que le spare est prévu à la création ou ajouté ensuite.

L’option --raid-devices spécifie le nombre de composants actifs, donc ici doit être 3, pas 4. Le nombre de composants listés dans la commande doit correspondre à la somme des composants actifs et spares.

[quote=“kri2sis”]mais je constate encore des petites erreurs (selon moi toujours en estimant que 75% de 12To fait 8To et non 6To)
sans compter les spare !! entre-autre[/quote]
D’où sortent ces 75 % ? Et 12 * 75%, ça fait 9, pas 8 !

Déjà, le spare ne compte pas dans la capacité de l’ensemble ; tant qu’il n’est pas activé il ne participe pas au RAID et ne contient aucune donnée ni redondance. Donc reste 3 composants actifs de 3 To. Sachant qu’en RAID5 on perd (ou plutôt on consomme) l’équivalent de la capacité d’un composant pour la redondance, il reste la capacité de deux composants, soit 2*3 To = 6 To. Ça colle. Au passage la capacité totale est un multiple de la capacité d’un composant. Donc ça ne peut pas être 8 To qui n’est pas un multiple de 3 To.

Quant au statut dégradé et à la présence de deux actifs et deux spares au lieu de trois actifs et un spare, cela doit s’expliquer par la particularité mentionnée dans man mdadm :

Par la suite l’un des spares devrait passer actif.

En revanche je n’ai pas d’explication pour le composant marqué “removed”.

[quote=“kri2sis”]autre méthode en suivant ce tuto doc.ubuntu-fr.org/raid_logiciel
mais là je dois dire qu eje n’ai pas spécifié de spare… et je me retrouve avec un raid5 de 9To en partant de 12To sans spare !!! et les 4 HDD sont actifs !![/quote]
Normal si tu n’as pas spécifié de spare : tu perds l’équivalent de la capacité d’un composant. 12 - 3 = 9.

et bien là je dois dire que tu m’as sacrément aidé !!! :023
et je déconne pas ! donc en définitif mon premier RAID5 dans les derniers deux derniers posts était bon ?
donc si je résume :
le spare, glandouille pendant que les actifs bossent et quand un actifs décède, le spare est déjà pret a repartir sur des bonnes bases et tout au long de la durée de vie du serveur un spare sera là à glander mais pret à jaillir à la moindre défaillance…
et les données des 3 HDD sont partagés entre eux ce qui fait qu’en réalité on perd (en exploitable) 2 disque (dans mon cas) : 1 qui bulle et l’autre qui récupere les données (meme si en fait il bosse en matiere de capacité on ne le considère pas…)
j’ai bon ?
donc pour faire encor eplus de capacité, il me faudrait un 5ème HDD (de meme valeur oui je sais :smiley: )

et bien si c’est cela, je te remercie grandement pour cette explication tres empirique (j’aime l’empirisme !! lol)

merci infiniment, je vais refaire mon RAID et hop on commence a sppeder pour le reste

ps : merci à tout le monde pour la participation également

Oui, je pense.

voici le détail :

[quote]/dev/md0:
Version : 1.2
Creation Time : Thu Feb 14 03:56:30 2013
Raid Level : raid5
Array Size : 5860530176 (5589.04 GiB 6001.18 GB)
Used Dev Size : 2930265088 (2794.52 GiB 3000.59 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Thu Feb 14 04:17:37 2013
      State : clean

Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1

     Layout : left-symmetric
 Chunk Size : 512K

       Name : debian-server:0  (local to host debian-server)
       UUID : d79951f6:773373eb:1c6512af:89c87238
     Events : 2

Number   Major   Minor   RaidDevice State
   0       8       16        0      active sync   /dev/sdb
   1       8       32        1      active sync   /dev/sdc
   2       8       48        2      active sync   /dev/sdd

   3       8       64        -      spare   /dev/sde[/quote]

Ça m’a l’air tout bon.
[size=85](Ceci dit, je n’ai jamais utilisé de RAID5, de spares ni de disques en GPT, donc que vaut mon avis)[/size]