Suis-je en RAID1

Bonjour,

Nouveau dans l’univers Debian (avant j’utilisais Ubuntu server 12.04), j’aimerai poser une question car je n’ai pas trouver de réponse “à mon niveau” :slightly_smiling:

Je loue un serveur chez ovh (kimsufi PS-18) qui, à la base, propose du “RAID” (0 ou 1, je ne sais pas).
J’ai installé Debian 7.13 en ayant formaté le disque depuis l’interface kimsufi (par défaut sans tripoter les partitions).
Ma question est : comment être sur que je bénéficie bien du RAID1 (car j’ai lu ici que c’est mieux dans mon cas - redondance en cas de panne d’un disque).
Voici ma config (sur la base de ce qui est demandé en prélude avant de poster ici :slightly_smiling: :


uname -a = 3.10.23-xxxx-grs-ipv6-64 date… x86_64 GNU/Linux


lspci
00:00.0 Host bridge: Intel Corporation 82G35 Express DRAM Controller (rev 03)
00:02.0 VGA compatible controller: Intel Corporation 82G35 Express Integrated Graphics Controller (rev 03)
00:02.1 Display controller: Intel Corporation 82G35 Express Integrated Graphics Controller (rev 03)
00:19.0 Ethernet controller: Intel Corporation 82566DC Gigabit Network Connection (rev 02)
00:1a.0 USB controller: Intel Corporation 82801H (ICH8 Family) USB UHCI Controller #4 (rev 02)
00:1a.1 USB controller: Intel Corporation 82801H (ICH8 Family) USB UHCI Controller #5 (rev 02)
00:1a.7 USB controller: Intel Corporation 82801H (ICH8 Family) USB2 EHCI Controller #2 (rev 02)
00:1c.0 PCI bridge: Intel Corporation 82801H (ICH8 Family) PCI Express Port 1 (rev 02)
00:1c.1 PCI bridge: Intel Corporation 82801H (ICH8 Family) PCI Express Port 2 (rev 02)
00:1c.2 PCI bridge: Intel Corporation 82801H (ICH8 Family) PCI Express Port 3 (rev 02)
00:1d.0 USB controller: Intel Corporation 82801H (ICH8 Family) USB UHCI Controller #1 (rev 02)
00:1d.1 USB controller: Intel Corporation 82801H (ICH8 Family) USB UHCI Controller #2 (rev 02)
00:1d.2 USB controller: Intel Corporation 82801H (ICH8 Family) USB UHCI Controller #3 (rev 02)
00:1d.7 USB controller: Intel Corporation 82801H (ICH8 Family) USB2 EHCI Controller #1 (rev 02)
00:1e.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev f2)
00:1f.0 ISA bridge: Intel Corporation 82801HB/HR (ICH8/R) LPC Interface Controller (rev 02)
00:1f.2 IDE interface: Intel Corporation 82801H (ICH8 Family) 4 port SATA Controller [IDE mode] (rev 02)
00:1f.3 SMBus: Intel Corporation 82801H (ICH8 Family) SMBus Controller (rev 02)
00:1f.5 IDE interface: Intel Corporation 82801HR/HO/HH (ICH8R/DO/DH) 2 port SATA Controller [IDE mode] (rev 02)
03:00.0 IDE interface: JMicron Technology Corp. JMB368 IDE controller
04:05.0 FireWire (IEEE 1394): LSI Corporation FW322/323 [TrueFire] 1394a Controller (rev 70)


lsusb
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 002 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 003 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub
Bus 004 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub
Bus 005 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub
Bus 006 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub
Bus 007 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub


dmidecode : c’est super long… je ne voudrai pas polluer le forum. Est-ce vraiment utile ? Si oui, je ferai un copier coller.

j’ai fait aussi (grâce au forum ici) et après une ré-installation “par défaut” du manager du kimsufi :

cat /proc/mdstat

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
unused devices:

Une précision : avant la ré-installation, j’avais partionné moi-même le disque (toujours depuis le manager kimsufi) et j’avais ça :
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : active raid1 sdb1[1] sda1[0]
20478912 blocks [2/2] [UU]

md2 : active raid0 sdb2[1] sda2[0]
934755328 blocks 512k chunks

Autres commandes que j’ai utilisé :

cat /etc/fstab

/dev/sda1 / ext4 errors=remount-ro,relatime 0 1
/dev/sda2 /home ext4 defaults,relatime 1 2
/dev/sda3 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
tmpfs /dev/shm tmpfs defaults 0 0
devpts /dev/pts devpts defaults 0 0

et enfin ça :

df -h

Filesystem Size Used Avail Use% Mounted on
rootfs 20G 491M 18G 3% /
/dev/root 20G 491M 18G 3% /
devtmpfs 3.9G 0 3.9G 0% /dev
tmpfs 797M 232K 797M 1% /run
tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs 1.7G 0 1.7G 0% /dev/shm
/dev/sda2 439G 71M 417G 1% /home

Une dernière question: est-il préférable de booter sur le disque de mon serveur ou d’utiliser le netboot d’OVH ?

Merci par avance pour votre aide car je voudrai démarrer mon serveur sur de bonnes bases et si un disque plante, hop!, l’autre prend la relève (si j’ai bien compris le RAI1…).

Bon week-end à tous,
Pierre

[quote]md1 : active raid1 sdb1[1] sda1[0]
20478912 blocks [2/2] [UU]
md2 : active raid0 sdb2[1] sda2[0]
934755328 blocks 512k chunks[/quote]**
Deux raids, un raid1 et un raid0

Merci pour votre réaction.

Après le reformatage/partionnement, j’ai maintenant :

# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] unused devices: <none>

Je ne sais pas si mon serveur est bien en RAID1.

Merci encore.
Pierre

Pas en RAID logiciel du noyau (md) en tout cas.

Après une ré-install en changeant la taille du home depuis le manager kimsufi, j’ai maintenant :

[code]# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : active raid1 sdb1[1] sda1[0]
20478912 blocks [2/2] [UU]

md2 : active raid1 sdb2[1] sda2[0]
467378112 blocks [2/2] [UU]

unused devices: [/code]

On dirait bien que mon serveur Debian est en raid1… (?)

Après j’ai fait :

[code]fdisk -l

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000efbc1

Device Boot Start End Blocks Id System
/dev/sda1 * 4096 40962047 20478976 fd Linux raid autodetect
/dev/sda2 40962048 975718399 467378176 fd Linux raid autodetect
/dev/sda3 975718400 976764927 523264 82 Linux swap / Solaris

Disk /dev/sdb: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00044337

Device Boot Start End Blocks Id System
/dev/sdb1 * 4096 40962047 20478976 fd Linux raid autodetect
/dev/sdb2 40962048 975718399 467378176 fd Linux raid autodetect
/dev/sdb3 975718400 976764927 523264 82 Linux swap / Solaris

Disk /dev/md2: 478.6 GB, 478595186688 bytes
2 heads, 4 sectors/track, 116844528 cylinders, total 934756224 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000

Disk /dev/md2 doesn’t contain a valid partition table

Disk /dev/md1: 21.0 GB, 20970405888 bytes
2 heads, 4 sectors/track, 5119728 cylinders, total 40957824 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000

Disk /dev/md1 doesn’t contain a valid partition table[/code]

Par contre, la phrase “doesn’t contain a valid partition table” m’inquiéte. Ai-je tord ?

Merci pour vos lumières.
Pierre

Maintenant oui, en ce qui concerne / et /home du moins (voir plus bas).

Oui, tu as tort. Tes volumes RAID n’étant pas partitionnés mais utilisés en entier par des systèmes de fichiers, ils ne sont pas partitionnés et n’ont donc pas lieu d’avoir une table de partition.

L’ennui, c’est qu’apparemment le swap n’est pas en RAID donc si un disque claque, toutes les données swappées sur ce disque sont perdues, ce qui est susceptible d’empêcher le serveur de continuer à fonctionner normalement.

Si tu veux passer ton swap en raid1 sans rebouter, fais ceci

swapoff /dev/sda3 swapoff /dev/sdb3 mdadm --create /dev/md3 --level=1 --raid-devices=2 /dev/sda3 /dev/sdb3 mkswap /dev/md3 swapon /dev/md3 mv /etc/mdadm/mdadm.conf /etc/mdadm/mdadm.conf.old /usr/share/mdadm/mkconf > /etc/mdadm/mdadm.conf
puis met à jour /etc/fstab et vérifie par
cat /proc/mdstat

On peut aussi changer le type des partitions de "swap" à "RAID" dans la table de partition avec fdisk ou équivalent pour éviter le risque de confusion à l'avenir.

Et au cas improbable où la RAM disponible ne serait pas suffisante pour absorber le contenu des swaps lors de leur désactivation, il faudrait :

  • soit arrêter des programmes pour libérer assez de mémoire
  • soit créer et activer un fichier de swap temporaire de taille suffisante sur / ou /home le temps de l’opération
  • soit désactiver une des deux partitions de swap, créer le volume RAID avec cette seule partition, créer et activer le swap sur le volume RAID, désactiver l’autre partition de swap, l’ajouter au volume RAID.

Y a t’il vraiment un intérêt à mettre son swap en RAID 1?

J’ai déjà répondu à cette question deux messages plus haut :

Swap pas en RAID = perte du disque -> perte du swap -> perte des données swappées.

Concrètement :

  • Des données d’un service on été swappées. Si ce service a à nouveau besoin de ces données devenues inaccessibles, il est susceptible de planter. Il faut comprendre que perdre un bout de swap c’est équivalent à perdre un bout de RAM, les conséquences sont potentiellement graves.

  • Le contenu d’un système de fichiers tmpfs (/tmp, /run, /dev…) peut être swappé en cas de besoin. Si le swap est perdu, c’est équivalent à une corruption des données swappées du système de fichiers concerné, avec des conséquences potentielles pour tous les programmes qui utilisaient ces données.

Tout cela va à l’encontre de l’objectif du RAID de préserver la disponibilité du service.

En rapport indirect avec ce fil :
Je ne pratique pas et je ne connais pas le “système” ‘RAID x’.
Si ça n’existe pas déjà, je pense qu’il serait intéressant que quelqu’un de compétent nous en fasse un tuto dans T&A.
Avantages/inconvénients
Différents ‘raid’ 1.2.3.4.etc.
Comparaison avec un système de sauvegarde régulier
Coût matériel et/ou abonnements si intermédiaire (OVH, etc.)

Ok je veux bien mais si le swap sert juste à faire une etension de la ram / des fichiers temporaires il suffit de restart les services ou au pire de reboot le serveur non?

Enfin merci pour les explications, je veux être sur de comprendre c’est tout =).

Oui, mais le temps d’intervenir pour redémarrer les services ou la machine, les services impactés sont indisponibles. C’est pourquoi j’écrivais que “cela va à l’encontre de l’objectif du RAID de préserver la disponibilité du service”.

Merci à tous et en particulier à PascalHambourg et Franb. :slightly_smiling: dont les réponses me rassurent et m’aiguillent vers un RAD1 optimisé. Bon je vais essayez de “raidé” le swap :slightly_smiling:

Avant cela, je t’avoue Fran.b que je ne sais pas quoi mettre dans fstab… :blush: (c’est mon 1er serveur Debian et quand j’utilisais Ubuntu server, je ne faisais rien de special à part héberger mon site avec virtuadmin - excellent au passage pour les amateurs comme moi).

J’ai ouvert /etc/fstab avec nano et je vois ça :

# <file system> <mount point> <type> <options> <dump> <pass> /dev/md1 / ext4 errors=remount-ro,relatime 0 1 /dev/md2 /home ext4 defaults,relatime 1 2 /dev/sda3 swap swap defaults 0 0 /dev/sdb3 swap swap defaults 0 0 proc /proc proc defaults 0 0 sysfs /sys sysfs defaults 0 0 tmpfs /dev/shm tmpfs defaults 0 0 devpts /dev/pts devpts defaults 0 0

Je note que tes codes correspondent à ma config hd (sympa!). Si c’est trop compliqué de mettre à jour fstab, behin, je me contenterai d’un reboot le jour de la cata. Mais franchement, j’aimera bien apprendre (et éviter le reboot à 3h du mat…:slightly_smiling:.

Oui, mais le temps d’intervenir pour redémarrer les services ou la machine, les services impactés sont indisponibles. C’est pourquoi j’écrivais que “cela va à l’encontre de l’objectif du RAID de préserver la disponibilité du service”.[/quote]

Pierre

Aparté: Depuis quelques semaines, je suis passé à Debian sur mes 2 portables (un très vieux et un “vieux de 2/3 ans” selon les normes de MicroSoft). J’ai mis un temps fou à choisir l’interface (LXDE finalement au lieu de gnome 3 qui m’a déçu). Ya pas à dire, ça booste et ça ne freeze plus (j’étais sous Ubuntu devenu trop gourmand en ressource, instable et trop de publicité dans la liste des applications). Et c’est d’ailleurs ça qui m’a incité à passer prudemment à Debian (dont l’esprit pur Open Source me poursuit/séduit depuis des années mais je n’osais pas faire le pas).

Quand tu auras réalisé les opérations indiquées par François, il te restera à supprimer une des deux lignes de swap du fstab et remplacer /dev/sd[ab]3 par /dev/md3 dans l’autre.

Waw ! Quelle rapidité. Je vais faire ça. Merci à tous ! Je met “résolu”.

Juste pour info, voici ce que j’obtiens maintenant :

[code]cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md3 : active raid1 sdb3[1] sda3[0]
522944 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[1] sda1[0]
20478912 blocks [2/2] [UU]

md2 : active raid1 sdb2[1] sda2[0]
467378112 blocks [2/2] [UU]

unused devices:
[/code]

Je pense que ça tout bon :slightly_smiling:

Merci encore.

pour vérifier que le nouveau swap sur /dev/md3 est bien activé.

pour vérifier que le nouveau swap sur /dev/md3 est bien activé.

Oui, mais le temps d’intervenir pour redémarrer les services ou la machine, les services impactés sont indisponibles. C’est pourquoi j’écrivais que “cela va à l’encontre de l’objectif du RAID de préserver la disponibilité du service”.[/quote]

Ok merci pour les éclaircissements :slightly_smiling:. Et effectivement dans ce sens, t’as clairement raison.

P.S : désolé d’avoir en rien aider le posteur au départ :stuck_out_tongue:

Bah, en provoquant ma réponse tu l’as peut-être indirectement incité à passer le swap en RAID.