Вы находитесь на странице: 1из 236

Red Hat Enterprise Linux 6

Administration de clusters
Configurer et grer le module complmentaire High Availability

Red Hat Engineering Content Services

Red Hat Enterprise Linux 6 Administration de clusters


Configurer et grer le module complmentaire High Availability

Red Hat Engineering Cont ent Services


docs-need-a-f ix@redhat .com

Note lgale
Copyright 2013 Red Hat, Inc. and others. The text of and illustrations in this document are licensed by
Red Hat under a Creative Commons AttributionShare Alike 3.0 Unported license ("CC-BY-SA"). An
explanation of CC-BY-SA is available at . In accordance with CC-BY-SA, if you distribute this document or
an adaptation of it, you must provide the URL for the original version. Red Hat, as the licensor of this
document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest
extent permitted by applicable law. Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss,
MetaMatrix, Fedora, the Infinity Logo, and RHCE are trademarks of Red Hat, Inc., registered in the United
States and other countries. Linux is the registered trademark of Linus Torvalds in the United States and
other countries. Java is a registered trademark of Oracle and/or its affiliates. XFS is a trademark of
Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries. MySQL
is a registered trademark of MySQL AB in the United States, the European Union and other countries. All
other trademarks are the property of their respective owners. 1801 Varsity Drive Raleigh, NC 27 606207 2 USA Phone: +1 919 7 54 37 00 Phone: 888 7 33 4281 Fax: +1 919 7 54 37 01
Mots-cls
Rsum
Configurer et grer le module complmentaire High Availability dcrit la configuration et la gestion du
module complmentaire High Availability sur Red Hat Enterprise Linux 6.

Table des matires

Table des matires


.Introduction
...............................................................................
1. Conventions d'criture
1.1. Conventions typographiques
1.2. Conventions pour citations mises en avant
1.3. Notes et avertissements
2. Commentaires
.Chapitre
. . . . . . . . .1.
. . Aperu
. . . . . . . . de
. . . la
. . .gestion
. . . . . . . . et
. . .de
. . .la
. . configuration
. . . . . . . . . . . . . . .du
. . .module
. . . . . . . .complmentaire
............
Red
High Availability
1.1. Nouvelles fonctionnalits et fonctionnalits modifies
1.1.1. Nouvelles fonctionnalits et fonctionnalits modifies de Red Hat Enterprise Linux 6.1
1.1.2. Nouvelles fonctionnalits et fonctionnalits modifies de Red Hat Enterprise
Linux 6.2
1.1.3. Nouvelles fonctionnalits et fonctionnalits modifies de Red Hat Enterprise Linux 6.3
1.1.4. Nouvelles fonctionnalits et fonctionnalits modifies de Red Hat Enterprise
Linux 6.4
1.2. Bases de configuration
1.3. Installation du matriel
1.4. Installer le logiciel du module complmentaire Red Hat High Availability

8
8
8
10
11
11
Hat
13
13
13
14
15
15
16
16
17

.Mise
. . . . .. .niveau
. . . . . . .du
. . . logiciel
. . . . . . . .du
. . . module
. . . . . . . . complmentaire
. . . . . . . . . . . . . . . . . Red
. . . . .Hat
. . . .High
. . . . .Availability
............
1.5. Configurer le logiciel du module complmentaire Red Hat High Availability

18
18

.Chapitre
. . . . . . . . .2.
. . Avant
. . . . . . .de
. . . configurer
. . . . . . . . . . . le
. . .module
. . . . . . . .complmentaire
. . . . . . . . . . . . . . . . .Red
. . . . Hat
. . . . High
. . . . . .Availability
.....
(Haute Disponibilit)
2.1. Considrations pour une configuration gnrale
2.2. Matriel compatible
2.3. Activation des ports IP
2.3.1. Activation des ports IP sur des nuds de clusters
2.3.2. Activer le port IP pour luci
2.3.3. Configurer le pare-feu iptables pour autoriser des composants de clusters
2.4. Configurer luci avec /etc/sysconfig/luci
2.5. Configurer l'ACPI pour une utilisation avec des priphriques fence intgrs
2.5.1. Dsactivation de l'ACPI Soft-Off avec la gestion chkconfig
2.5.2. Dsactivation de l'ACPI Soft-Off avec le BIOS
2.5.3. Compltement dsactiver ACPI dans le fichier grub.conf
2.6. Considrations pour la configuration des services HA
2.7. Validation de la configuration
2.8. Considrations pour NetworkManager
2.9. Considrations pour utiliser le disque Quorum
2.10. Module complmentaire Red Hat High Availability et SELinux
2.11. Adresses de multidiffusion
2.12. T rafic de monodiffusion UDP
2.13. Considrations pour ricci
2.14. Configurer des machines virtuelles dans un environnement clusteris

19
19
21
21
21
21
22
23
23
25
25
26
27
29
32
32
34
34
34
34
35

.Chapitre
. . . . . . . . .3.
. . Configurer
. . . . . . . . . . . .le
. . module
. . . . . . . . complmentaire
. . . . . . . . . . . . . . . . . Red
. . . . .Hat
. . . .High
. . . . . Availability
. . . . . . . . . . . .avec
. . . Conga
36
3.1. T ches de configuration
36
3.2. Dmarrage de luci
37
3.3. Contrler l'accs luci
38
3.4. Crer un cluster
39
3.5. Proprits globales du cluster
42
3.5.1. Configurer les proprits gnrales
42

Red Hat Enterprise Linux 6 Administration de clusters

3.5.2. Configurer les proprits du dmon fence


3.5.3. Configuration du rseau
3.5.4. Configurer le protocole d'anneau redondant ( Redundant Ring )
3.5.5. Configuration du disque quorum
3.5.6. Configuration de la journalisation
3.6. Configurer des priphriques fence
3.6.1. Crer un priphrique fence
3.6.2. Modifier un priphrique fence
3.6.3. Supprimer un priphrique fence
3.7. Configurer le fencing pour les membres du cluster
3.7.1. Configurer un priphrique fence unique pour un nud
3.7.2. Configurer un priphrique fence de sauvegarde
3.7.3. Configurer un nud avec une alimentation redondante
3.8. Configurer un domaine de basculement
3.8.1. Ajouter un domaine de basculement
3.8.2. Modifier un domaine de basculement
3.8.3. Supprimer un domaine de basculement
3.9. Configurer les ressources globales du cluster
3.10. Ajouter un service cluster un cluster

43
43
44
44
45
46
47
47
47
48
48
49
49
51
52
53
54
54
55

.Chapitre
. . . . . . . . .4. . .Grer
. . . . . . le
. . .module
. . . . . . . .complmentaire
. . . . . . . . . . . . . . . . .Red
. . . . Hat
. . . . High
. . . . . Availability
. . . . . . . . . . . . avec
. . . . . .Conga
..
4.1. Ajouter un cluster existante l'interface luci
58
4.2. Supprimer un cluster de l'interface luci
58
4.3. Grer les nuds de clusters
58
4.3.1. Redmarrer un nud de cluster
59
4.3.2. Causer un nud de joindre ou quitter un cluster
59
4.3.3. Ajouter un membre un cluster en cours d'excution
60
4.3.4. Supprimer un membre d'un cluster
60
4.4. Dmarrer, arrter, redmarrer et supprimer des clusters
61
4.5. Grer les services High-Availability
62
4.6. Effectuer une copie de sauvegarde et restaurer une configuration Luci
62
.Chapitre
. . . . . . . . .5.
. . Configurer
. . . . . . . . . . . .le
. . module
. . . . . . . . complmentaire
. . . . . . . . . . . . . . . . . Red
. . . . .Hat
. . . . High
. . . . . Availability
. . . . . . . . . . . . avec
. . . la
commande ccs
5.1. Aperu oprationnel
5.1.1. Crer le fichier de configuration du cluster sur un systme local
5.1.2. Afficher la configuration actuelle du cluster
5.1.3. Spcifier les mots de passe ricci avec la commande css
5.1.4. Modifier les composants de la configuration du cluster
5.1.5. Commandes remplaant les paramtres prcdents
5.1.6. Validation de la configuration
5.2. T ches de configuration
5.3. Dmarrage de ricci
5.4. Crer un cluster
5.5. Configuration des priphriques fence
5.6. Rpertorier les priphriques fence et les options de priphriques fence
5.7. Configuration du fencing pour les membres du cluster
5.7.1. Configurer un priphrique fence unique bas sur l'alimentation pour un nud
5.7.2. Configurer un priphrique fence unique bas sur stockage pour un nud
5.7.3. Configurer un priphrique fence de sauvegarde
5.7.4. Configurer un nud avec une alimentation redondante
5.7.5. Supprimer les mthodes et instances fence
5.8. Configurer un domaine de basculement
5.9. Configurer les ressources globales du cluster
5.10. Ajouter un service cluster un cluster
5.11. Rpertorier les services cluster disponibles

58

65
65
66
66
66
67
67
68
68
68
69
70
72
74
74
76
78
82
84
85
87
87
89

Table des matires

5.12. Ressources de machine virtuelle


5.13. Configurer un disque Quorum :
5.14. Diverses configurations de clusters
5.14.1. Version de la configuration du cluster
5.14.2. Configuration de la multidiffusion
5.14.3. Configurer un cluster deux nuds
5.14.4. Journalisation
5.14.5. Configurer le protocole d'anneau redondant ( Redundant Ring )
5.15. Propager le fichier de configuration sur les nuds du cluster
.Chapitre
. . . . . . . . .6.
. . Grer
. . . . . . .le
. . module
. . . . . . . . complmentaire
. . . . . . . . . . . . . . . . . Red
. . . . .Hat
. . . . High
. . . . . Availability
. . . . . . . . . . . . avec
. . . . . .ccs
..
6.1. Grer les nuds de clusters
6.1.1. Causer un nud de joindre ou quitter un cluster
6.1.2. Ajouter un membre un cluster en cours d'excution
6.2. Dmarrer et arrter un cluster
6.3. Diagnostiquer et corriger des problmes dans un cluster

91
92
93
94
94
95
95
96
97
98
98
98
98
98
99

.Chapitre
. . . . . . . . .7.
. . Configurer
. . . . . . . . . . . .le
. . module
. . . . . . . . complmentaire
. . . . . . . . . . . . . . . . . Red
. . . . .Hat
. . . . High
. . . . . Availability
. . . . . . . . . . . . avec
. . . des outils
de ligne de commande
100
7.1. T ches de configuration
101
7.2. Cration d'un fichier de configuration de cluster de base
101
. . . . . . . . . . .de
Exemples
. . .configurations
. . . . . . . . . . . . . . . de
. . . .base
...............................................

103

.La
. . .valeur
. . . . . . .du
. . .consensus
. . . . . . . . . . . pour
. . . . . .totem
. . . . . . dans
. . . . . .un
. . .cluster
. . . . . . . .. deux
. . . . . .nuds
...................
7.3. Configurer le fencing

104
105

.Exemples
. . . . . . . . . .de
. . .configurations
. . . . . . . . . . . . . . . du
. . . .fencing
...............................................
7.4. Configurer les domaines de basculement
7.5. Configurer les services HA
7.5.1. Ajouter des ressources cluster
7.5.2. Ajouter un service cluster un cluster
7.6. Configurer le protocole d'anneau redondant ( Redundant Ring )
7.7. Configurer les options de dbogage
7.8. Vrifier une configuration

106
111
114
115
117
122
123
123

.Chapitre
. . . . . . . . .8.
. . Grer
. . . . . . .le
. . module
. . . . . . . . complmentaire
. . . . . . . . . . . . . . . . . Red
. . . . .Hat
. . . . High
. . . . . Availability
. . . . . . . . . . . . avec
. . . . . .des
. . outils de
ligne de commande
126
8.1. Dmarrer et arrter le logiciel du cluster
126
8.1.1. Dmarrer un logiciel de cluster
126
8.1.2. Arrter un logiciel de cluster
127
8.2. Ajouter ou supprimer un nud
128
8.2.1. Supprimer un nud d'un cluster
128
8.2.2. Ajouter un nud un cluster
131
8.2.3. Exemples de configurations deux nuds et trois nuds
134
8.3. Grer les services High-Availability
137
8.3.1. Afficher l'tat du service HA avec clustat
138
8.3.2. Grer les services HA avec clusvcadm
139
.Considrations
. . . . . . . . . . . . . . . .pour
. . . . .l'utilisation
. . . . . . . . . . . .des
. . . . oprations
. . . . . . . . . . . .Freeze
. . . . . . . .et
. . Unfreeze
....................
8.4. Mettre jour une configuration
8.4.1. Mettre jour une configuration l'aide de cman_tool version -r
8.4.2. Mettre jour une configuration l'aide de scp

14 1
141
141
143

.Chapitre
. . . . . . . . .9.
. . Diagnostiquer
. . . . . . . . . . . . . . . .et
. . corriger
. . . . . . . . .des
. . . . problmes
. . . . . . . . . . . .dans
. . . . . un
. . . cluster
.................
9.1. Les changements de configuration ne prennent pas effet
9.2. Le cluster ne se forme pas

14 6
146
147

Red Hat Enterprise Linux 6 Administration de clusters

9.3. nuds incapables de rejoindre le cluster aprs un clturage (fencing) ou un redmarrage


147
9.4. chec du dmon cluster
148
9.4.1. Capturer le core (cur) de rgmanager lors du runtime.
148
9.4.2. Capturer le core (cur) lorsque le dmon choue
148
9.4.3. Enregistrement d'une session de backtrace gdb
149
9.5. Suspension des services du cluster
149
9.6. Le service cluster ne dmarre pas
150
9.7. chec de la migration des services contrls par le cluster
150
9.8. Chaque nud d'un cluster deux nuds rapporte que le second nud est en panne
150
9.9. nuds clturs sur un chemin d'accs LUN en chec
151
9.10. Le disque quorum n'apparat pas en tant que membre du cluster
151
9.11. Comportement inhabituel des basculements
151
9.12. Le fencing se produit au hasard
151
9.13. La journalisation du dbogage pour le DLM ( Distributed Lock Manager , ou gestionnaire de
verrous distribus) doit tre active
152
.Chapitre
. . . . . . . . .10.
. . . .Configuration
. . . . . . . . . . . . . . SNMP
. . . . . . .avec
. . . . . le
. . .module
. . . . . . . .complmentaire
. . . . . . . . . . . . . . . . .Red
. . . . Hat
. . . . .High
...
Availability
10.1. SNMP et le module complmentaire Red Hat High Availability
10.2. Configurer SNMP avec le module complmentaire Red Hat High Availability
10.3. T ransfrer les interruptions SNMP
10.4. Interruptions SNMP produites par le module complmentaire Red Hat High Availability

153
153
153
154
154

.Chapitre
. . . . . . . . .11.
. . . .Configuration
. . . . . . . . . . . . . . de
. . . .Samba
. . . . . . . en
. . . cluster
......................................
11.1. Vue d'ensemble de CT DB
11.2. Paquetages requis
11.3. Configuration GFS2
11.4. Configuration de CT DB
11.5. Configuration de Samba
11.6. Lancer CT DB et les services Samba
11.7. Utiliser le serveur Samba clusteris

156
156
156
156
158
160
161
161

. . . . . . . . . . . . .des
Paramtres
. . . . priphriques
. . . . . . . . . . . . . . . fence
................................................

162

. . . . . . . . . . . . .des
Paramtres
. . . . ressources
. . . . . . . . . . . . HA
...................................................

184

.Comportement
. . . . . . . . . . . . . . . des
. . . . .ressources
. . . . . . . . . . . .HA
...............................................
C.1. Relations entre parents, enfants, et enfants de mmes parents parmi les ressources
C.2. Ordre de dmarrage des relations de mme parent et ordre des enfants de
ressources
C.2.1. Ordre de dmarrage et d'arrt des ressources enfant types

204

. . . . . . .de
Ordre
. . . dmarrage
. . . . . . . . . . . .de
. . .ressource
. . . . . . . . . . .enfant
. . . . . . . type
.....................................

207

.Ordre
. . . . . .d'arrt
. . . . . . . .des
. . . .ressources
. . . . . . . . . . . .enfants
. . . . . . . . types
.........................................
C.2.2. Ordre de dmarrage et d'arrt de ressources enfant non-types

207
208

. . . . . . .de
Ordre
. . . dmarrage
. . . . . . . . . . . .de
. . .ressources
. . . . . . . . . . . .enfant
. . . . . . . non-types
....................................

208

.Ordre
. . . . . .d'arrt
. . . . . . . .des
. . . .ressources
. . . . . . . . . . . .enfant
. . . . . . . non-types
..........................................
C.3. Hritage, le bloc <ressources>, et la rutilisation des ressources
C.4. Rcupration de dfaillance et sous-arbres indpendants
C.5. Dbogage et testage des services et de l'ordre des ressources

209
209
211
212

.Vrification
. . . . . . . . . . . .des
. . . .ressources
. . . . . . . . . . . .de
. . . service
. . . . . . . . de
. . . cluster
. . . . . . . .et
. . .dlai
. . . . . de
. . . basculement
..................
D.1. Modifier l'intervalle de vrification du statut des ressources
D.2. Appliquer les dlais des ressources

214
214
214

204
205
206

Introduction

. . . . . . . . . des
Rsum
. . . . outils
. . . . . . .de
. . .la
. . ligne
. . . . . .de
. . .commande
..............................................

216

.LVM
. . . . haute
. . . . . . .disponibilit
. . . . . . . . . . . . .(HA-LVM)
.......................................................
F.1. Configurer le basculement HA-LVM avec CLVM (mthode prfre)
F.2. Configurer le basculement HA-LVM avec le T agging (tiquetage)

218
219
220

. . . . . . . . . . . .des
Historique
. . . .versions
................................................................

222

.Index
...............................................................................
A
B
C
D
F
G
I
L
M
N
O
P
Q
R
S
T
V

226
226
229
229
229
229
230
230
230
230
231
231
231
232
232
232
233
233

Red Hat Enterprise Linux 6 Administration de clusters

10

Introduction

Introduction
Ce document fournit des informations sur l'installation, la configuration et la gestion des modules
complmentaires Red Hat High Availability. Les modules complmentaires Red Hat High Availability vous
permettent de connecter un groupe d'ordinateurs (appels des nuds ou des membres) de manire
fonctionner ensemble en tant que cluster. Dans ce document, l'utilisation du mot cluster(s), ou grappe(s),
est utilis en faisant rfrence un groupe d'ordinateurs excutant le module complmentaire Red Hat
High Availability.
Les lecteurs de ce document devraient possder une matrise avance du fonctionnement de Red Hat
Enterprise Linux et comprendre les concepts des clusters, du stockage, et de l'informatique de serveurs.
Pour obtenir plus d'informations surRed Hat Enterprise Linux 6, reportez-vous aux ressources
suivantes :
Guide d'installation Red Hat Enterprise Linux Fournit des informations sur l'installation de Red Hat
Enterprise Linux 6.
Guide de dploiement Red Hat Enterprise Linux Fournit des informations sur le dploiement, la
configuration et l'administration de Red Hat Enterprise Linux 6.
Pour obtenir plus d'informations sur le module complmentaire High Availability et les autres produits qui
y sont lis pour Red Hat Enterprise Linux 6, reportez-vous aux ressources suivantes :
Aperu du module complmentaire High Availability Fournit un aperu de haut niveau du module
complmentaire High Availability.
Administration du gestionnaire de volume logiques (LVM) Fournit une description du gestionnaire
de volumes logiques LVM, y compris des informations sur l'excution de LVM dans un environnement
clusteris.
Global File System 2 : Configuration et administration Fournit des informations sur l'installation, la
configuration et la maintenance de Red Hat GFS2 (Red Hat Global File System 2), qui est inclus dans
le module complmentaire Resilient Storage.
DM Multipath Fournit des informations sur l'utilisation de la fonctionnalit DM Multipath (DeviceMapper Multipath) de Red Hat Enterprise Linux 6.
Administration de l'quilibreur de charges Fournit des informations sur la configuration de
systmes et services de haute performance avec le module complmentaire quilibreur de charges,
un ensemble de composants logiciels fournissant des serveurs virtuels Linux (LVS, de l'anglais
Linux Virtual Server ) pour quilibrer les charges IP sur un ensemble de serveurs rels.
Notes de publication Fournit des informations sur la version actuelle des produits Red Hat.
La documentation sur le module complmentaire High Availability et les autres documents de Red Hat
sont disponibles sous les formats HT ML, PDF et RPM sur le CD Red Hat Enterprise Linux
Documentation et en ligne sur http://docs.redhat.com/docs/en-US/index.html.

1. Conventions d'criture
Ce manuel utilise plusieurs conventions pour souligner l'importance de certains mots ou expressions,
mais aussi en vue d'attirer l'attention sur certains passages d'informations prcis.
Pour les ditions sur support papier et numrique (PDF), ce manuel utilise des caractres issus de
Liberation Fonts. La police de caractres Liberation Fonts est galement utilise pour les ditions HT ML
si elle est installe sur votre systme. Sinon, des polices de caractres alternatives quivalentes sont
utilises. Notez que Red Hat Enterprise Linux 5 et versions suprieures contiennent la police Liberation
Fonts par dfaut.
1.1. Conventions typographiques
Quatre conventions typographiques sont utilises pour attirer l'attention sur certains mots et
expressions. Ces conventions et les circonstances auxquelles elles s'appliquent sont les suivantes.

11

Red Hat Enterprise Linux 6 Administration de clusters

Caractres gras espacem ent fixe


Utilis pour surligner certaines entres du systme, y compris les commandes shell, les noms de
fichiers et les chemins d'accs. galement utilis pour surligner les touches et les combinaisons de
touches. Par exemple :
Pour consulter le contenu du fichier m on_nouvel_ouvrage_littraire qui se situe
dans votre dossier courant, saisissez la commande cat
m on_nouvel_ouvrage_littraire la demande du terminal et appuyez sur Entre
pour excuter la commande.
L'exemple ci-dessus contient un nom de fichier, une commande shell et une touche, tous prsents
sous forme de caractres gras espacement fixe et tous bien distincts grce au contexte.
Les combinaisons de touches se distinguent des touches individuelles par le signe plus , qui
connecte les diffrentes parties de la combinaison. Par exemple :
Appuyez sur Entre pour excuter la commande.
Appuyez sur Ctrl+Alt+F2 pour basculer sur un terminal virtuel.
Le premier exemple prsente une touche particulire sur laquelle appuyer. Le second exemple affiche
une combinaison de touches : un ensemble de trois touches sur lesquelles il faut appuyer
simultanment.
Si le code source est mentionn, les noms de classes, les mthodes, les fonctions, les noms de
variables et les valeurs de retour cites dans un paragraphe seront prsentes comme ci-dessus, en
caractres gras espacem ent fixe. Par exemple :
Les classes de fichiers comprennent le nom de classe filesystem pour les noms de
fichier, file pour les fichiers et dir pour les dossiers. Chaque classe correspond un
ensemble de permissions associes.
Caractres gras proportionnels
Cette convention marque le surlignage des mots ou phrases que l'on rencontre sur un systme,
comprenant des noms d'application, des botes de dialogue textuelles, des boutons tiquetts, des
cases cocher et des boutons d'options mais aussi des intituls de menus et de sous-menus. Par
exemple :
Slectionnez Systme Prfrences Souris partir de la barre du menu principal
pour lancer les Prfrences de la souris. partir de l'onglet Boutons, cliquez sur la
case cocher Pour gaucher puis cliquez sur Ferm er pour faire passer le bouton
principal de la souris de la gauche vers la droite (ce qui permet l'utilisation de la souris par
la main gauche).
Pour insrer un caractre spcial dans un fichier gedit, choisissez Applications
Accessoires T able des caractres depuis la barre du menu principal. Ensuite,
choisissez Recherche T rouver depuis la barre du menu T able des caractres,
saisissez le nom du caractre dans le champ Recherche puis cliquez sur Suivant. Le
caractre recherch sera surlign dans la T able des caractres. Double-cliquez sur
le caractre surlign pour le placer dans le champ T exte copier, puis cliquez sur le
bouton Copier. Vous pouvez dsormais revenir votre document et choisir Modifier
Coller depuis la barre du menu gedit.
Le texte ci-dessus contient des noms d'applications, des noms de menus et d'autres lments
s'appliquant l'ensemble du systme, des boutons et textes que l'on trouve dans une interface
graphique. Ils sont tous prsents sous la forme gras proportionnel et identifiables en fonction du
contexte.

12

Chapitre 1. Aperu de la gestion et de la configuration du module complmentaire Red Hat High Availability

Italique gras espacement fixe ou Italique gras proportionnel


Qu'ils soient en caractres gras espacement fixe ou caractres gras proportionnels, l'ajout de
l'italique indique la prsence de texte remplaable ou variable. Les caractres en italique indiquent la
prsence de texte que vous ne saisissez pas littralement ou de texte affich qui change en fonction
des circonstances. Par exemple :
Pour se connecter une machine distante en utilisant ssh, saisissez ssh nom
d'utilisateur@ domain.name (nom.domaine) aprs l'invite de commande de la console.
Si la machine distante est exem ple.com et que votre nom d'utilisateur pour cette machine
est john, saisissez ssh john@ exam ple.com .
La commande m ount -o rem ount systme de fichiers monte le systme de fichiers
nomm. Ainsi, pour monter /hom e dans le systme de fichiers, la commande est m ount -o
rem ount /hom e.
Pour connatre la version d'un paquet actuellement install, utilisez la commande rpm -q
paquet. Elle vous permettra de retourner le rsultat suivant : version-de-paquet.
Remarquez que les mots en gras italique ci-dessus username (nom d'utilisateur), domain.name
(nom.domaine), file-system (systme de fichiers), package (paquetage), version et release (sortie
commerciale). Chaque mot est un espace rserv au texte, soit pour le texte que vous entrez lors de la
saisie d'une commande, soit pour le texte affich par le systme.
Mis part l'utilisation habituelle de prsentation du titre d'un ouvrage, les caractres italiques indiquent
l'utilisation initiale d'un terme nouveau et important. Ainsi :
Publican est un systme de publication DocBook.
1.2. Conventions pour citations mises en avant
Les sorties de terminaux et les citations de code source sont mis en avant par rapport au texte
avoisinant.
Les sorties envoyes vers un terminal sont en caractres Rom ains espacem ent fixe et
prsentes ainsi :
books
books_tests

Desktop
Desktop1

documentation
downloads

drafts
images

mss
notes

photos
scripts

stuff
svgs

svn

Les citations de code source sont galement prsentes en rom ains espacem ent fixe mais
sont prsents et surligns comme suit :

13

Red Hat Enterprise Linux 6 Administration de clusters

package org.jboss.book.jca.ex1;
import javax.naming.InitialContext;
public class ExClient
{
public static void main(String args[])
throws Exception
{
InitialContext iniCtx = new InitialContext();
Object
ref
= iniCtx.lookup("EchoBean");
EchoHome
home
= (EchoHome) ref;
Echo
echo
= home.create();
System.out.println("Created Echo");
System.out.println("Echo.echo('Hello') = " + echo.echo("Hello"));
}
}

1.3. Notes et avertissements


Enfin, nous utilisons trois styles visuels pour attirer l'attention sur des informations qui auraient pu tre
normalement ngliges :

Note
Une remarque est une forme de conseil, un raccourci ou une approche alternative par rapport
une tche entreprendre. L'ignorer ne devrait pas provoquer de consquences ngatives, mais
vous pourriez passer ct d'une astuce qui vous aurait simplifie la vie.

Important
Les blocs d'informations importantes dtaillent des lments qui pourraient tre facilement
ngligs : des modifications de configurations qui s'appliquent uniquement la session actuelle
ou des services qui ont besoin d'tre redmarrs avant toute mise jour. Si vous ignorez une
case tiquete Important , vous ne perdrez aucunes donnes mais cela pourrait tre source
de frustration et d'irritation.

Avertissement
Un avertissement ne devrait pas tre ignor. Ignorer des avertissements risque fortement
d'entrainer des pertes de donnes.

2. Commentaires
Si vous identifiez une erreur typographique, ou si vous pensez un faon d'amliorer ce manuel, fatesnous en part. Veuillez soumettre un rapport dans Bugzilla (http://bugzilla.redhat.com/bugzilla/) sous le
composant doc-Cluster_Administration.
Assurez-vous de bien mentionner l'identifiant du manuel :
Cluster_Administration(EN)-6 (2013-2-15T16:26)

En mentionnant l'identifiant de ce manuel, nous pouvons voir la version exacte du guide que vous

14

Chapitre 1. Aperu de la gestion et de la configuration du module complmentaire Red Hat High Availability

possdez.
Si vous avez des suggestions pour amliorer la documentation, essayez d'tre aussi prcis que
possible. Si vous avez trouv une erreur, veuillez inclure le numro de la section ainsi que des portions
du texte qui l'entoure afin que nous puissions la retrouver plus facilement.

15

Red Hat Enterprise Linux 6 Administration de clusters

Chapitre 1. Aperu de la gestion et de la configuration du


module complmentaire Red Hat High Availability
Le module complmentaire Red Hat High Availability vous permet de connecter un groupe d'ordinateurs
(appels des nuds ou des membres) pour qu'ils fonctionnent ensemble en tant que cluster. Vous
pouvez utiliser le module complmentaire Red Hat High Availability afin de rpondre vos besoins en
clustering (par exemple, installer un cluster pour partager des fichiers sur un systme de fichiers GFS2
ou installer un basculement de service).

Note
Pour obtenir des informations sur les meilleures pratiques pour dployer et mettre jour des
clusters Red Hat Enterprise Linux l'aide des modules complmentaires High Availability (Haute
disponibilit) et GFS2 ( Red Hat Global File System 2 ), reportez-vous l'article Red Hat
Enterprise Linux Cluster, High Availability, and GFS Deployment Best Practices sur le Portail
client Red Hat l'adresse : . https://access.redhat.com/kb/docs/DOC-40821.
Ce chapitre fournit un rsum des fonctionnalits et mises jour ajoutes au module complmentaire
Red Hat High Availability depuis la publication initiale de Red Hat Enterprise Linux 6, suivi par un aperu
de la configuration et de la gestion du module complmentaire Red Hat High Availability.

1.1. Nouvelles fonctionnalits et fonctionnalits modifies


Cette section rpertorie les fonctionnalits nouvelles et modifies de la documentation du module
complmentaire Red Hat High Availability qui ont t ajoutes depuis la sortie initiale de Red Hat
Enterprise Linux 6.
1.1.1. Nouvelles fonctionnalits et fonctionnalits modifies de Red Hat Enterprise Linux 6.1
Red Hat Enterprise Linux 6.1 inclut la documentation et les mises jour et modifications des
fonctionnalits suivantes :
partir de Red Hat Enterprise Linux 6.1 et ses versions plus rcentes, le module complmentaire
Red Hat High Availability offre maintenant la prise en charge des interruptions SNMP. Pour obtenir
des informations sur la configuration des interruptions SNMP avec le module complmentaire Red
Hat High Availability, reportez-vous au Chapitre 10, Configuration SNMP avec le module
complmentaire Red Hat High Availability.
partir de Red Hat Enterprise Linux 6.1 et ses versions plus rcentes, le module complmentaire
Red Hat High Availability offre maintenant la prise en charge de la commande de configuration du
cluster ccs. Pour obtenir des informations sur la commande ccs, reportez-vous au Chapitre 5,
Configurer le module complmentaire Red Hat High Availability avec la commande ccs et au
Chapitre 6, Grer le module complmentaire Red Hat High Availability avec ccs.
La documentation sur la configuration et la gestion du logiciel du module complmentaire Red Hat
High Availability l'aide de Conga a t mise jour afin de reflter la mise jour des crans Conga
et la prise en charge des fonctionnalits.
Pour Red Hat Enterprise Linux 6.1 et ses versions plus rcentes, l'utilisation de ricci requiert un
mot de passe la premire fois que vous propagerez une configuration de cluster mise jour depuis
n'importe quel nud en particulier. Pour obtenir des informations sur ricci reportez-vous la
Section 2.13, Considrations pour ricci .
Vous pouvez maintenant spcifier une politique d'chec Restart-Disable (Redmarrer-dsactiver)
pour un service, indiquant au systme de tenter de redmarrer le service sa place s'il devait
chouer, et de dsactiver le service si le redmarrage chouait aussi au lieu de le dplacer sur un
autre hte dans le cluster. Cette fonctionnalit est documente dans la Section 3.10, Ajouter un
service cluster un cluster l'Annexe B, Paramtres des ressources HA.
Vous pouvez maintenant configurer un sous-arbre indpendant comme non-critique, indiquant que si

16

Chapitre 1. Aperu de la gestion et de la configuration du module complmentaire Red Hat High Availability

la ressource choue alors seule cette ressource est dsactive. Pour obtenir des informations sur
cette fonctionnalit, voir la Section 3.10, Ajouter un service cluster un cluster et la Section C.4,
Rcupration de dfaillance et sous-arbres indpendants .
Ce document inclut maintenant le nouveau Chapitre 9, Diagnostiquer et corriger des problmes dans
un cluster.
En outre, de petites corrections et clarifications ont t effectues sur le document.
1.1.2. Nouvelles fonctionnalits et fonctionnalits modifies de Red Hat Enterprise Linux 6.2
Red Hat Enterprise Linux 6.2 inclut la documentation et les mises jour et modifications des
fonctionnalits suivantes.
Red Hat Enterprise Linux fournit maintenant du support pour excuter Clustered Samba sous
une configuration active/active. Pour obtenir des informations sur les configurations de Samba
clusteris, reportez-vous au Chapitre 11, Configuration de Samba en cluster.
Mme si tout utilisateur en mesure de s'authentifier sur le systme hbergeant luci peut se
connecter luci, partir de Red Hat Enterprise Linux 6.2, seul l'utilisateur root du systme excutant
luci peut accder tous les composants luci jusqu' ce qu'un administrateur (l'utilisateur root, ou un
utilisateur avec des permissions d'administrateur) dfinisse les permissions pour cet utilisateur.
Pour obtenir des informations sur la dfinition des permissions luci pour les utilisateurs, reportezvous la Section 3.3, Contrler l'accs luci .
Les nuds d'un cluster peuvent communiquer entre eux en utilisant le mcanisme de transport de
monodiffusion UDP. Pour obtenir des informations sur la configuration de la monodiffusion UDP,
veuillez vous reporter la Section 2.12, T rafic de monodiffusion UDP .
Vous pouvez maintenant configurer certains aspects du comportement de luci par le biais du fichier
/etc/sysconfig/luci. Par exemple, vous pouvez configurer spcifiquement l'unique adresse IP
laquelle luci est servi. Pour obtenir des informations sur la configuration de l'unique adresse IP
laquelle luci est servi, reportez-vous au T ableau 2.2, Port IP activ sur un ordinateur excutant
luci . Pour obtenir des informations sur le fichier /etc/sysconfig/luci en gnral, reportezvous la Section 2.4, Configurer luci avec /etc/sysconfig/luci .
La commande ccs inclut maintenant l'option --lsfenceopts, qui imprime une liste des
priphriques fence disponibles, ainsi que l'option --lsfenceopts fence_type, qui imprime
chaque type fence disponible. Pour obtenir des informations sur ces options, reportez-vous la
Section 5.6, Rpertorier les priphriques fence et les options de priphriques fence .
La commande ccs inclut maintenant l'option --lsserviceopts, qui imprime une liste des services
cluster actuellement disponibles pour votre cluster, ainsi que l'option --lsserviceopts
service_type, qui imprime une liste des options que vous pouvez spcifier pour un type de service
particulier. Pour obtenir des informations sur ces options, reportez-vous la Section 5.11,
Rpertorier les services cluster disponibles .
Red Hat Enterprise Linux 6.2 fournit le support pour l'agent fence VMware (interface SOAP). Pour
obtenir des informations sur les paramtres des priphriques fence, reportez-vous l'Annexe A,
Paramtres des priphriques fence.
Red Hat Enterprise Linux 6.2 fournit le support pour l'agent fence RHEV-M REST API, avec RHEV 3.0
et versions plus rcentes. Pour obtenir des informations sur les paramtres des priphriques
fence, reportez-vous l'Annexe A, Paramtres des priphriques fence.
partir de Red Hat Enterprise Linux 6.2, lorsque vous configurez une machine virtuelle dans un
cluster avec la commande ccs, vous pourrez utiliser l'option --addvm (plutt que l'option
addservice). Ceci assure la dfinition correcte de la ressource vm directement sous le nud de
configuration rm dans le fichier de configuration du cluster. Pour obtenir des informations sur la
configuration des ressources de machines virtuelles avec la commande ccs, reportez-vous la
Section 5.12, Ressources de machine virtuelle .
Ce document inclut un nouvel annexe, Annexe D, Vrification des ressources de service de cluster et
dlai de basculement. Cet annexe dcrit comment rgm anager surveille le statut des ressources de
clusters et comment modifier l'intervalle des vrifications de statut. L'annexe dcrit aussi le
paramtre de service __enforce_tim eouts, qui indique qu'un dlai d'inactivit pour une opration

17

Red Hat Enterprise Linux 6 Administration de clusters

causera un service d'chouer.


Ce document inclut une nouvelle section, la Section 2.3.3, Configurer le pare-feu iptables pour
autoriser des composants de clusters . Cette section affiche le filtrage que vous pouvez utiliser
pour autoriser le trafic de multidiffusion travers le pare-feu iptables pour les divers composants
du cluster.
En outre, de petites corrections et clarifications ont t effectues sur le document.
1.1.3. Nouvelles fonctionnalits et fonctionnalits modifies de Red Hat Enterprise Linux 6.3
Red Hat Enterprise Linux 6.3 inclut la documentation, les mises jour et les modifications des
fonctionnalits suivantes :
Red Hat Enterprise Linux 6.3 offre le support de l'agent de ressources condor. Pour obtenir des
informations sur les paramtres de ressources HA, reportez-vous l'Annexe B, Paramtres des
ressources HA.
Ce document inclut maintenant un nouvel annexe, Annexe F, LVM haute disponibilit (HA-LVM).
Les informations prsentes dans ce document clarifient quels sont les changements de configuration
qui requirent le redmarrage d'un cluster. Pour obtenir un rsum de ces changements, reportezvous la Section 9.1, Les changements de configuration ne prennent pas effet .
La documentation souligne maintenant que luci possde dlai d'inactivit qui vous dconnecte aprs
15 minutes d'inactivit. Pour obtenir des informations sur le dmarrage de luci, reportez-vous la
Section 3.2, Dmarrage de luci .
Le priphrique fence fence_ipm ilan prend en charge un paramtre de niveau de privilge. Pour
obtenir des informations sur les paramtres de priphrique fence, reportez-vous l'Annexe A,
Paramtres des priphriques fence.
Ce document inclut maintenant une nouvelle section, Section 2.14, Configurer des machines
virtuelles dans un environnement clusteris .
Ce document inclut maintenant une nouvelle section, Section 4.6, Effectuer une copie de
sauvegarde et restaurer une configuration Luci .
Ce document inclut maintenant une nouvelle section, Section 9.4, chec du dmon cluster .
Ce document fournit des informations sur le paramtrage d'options de dbogage dans la
Section 5.14.4, Journalisation , Section 7.7, Configurer les options de dbogage , et la
Section 9.13, La journalisation du dbogage pour le DLM ( Distributed Lock Manager , ou
gestionnaire de verrous distribus) doit tre active .
partir de Red Hat Enterprise Linux 6.3, l'utilisateur root ou un utilisateur possdant des
permissions d'administrateur luci peut aussi utiliser l'interface luci pour ajouter des utilisateurs au
systme, comme le dcrit la Section 3.3, Contrler l'accs luci .
partir de Red Hat Enterprise Linux 6.3, la commande ccs valide la configuration selon le schma
du cluster de /usr/share/cluster/cluster.rng sur le nud que vous spcifiez avec l'option
-h. Auparavant, la commande ccs utilisait toujours le schma du cluster qui tait empaquet avec la
commande ccs elle-mme, /usr/share/ccs/cluster.rng sur le systme local. Pour obtenir des
informations sur la validation de configuration, reportez-vous la Section 5.1.6, Validation de la
configuration .
Les tableaux dcrivant les paramtres de priphrique fence dans l'Annexe A, Paramtres des
priphriques fence ainsi que les tableaux dcrivant les paramtres de ressources HA dans
l'Annexe B, Paramtres des ressources HA incluent maintenant les noms de ces paramtres comme
ils apparaissent dans le fichier cluster.conf.
En outre, de petites corrections et clarifications ont t effectues sur le document.
1.1.4 . Nouvelles fonctionnalits et fonctionnalits modifies de Red Hat Enterprise Linux 6.4
Red Hat Enterprise Linux 6.4 inclut la documentation, les mises jour et les modifications des
fonctionnalits suivantes :
Red Hat Enterprise Linux 6.4 fournit la prise en charge de l'agent fence du contrleur d'alimentation

18

Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)

rseau Eaton (Interface SNMP), de l'agent fence de HP BladeSystem et de l'agent fence d'IBM iPDU.
Pour obtenir des informations sur les paramtres des priphriques fence, veuillez vous rfrer
l'Annexe A, Paramtres des priphriques fence.
L'Annexe B, Paramtres des ressources HA fournit maintenant une description de l'agent de
ressources du serveur NFS.
partir de Red Hat Enterprise Linux 6.4, l'utilisateur root ou un utilisateur possdant des
permissions d'administrateur luci peut aussi utiliser l'interface luci pour supprimer des utilisateurs
du systme. Ceci est document dans la Section 3.3, Contrler l'accs luci .
L'Annexe B, Paramtres des ressources HA fournit une description du nouveau paramtre
nfsrestart pour les ressources HA GFS2 et le systme de fichiers.
Ce document inclut une nouvelle section, Section 5.1.5, Commandes remplaant les paramtres
prcdents .
Section 2.3, Activation des ports IP inclut maintenant des informations sur le filtrage de igm p sur
le pare-feu iptables.
L'agent fence IPMI LAN prend maintenant en charge un paramtre pour configurer le niveau de
privilges sur le priphrique IPMI, comme document dans l'Annexe A, Paramtres des
priphriques fence.
En outre du mode de liaison Ethernet 1, les modes de liaisons 0 et 2 sont maintenant pris en charge
pour les communications inter-nuds dans un cluster. Des conseils pour les rsolutions de
problmes dans ce document qui vous suggrent de vous assurer que vous utilisez bien
uniquement les modes de liaisons pris en charge ont pris note de cette addition.
Les priphriques baliss VLAN sont maintenant pris en charge pour les communications
cardiaques de cluster. Les conseils des rsolutions de problmes qui indiquaient que ceci n'est pas
pris en charge ont t supprims de ce document.
Le module Red Hat High Availability prend maintenant en charge la configuration du protocole
d'anneau redondant. Pour obtenir des informations gnrales sur l'utilisation de cette fonctionnalit
et sur la configuration du fichier de configuration cluster.conf, reportez-vous la Section 7.6,
Configurer le protocole d'anneau redondant ( Redundant Ring ) . Pour obtenir des informations
sur la configuration du protocole d'anneau redondant avec luci, reportez-vous la Section 3.5.4,
Configurer le protocole d'anneau redondant ( Redundant Ring ) . Pour obtenir des informations
sur la configuration du protocole d'anneau redondant avec la commande ccs, reportez-vous la
Section 5.14.5, Configurer le protocole d'anneau redondant ( Redundant Ring ) .
En outre, de petites corrections et clarifications ont t effectues sur le document.

1.2. Bases de configuration


Pour paramtrer un cluster, vous devez connecter les nuds certains matriaux du cluster et
configurer les nuds dans l'environnement du cluster. Configurer et grer le module complmentaire
Red Hat High Availability consiste des tapes de base suivantes :
1. Installation du matriel. Reportez-vous la Section 1.3, Installation du matriel .
2. Installation du logiciel du module complmentaire Red Hat High Availability. Reportez-vous la
Section 1.4, Installer le logiciel du module complmentaire Red Hat High Availability .
3. Configuration du module complmentaire Red Hat High Availability. Reportez-vous la Section 1.5,
Configurer le logiciel du module complmentaire Red Hat High Availability .

1.3. Installation du matriel


L'installation du matriel consiste en la connexion des nuds du cluster au reste du matriel requis
pour excuter le module complmentaire Red Hat High Availability. La quantit et le type de matriel varie
selon le but et les pr-requis disponibles du cluster. T ypiquement, un cluster de niveau entreprise
requiert le type de matriel suivant (reportez-vous la Figure 1.1, Aperu du matriel du module
complmentaire Red Hat High Availability ). Pour voir les considrations prendre en compte sur le
matriel et les autres sujets de proccupation de configuration du cluster, reportez-vous au Chapitre 2,

19

Red Hat Enterprise Linux 6 Administration de clusters

Avant de configurer le module complmentaire Red Hat High Availability (Haute Disponibilit) ou vrifiez
avec un reprsentant autoris de Red Hat.
Nuds de cluster Ordinateurs capables d'excuter le logiciel Red Hat Enterprise Linux 6, avec au
moins 1Go de RAM.
Commutateur ou concentrateur Ethernet pour rseau public Ceci est requis pour que le client
puisse accder au cluster.
Commutateur ou concentrateur Ethernet pour rseau priv Ceci est requis pour la communication
entre les nuds du cluster et le reste du matriel du cluster, comme les commutateurs d'alimentation
rseau et les interrupteurs Fibre Channel.
Commutateur d'alimentation du rseau Un commutateur d'alimentation du rseau est recommand
pour effectuer le fencing dans un cluster de niveau entreprise.
Commutateur Fibre Channel Un commutateur Fibre Channel fournit l'accs au stockage Fibre
Channel. D'autres options sont disponibles pour le stockage selon le type d'interface de stockage,
iSCSI par exemple. Un commutateur Fibre Channel peut tre configur de manire effectuer le
fencing.
Stockage Un certain type de stockage est requis pour un cluster. Le type requis dpend du but du
cluster.

Figure 1.1. Aperu du matriel du module complmentaire Red Hat High Availability

1.4. Installer le logiciel du module complmentaire Red Hat High


Availability
Pour installer le logiciel du module Red Hat High Availability, vous devez possder des droits d'accs au
logiciel. Si vous utilisez l'interface utilisateur graphique luci, vous pouvez la laisser installer logiciel du
cluster. Si vous utilisez d'autres outils pour configurer le cluster, veuillez installer et scuriser le logiciel
comme vous le feriez avec d'autres logiciels Red Hat Enterprise Linux.

20

Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)

Vous pouvez utiliser la commande yum install pour installer les paquetages des logiciels du module
complmentaire Red Hat High Availability :
# yum install rgmanager lvm2-cluster gfs2-utils

Remarque qu'installer rgm anager uniquement tlchargera toutes les dpendances ncessaires pour
crer un cluster HA depuis le canal HighAvailability. Les paquetages lvm 2-cluster et gfs2-utils
font partie du canal ResilientStorage et pourraient ne pas tre ncessaires sur votre site.

Mise niveau du logiciel du module complmentaire Red Hat High


Availability
Il est possible de mettre niveau le logiciel du cluster sur une version majeure de Red Hat Enterprise
Linux sans sortir le cluster de la production. Ce faire requiert de dsactiver le logiciel du cluster sur un
hte la fois, de mettre le logiciel niveau, puis de le redmarrer sur cet hte.
1. teignez tous les services du cluster sur un seul nud de cluster. Pour obtenir des instructions
sur l'arrt du logiciel du cluster sur un nud, reportez-vous la Section 8.1.2, Arrter un logiciel
de cluster . Il peut tre dsirable de dplacer manuellement les services grs par le cluster et
les machines virtuelles hors de l'hte avant d'arrter rgm anager.
2. Veuillez excuter la commande yum update pour mettre jour les paquetages installs.
3. Redmarrez le nud du cluster ou redmarrez les services du cluster manuellement. Pour
obtenir des instructions sur le dmarrage du logiciel du cluster sur un nud, reportez-vous la
Section 8.1.1, Dmarrer un logiciel de cluster .

1.5. Configurer le logiciel du module complmentaire Red Hat High


Availability
Configurer le logiciel du module complmentaire Red Hat High Availability consiste en l'utilisation d'outils
de configuration pour spcifier les relations entre les composants du cluster. Les outils de configuration
du cluster suivants sont disponibles avec le module complmentaire Red Hat High Availability :
Conga Interface utilisateur complte pour l'installation, la configuration et la gestion du module
complmentaire Red Hat High Availability. Reportez-vous au Chapitre 3, Configurer le module
complmentaire Red Hat High Availability avec Conga et au Chapitre 4, Grer le module
complmentaire Red Hat High Availability avec Conga pour obtenir des informations sur la
configuration et la gestion du module complmentaire High Availability avec Conga.
La commande ccs Cette commande configure et gre le module complmentaire Red Hat High
Availability. Reportez-vous au Chapitre 5, Configurer le module complmentaire Red Hat High
Availability avec la commande ccs et au Chapitre 6, Grer le module complmentaire Red Hat High
Availability avec ccs pour obtenir des informations sur la configuration et la gestion du module
complmentaire High Availability avec la commande ccs.
Outils de ligne de commande Ensemble d'outils de ligne de commande pour la configuration et la
gestion du module complmentaire Red Hat High Availability. Reportez-vous au Chapitre 7,
Configurer le module complmentaire Red Hat High Availability avec des outils de ligne de
commande et au Chapitre 8, Grer le module complmentaire Red Hat High Availability avec des
outils de ligne de commande pour obtenir des informations sur la configuration et la gestion d'un
cluster avec des outils de ligne de commande. Reportez-vous l'Annexe E, Rsum des outils de la
ligne de commande pour obtenir un rsum des outils de ligne de commande prfrs.

Remarque
system -config-cluster n'est pas disponible dans Red Hat Enterprise Linux 6.

21

Red Hat Enterprise Linux 6 Administration de clusters

Chapitre 2. Avant de configurer le module complmentaire Red


Hat High Availability (Haute Disponibilit)
Ce chapitre dcrit les tches effectuer et les considrations prendre en compte avant de procder
l'installation et la configuration du module complmentaire Red Hat High Availability. Ce chapitre est
compos des sections suivantes.

Important
Assurez-vous que le dploiement du module complmentaire Red Hat High Availability
correspond bien vos besoins et peut tre pris en charge. Consultez un reprsentant autoris
de Red Hat pour vrifier votre configuration avant de la dployer. En outre, prvoyez
suffisamment de temps pour une priode de rodage de la configuration afin de tester les
diffrents modes d'chec.
Section 2.1, Considrations pour une configuration gnrale
Section 2.2, Matriel compatible
Section 2.3, Activation des ports IP
Section 2.4, Configurer luci avec /etc/sysconfig/luci
Section 2.5, Configurer l'ACPI pour une utilisation avec des priphriques fence intgrs
Section 2.6, Considrations pour la configuration des services HA
Section 2.7, Validation de la configuration
Section 2.8, Considrations pour NetworkManager
Section 2.9, Considrations pour utiliser le disque Quorum
Section 2.10, Module complmentaire Red Hat High Availability et SELinux
Section 2.11, Adresses de multidiffusion
Section 2.12, T rafic de monodiffusion UDP
Section 2.13, Considrations pour ricci
Section 2.14, Configurer des machines virtuelles dans un environnement clusteris

2.1. Considrations pour une configuration gnrale


Vous pouvez configurer le module complmentaire Red Hat High Availability de diffrentes manires afin
de mieux correspondre vos besoins. Prenez en compte les considrations gnrales suivantes
lorsque vous planifiez, configurez et implmentez votre dploiement.
Le nombre de nuds de cluster pris en charge
Le nombre maximum de nuds de cluster pris en charge par le module complmentaire High
Availability (Haute Disponibilit) est 16.
Clusters de site unique
Seuls les clusters pour site unique sont entirement pris en charge l'heure actuelle. Les
clusters s'talant sur de multiples emplacements physiques ne sont pas officiellement pris en
charge. Pour obtenir plus de dtails et discuter des clusters sur de multiples sites, veuillez
consulter votre reprsentant du support ou des ventes Red Hat.
GFS2
Mme si un systme de fichiers GFS2 peut tre implment sur un systme autonome ou en
tant que partie d'une configuration de cluster, Red Hat ne prend pas en charge GFS2 en tant
que systme de fichiers nud unique. Red Hat prend en charge un certain nombre de
systmes de fichiers nud unique de haute performance qui sont optimiss pour un nud

22

Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)

unique et possdent ainsi un plafond plus bas qu'un systme de fichiers de cluster. Red Hat
recommande l'utilisation de ces systmes de fichiers plutt que GFS2 dans le cas o un nud
unique doit monter le systme de fichiers. Red Hat continuera prendre en charge les
systmes de fichiers GFS2 nud unique pour ses clients existants.
Lorsque vous configurer un systme de fichiers GFS2 en tant que systme de fichiers de
cluster, vous devez vous assurer que tous les nuds du cluster ont accs au systme de
fichiers partag. Les configurations de clusters asymtriques dans lesquelles certains nuds
ont accs au systme de fichiers et pas d'autres ne sont pas prises en charge. Ceci ne
requiert pas que tous les nuds montent le systme de fichiers GFS2.
Configuration du matriel sans point de dfaillance unique (No-single-point-of-failure
hardware configuration)
Les clusters peuvent inclure une matrice RAID double contrleur, de multiples canaux rseau
lis, de multiples chemins d'accs entre les membres du cluster et le stockage, et des
systmes onduleurs (UPS, de l'anglais un-interruptible power supply ) afin de s'assurer
qu'aucune dfaillance unique ne rsulte en temps d'inactivit ou en perte de donnes.
Alternativement, un cluster de bas cot peut tre install pour offrir moins de disponibilit qu'un
cluster sans point de dfaillance unique. Par exemple, vous pouvez paramtrer un cluster avec
une matrice RAID contrleur unique et un seul canal Ethernet.
Certaines alternatives bas cot, comme les contrleurs RAID htes, les RAID logiciels sans
prise en charge de clusters, et les configurations parallles SCSI avec multi-initiateur ne sont
pas compatibles, ou ne sont pas appropries pour une utilisation en tant que stockage partag
de cluster.
Assurance d'intgrit des donnes
Pour s'assurer de l'intgrit des donnes, seul un nud peut excuter un service de cluster et
accder aux donnes du cluster-service la fois. L'utilisation d'interrupteurs d'alimentation
dans la configuration du matriel du cluster active un nud pour alimenter le cycle
d'alimentation d'un autre nud avant de redmarrer les services HA de ce nud pendant le
processus de basculement. Ceci empche les deux nuds d'accder simultanment aux
donnes et de les corrompres. Des priphriques fence (des solutions matrielles ou
logicielles pouvant allumer, teindre et redmarrer des nuds de clusters distance) sont
utiliss pour garantir l'intgrit des donnes sous toutes conditions d'chec.
Liaison de canal Ethernet
Le quorum du cluster et la sant du nud sont dtermins par la communication de messages
parmi les nuds du cluster via Ethernet. En outre, les nuds de clusters utilisent Ethernet
pour tout un ventail d'autres fonctions critiques de clusters (pour le fencing par exemple).
Avec la liaison de canaux Ethernet, de multiples interfaces Ethernet sont configures de
manire se comporter comme une seule interface, rduisant ainsi le risque de dfaillance
d'un point unique dans la connexion Ethernet commute habituelle parmi les nuds de clusters
et le reste du matriel du cluster.
partir de Red Hat Enterprise Linux 6.4, les modes de liaisons 0, 1 et 2 sont pris en charge.
IPv4 et IPv6
Le module complmentaire High Availability prend en charge les protocoles Internet IPv4 et
IPv6. La prise en charge de IPv6 par le module complmentaire High Availability est une
nouveaut de Red Hat Enterprise Linux 6.

23

Red Hat Enterprise Linux 6 Administration de clusters

2.2. Matriel compatible


Avant de configurer le logiciel du module complmentaire Red Hat High Availability, assurez-vous que
votre cluster utilise le matriel appropri (avec la prise en charge des priphriques fence, des
priphriques de stockage et des interrupteurs Fibre Channel par exemple). Reportez-vous aux
instructions de configuration du matriel sur http://www.redhat.com/cluster_suite/hardware/ pour obtenir
les informations les plus rcentes sur la compatibilit du matriel.

2.3. Activation des ports IP


Avant de dployer le module complmentaire Red Hat High Availability, vous devez activer certains ports
IP sur les nuds de clusters et ordinateurs qui excutent luci (le serveur de l'interface utilisateur
Conga). Les sections suivantes identifient les ports IP activer :
Section 2.3.1, Activation des ports IP sur des nuds de clusters
Section 2.3.2, Activer le port IP pour luci
La section suivante fournit les rgles iptables pour activer les ports IP ncessaires au module
complmentaire Red Hat High Availability :
Section 2.3.3, Configurer le pare-feu iptables pour autoriser des composants de clusters
2.3.1. Activation des ports IP sur des nuds de clusters
Pour permettre aux nuds dans un cluster de communiquer entre eux, vous devez activer les ports IP
assigns certains composants du module complmentaire Red Hat High Availability. T ableau 2.1,
Ports IP activs sur les nuds du module complmentaire Red Hat High Availability rpertorie les
numros des ports IP, leurs protocoles respectifs, ainsi que les composants auxquels les numros de
ports sont assigns. chaque nud de cluster, activez les ports IP selon T ableau 2.1, Ports IP
activs sur les nuds du module complmentaire Red Hat High Availability . Vous pouvez utiliser
system -config-firewall pour activer les ports IP.
T ableau 2.1. Ports IP activs sur les nuds du module complmentaire Red Hat High
Availability
Numro de port
IP

Protocole

Composant

5404, 5405

UDP

corosync/cm an (Gestionnaire du cluster)

11111

T CP

ricci (propage les informations mises jour du cluster)

21064

T CP

dlm (Gestionnaire de verrous distribus)

16851

T CP

m odclusterd

2.3.2. Activer le port IP pour luci


Pour permettre aux ordinateurs clients de communiquer avec un ordinateur qui excute luci (le serveur
de l'interface utilisateur Conga), vous devez activer le port IP assign luci. Sur chaque ordinateur qui
excute luci, activez le port IP comme indiqu dans le T ableau 2.2, Port IP activ sur un ordinateur
excutant luci .

Remarque
Si un nud de cluster excute luci, le port 11111 devrait dj tre activ.

24

Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)

T ableau 2.2. Port IP activ sur un ordinateur excutant luci


Numro de port
IP

Protocole

Composant

8084

T CP

luci (serveur de l'interface utilisateur Conga)

partir de Red Hat Enterprise Linux 6.1, qui permet l'activation de la configuration par le biais du fichier
/etc/sysconfig/luci, vous pouvez spcifiquement configurer l'unique adresse IP laquelle luci est
servi. Vous pouvez utiliser cette capacit sir l'infrastructure de votre serveur incorpore plus d'un rseau
et que vous souhaitez accder luci depuis le rseau interne uniquement. Pour ce faire, veuillez
dcommenter et modifier la ligne dans le fichier spcifiant host. Par exemple, pour modifier le
paramtre host dans le fichier sur 10.10.10.10, modifiez la ligne host comme suit :
host = 10.10.10.10

Pour obtenir plus d'informations sur le fichier/etc/sysconfig/luci, reportez-vous la Section 2.4,


Configurer luci avec /etc/sysconfig/luci .
2.3.3. Configurer le pare-feu iptables pour autoriser des composants de clusters
Ci-dessous figure une liste des rgles iptables pour activer les ports IP ncessaires Red Hat
Enterprise Linux 6 (avec le module High Availability). Remarquez que ces exemples utilisent
192.168.1.0/24 comme sous-rseau, mais vous devrez remplacer 192.168.1.0/24 par le sous-rseau
appropri si vous utilisez ces rgles.
Pour cm an (Gestionnaire de clusters), veuillez utiliser le filtrage suivant.
$ iptables -I INPUT -m state --state NEW -m multiport -p udp -s 192.168.1.0/24
-d 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
$ iptables -I INPUT -m addrtype --dst-type MULTICAST -m state --state NEW -m
multiport -p udp -s 192.168.1.0/24 --dports 5404,5405 -j ACCEPT

Pour dlm (Gestionnaire de verrous distribus, Distributed Lock Manager ) :


$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d
192.168.1.0/24 --dport 21064 -j ACCEPT

Pour ricci (qui fait partie de l'agent distant de Conga) :


$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d
192.168.1.0/24 --dport 11111 -j ACCEPT

Pour m odclusterd (qui fait partie de l'agent distant de Conga) :


$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d
192.168.1.0/24 --dport 16851 -j ACCEPT

Pour luci (serveur de l'interface utilisateur Conga) :


$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d
192.168.1.0/24 --dport 16851 -j ACCEPT

Pour igm p (protocole de gestion de groupes internet Internet Group Management Protocol ) :
$ iptables -I INPUT -p igmp -j ACCEPT

Aprs avoir excut ces commandes, veuillez excuter la commande suivante pour enregistrer la
configuration actuelle afin que les changements soient persistants lors des redmarrages.

25

Red Hat Enterprise Linux 6 Administration de clusters

$ service iptables save ; service iptables restart

2.4. Configurer luci avec /etc/sysconfig/luci


partir de Red Hat Enterprise Linux 6.1, vous pouvez configurer certains aspects du comportement de
luci par le biais du fichier /etc/sysconfig/luci. Les paramtres que vous pouvez modifier avec ce
fichier incluent les paramtres auxiliaires de l'environnement d'excution utiliss par le script init ainsi
que la configuration du serveur. En outre, vous pouvez modifier ce fichier afin de changer certains
paramtres de configuration de l'application. Des instructions sont fournies dans le fichier, celles-ci
dcrivent les paramtres de configuration pouvant tre changs en modifiant ce fichier.
Afin de protger le format destin, vous ne devriez pas modifier les lignes de non-configuration du
fichier /etc/sysconfig/luci lorsque vous modifiez le fichier. En outre, vous devez prendre soin de
bien suivre la syntaxe requise pour ce fichier, particulirement dans la section INIT SCRIPT , qui
n'autorise pas d'espaces blancs autour du signe gal et qui requiert que vous utilisiez des guillemets
pour enfermer les chanes contenant des espaces.
L'exemple suivant indique comment modifier le port par lequel luci est servi en modifiant le fichier
/etc/sysconfig/luci.
1. Dcommentez la ligne suivante dans le fichier /etc/sysconfig/luci :
#port = 4443

2. Remplacez 4443 par le numro de port souhait, qui peut tre plus grand que ou gal 1024
(qui n'est pas un port privilgi). Par exemple, vous pouvez modifier cette ligne du fichier comme
suit pour dfinir le port par lequel luci est servi sur 8084.
port = 8084

3. Redmarrez le service luci pour que les modifications prennent effet.

Important
Lorsque vous modifiez un paramtre de configuration dans le fichier /etc/sysconfig/luci
pour redfinir une valeur par dfaut, vous devriez prendre soin de bien utiliser la valeur la place
de la valeur documente par dfaut. Par exemple, lorsque vous modifiez le port sur lequel luci
est servi, assurez-vous de bien spcifier la valeur modifie lors de l'activation d'un port IP pour
luci, comme le dcrit la Section 2.3.2, Activer le port IP pour luci .
Les paramtres du port et de l'hte modifis seront automatiquement reflts dans l'URL affich
lorsque le service luci dmarre, comme le dcrit la Section 3.2, Dmarrage de luci . Vous
devriez utiliser cet URL pour accder luci.
Pour obtenir plus d'informations sur les paramtres que vous pouvez configurer avec le fichier
/etc/sysconfig/luci, reportez-vous la documentation dans le fichier mme.

2.5. Configurer l'ACPI pour une utilisation avec des priphriques


fence intgrs
Si votre cluster utilise des priphriques fence intgrs, vous devez configurer l'ACPI (de l'anglais,
Advanced Configuration and Power Interface ) afin que la clture s'effectue de manire complte et
immdiate.

26

Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)

Remarque
Pour obtenir les informations les plus rcentes sur les priphriques fence intgrs pris en
charge par le module complmentaire Red Hat High Availability, reportez-vous
http://www.redhat.com/cluster_suite/hardware/.
Si un nud de cluster est configur pour tre clos par un priphrique fence intgr, dsactivez l'ACPI
Soft-Off sur ce nud. La dsactivation de l'ACPI Soft-Off permet un priphrique fence intgr
d'arrter un nud compltement et immdiatement plutt que de tenter d'effectuer un arrt normal (par
exemple avec shutdown -h now). Si l'ACPI Soft-Off est activ, un priphrique fence intgr peut
prendre quatre secondes ou plus pour arrter un nud (voir la remarque suivante). En outre, si l'ACPI
Soft-Off est activ et qu'un nud panique ou se fige lors de l'arrt, un priphrique fence intgr
pourrait ne pas russir arrter le nud. Dans ces circonstances, la clture est retarde ou mise en
chec. Ainsi, lorsqu'un nud est clos avec un priphrique fence intgr et qu'ACPI Soft-Off est activ,
un cluster devra tre rcupr lentement ou ncessitera une intervention administrative.

Remarque
Le temps requis pour clore un nud dpend du priphrique fence intgr utilis. Certains
priphriques fence intgrs effectuent l'quivalent de lorsque le bouton d'alimentation est
press et maintenu ; ainsi, le priphrique fence teint le nud en quatre cinq secondes.
D'autres priphriques fence intgrs effectuent l'quivalent de lorsque le bouton d'alimentation
est press momentanment, se fiant au systme d'exploitation pour arrter le nud, dans ce
cas, le laps de temps pris par le priphrique fence pour teindre le nud est bien plus long que
quatre cinq secondes.
Pour dsactiver l'ACPI Soft-Off, utilisez la gestion chkconfig et vrifiez que le nud s'arrte
immdiatement lorsqu'il est fenced . La manire prfre de dsactiver l'ACPI Soft-Off est avec la
gestion chkconfig. Cependant, si cette mthode n'est pas satisfaisante pour votre cluster, vous
pouvez dsactiver ACPI Soft-Off l'aide de l'une des mthodes suivantes :
Modifiez le paramtre BIOS sur "instant-off" ou sur un autre paramtre quivalent qui arrtera le
nud sans dlai

Remarque
Dsactiver l'ACPI Soft-Off avec le BIOS peut ne pas tre possible sur certains ordinateurs.
Ajouter acpi=off la ligne de commande de dmarrage du noyau du fichier
/boot/grub/grub.conf.

Important
Cette mthode dsactive compltement l'ACPI ; certains ordinateurs ne dmarrent pas
correctement si l'ACPI est compltement dsactiv. Utilisez cette mthode uniquement si les
autres mthodes ne sont pas effectives sur votre cluster.
Les sections suivantes fournissent des procdures pour la mthode prfre et les mthodes
alternatives de dsactivation de l'ACPI Soft-Off :
Section 2.5.1, Dsactivation de l'ACPI Soft-Off avec la gestion chkconfig Mthode prfre
Section 2.5.2, Dsactivation de l'ACPI Soft-Off avec le BIOS Premire mthode alternative

27

Red Hat Enterprise Linux 6 Administration de clusters

Section 2.5.3, Compltement dsactiver ACPI dans le fichier grub.conf Seconde mthode
alternative
2.5.1. Dsactivation de l'ACPI Soft-Off avec la gestion chkconfig
Vous pouvez utiliser la gestion chkconfig pour dsactiver l'ACPI Soft-Off soit en supprimant le dmon
ACPI (acpid) de la gestion chkconfig ou en teignant acpid.

Remarque
Ceci est la mthode prfre pour dsactiver l'ACPI Soft-Off.
Dsactivez l'ACPI Soft-Off avec la gestion chkconfig sur chaque nud du cluster comme suit :
1. Excutez l'une des commandes suivantes :
chkconfig --del acpid Cette commande supprime acpid de la gestion chkconfig.
OU
chkconfig --level 234 5 acpid off Cette commande teint acpid.
2. Redmarrez le nud.
3. Lorsque le cluster est configur et en cours d'excution, vrifiez que le nud s'teint
immdiatement lorsqu'il est fenced .

Remarque
Vous pouvez clore le nud avec la commande fence_node ou Conga.

2.5.2. Dsactivation de l'ACPI Soft-Off avec le BIOS


Mthode prfre de dsactivation de l'ACPI Soft-Off avec la gestion chkconfig (Section 2.5.1,
Dsactivation de l'ACPI Soft-Off avec la gestion chkconfig ). Cependant, si la mthode prfre ne
fonctionne pas sur votre cluster, suivez la procdure dcrite dans cette section.

Remarque
Dsactiver l'ACPI Soft-Off avec le BIOS peut ne pas tre possible sur certains ordinateurs.
Vous pouvez dsactiver l'ACPI Soft-Off en configurant le BIOS de chaque nud de cluster comme suit :
1. Redmarrez le nud et lancez le programme BIOS CMOS Setup Utility.
2. Accdez au menu Power (ou un autre menu de gestion de l'alimentation).
3. Dans le menu Power, ajustez la fonction Soft-Off by PWR-BT T N (ou son quivalent) sur
Instant-Off (ou sur le paramtre quivalent qui arrte le nud sans dlai via le bouton
d'alimentation). L'Exemple 2.1, BIOS CMOS Setup Utility : Soft-Off by PWR-BT T N
paramtr sur Instant-Off montre un menu Power avec la fonction ACPI Function paramtre
sur Enabled (activ) et Soft-Off by PWR-BT T N paramtre sur Instant-Off.

Remarque
Les quivalents de ACPI Function, Soft-Off by PWR-BT T N, et Instant-Off peuvent
varier grandement selon les ordinateurs. Cependant, l'objectif de cette procdure est de
configurer le BIOS de manire ce que l'ordinateur puisse tre teint via le bouton de
l'alimentation sans dlais.

28

Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)

4. Quittez le programme BIOS CMOS Setup Utility en enregistrant la configuration BIOS.


5. Lorsque le cluster est configur et en cours d'excution, vrifiez que le nud s'teint
immdiatement lorsqu'il est fenced .

Remarque
Vous pouvez clore le nud avec la commande fence_node ou Conga.

Exemple 2.1. BIOS CMOS Setup Utility : Soft-Off by PWR-BT T N paramtr sur InstantOff
+---------------------------------------------|-------------------+
|
ACPI Function
[Enabled]
|
Item Help
|
|
ACPI Suspend Type
[S1(POS)]
|-------------------|
| x Run VGABIOS if S3 Resume
Auto
|
Menu Level
* |
|
Suspend Mode
[Disabled]
|
|
|
HDD Power Down
[Disabled]
|
|
|
Soft-Off by PWR-BTTN
[Instant-Off
|
|
|
CPU THRM-Throttling
[50.0%]
|
|
|
Wake-Up by PCI card
[Enabled]
|
|
|
Power On by Ring
[Enabled]
|
|
|
Wake Up On LAN
[Enabled]
|
|
| x USB KB Wake-Up From S3
Disabled
|
|
|
Resume by Alarm
[Disabled]
|
|
| x Date(of Month) Alarm
0
|
|
| x Time(hh:mm:ss) Alarm
0 : 0 :
|
|
|
POWER ON Function
[BUTTON ONLY
|
|
| x KB Power ON Password
Enter
|
|
| x Hot Key Power ON
Ctrl-F1
|
|
|
|
|
|
|
|
+---------------------------------------------|-------------------+

Cet exemple montre la fonction ACPI Function paramtre sur Enabled (activ) et Soft-Off by
PWR-BT T N paramtr sur Instant-Off.

2.5.3. Compltement dsactiver ACPI dans le fichier grub.conf


La mthode prfre pour dsactiver l'ACPI Soft-Off est avec la gestion chkconfig (Section 2.5.1,
Dsactivation de l'ACPI Soft-Off avec la gestion chkconfig ). Si la mthode prfre n'est pas
effective sur votre cluster, vous pouvez dsactiver l'ACPI Soft-Off avec la gestion de l'alimentation BIOS
(Section 2.5.2, Dsactivation de l'ACPI Soft-Off avec le BIOS ). Si aucune de ces mthodes ne
fonctionne sur votre cluster, vous pouvez aussi compltement dsactiver l'ACPI en ajoutant acpi=off
la ligne de commande du dmarrage du noyau dans le fichier grub.conf.

Important
Cette mthode dsactive compltement l'ACPI ; certains ordinateurs ne dmarrent pas
correctement si l'ACPI est compltement dsactiv. Utilisez cette mthode uniquement si les
autres mthodes ne sont pas effectives sur votre cluster.
Vous pouvez compltement dsactiver l'ACPI en modifiant le fichier grub.conf de chaque nud du
cluster comme suit :
1. Ouvrez /boot/grub/grub.conf l'aide d'un diteur de texte.

29

Red Hat Enterprise Linux 6 Administration de clusters

2. Ajoutez acpi=off la ligne de commande du dmarrage du noyau dans


/boot/grub/grub.conf (reportez-vous l'Exemple 2.2, Ligne de commande du dmarrage
du noyau avec acpi=off ajout ).
3. Redmarrez le nud.
4. Lorsque le cluster est configur et en cours d'excution, vrifiez que le nud s'teint
immdiatement lorsqu'il est fenced .

Remarque
Vous pouvez clore le nud avec la commande fence_node ou Conga.

Exemple 2.2. Ligne de commande du dmarrage du noyau avec acpi=off ajout


# grub.conf generated by anaconda
#
# Note that you do not have to rerun grub after making changes to this file
# NOTICE: You have a /boot partition. This means that
#
all kernel and initrd paths are relative to /boot/, eg.
#
root (hd0,0)
#
kernel /vmlinuz-version ro root=/dev/mapper/vg_doc01-lv_root
#
initrd /initrd-[generic-]version.img
#boot=/dev/hda
default=0
timeout=5
serial --unit=0 --speed=115200
terminal --timeout=5 serial console
title Red Hat Enterprise Linux Server (2.6.32-193.el6.x86_64)
root (hd0,0)
kernel /vmlinuz-2.6.32-193.el6.x86_64 ro root=/dev/mapper/vg_doc01lv_root console=ttyS0,115200n8 acpi=off
initrd /initramrs-2.6.32-131.0.15.el6.x86_64.img

Dans cet exemple, acpi=off a t ajout la ligne de commande du dmarrage du noyau la


ligne commenant par "kernel /vmlinuz-2.6.32-193.el6.x86_64.img".

2.6. Considrations pour la configuration des services HA


Vous pouvez crer un cluster convenant vos besoins pour la haute disponibilit (HA, ou High
Availability) en configurant les services HA. Le composant-cl pour la gestion des services HA dans le
module complmentaire Red Hat High Availability, rgm anager, implmente un basculement froid pour
des applications prises sur tagre (COT S). Dans le module complmentaire Red Hat High Availability,
une application est configure avec d'autres ressources de cluster pour former un service HA qui peut
basculer d'un nud de cluster un autre sans interruption apparente aux clients du cluster. Le
basculement HA-service peut se produire si un nud de cluster est en chec ou si un administrateur
systme de clusters dplace le service d'un nud de cluster un autre par exemple, lors du temps
d'indisponibilit planifi d'un nud de cluster).
Pour crer un service HA, vous devez le configurer dans le fichier de configuration du cluster. Un
service HA est compos de ressources du cluster. Les ressources du cluster sont des blocs de
construction que vous crez et grez dans le fichier de configuration du cluster par exemple, une
adresse IP, un script d'initialisation d'applications, ou une partition partage Red Hat GFS2.
Pour maintenir l'intgrit des donnes, un service HA peut tre excut sur un seul nud de cluster la
fois. Vous pouvez spcifier les priorits des basculements dans un domaine de basculement. La
spcification des priorits de basculements revient dterminer le niveau de priorit de chaque nud
dans un domaine de basculement. Le niveau de priorit dtermine l'ordre de basculement dterminant

30

Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)

ainsi sur quel nud un service HA devrait basculer. Si vous ne spcifiez pas de priorits de
basculement, un service HA peut alors basculer sur n'importe quel nud dans son domaine de
basculement. Vous pouvez aussi spcifier si un service HA est restreint de manire uniquement
s'excuter sur les nuds du domaine de basculement qui lui est associ. (Lorsque associ un
domaine de basculement non-restreint, un service HA peut dmarrer sur n'importe quel nud si aucun
des membres du domaine de basculement n'est disponible.)
La Figure 2.1, Exemple de service de cluster de serveur web montre un exemple d'un service HA qui
est un serveur web nomm "content-webserver". Celui-ci est excut dans le nud B du cluster et se
trouve dans un domaine de basculement consistant des nuds A, B et D. En outre, le domaine de
basculement est configur avec une priorit de basculements vers le nud D avant le nud A et avec
une restriction de basculements vers les nuds de ce domaine de basculements uniquement. Le
service HA comprend ces ressources de cluster :
Ressource adresse IP IP address 10.10.10.201.
Ressource d'application nomme "httpd-content" script d'initialisation d'application de serveur
web /etc/init.d/httpd (spcifiant httpd).
Ressource de systme de fichiers Red Hat GFS2 nomm "gfs2-content-webserver".

Figure 2.1. Exemple de service de cluster de serveur web

Les clients accdent au service HA via l'adresse IP 10.10.10.201, activant l'interaction avec l'application
du serveur web httpd-content. L'application httpd-content utilise le systme de fichiers gfs2-contentwebserver. Si le nud B devait chouer, le service HA content-webserver basculera sur le nud D. Si
le nud D n'est pas disponible ou s'il chouait aussi, le service basculera sur le nud A. Le
basculement se produira avec une interruption minimale du service des clients du cluster. Par exemple,
dans un service HT T P, certaines informations sur l'tat peuvent tre perdues (comme avec les donnes
de session). Le service HA sera accessible depuis un autre nud du cluster via la mme adresse IP

31

Red Hat Enterprise Linux 6 Administration de clusters

que celle prcdant le basculement.

Remarque
Pour obtenir plus d'informations sur les services HA et sur les domaines de basculements,
reportez-vous l'Aperu du module complmentaire High Availability. Pour obtenir des
informations sur la configuration des domaines de basculement, reportez-vous au Chapitre 3,
Configurer le module complmentaire Red Hat High Availability avec Conga (avec Conga) o au
Chapitre 7, Configurer le module complmentaire Red Hat High Availability avec des outils de
ligne de commande (avec des utilitaires en ligne de commande).
Un service HA est un groupe de ressources de cluster configures en une entit cohrente fournissant
des services spcialiss aux clients. Un service HA est reprsent comme une arborescence de
ressources dans le fichier de configuration du cluster /etc/cluster/cluster.conf (dans chaque
nud du cluster). Dans le fichier de configuration du cluster, chaque arborescence de ressources est
une reprsentation XML spcifiant chaque ressource, ses attributs, et ses relations aux autres
ressources dans l'arborescence des ressources (parents, enfants et de mme parent).

Remarque
Comme un service HA est compos de ressources organises en une arborescence
hirarchique, on peut parfois faire rfrence un service en tant qu'arborescence de ressources
ou que groupe de ressources. Les deux termes sont synonymes de service HA.
la racine de chaque arborescence de ressources se trouve un type de ressources spcial une
ressource de service. Les autres types de ressources comprennent le reste d'un service, dterminant
ainsi ses caractristiques. Configurer un service HA revient crer une ressource de service, crer des
ressources de cluster subordonnes et les organiser en une entit cohrente conforme aux restrictions
hirarchiques du service.
Deux considrations majeures sont prendre en compte lors de la configuration d'un service HA :
Le type de ressources ncessaires la cration du service
Les relations entre les parents, les enfants et les enfants de mmes parents dans les ressources
Le type de ressources et la hirarchie de celles-ci dpendent du type de service que vous configurez.
Les types de ressources de clusters sont rpertoris dans l'Annexe B, Paramtres des ressources HA.
Des informations sur les relations entre les parents, les enfants, les enfants de mme parents et les
ressources sont dcrites dans l'Annexe C, Comportement des ressources HA.

2.7. Validation de la configuration


La configuration du cluster est automatiquement valide selon le schma du cluster sur
/usr/share/cluster/cluster.rng au moment du dmarrage et lorsqu'une configuration est
recharge. Vous pouvez aussi valider une configuration de cluster tout moment en utilisant la
commande ccs_config_validate. Pour obtenir des informations sur la validation de configuration
lors de l'utilisation de la commande ccs, voir la Section 5.1.6, Validation de la configuration .
Un schma annot est disponible sur /usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l (par
exemple, /usr/share/doc/cm an-3.0.12/cluster_conf.htm l).
La validation de la configuration vrifie les erreurs de base suivantes :
Validit XML Vrifie que le fichier de configuration est un fichier XML valide.

32

Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)

Options de configuration Vrifie que les options (lments XML et attributs) sont valides.
Valeurs des options Vrifie que les options contiennent des donnes valides (limit).
Les exemples suivants montrent une configuration valide et des configurations invalides qui illustrent les
vrifications de validation :
Configuration valide Exemple 2.3, cluster.conf Exemple de configuration : Fichier valide
XML invalide Exemple 2.4, cluster.conf Exemple de configuration : XML invalide
Option invalide Exemple 2.5, cluster.conf Exemple de configuration : Option invalide
Valeur de l'option invalide Exemple 2.6, cluster.conf Exemple de configuration : Valeur de
l'option invalide
Exemple 2.3. cluster.conf Exemple de configuration : Fichier valide

<cluster name="mycluster" config_version="1">


<logging debug="off"/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
</cluster>

33

Red Hat Enterprise Linux 6 Administration de clusters

Exemple 2.4 . cluster.conf Exemple de configuration : XML invalide

<cluster name="mycluster" config_version="1">


<logging debug="off"/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
<cluster>
<----------------INVALID

Dans cet exemple, il manque une barre oblique la dernire ligne de la configuration (annote comme
"INVALID") il s'agit de <cluster> au lieu de </cluster>.

Exemple 2.5. cluster.conf Exemple de configuration : Option invalide

<cluster name="mycluster" config_version="1">


<loging debug="off"/>
<----------------INVALID
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
<cluster>

Dans cet exemple, la seconde ligne de la configuration (annote comme "INVALID") contient un
lment XML invalide il s'agit de loging au lieu de logging.

34

Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)

Exemple 2.6. cluster.conf Exemple de configuration : Valeur de l'option invalide

<cluster name="mycluster" config_version="1">


<loging debug="off"/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="-1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
<cluster>

<--------INVALID

Dans cet exemple, la quatrime ligne de la configuration (annote comme "INVALID") contient une
valeur invalide pour l'attribut XML nodeid dans la ligne clusternode de node01.exam ple.com . La valeur est une valeur ngative ("-1") au lieu d'une valeur positive ("1"). Pour
l'attribut nodeid, la valeur doit tre une valeur positive.

2.8. Considrations pour NetworkManager


L'utilisation de NetworkManager n'est pas prise en charge sur les nuds de clusters. Si vous n'avez
pas install NetworkManager sur vos nuds de clusters, vous devriez le supprimer ou le dsactiver.

Note
Le service cm an ne dmarrera pas si NetworkManager est excut ou a t configur de
manire s'excuter avec la commande chkconfig.

2.9. Considrations pour utiliser le disque Quorum


Le disque Quorum est un dmon de quorum bas sur disque, qdiskd, qui fournit des heuristiques
supplmentaires pour dterminer la sant des nuds. Avec les heuristiques, vous pouvez dterminer
des facteurs importants l'opration des nuds dans le cas d'une partition de rseau. Par exemple,
dans un cluster quatre nuds avec un partage 3:1 ; habituellement, les trois nuds "gagnent"
automatiquement grce leur majorit. Sous ces circonstances, le nud "seul" est clos. Cependant,
avec qdiskd, vous pouvez paramtrer des heuristiques qui permettent ce nud de gagner en se
basant sur l'accs une ressource critique (par exemple, un chemin d'accs de rseau critique). Si
votre cluster ncessite des mthodes supplmentaires pour dterminer la sant des nuds, vous
devriez configurer qdiskd afin de rpondre ces besoins.

35

Red Hat Enterprise Linux 6 Administration de clusters

Remarque
La configuration de qdiskd n'est pas requise moins que vous n'ayez des besoins spciaux
pour la sant des nuds. La configuration "all-but-one" (tous sauf un) est exemple de besoin
spcifique. Dans ce type de configuration, qdiskd est configur afin de fournir suffisamment de
votes de quorum pour maintenir le quorum mme si un seul nud travaille.

Important
En gnral, les heuristiques et autres paramtres qdiskd de votre dploiement dpendent de
l'environnement du site et des besoins spcifiques ncessits. Pour comprendre l'utilisation des
heuristiques et des autres paramtres qdiskd, reportez-vous la page man qdisk(5). Si vous
ncessitez de l'aide pour comprendre et utiliser qdiskd pour votre site, veuillez contacter un
reprsentant du support Red Hat autoris.
Si vous devez utiliser qdiskd, vous devriez prendre en compte les considrations suivantes :
Votes de nuds de clusters
Lors de l'utilisation du disque Quorum, chaque nud de cluster doit avoir un vote.
Valeur du dlai d'expiration de l'appartenance CMAN
La valeur du dlai d'expiration de l'appartenance CMAN (la dure sans rponse du nud
avant que CMAN considre le nud comme tant 'mort', donc n'tant plus membre) devrait tre
au moins deux fois plus lev que la valeur du dlai d'expiration de l'appartenance qdiskd.
La raison pour ceci est que le dmon du quorum doit pouvoir dtecter les nuds en chec par
lui-mme et celui-ci peut prendre bien plus longtemps pour ce faire que le CMAN. La valeur par
dfaut du dlai d'expiration de l'appartenance CMAN est de 10 secondes. D'autres conditions
spcifiques au site peuvent affecter la relation entre les valeurs des dlais d'expiration des
adhsions CMAN et qdiskd. Pour obtenir de l'aide avec l'ajustement de la valeur du dlai
d'expiration de l'appartenance CMAN, veuillez contacter un reprsentant du support Red Hat
autoris.
Cltures (Fencing)
Pour garantir une clture fiable lors de l'utilisation de qdiskd, utiliser le power fencing. Alors
que les autres types de fencing peuvent tre fiables avec les clusters qui ne sont pas
configurs avec qdiskd, ceux-ci ne sont pas fiables pour un cluster configur avec qdiskd.
Nombre maximum de nuds
Un cluster configur avec qdiskd prend en charge un maximum de 16 nuds. La raison pour
cette limite est lie l'volutivit, l'augmentation du compte des nuds augmente les conflits
d'E/S synchrones sur le priphrique du disque quorum.
Priphrique de disque quorum
Un priphrique de disque quorum doit tre un priphrique bloc partag avec accs
lecture/criture simultan par tous les nuds d'un cluster. La taille minimum du priphrique
bloc est de 10 mga-octets. Une matrice RAID SCSI multiports, un SAN RAID Fibre Channel,
une cible iSCSI configur RAID sont des exemples de priphriques blocs partags pouvant
tre utiliss par qdiskd. Vous pouvez crer un priphrique de disque quorum avec m kqdisk,
l'utilitaire du disque Quorum de clusters. Pour obtenir des informations sur l'utilisation de
l'utilitaire, reportez-vous la page man mkqdisk(8).

36

Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga

Remarque
Utiliser JBOD comme disque quorum n'est pas recommand. Un JBOD ne peut pas
fournir une performance fiable et ne pourrait ainsi ne pas permettre un nud d'crire
dessus assez rapidement. Si un nud n'est pas en mesure d'crire sur un priphrique
de disque quorum assez rapidement, le nud sera alors incorrectement expuls du
cluster.

2.10. Module complmentaire Red Hat High Availability et SELinux


Le module complmentaire High Availability pour Red Hat Enterprise Linux 6 prend en charge SELinux
dans l'tat enforcing avec le type de politique SELinux dfini sur targeted.
Pour obtenir plus d'informations sur SELinux, reportez-vous au Guide de dploiement de Red Hat
Enterprise Linux 6.

2.11. Adresses de multidiffusion


Les nuds dans une grappe communiquent entre eux l'aide d'adresses de multi-diffusion. Ainsi,
chaque commutateur rseau et quipement de rseau associ dans le module Red Hat High Availability
doit tre configur de manire activer les adresses de multidiffusion et prendre en charge le
protocole IGMP ( Internet Group Management Protocol ). Assurez-vous que chaque commutateur
rseau et quipement de rseau associ dans le module Red Hat High Availability soit bien en mesure
de prendre en charge les adresses de multidiffusion ert IGMP. Si c'est le cas, assurez-vous que
l'adressage de multidiffusion et IGMP soient bien activ. Sans la multidiffusion et IGMP, tous les nuds
ne pourront pas participer dans la grappe, causant l'chec de celle-ci. Veuillez utiliser la monodiffusion
UDP dans ces environnements, comme dcrit dans la Section 2.12, T rafic de monodiffusion UDP .

Remarque
Les procdures de configuration des commutateurs rseau et des quipements rseau associs
varient selon le produit. Reportez-vous la documentation approprie du fournisseur ou
d'autres informations sur la configuration des commutateurs rseau et des quipements rseau
associs pour activer les adresses de multidiffusion et IGMP.

2.12. Trafic de monodiffusion UDP


partir de Red Hat Enterprise Linux 6.2, les nuds dans une grappe peuvent communiquer entre eux
l'aide du mcanisme de transport de monodiffusion UDP. Il est recommand d'utiliser la multidiffusion IP
pour le rseau de grappes. La monodiffusion UDP est une alternative pouvant tre utilise lorsque la
multidiffusion IP est indisponible.
Vous pouvez configurer le module complmentaire Red Hat High-Availability afin d'utiliser la
monodiffusion UDP en dfinissant le paramtre cm an transport="udpu" dans le fichier de
configuration cluster.conf. Vous pouvez aussi spcifier la monodiffusion partir de la page
Configuration rseau de l'interface utilisateur Conga, comme le dcrit la Section 3.5.3,
Configuration du rseau .

2.13. Considrations pour ricci


Dans Red Hat Enterprise Linux 6, ricci remplace ccsd. Ainsi, il est ncessaire que ricci soit

37

Red Hat Enterprise Linux 6 Administration de clusters

excut dans chaque nud de cluster pour pouvoir propager la configuration du cluster mis jour, que
ce soit via la commande cm an_tool version -r, via la commande ccs, ou via le serveur de
l'interface utilisateur luci. Vous pouvez dmarrer ricci en utilisant service ricci start ou en
l'autorisant s'excuter lors du dmarrage via chkconfig. Pour obtenir des informations sur
l'activation des ports IP pour ricci, reportez-vous la Section 2.3.1, Activation des ports IP sur des
nuds de clusters .
Dans Red Hat Enterprise Linux 6.1 et ses versions plus rcentes, l'utilisation de ricci requiert un mot
de passe la premire fois que vous propagez une configuration mise jour d'un cluster depuis
n'importe quel nud en particulier. Dfinissez le mot de passe de ricci aprs avoir install ricci
sur votre systme avec la commande passwd ricci pour l'utilisateur ricci.

2.14. Configurer des machines virtuelles dans un environnement


clusteris
Lorsque vous configurez votre cluster avec des ressources de machine virtuelle, vous devriez utiliser
les outils rgm anager pour dmarrer et arrter les machines virtuelles. L'utilisation de virsh pour
dmarrer une machine peut faire que celle-ci soit excute dans plusieurs emplacements, ce qui peut
corrompre les donnes de la machine virtuelle.
Pour rduire les chances qu'un administrateur effectue un double-dmarrage accidentel de
machines virtuelles, en utilisant des outils cluster et des outils non-cluster dans un environnement en
grappe (clusteris), vous pouvez configurer votre systme en stockant les fichiers de configuration de la
machine virtuelle dans un emplacement qui n'est pas l'emplacement par dfaut. Stocker les fichiers de
configuration ailleurs que sur l'emplacement par dfaut fait qu'il est plus difficile de lancer une machine
virtuelle par erreur avec virsh car l'emplacement du fichier de configuration sera inconnu virsh.
L'emplacement non par dfaut des fichiers de configuration de la machine virtuelle peut tre n'importe
o. L'avantage apport par l'utilisation d'un partage NFS ou par un systme de fichiers GFS2 partag
rside dans le fait que l'administrateur ne doit pas conserver les fichiers de configuration synchroniss
travers les membres du cluster. Cependant, il est aussi permissible d'utiliser un rpertoire local tant
que l'administrateur conserve le contenu synchronis travers la totalit du cluster.
Dans la configuration du cluster, les machines virtuelles peuvent faire rfrence cet emplacement qui
n'est pas celui par dfaut en utilisant l'attribut path d'une ressource de machine virtuelle. Remarquez
que l'attribut path est un rpertoire ou un ensemble de rpertoires spars par le caractre des deuxpoints : , il ne s'agit pas du chemin vers un fichier spcifique.

Avertissement
Le service libvirt-guests devrait tre dsactiv sur tous les nuds qui excutent
rgm anager. Si une machine virtuelle dmarre automatiquement ( autostart ) ou reprend, ceci
peut rsulter en la machine virtuelle tant excute dans plusieurs emplacements, ce qui peut
corrompre les donnes de la machine virtuelle.
Pour obtenir des informations sur les attributs des ressources d'une machine virtuelle, reportez-vous au
T ableau B.24, Virtual Machine .

38

Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga

Chapitre 3. Configurer le module complmentaire Red Hat High


Availability avec Conga
Ce chapitre dcrit comment configurer le logiciel du module complmentaire Red Hat High Availability
l'aide de Conga. Pour obtenir des informations sur l'utilisation de Conga pour grer un cluster en cours
d'excution, voir le Chapitre 4, Grer le module complmentaire Red Hat High Availability avec Conga.

Note
Conga est l'interface utilisateur graphique pouvant tre utilise pour administrer le module
complmentaire Red Hat High Availability. Remarquez cependant que pour utiliser cette interface
efficacement, vous devez avoir une bonne comprhension des concepts sous-jacents.
L'apprentissage de la configuration des clusters en explorant les fonctionnalits disponibles
dans l'interface utilisateur n'est pas recommand, car ceci pourrait rsulter en un systme qui
n'est pas suffisamment robuste pour que tous les services puisse continuer s'excuter
lorsqu'un composant choue.
Ce chapitre est compos des sections suivantes :
Section 3.1, T ches de configuration
Section 3.2, Dmarrage de luci
Section 3.3, Contrler l'accs luci
Section 3.4, Crer un cluster
Section 3.5, Proprits globales du cluster
Section 3.6, Configurer des priphriques fence
Section 3.7, Configurer le fencing pour les membres du cluster
Section 3.8, Configurer un domaine de basculement
Section 3.9, Configurer les ressources globales du cluster
Section 3.10, Ajouter un service cluster un cluster

3.1. Tches de configuration


La configuration du logiciel du module complmentaire Red Hat High Availability avec Conga consiste
des tapes suivantes :
1. Configuration et excution de l'interface utilisateur de configuration Conga le serveur luci.
Reportez-vous la Section 3.2, Dmarrage de luci .
2. Cration d'un cluster. Reportez-vous la Section 3.4, Crer un cluster .
3. Configuration des proprits globales du cluster. Reportez-vous la Section 3.5, Proprits
globales du cluster .
4. Configuration des priphriques fence. Reportez-vous la Section 3.6, Configurer des
priphriques fence .
5. Configuration du fencing pour les membres du cluster. Reportez-vous la Section 3.7,
Configurer le fencing pour les membres du cluster .
6. Cration de domaines de basculement. Reportez-vous la Section 3.8, Configurer un domaine
de basculement .
7. Cration des ressources. Reportez-vous la Section 3.9, Configurer les ressources globales
du cluster .
8. Cration des services du cluster. Reportez-vous la Section 3.10, Ajouter un service cluster
un cluster .

39

Red Hat Enterprise Linux 6 Administration de clusters

3.2. Dmarrage de luci


Installation de ricci
L'utilisation de luci pour configurer un cluster requiert que ricci soit install et excut sur
les nuds du cluster, comme dcrit dans la Section 2.13, Considrations pour ricci .
Comme not dans cette section, l'utilisation de ricci requiert un mot de passe que luci vous
demande de saisir pour chaque nud de cluster lorsque vous crez un cluster, comme dcrit
dans la Section 3.4, Crer un cluster .
Avant de lancer luci, assurez-vous que les ports IP sur vos nuds de clusters permettent les
connexions au port 11111 depuis le serveur luci vers tous les nuds avec lesquels luci
communiquera. Pour obtenir des informations sur l'activation des ports IP sur les nuds de
clusters, voir la Section 2.3.1, Activation des ports IP sur des nuds de clusters .
Pour administrer le module complmentaire Red Hat High Availability avec Conga, installez et excutez
luci comme suit :
1. Slectionnez un ordinateur pour hberger luci et installez le logiciel luci sur cet ordinateur. Par
exemple :
# yum install luci

Remarque
T ypiquement, un ordinateur dans une cage de serveur ou dans un centre de donnes
hberge luci ; cependant, un ordinateur cluster peut aussi hberger luci.
2. Dmarrez luci l'aide de service luci start. Par exemple :
# service luci start
Starting luci: generating https SSL certificates...

done
[

OK

Please, point your web browser to https://nano-01:8084 to access luci

Note
partir de Red Hat Enterprise Linux 6.1, vous pouvez configurer certains aspects du
comportement de luci par le biais du fichier /etc/sysconfig/luci, y compris les
paramtres du port et de l'hte, comme le dcrit la Section 2.4, Configurer luci avec
/etc/sysconfig/luci . Les paramtres du port et de l'hte seront automatiquement
reflts dans l'URL affich lorsque le service luci est lanc.
3. Sur un navigateur web, placez l'URL du serveur luci dans la bote de l'adresse URL et cliquez sur
Aller (ou quivalent). La syntaxe de l'URL du serveur luci est
https://luci_server_hostname:luci_server_port. La valeur par dfaut de
luci_server_port est 8084 .
La premire fois que vous accderez luci, une invite spcifique au navigateur web concernant
le certificat SSL auto-sign (du serveur luci) s'affiche. Aprs confirmation de la bote (ou des
botes) de dialogue, votre navigateur web affichera la page de connexion de luci.
4. Mme si tout utilisateur en mesure de s'authentifier sur le systme qui hberge luci peut se
connecter luci, partir de la version 6.2 de Red Hat Enterprise Linux, seul l'utilisateur root du
systme qui excute luci pourra accder tous les composants luci, jusqu' ce qu'un

40

Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga

administrateur (l'utilisateur root, ou un utilisateur avec des permissions d'administrateur) dfinisse


les permissions pour cet utilisateur. Pour obtenir des informations sur la dfinition des
permissions luci pour les utilisateurs, reportez-vous la Section 3.3, Contrler l'accs luci .
Se connecter luci affiche la page Homebase (page d'accueil) luci, comme indiqu dans la
Figure 3.1, Page Homebase luci .

Figure 3.1. Page Homebase luci

Note
luci possde dlai d'inactivit qui vous dconnecte aprs 15 minutes d'inactivit.

3.3. Contrler l'accs luci


Depuis la sortie initiale de Red Hat Enterprise Linux 6, les fonctionnalits suivantes ont t ajoutes la
page Utilisateurs et permissions.
partir de Red Hat Enterprise Linux 6.2, l'utilisateur root ou un utilisateur qui s'est vu offrir des
permissions d'administrateur luci sur un systme excutant luci peut contrler l'accs aux divers
composants luci en paramtrant des permissions pour les utilisateurs individuels sur un systme.
partir de Red Hat Enterprise Linux 6.3, l'utilisateur root ou un utilisateur qui s'est vu offrir des
permissions d'administrateur luci peut aussi utiliser l'interface luci pour ajouter des utilisateurs au
systme.
partir de Red Hat Enterprise Linux 6.4, l'utilisateur root ou un utilisateur qui s'est vu offrir des
permissions d'administrateur luci peut aussi utiliser l'interface luci pour supprimer des utilisateurs
du systme.
Pour ajouter des utilisateurs, pour les supprimer, ou pour paramtrer leurs permissions, connectez-vous
luci en tant que root ou en tant qu'utilisateur qui possde dj des permissions d'administrateur et
cliquez sur la slection Admin dans le coin en haut droite de l'cran luci. Ceci ouvre la page
Utilisateurs et permissions, qui affiche les utilisateurs existants.
Pour supprimer des utilisateurs, slectionnez le (ou les) utilisateur(s), puis cliquez sur Supprim er la
slection.
Pour ajouter un utilisateur, cliquez sur Ajouter un utilisateur puis saisissez le nom de
l'utilisateur ajouter.

41

Red Hat Enterprise Linux 6 Administration de clusters

Pour dfinir ou modifier les permissions d'un utilisateur, slectionnez l'utilisateur dans le menu droulant
sous Permissions de l'utilisateur. Ceci vous permet de dfinir les permissions suivantes :
Adm inistrateur Luci
Offre l'utilisateur les mmes permissions que l'utilisateur root, avec des permissions
compltes sur tous les clusters et la possibilit de dfinir ou supprimer des permissions pour
tous les utilisateurs, l'exception de l'utilisateur root, dont les permissions ne peuvent pas tre
restreintes.
Crer des clusters
Permet l'utilisateur de crer des clusters, comme dcrit dans la Section 3.4, Crer un
cluster .
Im porter des clusters existants
Permet l'utilisateur d'ajouter un cluster existant l'interface luci, comme le dcrit la
Section 4.1, Ajouter un cluster existante l'interface luci .

Pour chaque cluster qui a t cr ou import sur luci, les permissions suivantes peuvent tre dfinies
pour l'utilisateur indiqu :
Voir ce cluster
Autorise l'utilisateur voir le cluster spcifi.
Changer la configuration du cluster
Permet l'utilisateur de modifier la configuration du cluster spcifi, l'exception de l'ajout et de
la suppression de nuds du cluster.
Activer, dsactiver, dplacer et m igrer des groupes de services
Permet l'utilisateur de grer les services de haute disponibilit ( High Availability ), comme
le dcrit la Section 4.5, Grer les services High-Availability .
Arrter, dm arrer et redm arrer des n uds de cluster
Permet l'utilisateur de grer les nuds individuels d'un cluster, comme le dcrit la Section 4.3,
Grer les nuds de clusters .
Ajouter et supprim er des n uds
Permet l'utilisateur d'ajouter et de supprimer des nuds d'un cluster, comme le dcrit la
Section 3.4, Crer un cluster .
Supprim er ce cluster de Luci
Permet l'utilisateur de supprimer un cluster de l'interface luci, comme le dcrit la Section 4.4,
Dmarrer, arrter, redmarrer et supprimer des clusters .

Cliquez sur Soum ettre pour que les permissions prennent effet, ou sur Rinitialiser pour
retourner aux valeurs initiales.

3.4. Crer un cluster


La cration d'un cluster avec luci consiste en la dnomination d'un cluster, l'ajout de nuds de cluster

42

Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga

au cluster, la saisie d'un mot de passe ricci pour chaque nud et la soumission d'une requte pour
crer un cluster. Si les informations et les mots de passe des nuds sont corrects, Conga installera
automatiquement un logiciel dans les nuds du cluster (si les paquetages logiciels appropris ne sont
pas dj installs) et dmarre le cluster. Crez le cluster comme suit :
1. Cliquez sur Grer les clusters dans le menu sur le ct gauche de la page Homebase de luci.
L'cran Clusters apparat, comme dcrit dans la Figure 3.2, page de gestion de cluster luci .

Figure 3.2. page de gestion de cluster luci

2. Cliquez sur Crer. La bote de dialogue Crer un nouveau cluster, comme dcrit dans la
Figure 3.3, bote de dialogue luci de cration de cluster .

Figure 3.3. bote de dialogue luci de cration de cluster

3. Saisissez les paramtres suivants dans la bote de dialogue Crer un nouveau cluster comme
ncessaire :
Dans la bote de texte Nom du cluster, saisissez un nom de cluster. Le nom du cluster ne
doit pas excder 15 caractres.
Si chaque nud du cluster possde le mme mot de passe ricci, vous pouvez cocher Use

43

Red Hat Enterprise Linux 6 Administration de clusters

the same password for all nodes (utiliser le mme mot de passe pour tous les nuds) afin
de remplir automatiquement le champ password (mot de passe) lorsque vous ajoutez des
nuds.
Saisissez le nom du nud pour un nud dans le cluster dans la colonne Node Name (nom
du nud) puis saisissez le mot de passe ricci du nud dans la colonne Password (mot de
passe).
Si votre systme est configur avec un rseau priv ddi au trafic des clusters, vous devriez
configurer luci de manire communiquer avec ricci sur une diffrente adresse de celle
rsolue par le nom du nud du cluster. Ceci peut tre accompli en saisissant cette adresse
comme le Ricci Hostname (nom d'hte Ricci).
Si vous utilisez un autre port pour l'agent ricci que le port par dfaut 11111, vous pouvez
modifier ce paramtre.
Cliquez sur Add Another Node (ajouter un autre nud) puis saisissez le nom du nud et le
mot de passe ricci pour chaque nud supplmentaire du cluster.
Si vous ne souhaitez pas mettre niveau les paquetages logiciels dj installs sur les
nuds lorsque vous crez le cluster, laissez l'option Use locally installed packages
(Utiliser les paquetages installs localement) slectionne. Si vous ne souhaitez pas mettre
niveau tous les paquetages logiciels du cluster, slectionnez l'option Download Packages
(T lcharger les paquetages).

Note
Que vous slectionniez l'option Use locally installed packages (Utiliser les
paquetages installs localement) ou l'option Download Packages (T lcharger les
paquetages), si des composants de base du cluster ne sont pas prsents (cm an,
rgm anager, m odcluster et leurs dpendances), il seront installs. S'ils ne peuvent
pas tre installs, la cration du nud chouera.
Slectionnez Reboot nodes before joining cluster (Redmarrer les nuds avant de
joindre le cluster) si ncessaire.
Slectionnez Enable shared storage support (activer le support du stockage partag) si
un stockage clusteris est requis ; ceci tlcharge les paquetages qui prennent en charge le
stockage clusteris et active LVM sur les clusters. Vous devriez slectionner ceci uniquement
lorsque vous avez accs au module complmentaire Resilient Storage (Stockage rsilient) ou
au module complmentaire Scalable File System (Systme de fichiers scalable).
4. Cliquez sur Crer un cluster. Cliquer sur Crer un cluster provoque les actions
suivantes :
a. Si vous avez slectionn Download Packages (T lcharger les paquetages), les
paquetages logiciels du cluster sont tlchargs sur les nuds.
b. Les logiciels du cluster sont installs sur les nuds (sinon, il est vrifi que les bons
paquetages logiciels sont installs).
c. Le fichier de configuration du cluster est mis jour et propag sur chaque nud dans le
cluster.
d. Les nuds ajouts rejoignent le cluster.
Un message indiquant que le cluster est en train d'tre cr est affich. Lorsque le cluster est
prt, l'cran affiche l'tat du cluster nouvellement cr, comme indiqu dans la Figure 3.4,
Affichage du nud du cluster . Remarquez que si ricci n'est pas en cours d'excution sur l'un
des nuds, la cration du cluster chouera.

44

Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga

Figure 3.4 . Affichage du nud du cluster

5. Aprs avoir cliqu sur Crer un cluster pour crer le cluster, vous pouvez ajouter ou
supprimer des nuds du cluster en cliquant sur la fonction Ajouter ou Supprimer sur le menu
en haut de la page d'affichage des nuds du cluster. moins que vous ne tentiez de supprimer
un cluster entier, les nuds doivent tre arrts avant d'tre supprims. Pour obtenir des
informations sur la suppression d'un nud d'un cluster existant qui est actuellement en cours de
fonctionnement, voir Section 4.3.4, Supprimer un membre d'un cluster .

Note
La suppression d'un nud du cluster est une opration destructive qui est irrversible.

3.5. Proprits globales du cluster


Lorsque vous slectionnez un cluster configurer, une page spcifique aux clusters s'affiche. La page
fournit une interface pour configurer les proprits de la totalit du cluster. Vous pouvez configurer ces
proprits en cliquant sur Configurer en haut de l'affichage du cluster. Ceci affiche une interface
contenant les onglets suivants : Gnral, Dmon Fence, Rseau, Anneau redondant, QDisk et
Connexion. Pour configurer les paramtres de ces onglets, procdez aux tapes dcrites dans les
sections suivantes. Si vous n'prouvez pas le besoin de configurer les paramtres dans un onglet,
ignorez la section de cet onglet.
3.5.1. Configurer les proprits gnrales
Cliquer sur l'onglet General (Gnral) affiche la page General Properties (Proprits gnrales), qui
fournit une interface pour modifier la version de la configuration.
La bote de texte Cluster Name (Nom du cluster) affiche le nom du cluster ; elle n'accepte pas de
modification du nom du cluster. La seule manire de changer le nom d'un cluster est de crer une
nouvelle configuration de cluster avec le nouveau nom.
La valeur de la Version de la configuration est dfinie sur 1 au moment de la cration du cluster
et est automatiquement incrmente chaque fois que vous modifiez la configuration de votre
cluster. Cependant, si vous devez changer la valeur, vous pouvez la spcifier dans la bote de texte
Version de la configuration.
Si vous avez modifi la valeur de la Version de la configuration, cliquez sur Appliquer pour que la
modification prenne effet.

45

Red Hat Enterprise Linux 6 Administration de clusters

3.5.2. Configurer les proprits du dmon fence


Cliquer sur l'onglet Fence Daemon (Dmon fence) affiche la page Fence Daemon Properties
(Proprits du dmon fence), qui fournit une interface pour configurer Post Fail Delay et Post Join
Delay. Les valeurs que vous devrez configurer pour ces paramtres sont des proprits gnrales de
fencing pour le cluster. Pour configurer des priphriques fence spcifiques pour les nuds du cluster,
utilisez l'lment du menu Fence Devices (Priphriques fence) de l'affichage du cluster, comme dcrit
dans la Section 3.6, Configurer des priphriques fence .
Le paramtre Post Fail Delay est le nombre de secondes que le dmon fence (fenced) doit
attendre avant de clturer un nud (un membre du domaine fence) une fois que le nud a chou.
La valeur par dfaut de Post Fail Delay est 0. Sa valeur peut tre modifie pour mieux
correspondre performance du cluster et du rseau.
Le paramtre Post Join Delay correspond au nombre de secondes que le dmon Fence (fenced)
attend avant de clturer un nud aprs que le nud a rejoint le domaine fence. La valeur par dfaut
du dlai Post Join Delay est 6. T ypiquement, le paramtre de dlai Post Join Delay se situe entre
20 et 30 seconds, mais celui-ci peut varier en fonction de la performance du cluster et du rseau.
Saisissez les valeurs requises et cliquez sur Appliquer pour que les modifications prennent effet.

Remarque
Pour obtenir plus d'informations sur Post Join Delay et Post Fail Delay, reportez-vous la
page man fenced(8).

3.5.3. Configuration du rseau


Cliquer sur l'onglet Network (Rseau) affiche la page Network Configuration (Configuration du
rseau), qui fournit une interface pour configurer le type de transport rseau.
Vous pouvez utiliser cet onglet pour slectionner l'une des options suivantes :
Multidiffusion UDP et laisser le cluster choisir l'adresse de multidiffusion
Ceci est le paramtre par dfaut. Avec cette option slectionne, le module complmentaire Red Hat
High Availability cre une adresse de multidiffusion base sur l'ID du cluster. Il gnre les 16 bits les
plus bas de l'adresse et les ajoute la portion suprieure de l'adresse selon que le protocole IP est
IPv4 ou IPv6 :
Pour IPv4 L'adresse forme est 239.192. plus les 16 bits les plus bas gnrs par le logiciel
du module complmentaire Red Hat High Availability.
Pour IPv6 L'adresse forme est FF15:: plus les 16 bits les plus bas gnrs par le logiciel du
module complmentaire Red Hat High Availability.

Remarque
L'ID du cluster est un identifiant unique que cm an gnre pour chaque cluster. Pour voir l'ID
du cluster, excutez la commande cm an_tool status sur un nud de cluster.
Multidiffusion UDP et spcifier l'adresse de multidiffusion manuellement
Si vous devez utiliser une adresse de multidiffusion spcifique, slectionnez cette option et
saisissez une adresse de multidiffusion dans la bote de texte Adresse de multidiffusion.
Si vous spcifiez une adresse de multidiffusion, vous devriez utiliser les sries 239.192.x.x (ou
FF15:: pour IPv6) que cm an utilise. L'utilisation d'une adresse de multidiffusion hors de cette plage
peut causer des rsultats imprvisibles. Par exemple, l'utilisation de 224.0.0.x, qui est "All hosts on
the network" (T ous les htes sur le rseau) pourrait ne pas tre rout correctement, ou mme ne
pas tre rout du tout par le matriel.

46

Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga

Si vous spcifiez ou modifiez une adresse de multidiffusion, vous devrez redmarrer le cluster pour
que celle-ci prenne effet. Pour obtenir des informations sur le dmarrage et l'arrt d'un cluster avec
Conga, reportez-vous la Section 4.4, Dmarrer, arrter, redmarrer et supprimer des clusters .

Note
Si vous spcifiez une adresse de multidiffusion, assurez-vous de bien vrifier la configuration
des routeurs par lesquels les paquets des clusters passent. Certains routeurs prennent
longtemps pour apprendre les adresses, affectant ainsi svrement la performance du
cluster.
Monodiffusion UDP (UDPU)
partir de Red Hat Enterprise Linux 6.2, les nuds dans une grappe peuvent communiquer entre
eux l'aide du mcanisme de transport de monodiffusion UDP. Il est recommand d'utiliser la
multidiffusion IP pour le rseau de grappes. La monodiffusion UDP est une alternative pouvant tre
utilise lorsque la multidiffusion IP est indisponible. La monodiffusion UDP n'est pas recommande
pour les dploiements GFS2.
Cliquez sur Appliquer. Lors de la modification du type de transport, un redmarrage du cluster est
ncessaire pour que les changements prennent effet.
3.5.4 . Configurer le protocole d'anneau redondant ( Redundant Ring )
partir de Red Hat Enterprise Linux 6.4, le module complmentaire Red Hat High Availability prend en
charge la configuration du protocole d'anneau redondant. Lors de l'utilisation du protocole d'anneau
redondant, un certain nombre de considrations sont prendre en compte, comme le dcrit la
Section 7.6, Configurer le protocole d'anneau redondant ( Redundant Ring ) .
Cliquer sur l'onglet Anneau redondant affiche la page Configuration du protocole d'anneau
redondant. Cette page affiche tous les nuds actuellement configurs pour le cluster. Si vous
configurez un systme pour qu'il utilise le protocole d'anneau redondant, vous devrez spcifier le Nom
alterne de chaque nud pour le second anneau.
La page Configuration du protocole d'anneau redondant vous permet de spcifier optionnellement
l'Adresse de multidiffusion de l'anneau alterne, le Port CMAN de l'anneau alterne et le T T L de
paquet de multidiffusion de l'anneau alterne (de l'anglais, Alternate Ring Multicast Packet T T L )
du second anneau.
Si vous spcifiez une adresse de multidiffusion pour le deuxime anneau, l'adresse de multidiffusion
alterne ou le port alterne doit tre diffrent de l'adresse de multidiffusion du premier anneau. Si vous
spcifiez un port alterne, les numros des ports du premier et du second anneau doivent tre diffrents
d'au moins deux car le systme utilise port et port-1pour effectuer des oprations. Si vous ne spcifiez
pas d'adresse de multidiffusion alterne, le systme utilisera automatiquement une adresse de
multidiffusion diffrente pour le second anneau.
3.5.5. Configuration du disque quorum
Cliquer sur l'onglet QDiskaffiche la page Configuration du disque quorum, qui fournit une interface
pour la configuration des paramtres du disque quorum si vous devez utiliser un disque quorum.

Important
Les paramtres et heuristiques du disque quorum dpendent de l'environnement du site et des
pr-requis spciaux ncessaires. Pour comprendre l'utilisation des paramtres et heuristiques
du disque quorum, reportez-vous la page man qdisk(5). Si vous avez besoin d'aide pour la
comprhension et l'utilisation du disque quorum, veuillez contacter un reprsentant autoris du
support Red Hat.

47

Red Hat Enterprise Linux 6 Administration de clusters

Le paramtre Ne pas utiliser un disque quorum est activ par dfaut. Si vous devez utiliser un
disque quorum, cliquez sur Utiliser un disque quorum, saisissez les paramtres du disque quorum,
cliquez sur Appliquer, puis redmarrez le cluster pour que les changements prennent effet.
Le T ableau 3.1, Paramtres du disque quorum dcrit les paramtres du disque quorum.
T ableau 3.1. Paramtres du disque quorum
Paramtre

Description

Spcifier un
priphrique
physique : par
tiquette de
priphrique

Spcifie l'tiquette du disque quorum cre par l'utilitaire m kqdisk. Si ce


champ est utilis, le dmon quorum lit le fichier /proc/partitions et
vrifiera les signatures qdisk sur chaque priphrique bloc trouv, en
comparant l'tiquette avec l'tiquette spcifie. Ceci est utile dans des
configurations o le nom du priphrique quorum diffre selon les nuds.

Heuristiques

Path to Program Programme utilis pour dterminer si cette


heuristique est disponible. Ceci peut tre n'importe quoi qui est excutable
par /bin/sh -c. Une valeur retourne de 0 indique un succs ; toute
autre chose indique un chec. Ce champ est requis.
Interval Frquence (en secondes) laquelle l'heuristique est analyse.
L'intervalle par dfaut pour chaque heuristique est de 2 secondes.
Score Poids de l'heuristique. Soyez prudent lors de la dtermination des
scores des heuristiques. Le score par dfaut pour chaque heuristique est
1.
T KO Nombre d'checs conscutifs requis avant que cette heuristique ne
soit dclare indisponible.

Score total minimum

Score minimum qu'un nud doit effectuer pour tre considr comme
vivant . Si oubli, ou si ajust sur 0, floor((n+1)/2), est utilis, o n
est la somme des scores heuristiques. La valeur Score total minimum ne
doit jamais excder la somme des scores heuristiques, sinon le disque
quorum ne pourra pas tre disponible.

Remarque
Cliquer sur Appliquer dans l'onglet Configuration QDisk propage les modifications apportes
au fichier de configuration (/etc/cluster/cluster.conf) dans chaque nud du cluster.
Cependant, pour que le disque quorum puisse oprer ou pour que toute modification apporte
aux paramtres du disque quorum puisse prendre effet, vous devez redmarrer le cluster
(reportez-vous la Section 4.4, Dmarrer, arrter, redmarrer et supprimer des clusters ) et
vous assurer que le dmon qdiskd est redmarr sur chaque nud.

3.5.6. Configuration de la journalisation


Cliquer sur l'onglet Logging (Journalisation) affiche la page Logging Configuration (Configuration de
la journalisation), qui fournit une interface pour la configuration des paramtres de journalisation.
Vous pouvez configurer les paramtres suivants pour la configuration globale de la journalisation :
Cocher Log debugging messages (Journaliser les messages de dbogage) active les messages
de dbogage dans le fichier de journalisation.
Cocher Log messages to syslog (Journaliser les messages sur syslog) active les messages sur
syslog. Vous pouvez slectionner Syslog message facility et Syslog message priority. Le
paramtre Syslog message priority indique que les messages au niveau slectionn et aux

48

Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga

niveaux suprieurs sont envoys sur syslog.


Cocher Log messages to log file (Journaliser les messages sur le fichier de journalisation) active
les messages sur le fichier de journalisation. Vous pouvez spcifier le nom de Log File Path
(chemin d'accs du fichier de journalisation). Le paramtre logfile message priority indique que
les messages au niveau slectionn et aux niveaux suprieurs sont crits sur le fichier de
journalisation.
Vous pouvez remplacer les paramtres globaux de journalisation pour des dmons spcifiques en
slectionnant l'un des dmons au bas de l'en-tte Remplacement de la journalisation spcifique
au dmon de la page Configuration de la journalisation. Aprs avoir slectionn le dmon, vous
pouvez vrifier si vous souhaitez journaliser les messages de dbogage pour ce dmon en particulier.
Vous pouvez aussi spcifier syslog et les paramtres du fichier de journalisation de ce dmon.
Cliquez sur Appliquer pour que les modifications de la configuration de la journalisation que vous
avez spcifies prennent effet.

3.6. Configurer des priphriques fence


La configuration des priphriques fence consiste en la cration, la mise jour, et la suppression des
priphriques fence pour le cluster. Vous devez configurer les priphriques fence dans un cluster
avant de pouvoir configurer le fencing pour les nuds dans le cluster.
La cration d'un priphrique fence consiste de la slection d'un type de priphrique fence et de la
saisie de paramtres pour celui-ci (par exemple, le nom, l'adresse IP, l'identifiant et le mot de passe). La
mise jour d'un priphrique fence se compose de la slection d'un priphrique fence existant et de la
modification de ses paramtres. La suppression d'un priphrique fence est compose de la slection
d'un priphrique fence et de sa suppression.
Cette section fournit des procdures pour les tches suivantes :
Creating fence devices Reportez-vous la Section 3.6.1, Crer un priphrique fence . Une
fois que vous avez cr et nomm un priphrique fence, vous pourrez configurer les priphriques
fence pour chaque nud dans le cluster, comme dcrit dans la Section 3.7, Configurer le fencing
pour les membres du cluster .
Mise jour des priphriques fence Reportez-vous la Section 3.6.2, Modifier un priphrique
fence .
Suppression de priphriques fence Reportez-vous la Section 3.6.3, Supprimer un
priphrique fence .
partir de la page spcifique aux clusters, vous pouvez configurer des priphriques fence pour ce
cluster en cliquant sur Priphriques fence en haut de l'affichage du cluster. Ceci affiche les
priphriques fence du cluster et les lments du menu de la configuration de priphriques fence :
Ajouter et Supprimer. Ceci est le point de dpart de chaque procdure dcrite dans les sections
suivantes.

Remarque
S'il s'agit d'une configuration initiale du cluster, aucun priphrique fence n'a t cr, ce qui
explique pourquoi aucun d'entre eux n'est affich.
La Figure 3.5, Page luci de la configuration des priphriques fence montre l'cran de configuration
des priphriques fence avant que tout priphrique fence ne soit cr.

49

Red Hat Enterprise Linux 6 Administration de clusters

Figure 3.5. Page luci de la configuration des priphriques fence

3.6.1. Crer un priphrique fence


Pour crer un priphrique fence, suivez ces tapes :
1. partir de la page de configuration Priphriques fence, cliquez sur Ajouter. Cliquer sur
Ajouter affiche la bote de dialogue Ajouter un priphrique fence (instance) .
partir de cette bote de dialogue, slectionnez le type de priphrique fence configurer.
2. Spcifiez les informations dans la bote de dialogue Ajouter un priphrique fence
(instance) en fonction du type de priphrique fence. Reportez-vous l'Annexe A, Paramtres
des priphriques fence afin d'obtenir plus d'informations sur les paramtres des priphriques
fence. Dans certains cas, vous devrez spcifier des paramtres spcifiques au nud pour le
priphrique fence lorsque vous configurer le fencing pour des nuds individuels, comme dcrit
dans la Section 3.7, Configurer le fencing pour les membres du cluster .
3. Cliquez sur Subm it (Soumettre).
Une fois que le priphrique fence a t ajout, il apparat sur la page de configuration Priphriques
fence.
3.6.2. Modifier un priphrique fence
Pour modifier un priphrique fence, suivez ces tapes :
1. partir de la page Priphriques fence, cliquez sur le nom du priphrique fence modifier.
Ceci affiche la bote de dialogue de ce priphrique fence, avec les valeurs qui ont t
configures pour ce priphrique.
2. Pour modifier le priphrique fence, saisissez les modifications aux paramtres affichs.
Reportez-vous l'Annexe A, Paramtres des priphriques fence pour obtenir plus d'informations.
3. Cliquez sur Appliquer et attendez que la configuration soir mise jour.
3.6.3. Supprimer un priphrique fence

50

Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga

Note
Les priphriques fence qui sont en cours d'utilisation ne peuvent pas tre supprims. Pour
supprimer un priphrique fence qu'un nud est en train d'utiliser, mettez tout d'abord la
configuration fence du nud jour pour tout nud utilisant le priphrique puis supprimez le
priphrique.
Pour supprimer un priphrique fence, suivez ces tapes :
1. partir de la page de configuration Priphriques fence, cochez la case gauche du (ou des)
priphrique(s) fence afin de slectionner les priphriques supprimer.
2. Cliquez sur Supprim er et attendez que la configuration soit mise jour. Un message apparat
indiquant quels priphriques sont en cours de suppression.
Lorsque la configuration a t mise jour, le priphrique fence supprim n'apparat plus dans
l'affichage.

3.7. Configurer le fencing pour les membres du cluster


Une fois les tapes initiales de cration du cluster et des priphriques fence termines, vous devrez
configurer le fencing pour les nuds du cluster. Pour configurer le fencing pour les nuds aprs la
cration d'un nouveau cluster et la configuration des priphriques fence du cluster, suivez les tapes
de cette section. Remarquez que vous devez configurer le fencing pour chaque nud du cluster.
Les sections suivantes proposent des procdures pour la configuration d'un priphrique fence unique
pour un nud, pour la configuration d'un nud avec un priphrique fence de sauvegarde et pour la
configuration d'un nud avec un systme d'alimentation redondant :
Section 3.7.1, Configurer un priphrique fence unique pour un nud
Section 3.7.2, Configurer un priphrique fence de sauvegarde
Section 3.7.3, Configurer un nud avec une alimentation redondante
3.7.1. Configurer un priphrique fence unique pour un nud
Utilisez la procdure suivante pour configurer un nud avec un priphrique fence unique.
1. partir de la page spcifique aux clusters, vous pouvez configurer le fencing pour les nuds
dans le cluster en cliquant sur nuds en haut de l'affichage du cluster. Ceci affiche les nuds
constituant le cluster. Cette page est aussi la page par dfaut apparaissant lorsque vous cliquez
sur le nom du cluster sous Grer les clusters dans le menu, sur le ct gauche de la page
Homebase luci.
2. Cliquez sur un nom de nud. Cliquer sur un lien vers un nud fait qu'une page pour ce lien sera
affiche, montrant comment ce nud est configur.
La page spcifique aux nuds affiche tous les services actuellement en cours d'excution sur le
nud, ainsi que tous les domaines de basculement dont ce nud est un membre. Vous pouvez
modifier un domaine de basculement existant en cliquant sur son nom. Pour obtenir des
informations sur la configuration des domaines de basculement, voir la Section 3.8, Configurer
un domaine de basculement .
3. Sur la page spcifique aux nuds, sous Priphriques fence, cliquez sur Ajouter une
m thode fence. Ceci affiche la bote de dialogue Ajouter une m thode fence au n ud.
4. Saisissez un Nom de mthode pour la mthode de fencing que vous configurez pour ce nud.
Ceci est un nom arbitraire qui sera utilis par le module complmentaire Red Hat High Availability ;
il ne s'agit pas de la mme chose que le nom DNS du priphrique.
5. Cliquez sur Soum ettre. Cela ouvre l'cran spcifique aux nuds qui affiche la mthode que
vous venez d'ajouter sous Priphriques fence.

51

Red Hat Enterprise Linux 6 Administration de clusters

6. Configurez une instance fence pour cette mthode en cliquant sur le bouton Ajouter une
instance fence qui apparat sous la mthode fence. Ceci affiche un menu droulant Ajouter
un priphrique fence (Instance) partir duquel vous pouvez slectionner un priphrique
fence que vous avez prcdemment configur, comme dcrit dans la Section 3.6.1, Crer un
priphrique fence .
7. Slectionnez un priphrique fence pour cette mthode. Si ce priphrique fence requiert que
vous configuriez des paramtres spcifiques au nud, l'affichage montrera les paramtres
configurer. Pour obtenir des informations sur les paramtres du fencing, reportez-vous
l'Annexe A, Paramtres des priphriques fence.

Note
Pour les mthodes fence qui ne sont pas bases sur l'alimentation (comme le fencing SAN
ou de stockage), Unfencing est slectionn par dfaut sur l'affichage des paramtres
spcifiques au(x) nud(s). Ceci assure que l'accs d'un nud cltur (fenced) au
stockage n'est pas r-activ jusqu' ce que le nud ne soit redmarr. Pour obtenir des
informations sur l'unfencing d'un nud, reportez-vous la page man fence_node(8).
8. Cliquez sur Soum ettre. Cela vous ramne l'cran spcifique aux nuds avec la mthode et
l'instance fence affiches.
3.7.2. Configurer un priphrique fence de sauvegarde
Vous pouvez dfinir de multiples mthodes fence pour un nud. Si le fencing choue avec la premire
mthode, le systme tentera de clturer le nud l'aide de la seconde mthode, puis par toute autre
mthode que vous aurez configure.
Utilisez la procdure suivante pour configurer un priphrique fence de sauvegarde pour un nud.
1. Utilisez la procdure fournie dans la Section 3.7.1, Configurer un priphrique fence unique pour
un nud pour configurer la mthode de fencing primaire pour un nud.
2. Sous l'affichage de la mthode primaire que vous avez dfini, cliquez sur Ajouter une
m thode fence.
3. Saisissez un nom pour la mthode de fencing de sauvegarde que vous avez configur pour ce
nud et cliquez sur Soum ettre. Ceci affiche l'cran spcifique aux nuds, qui montre la
mthode que vous avez ajoute en dessous de la mthode fence primaire.
4. Configurez une instance fence pour cette mthode en cliquant sur Ajouter une instance
fence. Ceci affiche un menu droulant partir duquel vous pouvez slectionner un priphrique
fence que vous aurez prcdemment configur, comme dcrit dans la Section 3.6.1, Crer un
priphrique fence .
5. Slectionnez un priphrique fence pour cette mthode. Si ce priphrique fence requiert que
vous configuriez des paramtres spcifiques au nud, l'affichage montrera les paramtres
configurer. Pour obtenir des informations sur les paramtres du fencing, reportez-vous
l'Annexe A, Paramtres des priphriques fence.
6. Cliquez sur Soum ettre. Cela vous ramne l'cran spcifique aux nuds avec la mthode et
l'instance fence affiches.
Vous pouvez continuer ajouter des mthodes de fencing comme ncessaire. Vous pouvez rarranger
l'ordre des mthodes fence qui seront utilises pour ce nud en cliquant sur Move Up (Haut) et Move
Down (Bas).
3.7.3. Configurer un nud avec une alimentation redondante
Si votre cluster est configur avec une alimentation redondante pour vos nuds, vous devez vous
assurer de configurer le fencing de manire ce que vos nuds s'teignent compltement lorsqu'ils
ont besoin d'tre clturs (fenced). Si vous configurez chaque source d'alimentation en tant que
mthode fence spare, chaque alimentation devra tre clture (fenced) sparment ; la seconde

52

Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga

alimentation permettra au systme de continuer s'excuter lorsque la premire est fenced et le


systme ne sera pas fenced. Pour configurer un systme avec un systme d'alimentation duel, vous
devrez configurer vos priphriques fence de manire ce que les deux sources d'alimentation soient
teintes et que le systme soit totalement teint. Lors de la configuration de votre systme l'aide de
Conga, il vous faudra configurer deux instances dans une seule mthode de fencing.
Pour configurer le fencing pour un nud systme d'alimentation lectrique duel, suivez les tapes de
cette section.
1. Avant de pouvoir configurer le fencing pour un nud avec une alimentation redondante, vous
devez configurer chaque interrupteur d'alimentation en tant que priphrique fence pour le cluster.
Pour obtenir des informations sur la configuration des priphriques fence, voir la Section 3.6,
Configurer des priphriques fence .
2. partir de la page spcifique aux clusters, cliquez sur nuds en haut de l'affichage des clusters.
Ceci affiche les nuds constituant le cluster. Ceci est aussi la page par dfaut apparaissant
lorsque vous cliquez sur le nom du cluster en dessous de Grer les clusters dans le menu sur
le ct gauche de la page Homebase luci.
3. Cliquez sur un nom de nud. Cliquer sur un lien vers un nud fait qu'une page pour ce lien sera
affiche, montrant comment ce nud est configur.
4. Sur la page spcifique aux nuds, cliquez sur Ajouter une m thode fence.
5. Saisissez un nom pour la mthode de fencing que vous configurez pour ce nud.
6. Cliquez sur Soum ettre. Cela ouvre l'cran spcifique aux nuds qui affiche la mthode que
vous venez d'ajouter sous Priphriques fence.
7. Configurez la premire source d'alimentation en tant qu'instance fence pour cette mthode en
cliquant sur Ajouter une instance fence. Ceci affiche un menu droulant partir duquel
vous pouvez slectionner un des priphriques de fencing aliment que vous aurez
prcdemment configur, comme dcrit dans la Section 3.6.1, Crer un priphrique fence .
8. Slectionnez l'un des priphriques de fencing aliment pour cette mthode et saisissez les
paramtres appropris pour celui-ci.
9. Cliquez sur Soum ettre. Cela vous ramne l'cran spcifique aux nuds avec la mthode et
l'instance fence affiches.
10. Sous la mme mthode fence pour laquelle vous avez configur le premier priphrique de
fencing aliment, cliquez sur Ajouter une instance fence. Ceci affiche un menu droulant
partir duquel vous pouvez slectionner le second priphrique de fencing que vous avez
prcdemment configur, comme dcrit dans la Section 3.6.1, Crer un priphrique fence .
11. Slectionnez le second priphrique de fencing aliment pour cette mthode et saisissez les
paramtres appropris pour celui-ci.
12. Cliquez sur Subm it. Ceci vous ramne l'cran spcifique aux nuds o les mthodes et
instances fence sont affiches, montrant que chaque priphrique teindra et allumera le systme
en squence. Ceci vous est montr dans la Figure 3.6, Configuration du fencing alimentation
duelle .

53

Red Hat Enterprise Linux 6 Administration de clusters

Figure 3.6. Configuration du fencing alimentation duelle

3.8. Configurer un domaine de basculement


Un domaine de basculement est un sous-ensemble nomm de nuds d'un cluster qui sont capables
d'excuter un service cluster dans le cas d'un chec de nud. Un domaine de basculement peut
possder les caractristiques suivantes :
Unrestricted Ceci vous permet de spcifier qu'un sous-ensemble de membres est prfr, mais
qu'un service cluster assign ce domaine peut s'excuter sur n'importe quel membre disponible.
Restricted Ceci vous permet de restreindre les membres pouvant excuter un service cluster en
particulier. Si aucun des membres dans un domaine de basculement restricted n'est disponible, le
service cluster ne pourra pas tre lanc (manuellement ou par le logiciel du cluster).
Unordered Lorsqu'un service cluster est assign un domaine de basculement unordered, le
membre sur lequel le service cluster est excut est choisi parmi les membres disponibles du
domaine de basculement sans ordre de priorit.
Ordered Ceci vous permet de spcifier un ordre de prfrence parmi les membres d'un domaine
de basculement. Le membre le plus haut dans la liste est le prfr, suivi par le second membre
dans la liste, et ainsi de suite.
Failback Ceci vous permet de spcifier si un service dans le domaine de basculement devrait tre
restaur sur le nud sur lequel il tait initialement excut avant que ce nud tombe en panne. La
configuration de cette caractristique est utile dans des circonstances o un nud tombe en panne
de manire rptitive et fait partie d'un domaine de basculement ordered. Dans ces circonstances, si
un nud est le nud prfr dans un domaine de basculement, il est possible qu'un service tombe
en panne puis se restaure de manire rptitive entre le nud prfr et un autre nud, affectant
svrement la performance.

54

Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga

Remarque
La caractristique failback est uniquement applicable si le basculement ordered est configur.

Remarque
Modifier la configuration d'un domaine de basculement n'a aucun effet sur les services en cours
d'excution.

Remarque
Les domaines de basculement ne sont pas requis pour les oprations.
Par dfaut, les domaines de basculement sont unrestricted et unordered.
Dans un cluster possdant plusieurs membres, l'utilisation d'un domaine de basculement restricted peut
minimiser le travail de paramtrage du cluster pour qu'il excute un service cluster (comme httpd), qui
requiert que vous paramtriez la configuration de manire identique sur tous les membres excutant le
service cluster. Au lieu de paramtrer le cluster entier afin qu'il excute le service cluster, il vous est
possible de paramtrer uniquement les membres dans le domaine de basculement restricted que vous
associerez au service cluster.

Remarque
Pour configurer un membre prfr, vous pouvez crer un domaine de basculement unrestricted
comprenant uniquement un membre du cluster. Faire ceci cause au service cluster de s'excuter
sur ce membre du cluster en premier (le membre prfr), mais permet au service cluster de
basculer sur tout autre membre.
Les sections suivantes dcrivent l'addition, la modification et la suppression d'un domaine de
basculement :
Section 3.8.1, Ajouter un domaine de basculement
Section 3.8.2, Modifier un domaine de basculement
Section 3.8.3, Supprimer un domaine de basculement
3.8.1. Ajouter un domaine de basculement
Pour ajouter un domaine de basculement, suivez les tapes de cette section.
1. partir de la page spcifique aux clusters, vous pouvez configurer des domaines de basculement
pour ce cluster en cliquant sur Domaines de basculement en haut de l'affichage des clusters.
Ceci affiche les domaines de basculement qui ont t configurs pour ce cluster.
2. Cliquez sur Ajouter. Cliquer sur Ajouter affichera la bote de dialogue Ajouter le dom aine
de basculem ent au cluster, comme dcrit dans la Figure 3.7, Bote de dialogue luci de la
configuration du domaine de basculement .

55

Red Hat Enterprise Linux 6 Administration de clusters

Figure 3.7. Bote de dialogue luci de la configuration du domaine de basculement

3. Dans la bote de dialogue Ajouter un dom aine de basculem ent au cluster, spcifiez
un nom de domaine de basculement dans la bote de texte Nom.

Note
Le nom doit tre suffisamment descriptif pour distinguer son but par rapport aux autres
noms utiliss dans votre cluster.
4. Pour activer le paramtrage de la priorit des basculements des membres dans le domaine de
basculement, cliquez sur la case cocher Prioritized (Prioriss). Lorsque Prioritized est coch,
vous pouvez paramtrer la valeur de priorit Priority (Priorit) pour chaque nud slectionn en
tant que membre du domaine de basculement.
5. Pour restreindre le basculement aux membres dans ce domaine de basculement, cliquez sur la
case cocher Restricted (Restreint). Lorsque Restricted est coch, les services assigns ce
domaine de basculement ne basculent que sur les nuds dans ce domaine de basculement.
6. Pour spcifier qu'un nud ne bascule pas dans ce domaine de basculement, cliquez sur la case
cocher No Failback (Pas de basculement). Lorsque No Failback est coch, si un service
bascule depuis un nud prfr, ce service ne basculera pas vers le nud d'origine une fois
que celui-ci est restaur.
7. Configurez les membres de ce domaine de basculement. Cliquez sur la case cocher Membre
de chaque nud devant tre un membre du domaine de basculement. Si Prioritized est coch,
paramtrez la priorit dans la bote de texte Priority pour chaque membre du domaine de
basculement.
8. Cliquez sur Crer. Ceci affiche la page Dom aines de basculem ent en affichant le domaine
de basculement nouvellement cr. Un message indique que le nouveau domaine est en cours de
cration. Ractualisez la page pour mettre jour l'tat.
3.8.2. Modifier un domaine de basculement

56

Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga

Pour modifier un domaine de basculement, suivez les tapes de cette section.


1. partir de la page spcifique aux clusters, vous pouvez configurer les domaines de basculement
pour ce cluster en cliquant sur Domaines de basculement en haut de l'affichage des clusters.
Ceci affiche les domaines de basculement qui ont t configurs pour ce cluster.
2. Cliquez sur le nom d'un domaine de basculement. Ceci affiche la page de configuration de ce
domaine de basculement.
3. Pour modifier les proprits Prioritized, Restricted ou No Failback du domaine de
basculement, cochez ou dcochez la case cocher ct de la proprit puis cliquez sur
Update Properties (Mettre jour les proprits).
4. Pour modifier l'adhsion au domaine de basculement, cochez ou dcochez la case cocher
ct du membre du cluster. Si le domaine de basculement est prioris, vous pouvez aussi modifier
le paramtre de la priorit du membre du cluster. Cliquez ensuite sur Update Settings (Mettre
jour les paramtres).
3.8.3. Supprimer un domaine de basculement
Pour supprimer un domaine de basculement, suivez les tapes de cette section.
1. partir de la page spcifique aux clusters, vous pouvez configurer les domaines de basculement
pour ce cluster en cliquant sur Domaines de basculement en haut de l'affichage des clusters.
Ceci affiche les domaines de basculement qui ont t configurs pour ce cluster.
2. Slectionnez la case cocher du domaine de basculement supprimer.
3. Cliquez sur Delete (supprimer).

3.9. Configurer les ressources globales du cluster


Vous pouvez configurer les ressources globales pouvant tre utilises par tout service excut dans le
cluster. Vous pouvez aussi configurer des ressources qui ne sont disponibles qu' un service
spcifique.
Pour ajouter une ressource globale de cluster, suivez les tapes de cette section. Vous pouvez ajouter
une ressource qui est locale un service en particulier lorsque vous configurez le service, comme dcrit
dans la Section 3.10, Ajouter un service cluster un cluster .
1. Sur la page spcifique aux clusters, vous pouvez ajouter des ressources ce cluster en cliquant
sur Ressources en haut de l'affichage des clusters. Ceci affiche les ressources qui ont t
configures pour ce cluster.
2. Cliquez sur Ajouter. Ceci affiche le menu droulant Ajouter une ressource au cluster.
3. Cliquez sur la bote droulante sous Ajouter une ressource au cluster et slectionnez le type
de ressource configurer.
4. Saisissez les paramtres de ressources de la ressource que vous ajoutez. L'Annexe B,
Paramtres des ressources HA dcrit les paramtres de ressources.
5. Cliquez sur Soum ettre. Cliquer sur Soum ettre vous ramne la page des ressources qui
affiche l'cran Ressources, montrant la ressource ajoute (ainsi que d'autres ressources).
Pour modifier une ressource existante, procdez aux tapes suivantes.
1. partir de la page luci Ressources, cliquez sur le nom de la ressource modifier. Ceci affiche
les paramtres de cette ressource.
2. Modifiez les paramtres de la ressource.
3. Cliquez sur Appliquer.
Pour supprimer une ressource existante, procdez aux tapes suivantes.
1. partir de la page luci Ressources, cliquez sur la case cocher pour supprimer toute
ressource.

57

Red Hat Enterprise Linux 6 Administration de clusters

2. Cliquez sur Delete (supprimer).

3.10. Ajouter un service cluster un cluster


Pour ajouter un service cluster au cluster, suivez les tapes de cette section.
1. Sur la page spcifique aux clusters, vous pouvez ajouter des services ce cluster en cliquant sur
Groupes de services en haut de l'affichage des clusters. Ceci affiche les services qui ont t
configurs pour ce cluster. (Depuis la page Groupes de services, vous pouvez aussi dmarrer,
redmarrer et dsactiver un service, comme dcrit dans la Section 4.5, Grer les services HighAvailability .)
2. Cliquez sur Ajouter. Ceci affiche la bote de dialogue Ajouter un groupe de services au
cluster.
3. Dans la bote de texte Nom du service se trouvant dans la bote de dialogue Ajouter un
groupe de services au cluster, saisissez le nom du service.

Remarque
Utilisez un nom descriptif qui distingue clairement le service des autres services dans le
cluster.
4. Cochez la case Dmarrer ce service automatiquement si vous souhaitez que ce service
dmarre automatiquement lorsqu'un cluster est lanc et fonctionne. Si la case n'est pas coche, le
service devra tre lanc manuellement chaque fois que le cluster sortira de l'tat arrt.
5. Cochez la case Run exclusive pour dfinir une stratgie avec laquelle le service ne s'excute
que sur des nuds sur lesquels aucun autre service ne s'excute.
6. Si vous avez configur des domaines de basculement pour le cluster, vous pouvez utiliser le
menu droulant du paramtre Domaine de basculement pour slectionner un domaine de
basculement pour ce service. Pour obtenir des informations sur la configuration de domaines de
basculement, voir la Section 3.8, Configurer un domaine de basculement .
7. Utilisez la bote droulante Politique de rcupration pour slectionner une politique de
rcupration pour le service. Les options pour le service sont Relocate (Dplacer), Restart
(Redmarrer), Restart-Disable (Redmarrer-dsactiver), ou Disable (Dsactiver).
Slectionner l'option Restart (redmarrer) indique que le systme devrait tenter de redmarrer le
service en chec avant de le dplacer. Slectionner l'option Relocate (dplacer) indique que le
systme devrait tenter de redmarrer le service dans un autre nud. Slectionner l'option
Disable (dsactiver) indique que le systme devrait dsactiver le groupe de ressources si l'un
des composants choue. Slectionner l'option Restart-Disable (redmarrer-dsactiver) indique
que le systme devrait tenter de redmarrer le service sa place s'il choue, mais si le
redmarrage choue, alors le service sera dsactiv au lieu d'tre dplac vers un autre hte
dans le cluster.
Si vous slectionnez Restart ou Restart-Disable en tant que politique de rcupration pour le
service, vous pourrez spcifier le nombre maximum d'checs de redmarrage avant le
dplacement ou la dsactivation du service. Vous pouvez aussi spcifier (en secondes) partir
de combien de temps il ne faudra plus effectuer de redmarrages.
8. Pour ajouter une ressource au service, cliquez sur Ajouter une ressource. Cliquer sur
Ajouter une ressource affiche la bote droulante de l'cran Ajouter une ressource
au service qui vous permet d'ajouter une ressource globale existante ou d'ajouter une nouvelle
ressource qui est uniquement disponible ce service.
Pour ajouter une ressource globale existante, cliquez sur le nom de la ressource existante
dans la bote droulante Ajouter une ressource au service. Ceci affiche la ressource
et ses paramtres sur la page Groupes de services pour le service que vous configurez.
Pour obtenir des informations sur l'ajout et sur la modification des ressources globales, voir la
Section 3.9, Configurer les ressources globales du cluster .

58

Chapitre 4. Grer le module complmentaire Red Hat High Availability avec Conga

Pour ajouter un nouvelle ressource uniquement disponible ce service, slectionnez le type


de ressource configurer partir de la bote droulante Ajouter une ressource au
service et saisissez les paramtres de ressources pour la ressource que vous ajoutez.
L'Annexe B, Paramtres des ressources HA dcrit les paramtres de ressources.
Lors de l'ajout d'une ressource un service, qu'il s'agisse d'une ressource globale existante
ou d'une ressource uniquement disponible ce service, vous pouvez spcifier si la ressource
est une sous-arborescence indpendante ou une Ressource non-critique.
Si vous spcifiez la ressource en tant qu'arborescence indpendante et que celle-ci choue,
elle seule sera redmarre (plutt que le service entier) avant que le systme ne tente
d'effectuer une rcupration normale. Vous pouvez spcifier le nombre maximum de
redmarrages que cette ressource devra tenter sur un nud avant d'implmenter une
politique de rcupration pour ce service. Vous pouvez aussi spcifier la dure, en secondes,
aprs laquelle le systme implmentera la politique de rcupration pour ce service.
Si vous spcifiez la ressource en tant que ressource non-critique et que celle-ci choue, elle
seule sera redmarre. Si elle continue chouer, alors plutt que le service entier, elle seule
sera dsactive. Vous pouvez spcifier le nombre maximum de redmarrages que cette
ressource devra tenter sur un nud avant de la dsactiver. Vous pouvez aussi spcifier la
dure, en secondes, aprs laquelle le systme dsactivera cette ressource.
9. Si vous souhaitez ajouter des ressources enfant la ressource que tes en train de dfinir,
cliquez sur Ajouter une ressource enfant. Cliquer sur Ajouter une ressource
enfant affiche la boite droulante Ajouter une ressource au service, partir de laquelle vous
pouvez ajouter une ressource globale existante ou une nouvelle ressource uniquement
disponible ce service. Vous pouvez continuer d'ajouter des ressources enfant la ressource
selon vos besoins.

Remarque
Si vous tes en train d'ajouter une ressource du service Samba, ajoutez-la directement au
service, et non pas en tant qu'enfant d'une autre ressource.
10. Lorsque vous aurez fini d'ajouter des ressources au service et des ressources enfant aux
ressources, cliquez sur Soum ettre. Cliquer sur Soum ettre vous ramne la page Groupes
de services, qui affiche le service ajout (et les autres services).

Remarque
Pour vrifier l'existence de la ressource du service IP utilise dans un service cluster, vous
pouvez utiliser la commande /sbin/ip addr show sur un nud de cluster (plutt que la
commande obsolte ifconfig). La sortie suivante montre la commande /sbin/ip addr
show excute sur un nud qui excute un service cluster :
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP> mtu 1356 qdisc pfifo_fast qlen 1000
link/ether 00:05:5d:9a:d8:91 brd ff:ff:ff:ff:ff:ff
inet 10.11.4.31/22 brd 10.11.7.255 scope global eth0
inet6 fe80::205:5dff:fe9a:d891/64 scope link
inet 10.11.4.240/22 scope global secondary eth0
valid_lft forever preferred_lft forever

Pour modifier un service existant, procdez aux tapes suivantes.

59

Red Hat Enterprise Linux 6 Administration de clusters

1. partir de la bote de dialogue Groupes de services, cliquez sur le nom du service modifier.
Ceci affiche les paramtres et les ressources qui ont t configurs pour ce service.
2. Modifiez les paramtres de service.
3. Cliquez sur Subm it (Soumettre).
Pour supprimer un ou plusieurs service(s) existant(s), procdez aux tapes suivantes.
1. partir de la page luci Groupes de services, cliquez sur la case cocher pour supprimer tout
service.
2. Cliquez sur Delete (supprimer).
3. partir de Red Hat Enterprise Linux 6.3, avant que luci ne supprime un (ou plusieurs) service(s),
un message s'affiche vous demandant de confirmer si vous souhaitez bien supprimer le ou les
groupe(s) de services, ce qui arrte les ressources qui le ou qui les contiennent. Cliquez sur
Annuler pour fermer la bote de dialogue sans supprimer de services, ou sur Procder pour
supprimer le ou les service(s) slectionn(s).

60

Chapitre 4. Grer le module complmentaire Red Hat High Availability avec Conga

Chapitre 4. Grer le module complmentaire Red Hat High


Availability avec Conga
Ce chapitre dcrit les diverses tches administratives pour la gestion du module complmentaire Red
Hat High Availability et comporte les sections suivantes :
Section 4.1, Ajouter un cluster existante l'interface luci
Section 4.2, Supprimer un cluster de l'interface luci
Section 4.3, Grer les nuds de clusters
Section 4.4, Dmarrer, arrter, redmarrer et supprimer des clusters
Section 4.5, Grer les services High-Availability
Section 4.6, Effectuer une copie de sauvegarde et restaurer une configuration Luci

4.1. Ajouter un cluster existante l'interface luci


Si vous avez dj cr un cluster avec module complmentaire High Availability, vous pourrez facilement
ajouter le cluster l'interface luci, de manire grer le cluster avec Conga.
Pour ajouter un cluster existant l'interface luci, procdez aux tapes suivantes :
1. Cliquez sur Grer les clusters dans le menu gauche de la page luci Homebase. L'cran
Clusters s'affiche.
2. Cliquez sur Ajouter. L'cran Ajouter un cluster existant s'affiche.
3. Saisissez le nom d'hte du nud et un mot de passe ricci pour n'importe quel nud dans le
cluster existant. Chaque nud dans le cluster contient toutes les informations de configuration du
cluster, celles-ci devraient tre suffisantes pour pouvoir ajouter le cluster l'interface luci.
4. Cliquez sur Connecter. L'cran Ajouter un cluster existant affiche alors le nom du cluster et
les nuds restants dans celui-ci.
5. Saisissez les mots de passe ricci individuels pour chaque nuds dans le cluster, ou saisissez
un mot de passe et slectionnez Utiliser le mme mot de passe pour tous les nuds.
6. Cliquez sur Ajoute un cluster. Le cluster prcdemment configur s'affiche maintenant sur
l'cran Grer les clusters.

4.2. Supprimer un cluster de l'interface luci


Vous pouvez supprimer un cluster de l'interface utilisateur graphique de gestion luci sans affecter les
services ou l'abonnement du cluster. Si vous supprimez un cluster, vous pouvez le rajouter plus tard ou
l'ajouter une autre instance luci, comme le dcrit la Section 4.1, Ajouter un cluster existante
l'interface luci .
Pour supprimer un cluster de l'interface utilisateur graphique de gestion luci sans affecter les services
ou l'abonnement du cluster, veuillez suivre les tapes suivantes :
1. Cliquez sur Grer les clusters dans le menu gauche de la page luci Homebase. L'cran
Clusters s'affiche.
2. Slectionnez le ou les cluster(s) que vous souhaitez supprimer.
3. Cliquez sur Delete (supprimer).
Pour obtenir des informations sur la suppression complte d'un cluster, l'arrt de tous les services du
cluster et la suppression des informations de configuration du cluster depuis les nuds, reportez-vous
la Section 4.4, Dmarrer, arrter, redmarrer et supprimer des clusters .

4.3. Grer les nuds de clusters


Cette section document comment effectuer les fonctions suivantes de gestion de nuds avec le

61

Red Hat Enterprise Linux 6 Administration de clusters

composant serveur de Conga, luci :


Section 4.3.1, Redmarrer un nud de cluster
Section 4.3.2, Causer un nud de joindre ou quitter un cluster
Section 4.3.3, Ajouter un membre un cluster en cours d'excution
Section 4.3.4, Supprimer un membre d'un cluster
4 .3.1. Redmarrer un nud de cluster
Pour redmarrer un nud dans un cluster, procdez aux tapes suivantes :
1. partir de la page spcifique aux clusters, cliquez sur nuds en haut de l'affichage des clusters.
Ceci affiche les nuds constituant le cluster. Ceci est aussi la page par dfaut apparaissant
lorsque vous cliquez sur le nom du cluster en dessous de Grer les clusters dans le menu sur
le ct gauche de la page Homebase luci.
2. Slectionnez le nud redmarrer en cliquant sur la case cocher pour ce nud.
3. Slectionnez la fonction Reboot (Redmarrer) dans le menu en haut de la page. Ceci cause au
nud slectionn de redmarrer et un message s'affiche en haut de la page indiquant que le
nud est en train de redmarrer.
4. Ractualise la page pour voir l'tat du nud mis jour.
Il est aussi possible de redmarrer plus d'un nud la fois en slectionnant tous les nuds que vous
souhaitez redmarrer avant de cliquer sur Reboot.
4 .3.2. Causer un nud de joindre ou quitter un cluster
Vous pouvez utiliser le composant serveur de Conga, luci pour faire en sorte qu'un nud quitte un
cluster actif en arrtant tous les services cluster sur ce nud. Vous pouvez aussi utiliser le composant
serveur de Conga, luci pour causer un nud ayant quitt le cluster de rejoindre le cluster.
Causer un nud de quitter un cluster ne supprime pas les informations de configuration du cluster de
ce nud, et celui-ci apparat toujours dans l'affichage du nud du cluster avec le statut Not a
cluster m em ber(N'est pas un membre du cluster). Pour obtenir des informations sur la suppression
complte du nud de la configuration du cluster, voir la Section 4.3.4, Supprimer un membre d'un
cluster .
Pour faire qu'un nud quitte un cluster, effectuez les tapes suivantes. Ceci teint le logiciel du cluster
dans le nud. Faire en sorte qu'un nud quitte un cluster empche le nud de rejoindre le cluster
automatiquement lorsqu'il est redmarr.
1. partir de la page spcifique aux clusters, cliquez sur nuds en haut de l'affichage des clusters.
Ceci affiche les nuds constituant le cluster. Ceci est aussi la page par dfaut apparaissant
lorsque vous cliquez sur le nom du cluster en dessous de Grer les clusters dans le menu sur
le ct gauche de la page Homebase luci.
2. Slectionnez le nud que vous souhaitez faire quitter le cluster en cliquant sur la case cocher
de ce nud.
3. Slectionnez la fonction Quitter le cluster (en anglais, Leave Cluster ) dans le menu en haut
de la page. Ceci fait apparatre un message en haut de la page indiquant que le nud est en
train d'tre arrt.
4. Ractualise la page pour voir l'tat du nud mis jour.
Il est aussi possible de faire en sorte que plus d'un nud quitte le cluster la fois en slectionnant tous
les nuds devant quitter le cluster avant de cliquer sur Quitter le cluster.
Pour causer un nud de rejoindre un cluster, slectionnez tous les nuds que vous souhaitez faire
rejoindre le cluster en cliquant sur la case cocher de ceux-ci et en slectionnant Rejoindre le
cluster. Ceci cause aux nuds slectionns de rejoindre le cluster, et permet aux nuds slectionns
de le rejoindre lorsqu'ils sont redmarrs.

62

Chapitre 4. Grer le module complmentaire Red Hat High Availability avec Conga

4 .3.3. Ajouter un membre un cluster en cours d'excution


Pour ajouter un membre un cluster en cours d'excution, suivez les tapes de cette section.
1. partir de la page spcifique aux clusters, cliquez sur nuds en haut de l'affichage du cluster.
Ceci affiche les nuds constituant le cluster. Ceci est aussi la page par dfaut apparaissant
lorsque vous cliquez sur le nom du cluster en-dessous de Grer les clusters sur le ct
gauche de la page luci, Homebase.
2. Cliquez sur Ajouter. Cliquer sur Ajouter provoque l'affichage de la bote de dialogue Ajouter
des n uds au cluster.
3. Saisissez le nom du nud dans la bote de texte Nom d'hte du nud ; saisissez le mot de
passe ricci dans la bote de texte Mot de passe. Si vous utilisez un port diffrent pour l'agent
ricci autre que celui par dfaut, 11111, modifiez ce paramtre sur le port que vous utilisez.
4. Cochez la case Activer le support du stockage partag (de l'anglais, Enable Shared
Storage Support ) si le stockage clusteris est requis pour tlcharger les paquetages qui
prennent en charge le stockage clusteris et activez LVM sous clusters ; vous devriez
slectionner ceci uniquement lorsque vous avez accs au module complmentaire Resilient
Storage ou au module complmentaire Scalable File System.
5. Si vous souhaitez ajouter plus de nuds, cliquez sur Ajouter un autre n ud et saisissez le
nom du nud et le mot de passe pour chaque nud supplmentaire.
6. Cliquez sur Ajouter des n uds. Cliquer sur Ajouter des n uds provoque les actions
suivantes :
a. Si vous avez slectionn Download Packages (T lcharger les paquetages), les
paquetages logiciels du cluster sont tlchargs sur les nuds.
b. Les logiciels du cluster sont installs sur les nuds (sinon, il est vrifi que les bons
paquetages logiciels sont installs).
c. Le fichier de configuration est mis jour et propag vers chaque nud dans le cluster y
compris vers le nud ajout.
d. Le nud ajout rejoint le cluster.
La page nuds s'affiche avec un message indiquant que le nud est en train d'tre ajout au
cluster. Ractualisez la page pour mettre le statut jour.
7. Lorsque le processus d'ajout du nud est termin, cliquez sur le nom du nud pour que le
nud nouvellement ajout configure le fencing pour le nud, comme le dcrit la Section 3.6,
Configurer des priphriques fence .
4 .3.4 . Supprimer un membre d'un cluster
Pour supprimer un membre d'un cluster existant qui est en cours d'opration, suivez les tapes de cette
section. Remarquez que les nuds doivent tre arrts avec d'tre supprims moins que vous ne
supprimiez tous les nuds du cluster la fois.
1. partir de la page spcifique aux clusters, cliquez sur nuds en haut de l'affichage du cluster.
Ceci affiche les nuds constituant le cluster. Ceci est aussi la page par dfaut apparaissant
lorsque vous cliquez sur le nom du cluster en-dessous de Grer les clusters sur le ct
gauche de la page luci, Homebase.

Remarque
Pour permettre aux services excuts sur nud de basculer lorsque le nud est
supprim, ignorez l'tape suivante.
2. Dsactivez ou dplacez chaque service en cours d'excution sur le nud supprimer. Pour
obtenir des informations sur la dsactivation et le dplacement des services, voir la Section 4.5,
Grer les services High-Availability .
3. Slectionnez le ou les nud(s) supprimer.

63

Red Hat Enterprise Linux 6 Administration de clusters

4. Cliquez sur Supprimer. La page n uds indique que le nud est en cours de suppression.
Ractualisez la page pour voir le statut actuel.

Important
La suppression d'un nud de cluster

4.4. Dmarrer, arrter, redmarrer et supprimer des clusters


Vous pouvez dmarrer, arrter, redmarrer et supprimer un cluster en effectuant ces actions sur les
nuds individuels dans le cluster. partir de la page spcifique aux clusters, cliquez sur nuds en
haut de l'affichage du cluster. Ceci affiche les nuds constituant le cluster.
Les oprations de dmarrage et de redmarrage de nuds de clusters ou de clusters entiers vous
permettent de crer de courtes pannes des services du cluster si un service doit tre dplac sur un
autre membre du cluster parce qu'il est excut sur un nud devant tre arrt ou redmarr.
Pour arrter un cluster, effectuez les tapes suivantes. Celles-ci ferment le logiciel du cluster dans les
nuds, mais cela ne supprime pas les informations de la configuration du cluster des nuds et les
nuds apparaissent toujours sur l'affichage des nuds du cluster avec le statut Not a cluster
m em ber.
1. Slectionnez tous les nuds dans le cluster en cliquant sur la case cocher ct de chaque
nud.
2. Slectionnez la fonction Quitter le cluster dans le menu en haut de la page. Ceci fait apparatre
un message en haut de la page indiquant que chaque nud est en train d'tre arrt.
3. Ractualisez la page pour voir le statut mis jour des nuds.
Pour dmarrer un cluster, effectuez les tapes suivantes :
1. Slectionnez tous les nuds dans le cluster en cliquant sur la case cocher ct de chaque
nud.
2. Slectionnez la fonction Rejoindre un cluster dans le menu en haut de la page.
3. Ractualisez la page pour voir le statut mis jour des nuds.
Pour redmarrer un cluster en cours d'excution, commencez par arrter tous les nuds dans le
cluster, puis dmarrez tous les nuds dans le cluster, comme dcrit ci-dessus.
Pour supprimer un cluster entier, effectuez les tapes suivantes. Ceci cause tous les services du
cluster de s'arrter et supprime les informations de configuration des nuds et de l'affichage du cluster.
Si vous dcidez d'ajouter un cluster existant ultrieurement l'aide de l'un des nuds que vous avez
supprim, luci indiquera que le nud n'est membre d'aucun cluster.

Important
La suppression d'un cluster est une opration destructive qui ne peut pas tre annule.
Restaurer un cluster aprs l'avoir supprim ncessite de recrer et redfinir le cluster depuis le
dbut.
1. Slectionnez tous les nuds dans le cluster en cliquant sur la case cocher ct de chaque
nud.
2. Slectionnez la fonction Supprimer du menu en haut de la page.
Si vous souhaitez supprimer un cluster de l'interface luci sans arrter le moindre service cluster ou
sans modifier l'appartenance du cluster, vous pouvez utiliser l'option Supprimer sur la page Grer les

64

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

clusters, comme le dcrit la Section 4.2, Supprimer un cluster de l'interface luci .

4.5. Grer les services High-Availability


En plus d'ajouter et de modifier un service, comme dcrit dans la Section 3.10, Ajouter un service
cluster un cluster , il vous est aussi possible d'utiliser les fonctions de gestion pour les services
haute disponibilit (high-availability) via la composante serveur de Conga, luci :
Dmarrer un service
Redmarrer un service
Dsactiver un service
Supprimer un service
Dplacer un service
partir de la page spcifique aux clusters, vous pouvez grer les services pour ce cluster en cliquant
sur Groupes de services en haut de l'affichage des clusters. Ceci affiche les services qui ont t
configurs pour ce cluster.
Dmarrer un service Pour dmarrer tout service qui n'est pas en cours d'excution,
slectionnez le service que vous souhaitez dmarrer en cliquant sur sa case cocher, puis cliquez
sur Dmarrer.
Redmarrer un service Pour redmarrer tout service en cours d'excution, slectionnez le
service que vous souhaitez redmarrer en cliquant sur sa case cocher, puis cliquez sur
Redmarrer.
Dsactiver un service Pour dsactiver tout service en cours d'excution, slectionnez le
service que vous souhaitez dsactiver en cliquant sur sa case cocher, puis cliquez sur
Dsactiver.
Supprimer un service Pour supprimer tout service qui n'est pas en cours d'excution,
slectionnez le service que vous souhaitez supprimer en cliquant sur sa case cocher, puis cliquez
sur Supprimer.
Dplacer un service Pour dplacer un service en cours d'excution, cliquez sur le nom du
service dans l'cran affichant les services. Ceci affiche la page de configuration des services,
indiquant sur quel nud le service est actuellement en cours d'excution.
Dans la bote droulante Start on node... (Dmarrer sur le nud...), slectionnez le nud sur
lequel vous souhaitez dplacer le service, puis cliquez sur l'icne Dmarrer. Un message
s'affichera en haut de l'cran, indiquant que le service est en train de dmarrer. Vous pourriez devoir
ractualiser l'cran pour voir si le service est excut sur le nud que vous avez slectionn.

Note
Si le service que vous avez slectionn est un service vm , la bote droulante affichera
l'option m igrer au lieu de l'option dplacer.

Note
Vous pouvez aussi dmarrer, redmarrer, dsactiver ou supprimer un service individuel en
cliquant sur le nom du service sur la page Services. Ceci affiche la page de configuration du
service. En haut droite de la page de configuration du service se trouvent les mmes icnes
pour Dmarrer, Redmarrer, Dsactiver et Supprimer.

65

Red Hat Enterprise Linux 6 Administration de clusters

partir de Red Hat Enterprise Linux 6.2, vous pouvez utiliser la procdure suivante pour effectuer une
copie de sauvegarde de la base de donnes luci, qui est stocke dans le fichier
/var/lib/luci/data/luci.db. Il ne s'agit pas de la configuration du cluster, qui est stock dans le
fichier cluster.conf. Au contraire, ce fichier contient la liste des utilisateurs, des clusters et des
proprits lies que luci maintient. Par dfaut, la sauvegarde que cette procdure cre sera crite sur le
mme rpertoire que le fichier luci.db.
1. Excutez service luci stop.
2. Excutez service luci backup-db.
Optionnellement, vous pouvez spcifier un nom de fichier en tant que paramtre pour la
commande backup-db, qui crira la base de donnes luci sur ce fichier. Par exemple, pour
crire la base de donnes luci sur le fichier /root/luci.db.backup, vous pouvez excuter la
commande service luci backup-db /root/luci.db.backup. Remarquez cependant que
les fichiers de sauvegarde qui sont crits sur des emplacements autres que
/var/lib/luci/data/ (pour les sauvegardes dont les noms de fichiers sont spcifis lors de
l'utilisation de service luci backup-db) n'apparatront pas dans la sortie de la commande
list-backups.
3. Excutez service luci start.
Utilisez la procdure suivante pour restaurer une base de donnes luci.
1. Excutez service luci stop.
2. Excutez service luci list-backups et notez le nom du fichier restaurer.
3. Excutez service luci restore-db /var/lib/luci/data/lucibackupfile, o
lucibackupfile est le fichier de sauvegarde restaurer.
Par exemple, la commande suivante restaure les informations de configuration luci qui taient
stockes dans le fichier luci-backup20110923062526.db :
service luci restore-db /var/lib/luci/data/luci-backup20110923062526.db

4. Excutez service luci start.


Si vous devez restaurer une base de donnes luci mais que vous avez perdu le fichier host.pem de
la machine sur laquelle vous avez cr la sauvegarde, par exemple cause d'une rinstallation
complte, vous devrez ajouter vos clusters sur luci manuellement afin de r-authentifier les nuds du
cluster.
Utilisez la procdure suivante pour restaurer une base de donnes luci sur une machine autre que
celle sur laquelle la sauvegarde a t cre. Remarquez qu'en plus de restaurer la base de donnes,
vous devez aussi copier le fichier certificat SSL afin de vous assurer que luci a bien t authentifi sur
les nuds ricci. Dans cet exemple, la sauvegarde est cre sur la machine luci1 et la sauvegarde
est restaure sur la machine luci2.
1. Excutez la squence de commandes suivante pour crer une copie de sauvegarde de luci sur
luci1 et copiez le fichier certificat SSL et la sauvegarde luci sur luci2.
[root@luci1 ~]# service luci stop
[root@luci1 ~]# service luci backup-db
[root@luci1 ~]# service luci list-backups
/var/lib/luci/data/luci-backup20120504134051.db
[root@luci1 ~]# scp /var/lib/luci/certs/host.pem /var/lib/luci/data/lucibackup20120504134051.db root@luci2:

2. Sur la machine luci2, assurez-vous que luci a t install et n'est pas en cours d'excution.
Installez le paquet s'il ne l'a pas dj t.
3. Excutez la squence de commandes suivante afin de vous assurer que les authentifications
sont effectues et pour restaurer la base de donnes luci de luci1 sur luci2.

66

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

[root@luci2
[root@luci2
[root@luci2
[root@luci2
[root@luci2

~]#
~]#
~]#
~]#
~]#

cp host.pem /var/lib/luci/certs/
chown luci: /var/lib/luci/certs/host.pem
/etc/init.d/luci restore-db ~/luci-backup20120504134051.db
shred -u ~/host.pem ~/luci-backup20120504134051.db
service luci start

67

Red Hat Enterprise Linux 6 Administration de clusters

Chapitre 5. Configurer le module complmentaire Red Hat High


Availability avec la commande ccs
partir de la version 6.1 de Red Hat Enterprise Linux, le module complmentaire Red Hat High
Availability fournit la prise en charge de la commande de configuration du cluster ccs. La commande
ccs permet un administrateur de crer, de modifier et d'afficher le fichier de configuration du cluster
cluster.conf. Vous pouvez utiliser la commande ccs pour configurer un fichier de configuration de
cluster sur un systme de fichiers local ou sur un nud distant. Avec la commande ccs, un
administrateur peut aussi dmarrer et arrter les services du cluster sur un ou tous les nuds d'un
cluster configur.
Ce chapitre dcrit comment configurer le fichier de configuration du cluster du module complmentaire
Red Hat High Availability avec la commande ccs. Pour obtenir des informations sur l'utilisation de la
commande ccs pour grer un cluster en cours d'excution, voir Chapitre 6, Grer le module
complmentaire Red Hat High Availability avec ccs.
Ce chapitre est compos des sections suivantes :
Section 5.1, Aperu oprationnel
Section 5.2, T ches de configuration
Section 5.3, Dmarrage de ricci
Section 5.4, Crer un cluster
Section 5.5, Configuration des priphriques fence
Section 5.7, Configuration du fencing pour les membres du cluster
Section 5.8, Configurer un domaine de basculement
Section 5.9, Configurer les ressources globales du cluster
Section 5.10, Ajouter un service cluster un cluster
Section 5.13, Configurer un disque Quorum :
Section 5.14, Diverses configurations de clusters
Section 5.14, Diverses configurations de clusters
Section 5.15, Propager le fichier de configuration sur les nuds du cluster

Important
Assurez-vous que le dploiement du module complmentaire High Availability rpond bien vos
besoins et qu'il est pris en charge. Consultez un reprsentant Red Hat autoris afin de vrifier
votre configuration avant le dploiement. En outre, prvoyez suffisamment de temps pour une
priode de rodage de la configuration afin de tester les diffrents modes d'chec.

Important
Ce chapitre fait rfrence aux lments et attributs de cluster.conf communment utiliss.
Pour obtenir la liste et la description complte des lments et attributs cluster.conf,
reportez-vous au schma des clusters sur /usr/share/cluster/cluster.rng, et au
schma annot sur /usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l (par exemple,
/usr/share/doc/cm an-3.0.12/cluster_conf.htm l).

5.1. Aperu oprationnel


Cette section dcrit les aspects oprationnels gnraux d'utilisation de la commande ccs pour
configurer un cluster :

68

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

Section 5.1.1, Crer le fichier de configuration du cluster sur un systme local


Section 5.1.2, Afficher la configuration actuelle du cluster
Section 5.1.3, Spcifier les mots de passe ricci avec la commande css
Section 5.1.4, Modifier les composants de la configuration du cluster
5.1.1. Crer le fichier de configuration du cluster sur un systme local
l'aide de la commande ccs, vous pouvez crer un fichier de configuration de cluster sur un nud de
cluster, ou un fichier de configuration de cluster sur un systme de fichiers local, puis envoyer ce fichier
sur un hte dans un cluster. Ceci vous permet de travailler sur un fichier partir d'une machine locale,
o vous pourrez le maintenir sous contrle de version, ou tiqueter le fichier selon vos besoins.
L'utilisation de la commande ccs ne requiert pas le privilge root.
Lorsque vous crez et modifiez un fichier de configuration sur un nud de cluster avec la commande
ccs, vous utilisez l'option -h pour spcifier le nom de l'hte. Ceci cre et modifie le fichier
cluster.conf sur l'hte :
ccs -h host [options]

Pour crer et modifier un fichier de configuration de cluster sur un systme local, utilisez l'option -f de
la commande ccs pour spcifier le nom du fichier de configuration lorsque vous effectuez une opration
de cluster. Vous pouvez nommer ce fichier comme bon vous semble.
ccs -f file [options]

Aprs avoir cr le fichier localement, vous pouvez l'envoyer un nud de cluster l'aide de l'option -setconf de la commande ccs. Sur une machine hte dans un cluster, le fichier envoy sera nomm
cluster.conf et sera plac dans le rpertoire /etc/cluster.
ccs -h host -f file --setconf

Pour obtenir des informations sur l'utilisation de l'option --setconf de la commande ccs, voir la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
5.1.2. Afficher la configuration actuelle du cluster
Si tout moment pendant la cration d'un fichier de configuration de cluster, vous souhaitez imprimer le
fichier actuel, veuillez utiliser la commande suivante, en spcifiant un nud dans le cluster en tant
qu'hte :
ccs -h host --getconf

Si vous crez le fichier de configuration de votre cluster sur un systme local, vous pouvez spcifier
l'option -f au lieu de l'option -h, comme dcrit dans la Section 5.1.1, Crer le fichier de configuration
du cluster sur un systme local .
5.1.3. Spcifier les mots de passe ricci avec la commande css
L'excution de commandes ccs qui distribuent des copies du fichier cluster.conf aux nuds d'un
cluster requiert que ricci soit install et excut sur les nuds du cluster, comme dcrit dans la
Section 2.13, Considrations pour ricci . L'utilisation de ricci requiert un mot de passe la premire
fois que vous aurez une interaction avec ricci, et ce, depuis n'importe quelle machine spcifique.
Si vous n'avez pas saisi de mot de passe pour une instance de ricci sur une machine en particulier
partir de la machine que vous utilisez, il vous sera demand ce mot de passe lorsque la commande ccs
le requerra. Alternativement, vous pouvez utiliser l'option -p pour spcifier un mot de passe ricci sur la
ligne de commande.

69

Red Hat Enterprise Linux 6 Administration de clusters

ccs -h host -p password --sync --activate

Lorsque vous propagez le fichier cluster.conf vers tous les nuds du cluster avec l'option --sync
de la commande ccs et que vous spcifiez un mot de passe ricci pour la commande, la commande ccs
utilisera ce mot de passe pour chaque nud du cluster. Si vous devez dfinir diffrents mots de passe
pour ricci sur des nuds individuels, vous pouvez utiliser l'option --setconf avec l'option -p pour
distribuer le fichier de configuration sur un nud la fois.
5.1.4 . Modifier les composants de la configuration du cluster
Utilisez la commande ccs pour configurer les composants du cluster et leurs attributs dans le fichier de
configuration du cluster. Aprs avoir ajout un composant de cluster au fichier dans le but de modifier
les attributs de ce composant, vous devrez supprimer le composant quvous avez dfini puis ajouter ce
composant nouveau, avec les attributs modifis. Des informations sur la manire d'effectuer cela avec
chaque composant sont fournies dans des sections individuelles de ce chapitre.
Les attributs du composant de cluster cm an fournissent une exception cette procdure pour modifier
les composants de clusters. Pour modifier ces attributs, excutez l'option --setcm an de la commande
ccs, en spcifiant les nouveaux attributs. Remarquez que spcifier cette option r-initialisera toutes les
valeurs que vous n'aurez pas explicitement spcifi comme tant des valeurs par dfaut, comme le
dcrit la Section 5.1.5, Commandes remplaant les paramtres prcdents .
5.1.5. Commandes remplaant les paramtres prcdents
Il existe plusieurs options de la commande ccs qui implmentent des smantiques de remplacement
lors de la dfinition de proprits. Cela signifie que vous pouvez excuter la commande ccs avec l'une
de ces options sans spcifier de paramtres et tous les paramtres seront r-initialiss leurs valeurs
par dfaut. Ces options sont comme suit :
--settotem
--setdlm
--setrm
--setcm an
--setm ulticast
--setaltm ulticast
--setfencedaem on
--setlogging
--setquorum d
Par exemple, pour rinitialiser toutes les proprits du dmon fence, vous pouvez excuter la
commande suivante :
# ccs -h hostname --setfencedaemon

Remarquez cependant que si vous utilisez l'une de ces commandes pour rinitialiser une proprit,
alors les autres proprits de la commande seront rinitialises leurs valeurs par dfaut. Par exemple,
vous pouvez utiliser la commande suivante pour dfinir la proprit post_fail_delay sur 5 :
# ccs -h hostname --setfencedaemon post_fail_delay=5

Si, aprs avoir excut cette commande, vous excutez la commande suivante pour rinitialiser la
proprit post_join_delay sur 10, la proprit post_fail_delay sera restaure sa valeur par
dfaut :
# ccs -h hostname --setfencedaemon post_join_delay=10

70

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

Pour rinitialiser les proprits post_fail_delay et post_join_delay, indiquez-les toutes les


deux sur la mme commande, comme dans l'exemple suivant :
# ccs -h hostname --setfencedaemon post_fail_delay=5 post_join_delay=10

Pour obtenir des informations supplmentaires sur la configuration de priphriques fence, reportezvous la Section 5.5, Configuration des priphriques fence .
5.1.6. Validation de la configuration
Lorsque vous utilisez la commande ccs pour crer et modifier le fichier de configuration du cluster, la
configuration est automatiquement valide selon le schma du cluster. partir de Red Hat Enterprise
Linux 6.3, la commande ccs valide la configuration selon le schma du cluster de
/usr/share/cluster/cluster.rng sur le nud que spcifierez avec l'option -h. Auparavant, la
commande ccs utilisait toujours le schma du cluster empaquet avec la commande ccs-mme,
/usr/share/ccs/cluster.rng sur le systme local. Lorsque vous utilisez l'option -f pour spcifier
le systme local, la commande ccs utilise toujours le schma du cluster
/usr/share/ccs/cluster.rng qui tait empaquet avec la commande ccs-mme sur ce systme.

5.2. Tches de configuration


La configuration du logiciel du module complmentaire Red Hat High Availability avec ccs comprend les
tapes suivantes :
1. S'assurer que ricci est en cours d'excution sur tous les nuds du cluster. Reportez-vous la
Section 5.3, Dmarrage de ricci .
2. Cration d'un cluster. Reportez-vous la Section 5.4, Crer un cluster .
3. Configuration des priphriques fence. Reportez-vous la Section 5.5, Configuration des
priphriques fence .
4. Configuration du fencing pour les membres du cluster. Reportez-vous la Section 5.7,
Configuration du fencing pour les membres du cluster .
5. Cration de domaines de basculements. Reportez-vous la Section 5.8, Configurer un domaine
de basculement .
6. Cration de ressources. Reportez-vous la Section 5.9, Configurer les ressources globales du
cluster .
7. Cration de services de clusters. Reportez-vous la Section 5.10, Ajouter un service cluster
un cluster .
8. Configuration d'un disque quorum. Reportez-vous la Section 5.13, Configurer un disque
Quorum : .
9. Configuration des proprits globales du cluster. Reportez-vous la Section 5.14, Diverses
configurations de clusters .
10. Propagation du fichier de configuration du cluster tous les nuds du cluster. Reportez-vous
la Section 5.15, Propager le fichier de configuration sur les nuds du cluster .

5.3. Dmarrage de ricci


Pour pouvoir crer et distribuer des fichiers de configuration de clusters sur les nuds du cluster, le
service ricci doit tre en cours d'excution sur chaque nud. Avant de lancer ricci, vous devriez vous
assurer que vous avez bien configur votre systme comme suit :
1. Les ports IP des nuds de votre cluster doivent tre activs pour ricci. Pour obtenir des
informations sur l'activation des ports IP sur les nuds de clusters, voir la Section 2.3.1,
Activation des ports IP sur des nuds de clusters .
2. Le service ricci est install sur tous les nuds du cluster et possde un mot de passe ricci,
comme dcrit dans la Section 2.13, Considrations pour ricci .

71

Red Hat Enterprise Linux 6 Administration de clusters

Une fois que ricci a bien t install et configur sur chaque nud, lancez le service ricci sur chaque
nud :
# service ricci start
Starting ricci:

OK

5.4. Crer un cluster


Cette section dcrit comment crer, modifier et supprimer une configuration squelette d'un cluster avec
la commande ccs sans utiliser de fencing, de domaines de basculement et de services HA. Les
sections suivantes dcrivent comment configurer ces parties de la configuration.
Pour crer un fichier de configuration squelette d'un cluster, commencez par crer et nommer le cluster,
puis ajoutez les nuds celui-ci comme le dcrit la procdure suivante :
1. Crez un fichier de configuration de cluster sur l'un des nuds du cluster en excutant la
commande ccs et en utilisant le paramtre -h pour spcifier le nud sur lequel crer le fichier
ainsi que l'option createcluster pour spcifier un nom pour le cluster :
ccs -h host --createcluster clustername

Par exemple, la commande suivante cre un fichier de configuration sur node01.exam ple.com nomm m ycluster :
ccs -h node-01.example.com --createcluster mycluster

Le nom du cluster ne doit pas excder 15 caractres.


Si un fichier cluster.conf existe dj sur l'hte spcifi, l'excution de cette commande
remplacera le fichier existant.
Si vous souhaitez crer un fichier de configuration de cluster sur votre systme local, vous
pouvez spcifier l'option -f au lieu de l'option -h. Pour obtenir des informations sur la cration
locale du fichier, reportez-vous la Section 5.1.1, Crer le fichier de configuration du cluster sur
un systme local .
2. Pour configurer les nuds contenus par le cluster, excutez la commande suivante sur chaque
nud du cluster :
ccs -h host --addnode node

Par exemple, les trois commandes suivantes ajoutent les nuds node-01.exam ple.com ,
node-02.exam ple.com , et node-03.exam ple.com au fichier de configuration sur node01.exam ple.com :
ccs -h node-01.example.com --addnode node-01.example.com
ccs -h node-01.example.com --addnode node-02.example.com
ccs -h node-01.example.com --addnode node-03.example.com

Pour afficher une liste des nuds qui ont t configurs pour un cluster, excutez la commande
suivante :
ccs -h host --lsnodes

L'Exemple 5.1, Fichier cluster.conf aprs l'ajout de trois nuds affiche un fichier de
configuration cluster.conf une fois que vous avez cr le cluster m ycluster, celui-ci contient
les nuds node-01.exam ple.com , node-02.exam ple.com et node-03.exam ple.com .

72

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

Exemple 5.1. Fichier cluster.conf aprs l'ajout de trois nuds

<cluster name="mycluster" config_version="2">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
</cluster>

Lorsque vous ajoutez un nud au cluster, vous pouvez spcifier le nombre de votes auquel le
nud contribue afin de dterminer si le quorum est atteint. Pour ajuster le nombre de vote d'un
nud de cluster, veuillez utiliser la commande suivante :
ccs -h host --addnode host --votes votes

Lorsque vous ajoutez un nud, ccs assigne celui-ci un entier unique qui est utilis en tant
qu'identifiant de nud. Sivous souhaitez spcifier l'identifiant du nud manuellement lorsque
vous crez un nud, utilisez la commande suivante :
ccs -h host --addnode host --nodeid nodeid

Pour supprimer un nud d'un cluster, excutez la commande suivante :


ccs -h host --rmnode node

Une fois que vous aurez termin de configurer tous les composants de votre cluster, vous devrez
synchroniser le fichier de configuration du cluster avec tous les nuds, comme le dcrit la Section 5.15,
Propager le fichier de configuration sur les nuds du cluster .

5.5. Configuration des priphriques fence


La configuration de priphriques fence consiste en la cration, la mise jour et la suppression de
priphriques fence du cluster. Vous devez crer et nommer les priphriques fence dans un cluster
avant de pouvoir configurer le fencing pour les nuds dans le cluster. Pour obtenir des informations sur
la configuration du fencing pour les nuds individuels dans le cluster, reportez-vous la Section 5.7,
Configuration du fencing pour les membres du cluster .
Avant de configurer vos priphriques fence, vous devriez modifier certaines proprits du dmon fence
sur votre systme. Les valeurs que vous configurez pour le dmon fence sont gnralement des
valeurs pour le cluster. Les proprits gnrales du fencing du cluster que vous souhaitez modifier sont
rsumes comme suit :
L'attribut post_fail_delay correspond au nombre de secondes que le dmon fence (fenced)

73

Red Hat Enterprise Linux 6 Administration de clusters

attend avant de fencer n noeud (un membre du domaine fence) une fois que celui-ci a chou.
L'attribut post-join_delay correspond au nombre de secondes que le dmon Fence (fenced)
attend avant de clturer un nud aprs que le nud a rejoint le domaine fence. La valeur par dfaut
de post_join_delay est 6. T ypiquement, le paramtre de dlai de post_join_delay se situe
entre 20 et 30 secondes, mais celui-ci peut varier en fonction de la performance du cluster et du
rseau.
Rinitialiser les valeurs des attributs post_fail_delay et post_join_delay avec l'option -setfencedaem on de la commande ccs. Remarquez cependant que l'excution de la commande ccs
--setfencedaem on remplace toutes les proprits du dmon fence existant ayant t explicitement
paramtres et restaurera leurs valeurs par dfaut.
Par exemple, pour configurer une valeur pour l'attribut post_fail_delay, excutez la commande
suivante. Cette commande remplacera les valeurs de toutes les autres proprits existantes du dmon
fence que vous aurez paramtr avec cette commande et restaurera leurs valeurs par dfaut.
ccs -h host --setfencedaemon post_fail_delay=value

Pour configurer une valeur pour l'attribut post_join_delay, excutez la commande suivante. Cette
commande remplacera les valeurs de toutes les autres proprits existantes du dmon fence que vous
aurez paramtr avec cette commande et restaurera leurs valeurs par dfaut.
ccs -h host --setfencedaemon post_join_delay=value

Pour configurer une valeur pour l'attribut post_join_delay et post_fail_delay, veuillez excuter
la commande suivante :
ccs -h host --setfencedaemon post_fail_delay=value post_join_delay=value

Note
Pour obtenir plus d'informations sur les attributs post_join_delay et post_fail_delay
ainsi que sur les proprits supplmentaires du dmon fence que vous pouvez modifier,
reportez-vous la page man fenced(8), au schma des clusters sur
/usr/share/cluster/cluster.rng et au schma annot sur /usr/share/doc/cm anX.Y.ZZ/cluster_conf.htm l.
Pour configurer un priphrique fence pour un cluster, excutez la commande suivante :
ccs -h host --addfencedev devicename [fencedeviceoptions]

Par exemple, pour configurer un priphrique fence APC dans le fichier de configuration sur le nud du
cluster node1 nomm m yfence avec l'adresse IP apc_ip_exam ple, l'identifiant de connexion
login_exam ple, et le mot de passe password_exam ple, excutez la commande suivante :
ccs -h node1 --addfencedev myfence agent=fence_apc ipaddr=apc_ip_example
login=login_example passwd=password_example

L'exemple suivant montre la section fencedevices du fichier de configuration cluster.conf une


fois ce priphrique fence APC ajout :

74

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="myfence" passwd="password_example"/>
</fencedevices>

Lors de la configuration de priphriques fence pour un cluster, vous trouverez utile de pouvoir afficher
une liste des priphriques disponibles pour votre cluster et les options qui leurs sont disponibles.
Vous trouverez tout aussi utile la prsence d'une liste des priphriques fence actuellement configurs
pour votre cluster. Pour obtenir des informations sur l'utilisation de la commande ccs pour imprimer une
liste des priphriques fence et options disponibles ou pour imprimer une liste des priphriques fence
actuellement configurs pour votre cluster, reportez-vous la Section 5.6, Rpertorier les
priphriques fence et les options de priphriques fence .
Pour supprimer un priphrique fence de la configuration de votre cluster, excutez la commande
suivante :
ccs -h host --rmfencedev fence_device_name

Par exemple, pour supprimer un priphrique fence que vous auriez nomm m yfence depuis le fichier
de configuration du cluster du nud de cluster node1, excutez la commande suivante :
ccs -h node1 --rmfencedev myfence

Si vous devez modifier les attributs d'un priphrique fence que vous avez dj configur, vous devrez
d'abord supprimer ce priphrique fence puis l'ajouter nouveau avec les attributs modifis.
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .

5.6. Rpertorier les priphriques fence et les options de


priphriques fence
Vous pouvez utiliser la commande ccs pour imprimer une liste des priphriques fence disponibles et
pour imprimer une liste des options pour chaque type fence disponible. Vous pouvez aussi utiliser la
commande ccs pour imprimer une liste des priphriques fence actuellement configurs pour votre
cluster.
Pour imprimer une liste des priphriques fence actuellement disponibles pour votre cluster, excutez la
commande suivante :
ccs -h host --lsfenceopts

Par exemple, la commande suivante rpertorie les priphriques fence disponibles sur le nud node1
du cluster, affichant un exemple de sortie.

75

Red Hat Enterprise Linux 6 Administration de clusters

[root@ask-03 ~]# ccs -h node1 --lsfenceopts


fence_rps10 - RPS10 Serial Switch
fence_vixel - No description available
fence_egenera - No description available
fence_xcat - No description available
fence_na - Node Assassin
fence_apc - Fence agent for APC over telnet/ssh
fence_apc_snmp - Fence agent for APC over SNMP
fence_bladecenter - Fence agent for IBM BladeCenter
fence_bladecenter_snmp - Fence agent for IBM BladeCenter over SNMP
fence_cisco_mds - Fence agent for Cisco MDS
fence_cisco_ucs - Fence agent for Cisco UCS
fence_drac5 - Fence agent for Dell DRAC CMC/5
fence_eps - Fence agent for ePowerSwitch
fence_ibmblade - Fence agent for IBM BladeCenter over SNMP
fence_ifmib - Fence agent for IF MIB
fence_ilo - Fence agent for HP iLO
fence_ilo_mp - Fence agent for HP iLO MP
fence_intelmodular - Fence agent for Intel Modular
fence_ipmilan - Fence agent for IPMI over LAN
fence_kdump - Fence agent for use with kdump
fence_rhevm - Fence agent for RHEV-M REST API
fence_rsa - Fence agent for IBM RSA
fence_sanbox2 - Fence agent for QLogic SANBox2 FC switches
fence_scsi - fence agent for SCSI-3 persistent reservations
fence_virsh - Fence agent for virsh
fence_virt - Fence agent for virtual machines
fence_vmware - Fence agent for VMware
fence_vmware_soap - Fence agent for VMware over SOAP API
fence_wti - Fence agent for WTI
fence_xvm - Fence agent for virtual machines

Pour imprimer une liste des options que vous pouvez spcifier pour un type fence particulier, excutez
la commande suivante :
ccs -h host --lsfenceopts fence_type

Par exemple, la commande suivante rpertorie les options fence pour l'agent fence fence_wti.

76

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

[root@ask-03 ~]# ccs -h node1 --lsfenceopts fence_wti


fence_wti - Fence agent for WTI
Required Options:
Optional Options:
option: No description available
action: Fencing Action
ipaddr: IP Address or Hostname
login: Login Name
passwd: Login password or passphrase
passwd_script: Script to retrieve password
cmd_prompt: Force command prompt
secure: SSH connection
identity_file: Identity file for ssh
port: Physical plug number or name of virtual machine
inet4_only: Forces agent to use IPv4 addresses only
inet6_only: Forces agent to use IPv6 addresses only
ipport: TCP port to use for connection with device
verbose: Verbose mode
debug: Write debug information to given file
version: Display version information and exit
help: Display help and exit
separator: Separator for CSV created by operation list
power_timeout: Test X seconds for status change after ON/OFF
shell_timeout: Wait X seconds for cmd prompt after issuing command
login_timeout: Wait X seconds for cmd prompt after login
power_wait: Wait X seconds after issuing ON/OFF
delay: Wait X seconds before fencing is started
retry_on: Count of attempts to retry power on

Pour imprimer une liste des priphriques fence actuellement configurs pour votre cluster, excutez la
commande suivante :
ccs -h host --lsfencedev

5.7. Configuration du fencing pour les membres du cluster


Une fois les tapes initiales de cration du cluster et des priphriques fence termines, vous devrez
configurer le fencing pour les nuds du cluster. Pour configurer le fencing pour les nuds aprs la
cration d'un nouveau cluster et la configuration des priphriques fence du cluster, suivez les tapes
de cette section. Remarquez que vous devez configurer le fencing pour chaque nud du cluster.
Cette section documente les procdures suivantes :
Section 5.7.1, Configurer un priphrique fence unique bas sur l'alimentation pour un nud
Section 5.7.2, Configurer un priphrique fence unique bas sur stockage pour un nud
Section 5.7.3, Configurer un priphrique fence de sauvegarde
Section 5.7.4, Configurer un nud avec une alimentation redondante
Section 5.7.5, Supprimer les mthodes et instances fence
5.7.1. Configurer un priphrique fence unique bas sur l'alimentation pour un nud
Uilisez la procdure suivante pour configurer un nud avec un priphrique fence unique bas sur
l'alimentation qui utilise un priphrique fence nomm apc utilisant l'agent de fencing fence_apc.
1. Ajoutez une mthode fence pour le nud, en fournissant un nom pour la mthode fence.
ccs -h host --addmethod method node

Par exemple, pour configurer une mthode fence nomme APC pour le nud node01.exam ple.com dans le fichier de configuration sur le nud du cluster node-

77

Red Hat Enterprise Linux 6 Administration de clusters

01.exam ple.com , excutez la commande suivante :


ccs -h node01.example.com --addmethod APC node01.example.com

2. Ajoutez une instance fence la mthode. Vous devez spcifier le priphrique fence utiliser
pour le nud, le nud auquel s'applique cette instance, le nom de la mthode, et toute autre
option de cette mthode qui serait spcifique ce nud :
ccs -h host --addfenceinst fencedevicename node method [options]

Par exemple, pour configurer une instance fence dans le fichier de configuration sur le nud du
cluster node-01.exam ple.com qui utilise le port d'alimentation 1 de l'interrupteur APC sur le
priphrique fence nomm apc pour clore le nud du cluster node-01.exam ple.com l'aide
de la mthode nomme APC, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst apc node01.example.com APC port=1

Vous devrez ajouter une mthode fence pour chaque nud du cluster. Les commande suivantes
configurent une mthode fence pour chaque nud avec la mthode nomme APC. Le priphrique pour
la mthode fence spcifie apc comme nom de priphrique, qui est un priphrique prcdemment
configur avec l'option --addfencedev, comme le dcrit la Section 5.5, Configuration des
priphriques fence . Chaque nud est configur avec un numro de port d'alimentation de
l'interrupteur APC unique : le numro de port de node-01.exam ple.com est 1, le numro de port de
node-02.exam ple.com est 2, et le numro de port de node-03.exam ple.com est 3.
ccs
ccs
ccs
ccs
ccs
ccs

-h
-h
-h
-h
-h
-h

node01.example.com
node01.example.com
node01.example.com
node01.example.com
node01.example.com
node01.example.com

--addmethod APC node01.example.com


--addmethod APC node02.example.com
--addmethod APC node03.example.com
--addfenceinst apc node01.example.com APC port=1
--addfenceinst apc node02.example.com APC port=2
--addfenceinst apc node03.example.com APC port=3

L'Exemple 5.2, cluster.conf aprs avoir ajout des mthodes fence bases sur l'alimentation
montrera un fichier de configuration cluster.conf une fois que vous aurez ajout ces mthodes et
instances de fencing chaque nud du cluster.

78

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

Exemple 5.2. cluster.conf aprs avoir ajout des mthodes fence bases sur
l'alimentation

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>

Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
5.7.2. Configurer un priphrique fence unique bas sur stockage pour un nud
Lors de l'utilisation de mthodes fence sans alimentation (de l'anglais, non-power fencing methods .
Par exemple, le fencing de rseaux SAN ou de stockage) pour clturer un nud, vous devez configurer
unfencing pour le priphrique fence. Cela vous permet de vous assurer qu'un nud cltur ne sera
pas r-activ avant que le nud ne soit redmarr. Lorsque vous configurez unfencing pour un nud,
vous spcifiez un priphrique qui met en miroir le priphrique fence correspondant que vous avez
configur pour le nud avec l'addition notable de l'action explicite de on ou de enable.
Pour obtenir plus d'informations sur le processus pour unfence un nud, reportez-vous la page man
fence_node(8).
Utilisez la procdure suivante pour configurer un nud avec un priphrique fence unique bas sur
stockage qui utilise un priphrique fence nomm sanswitch1 utilisant l'agent de fencing
fence_sanbox2.
1. Ajoutez une mthode fence pour le nud, en fournissant un nom pour la mthode fence.
ccs -h host --addmethod method node

79

Red Hat Enterprise Linux 6 Administration de clusters

Par exemple, pour configurer une mthode fence nomme SAN pour le nud node01.exam ple.com dans le fichier de configuration du nud du cluster node01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --addmethod SAN

node01.example.com

2. Ajoutez une instance fence la mthode. Vous devez spcifier le priphrique fence utiliser
pour le nud, le nud auquel s'applique cette instance, le nom de la mthode, et toute autre
option de cette mthode qui serait spcifique ce nud :
ccs -h host --addfenceinst fencedevicename node method [options]

Par exemple, pour configurer une instance fence dans le fichier de configuration du nud du
cluster node-01.exam ple.com qui utilise le port d'alimentation 11 de l'interrupteur SAN sur le
priphrique fence nomm sanswitch1 afin qu'il clture le nud du cluster node01.exam ple.com l'aide de la mthode nomme SAN, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN
port=11

3. Pour configurer unfencing pour le priphrique fence bas sur stockage de ce nud, excutez la
commande suivante :
ccs -h host --addunfence fencedevicename node action=on|off

Vous devrez ajouter une mthode fence pour chaque nud dans le cluster. Les commandes suivantes
configurent une mthode fence pour chaque nud avec la mthode nomme SAN. Le priphrique de la
mthode fence spcifie sanswitch comme nom de priphrique, qui est un priphrique prcdemment
configur avec l'option --addfencedev, comme le dcrit la Section 5.5, Configuration des priphriques
fence . Chaque nud est configur avec un numro de port physique SAN unique : le numro de port
de node-01.exam ple.com est 11, le numro de port de node-02.exam ple.com est 12, et le
numro de port de node-03.exam ple.com est 13.
ccs -h node01.example.com
ccs -h node01.example.com
ccs -h node01.example.com
ccs -h node01.example.com
ccs -h node01.example.com
ccs -h node01.example.com
ccs -h node01.example.com
action=on
ccs -h node01.example.com
action=on
ccs -h node01.example.com
action=on

--addmethod SAN node01.example.com


--addmethod SAN node02.example.com
--addmethod SAN node03.example.com
--addfenceinst sanswitch1 node01.example.com SAN port=11
--addfenceinst sanswitch1 node02.example.com SAN port=12
--addfenceinst sanswitch1 node03.example.com SAN port=13
--addunfence sanswitch1 node01.example.com port=11
--addunfence sanswitch1 node02.example.com port=12
--addunfence sanswitch1 node03.example.com port=13

L'Exemple 5.3, cluster.conf aprs avoir ajout des mthodes fence bas sur stockage montre
un fichier de configuration cluster.conf aprs avoir ajout des mthodes de fencing, des instances
de fencing et l'unfencing chaque nud du cluster.

80

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

Exemple 5.3. cluster.conf aprs avoir ajout des mthodes fence bas sur stockage

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="SAN">
<device name="sanswitch1" port="11"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="11" action="on"/>
</unfence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="SAN">
<device name="sanswitch1" port="12"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="12" action="on"/>
</unfence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="SAN">
<device name="sanswitch1" port="13"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="13" action="on"/>
</unfence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_sanbox2" ipaddr="san_ip_example"
login="login_example" name="sanswitch1" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>

Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
5.7.3. Configurer un priphrique fence de sauvegarde
Vous pouvez dfinir de multiples mthodes de fencing pour un nud. Si le fencing choue lors de
l'utilisation de la premire mthode, le systme tentera de clturer le nud l'aide de la seconde
mthode, puis par toute mthode supplmentaire configure. Pour configurer une mthode de fencing de
sauvegarde pour un nud, configurez deux mthodes pour un nud tout en configurant une instance
fence pour chaque mthode.

81

Red Hat Enterprise Linux 6 Administration de clusters

Note
L'ordre dans lequel le systme utilisera les mthodes de fencing que vous avez configur suit
l'ordre dans le fichier de configuration du cluster. La premire mthode configure avec la
commande ccs est la mthode de fencing primaire et la seconde mthode configure est la
mthode de fencing de sauvegarde. Pour changer l'ordre, vous pouvez supprimer la mthode de
fencing primaire du fichier de configuration, puis ajoutez cette mthode nouveau.
Remarquez qu' tout moment, il vous est possible d'imprimer une liste des mthodes et instances fence
actuellement configures pour un nud en excutant la commande suivante. Si vous ne spcifiez pas
de nud, cette commande rpertoriera les mthodes et instances fence actuellement configures pour
tous les nuds.
ccs -h host --lsfenceinst [node]

Utilisez la procdure suivante pour configurer un nud avec une mthode de fencing primaire qui utilise
un priphrique fence nomm apc qui utilise l'agent de fencing fence_apc et un priphrique de
fencing de sauvegarde utilisant un priphrique fence nomm sanswitch1 qui utilise l'agent de fencing
fence_sanbox2. Comme le priphrique sanswitch1 est un agent de fencing bas sur stockage,
vous devrez aussi configurer l'unfencing pour ce priphrique.
1. Ajouter une mthode fence primaire pour le nud, en fournissant un nom pour la mthode fence.
ccs -h host --addmethod method node

Par exemple, pour configurer une mthode fence nomme APC comme mthode primaire pour le
nud node-01.exam ple.com dans le fichier de configuration sur le nud du cluster node01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --addmethod APC node01.example.com

2. Ajoutez une instance fence pour la mthode primaire. Vous devez spcifier le priphrique fence
utiliser pour le nud, le nud auquel s'applique cette instance, le nom de la mthode et toutes
les options de cette mthode qui sont spcifiques ce nud :
ccs -h host --addfenceinst fencedevicename node method [options]

Par exemple, pour configurer une instance fence dans le fichier de configuration sur le nud du
cluster node-01.exam ple.com qui utilise le port d'alimentation 1 de l'interrupteur APC sur le
priphrique fence nomm apc pour clore le nud du cluster node-01.exam ple.com l'aide
de la mthode nomme APC, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst apc node01.example.com APC port=1

3. Ajoutez une mthode fence de sauvegarde pour ce nud, tout en fournissant un nom pour la
mthode fence.
ccs -h host --addmethod method node

Par exemple, pour configurer une mthode fence de sauvegarde nomme SAN pour le nud
node-01.exam ple.com dans le fichier de configuration sur le nud du cluster node01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --addmethod SAN

node01.example.com

4. Ajoutez une instance fence pour la mthode de sauvegarde. Vous devez spcifier le priphrique

82

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

fence utiliser pour le nud, le nud auquel s'applique cette instance, le nom de la mthode et
toutes les options de cette mthode qui sont spcifiques ce nud :
ccs -h host --addfenceinst fencedevicename node method [options]

Par exemple, pour configurer une instance fence dans le fichier de configuration du nud du
cluster node-01.exam ple.com qui utilise le port d'alimentation 11 de l'interrupteur SAN sur le
priphrique fence nomm sanswitch1 afin qu'il clture le nud du cluster node01.exam ple.com l'aide de la mthode nomme SAN, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN
port=11

5. Comme le priphrique sanswitch1 est un priphrique bas sur stockage, vous devez
configurer unfencing pour celui-ci.
ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11
action=on

Vous pouvez continuer ajouter des mthodes de fencing selon vos besoins.
Cette procdure configure un priphrique fence et un priphrique fence de sauvegarde pour un nud
dans le cluster. Vous devrez aussi configurer le fencing pour les autres nuds.
L'Exemple 5.4, cluster.conf aprs avoir ajout des mthodes fence de sauvegarde montre un
fichier de configuration cluster.conf aprs avoir ajout une mthode de fencing primaire bas sur
l'alimentation et une mthode de fencing de sauvegarde bas sur stockage chaque nud du cluster.

83

Red Hat Enterprise Linux 6 Administration de clusters

Exemple 5.4 . cluster.conf aprs avoir ajout des mthodes fence de sauvegarde

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="11"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="11" action="on"/>
</unfence
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="12"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="12" action="on"/>
</unfence
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="13"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="13" action="on"/>
</unfence
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc" passwd="password_example"/>
<fencedevice agent="fence_sanbox2" ipaddr="san_ip_example"
login="login_example" name="sanswitch1" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>

Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .

84

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

Note
L'ordre dans lequel le systme utilisera les mthodes de fencing que vous avez configur suit
l'ordre dfini dans le fichier de configuration. La premire mthode configure est la mthode de
fencing primaire, la seconde mthode configure est la mthode de fencing de sauvegarde. Pour
modifier cet ordre, vous pouvez supprimer la mthode de fencing primaire du fichier de
configuration, puis ajoutez-la nouveau.

5.7.4 . Configurer un nud avec une alimentation redondante


Si votre cluster est configur avec une alimentation redondante pour vos nuds, vous devez vous
assurer de configurer le fencing de manire ce que vos nuds s'teignent compltement lorsqu'ils
doivent tre clturs. Si vous configurez chaque alimentation lectrique comme une mthode fence
spare, alors chacune de ces alimentations sera clture sparment ; la seconde alimentation
lectrique permettra au systme de continuer s'excuter lorsque la premire alimentation est clture
et le systme ne sera donc pas compltement cltur. Pour configurer un systme avec un systme
d'alimentation lectrique duel, vous devrez configurer vos priphriques fence de manire ce que les
deux sources d'alimentation soient teintes et le systme compltement arrt. Ceci requiert que vous
configuriez chaque priphrique avec un attribut action sur on.
Pour configurer le fencing pour un nud systme d'alimentation lectrique duel, suivez les tapes de
cette section.
1. Avant de pouvoir configurer le fencing pour un nud avec une alimentation redondante, vous
devez configurer chaque interrupteur de l'alimentation en tant que priphrique fence pour le
cluster. Pour obtenir des informations sur la configuration des priphriques fence, voir la
Section 5.5, Configuration des priphriques fence .
Pour imprimer une liste des priphriques fence actuellement configurs pour votre cluster,
excutez la commande suivante :
ccs -h host --lsfencedev

2. Ajoutez une mthode fence pour le nud, en fournissant un nom pour la mthode fence.
ccs -h host --addmethod method node

Par exemple, pour configurer une mthode nomme APC-dual pour le nud node01.exam ple.com dans le fichier de configuration du nud du cluster node01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --addmethod APC-dual node01.example.com

3. Ajoutez une instance fence pour la premire alimentation lectrique la mthode fence. Vous
devez spcifier le priphrique fence utiliser pour le nud, le nud auquel cette instance
s'applique, le nom de la mthode, et toutes les options de cette mthode qui sont spcifiques ce
nud. ce moment, configurez l'attribut action sur off.
ccs -h host --addfenceinst fencedevicename node method [options] action=off

Par exemple, pour configurer une instance fence dans le fichier de configuration du nud du
cluster node-01.exam ple.com , qui utilise le port d'alimentation 1 de l'interrupteur APC du
priphrique fence nomm apc1, pour clturer le nud du cluster node-01.exam ple.com , qui
utilise la mthode nomme APC-dual, et pour paramtrer l'attribut action sur off, excutez la
commande suivante :

85

Red Hat Enterprise Linux 6 Administration de clusters

ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual


port=1 action=off

4. Ajoutez une instance fence pour la seconde alimentation la mthode fence. Vous devez
spcifier le priphrique fence utiliser pour le nud, le nud auquel s'applique cette instance,
le nom de la mthode et toutes les options de cette mthode qui sont spcifiques ce nud. ce
moment, configurez aussi l'attribut action sur off pour cette instance :
ccs -h host --addfenceinst fencedevicename node method [options] action=off

Par exemple, pour configurer une seconde instance fence dans le fichier de configuration du
nud du cluster node-01.exam ple.com , qui utilise le port d'alimentation 1 de l'interrupteur
APC du priphrique fence nomm apc2, pour clturer le nud du cluster node01.exam ple.com , qui utilise la mme mthode que pour la premire instance nomme APCdual, et pour paramtrer l'attribut action sur off, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual
port=1 action=off

5. ce moment, ajoutez une autre instance fence pour la premire alimentation la mthode fence,
tout en configurant l'attribut action sur on. Vous devez spcifier le priphrique fence utiliser
pour le nud, le nud auquel s'applique cette instance, le nom de la mthode et toutes les
options de cette mthode qui sont spcifiques ce nud, puis spcifiez l'attribut action comme
tant on :
ccs -h host --addfenceinst fencedevicename node method [options] action=on

Par exemple, pour configurer une instance fence dans le fichier de configuration du nud du
cluster node-01.exam ple.com , qui utilise le port d'alimentation 1 de l'interrupteur APC du
priphrique fence nomm apc1, pour clturer le nud du cluster node-01.exam ple.com , qui
utilise la mthode nomme APC-dual, et pour paramtrer l'attribut action sur on, excutez la
commande suivante :
ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual
port=1 action=on

6. Ajoutez une autre instance fence pour la seconde alimentation la mthode fence, tout en
spcifiant l'attribut action de cette instance sur on. Vous devez spcifier le priphrique fence
utiliser pour le nud, le nud auquel s'applique cette instance, le nom de la mthode et toutes
les options de cette mthode qui sont spcifiques ce nud, ainsi que spcifier l'attribut action
sur on :
ccs -h host --addfenceinst fencedevicename node method [options] action=on

Par exemple, pour configurer une seconde instance fence dans le fichier de configuration du
nud du cluster node-01.exam ple.com , qui utilise le port d'alimentation 1 de l'interrupteur
APC du priphrique fence nomm apc2, pour clturer le nud du cluster node01.exam ple.com , qui utilise la mme mthode que pour la premire instance nomme APCdual, et pour paramtrer l'attribut action sur on, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual
port=1 action=on

L'Exemple 5.5, cluster.conf aprs avoir ajout le fencing double alimentation montre un fichier
de configuration cluster.conf aprs avoir ajout le fencing sur deux alimentations lectriques pour
chaque nud dans un cluster :

86

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

Exemple 5.5. cluster.conf aprs avoir ajout le fencing double alimentation

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC-dual">
<device name="apc1" port="1"action="off"/>
<device name="apc2" port="1"action="off"/>
<device name="apc1" port="1"action="on"/>
<device name="apc2" port="1"action="on"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC-dual">
<device name="apc1" port="2"action="off"/>
<device name="apc2" port="2"action="off"/>
<device name="apc1" port="2"action="on"/>
<device name="apc2" port="2"action="on"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC-dual">
<device name="apc1" port="3"action="off"/>
<device name="apc2" port="3"action="off"/>
<device name="apc1" port="3"action="on"/>
<device name="apc2" port="3"action="on"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc1" passwd="password_example"/>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc2" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>

Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
5.7.5. Supprimer les mthodes et instances fence
Pour supprimer une mthode fence de la configuration de votre cluster, excutez la commande
suivante :
ccs -h host --rmmethod method node

Par exemple, pour supprimer une mthode fence nomme APC que vous avez configur pour
node01.exam ple.com depuis le fichier de configuration sur le nud du cluster

87

Red Hat Enterprise Linux 6 Administration de clusters

node01.exam ple.com , excutez la commande suivante :


ccs -h node01.example.com

--rmmethod APC node01.example.com

Pour supprimer toutes les instances fence d'un priphrique fence d'une mthode fence, excutez la
commande suivante :
ccs -h host --rmfenceinst fencedevicename node method

Par exemple, pour supprimer toutes les instances du priphrique fence nomm apc1 de la mthode
nomme APC-dual configure pour node01.exam ple.com du fichier de configuration du cluster du
nud du cluster node01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --rmfenceinst apc1 node01.example.com APC-dual

5.8. Configurer un domaine de basculement


Un domaine de basculement est un sous-ensemble de nuds d'un cluster nomm qui sont capables
d'excuter un service cluster dans le cas d'un chec de nud. Un domaine de basculement peut
possder les caractristiques suivantes :
Unrestricted Ceci vous permet de spcifier qu'un sous-ensemble de membres est prfr, mais
qu'un service cluster assign ce domaine peut s'excuter sur n'importe quel membre disponible.
Restricted Ceci vous permet de restreindre les membres pouvant excuter un service cluster en
particulier. Si aucun des membres dans un domaine de basculement restricted n'est disponible, le
service cluster ne pourra pas tre lanc (manuellement ou par le logiciel du cluster).
Unordered Lorsqu'un service cluster est assign un domaine de basculement unordered, le
membre sur lequel le service cluster est excut est choisi parmi les membres disponibles du
domaine de basculement sans ordre de priorit.
Ordered Ceci vous permet de spcifier un ordre de prfrence parmi les membres d'un domaine
de basculement. Le membre le plus haut dans la liste est le prfr, suivi par le second membre
dans la liste, et ainsi de suite.
Failback Ceci vous permet de spcifier si un service dans le domaine de basculement devrait tre
restaur sur le nud sur lequel il tait initialement excut avant que ce nud tombe en panne. La
configuration de cette caractristique est utile dans des circonstances o un nud tombe en panne
de manire rptitive et fait partie d'un domaine de basculement ordered. Dans ces circonstances, si
un nud est le nud prfr dans un domaine de basculement, il est possible qu'un service tombe
en panne puis se restaure de manire rptitive entre le nud prfr et un autre nud, affectant
svrement la performance.

Remarque
La caractristique failback est uniquement applicable si le basculement ordered est configur.

Note
Modifier la configuration d'un domaine de basculement n'a aucun effet sur les services en cours
d'excution.

88

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

Par dfaut, les domaines de basculement sont unrestricted et unordered.


Dans un cluster possdant plusieurs membres, l'utilisation d'un domaine de basculement restricted peut
minimiser le travail de paramtrage du cluster pour qu'il excute un service cluster (comme httpd), qui
requiert que vous paramtriez la configuration de manire identique sur tous les membres excutant le
service cluster. Au lieu de paramtrer le cluster entier afin qu'il excute le service cluster, il vous est
possible de paramtrer uniquement les membres dans le domaine de basculement restricted que vous
associerez au service cluster.

Remarque
Pour configurer un membre prfr, vous pouvez crer un domaine de basculement unrestricted
comprenant uniquement un membre du cluster. Faire ceci cause au service cluster de s'excuter
sur ce membre du cluster en premier (le membre prfr), mais permet au service cluster de
basculer sur tout autre membre.
Pour configurer un domaine de basculement, effectuez la procdure suivante :
1. Pour ajouter un domaine de basculement, excutez la commande suivante :
ccs -h host --addfailoverdomain name [restricted] [ordered] [nofailback]

Note
Le nom doit tre suffisamment descriptif pour distinguer son but par rapport aux autres
noms utiliss dans votre cluster.
Par exemple, la commande suivante configure un domaine de basculement nomm
exam ple_pri sur node-01.exam ple.com , qui est unrestricted, ordered, et permet le failback :
ccs -h node-01.example.com --addfailoverdomain example_pri ordered

2. Pour ajouter un nud au domaine de basculement, excutez la commande suivante :


ccs -h host --addfailoverdomainnode failoverdomain node priority

Par exemple, pour configurer le domaine de basculement exam ple_pri du fichier de


configuration sur node-01.exam ple.com afin qu'il contienne node-01.exam ple.com avec
une priorit de 1, node-02.exam ple.com avec une priorit de 2 et node-03.exam ple.com
avec une priorit de 3, excutez les commandes suivantes :
ccs -h node-01.example.com --addfailoverdomainnode example_pri node01.example.com 1
ccs -h node-01.example.com --addfailoverdomainnode example_pri node02.example.com 2
ccs -h node-01.example.com --addfailoverdomainnode example_pri node03.example.com 3

Vous pouvez rpertorier tous les domaines de basculement et les nuds de domaines de basculement
configurs dans un cluster avec la commande suivante :
ccs -h host --lsfailoverdomain

Pour supprimer un domaine de basculement, excutez la commande suivante :

89

Red Hat Enterprise Linux 6 Administration de clusters

ccs -h host --rmfailoverdomain name

Pour supprimer un nud d'un domaine de basculement, excutez la commande suivante :


ccs -h host --rmfailoverdomainnode failoverdomain node

Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .

5.9. Configurer les ressources globales du cluster


Vous povuez configurer deux types de ressources :
Global Les ressources disponibles tous les services dans le cluster.
Service-specific Les ressources disponibles un seul service.
Pour afficher une liste des ressources et services actuellement configurs dans le cluster, excutez la
commande suivante :
ccs -h host --lsservices

Pour ajouter une ressource globale du cluster, excutez la commande suivante. Vous pouvez ajouter
une ressource locale un service en particulier lorsque vous configurez ce service, comme le dcrit la
Section 5.10, Ajouter un service cluster un cluster .
ccs -h host --addresource resourcetype [resource options]

Par exemple, la commande suivante ajoute une ressource de systme de fichier global au fichier de
configuration du cluster sur node01.exam ple.com . Le nom de la ressource est web_fs, le
priphrique du systme de fichier est /dev/sdd2, le point de montage du systme de fichiers est
/var/www, et le type de systme de fichiers est ext3.
ccs -h node01.example.com --addresource fs name=web_fs device=/dev/sdd2
mountpoint=/var/www fstype=ext3

Pour obtenir des informations sur les options et les types de ressources, voir l'Annexe B, Paramtres
des ressources HA.
Pour supprimer une ressource globale, excutez la commande suivante :
ccs -h host --rmresource resourcetype [resource options]

Si vous devez modifier les paramtres d'une ressource globale existante, vous pouvez supprimer la
ressource et la configurer nouveau.
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .

5.10. Ajouter un service cluster un cluster


Pour configurer un service cluster dans un cluster, procdez aux tapes suivantes :
1. Ajoutez un service au cluster avec la commande suivante :
ccs -h host --addservice servicename [service options]

90

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

Note
Utilisez un nom descriptif qui distingue clairement le service des autres services dans le
cluster.
Lorsque vous ajoutez un service la configuration du cluster, vous devez configurer les attributs
suivants :
autostart Spcifie s'il faut dmarrer le service automatiquement lorsque le cluster
dmarre. Veuillez utiliser 1 pour activer et 0 pour dsactiver, le service est activ par
dfaut.
dom ain Spcifie un domaine de basculement (s'il est requis).
exclusive Spcifie une politique o le service s'excute uniquement sur des nuds sur
lesquels aucun autre service ne s'excute.
recovery Spcifie une stratgie de rcupration pour le service. Les options pour le
service sont relocate (dplacer), restart (redmarrer), disable (dsactiver), ou
restart-disable (redmarrer-dsactiver). La stratgie de rcupration restart
(redmarrer) indique que le systme devrait tenter de redmarrer le service en chec avant de
tenter de dplacer le service vers un autre nud. La stratgie relocate indique que le
systme devrait tenter de redmarrer le service sur un autre nud. La stratgie disable
(dsactiver) indique que le systme devrait dsactiver le groupe de ressources si un
composant choue. La stratgie restart-disable (redmarrer-dsactiver) devrait tenter de
redmarrer le service au mme endroit s'il choue, mais que si le redmarrage du service
choue, le service sera dsactiv au lieu d'tre dplac vers un autre hte dans le cluster.
Si vous slectionnez Restart ou Restart-Disable en tant que politique de rcupration pour
le service, vous pourrez spcifier le nombre maximum d'checs de redmarrage avant le
dplacement ou la dsactivation du service. Vous pouvez aussi spcifier (en secondes)
partir de combien de temps il ne faudra plus effectuer de redmarrages.
Par exemple, pour ajouter un service au fichier de configuration sur le nud du cluster node01.exam ple.com nomm exam ple_apache qui utilise le domaine de basculement
exam ple_pri, et possde la politique relocate, excutez la commande suivante :
ccs -h node-01.example.com --addservice example_apache domain=example_pri
recovery=relocate

Lors de la configuration de services pour un cluster, vous trouverez utile de pouvoir afficher une
liste des services disponibles pour votre cluster ainsi que les options qui leurs sont disponibles.
Pour obtenir des informations sur l'utilisation de la commande ccs pour imprimer une liste des
services et options disponibles, reportez-vous la Section 5.11, Rpertorier les services cluster
disponibles .
2. Ajoutez des ressources au service avec la commande suivante :
ccs -h host --addsubservice servicename subservice [service options]

Selon le type de ressources que vous souhaitez utiliser, remplissez le service avec des
resources globales ou spcifiques au service. Pour ajouter une ressource globale, utilisez l'option
--addsubservice de ccs. Par exemple, pour ajouter la ressource globale d'un systme de
fichiers nomme web_fs au service nomm exam ple_apache du fichier de configuration du
cluster sur node-01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --addsubservice example_apache fs ref=web_fs

Pour ajouter une ressource spcifique au service, vous devez spcifier toutes les options du
service. Par exemple, si vous n'avez pas dfini web_fs en tant que service global au pralable,
vous pourriez l'ajouter en tant que ressource spcifique au service avec la commande suivante :

91

Red Hat Enterprise Linux 6 Administration de clusters

ccs -h node01.example.com --addsubservice example_apache fs name=web_fs


device=/dev/sdd2 mountpoint=/var/www fstype=ext3

3. Pour ajouter un service enfant au service, vous pouvez aussi utiliser l'option --addsubservice
la commande ccs tout en spcifiant les options du service.
Si vous devez ajouter des services dans une structure arborescente de dpendances, utilisez le
caractre des deux-points (":") pour sparer les lments et des parenthses pour identifier les
sous-services du mme type. L'exemple suivant ajoute un troisime service nfsclient en tant
que sous-service d'un service nfsclient, qui lui-mme est un sous-service d'un service
nfsclient, qui est un sous-service du service nomm service_a :
ccs -h node01.example.com --addsubservice service_a
nfsclient[1]:nfsclient[2]:nfsclient

Note
Si vous tes en train d'ajouter une ressource du service Samba, ajoutez-la directement au
service, et non pas en tant qu'enfant d'une autre ressource.

Remarque
Pour vrifier l'existence de la ressource du service IP utilise dans un service cluster, vous
pouvez utiliser la commande /sbin/ip addr show sur un nud de cluster (plutt que la
commande obsolte ifconfig). La sortie suivante montre la commande /sbin/ip addr
show excute sur un nud qui excute un service cluster :
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP> mtu 1356 qdisc pfifo_fast qlen 1000
link/ether 00:05:5d:9a:d8:91 brd ff:ff:ff:ff:ff:ff
inet 10.11.4.31/22 brd 10.11.7.255 scope global eth0
inet6 fe80::205:5dff:fe9a:d891/64 scope link
inet 10.11.4.240/22 scope global secondary eth0
valid_lft forever preferred_lft forever

Pour supprimer un service et tous ses sous-services, excutez la commande suivante :


ccs -h host --rmservice servicename

Pour supprimer un sous-service, excutez la commande suivante :


ccs -h host --rmsubservice servicename subservice [service options]

Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .

5.11. Rpertorier les services cluster disponibles


vous pouvez utiliser la commande ccs pour imprimer une liste des services disponibles un cluster.

92

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

Vous pouvez aussi utiliser la commande ccs pour imprimer une liste des options pouvant tre
spcifies pour un type de service particulier.
Pour imprimer une liste des services cluster actuellement disponibles pour votre cluster, excutez la
commande suivante :
ccs -h host --lsserviceopts

Par exemple, la commande suivante rpertorie les services cluster disponibles sur le nud node1 du
cluster, affichant un exemple de sortie.
[root@ask-03 ~]# ccs -h node1 --lsserviceopts
service - Defines a service (resource group).
ASEHAagent - Sybase ASE Failover Instance
SAPDatabase - SAP database resource agent
SAPInstance - SAP instance resource agent
apache - Defines an Apache web server
clusterfs - Defines a cluster file system mount.
fs - Defines a file system mount.
ip - This is an IP address.
lvm - LVM Failover script
mysql - Defines a MySQL database server
named - Defines an instance of named server
netfs - Defines an NFS/CIFS file system mount.
nfsclient - Defines an NFS client.
nfsexport - This defines an NFS export.
nfsserver - This defines an NFS server resource.
openldap - Defines an Open LDAP server
oracledb - Oracle 10g Failover Instance
orainstance - Oracle 10g Failover Instance
oralistener - Oracle 10g Listener Instance
postgres-8 - Defines a PostgreSQL server
samba - Dynamic smbd/nmbd resource agent
script - LSB-compliant init script as a clustered resource.
tomcat-6 - Defines a Tomcat server
vm - Defines a Virtual Machine
action - Overrides resource action timings for a resource instance.

Pour imprimer une liste des options que vous pouvez spcifier pour un type de service particulier,
excutez la commande suivante :
ccs -h host --lsserviceopts service_type

Par exemple, la commande suivante rpertorie les options de service pour le service vm .

93

Red Hat Enterprise Linux 6 Administration de clusters

[root@ask-03 ~]# ccs -f node1 --lsserviceopts vm


vm - Defines a Virtual Machine
Required Options:
name: Name
Optional Options:
domain: Cluster failover Domain
autostart: Automatic start after quorum formation
exclusive: Exclusive resource group
recovery: Failure recovery policy
migration_mapping: memberhost:targethost,memberhost:targethost ..
use_virsh: If set to 1, vm.sh will use the virsh command to manage virtual
machines instead of xm. This is required when using non-Xen virtual machines (e.g.
qemu / KVM).
xmlfile: Full path to libvirt XML file describing the domain.
migrate: Migration type (live or pause, default = live).
path: Path to virtual machine configuration files.
snapshot: Path to the snapshot directory where the virtual machine image will
be stored.
depend: Top-level service this depends on, in service:name format.
depend_mode: Service dependency mode (soft or hard).
max_restarts: Maximum restarts for this service.
restart_expire_time: Restart expiration time; amount of time before a restart
is forgotten.
status_program: Additional status check program
hypervisor: Hypervisor
hypervisor_uri: Hypervisor URI (normally automatic).
migration_uri: Migration URI (normally automatic).
__independent_subtree: Treat this and all children as an independent subtree.
__enforce_timeouts: Consider a timeout for operations as fatal.
__max_failures: Maximum number of failures before returning a failure to a
status check.
__failure_expire_time: Amount of time before a failure is forgotten.
__max_restarts: Maximum number restarts for an independent subtree before
giving up.
__restart_expire_time: Amount of time before a failure is forgotten for an
independent subtree.

5.12. Ressources de machine virtuelle


Les ressources de machine virtuelle sont configures diffremment des autres ressources de cluster.
En particulier, elles ne sont pas regroupes en dfinitions de services. partir de la version 6.2 de Red
Hat Enterprise Linux, lorsque vous configurez une machine virtuelle dans un cluster avec la commande
ccs, vous pouvez utiliser --addvm (plutt que l'option addservice). Ceci assure que la ressource vm
est directement dfinie sous le nud de configuration rm dans le fichier de configuration du cluster.
Une ressource de machine virtuelle requiert au minimum les attributs nam e (nom) et path (chemin).
L'attribut nam e doit correspondre au nom du domaine libvirt et l'attribut path doit spcifier le
rpertoire o les dfinitions partages de la machine virtuelle sont stockes.

Note
L'attribut path dans le fichier de configuration du cluster est une spcification de chemin ou un
nom de rpertoire, pas un chemin vers un fichier individuel.
Si les dfinitions de machines virtuelles sont stockes sur un rpertoire partag nomm
/m nt/vm _defs, la commande suivante dfinira une machine virtuelle nomme guest1 :
# ccs -h node1.example.com --addvm guest1 path=/mnt/vm_defs

94

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

L'excution de cette commande ajoute la ligne suivante au nud de configuration dans le fichier
cluster.conf :
<vm name="guest1" path="/mnt/vm_defs"/>

5.13. Configurer un disque Quorum :


Important
Les paramtres et heuristiques d'un disque quorum dpendent de l'environnement du site et des
prrequis spciaux ncessaires. Pour comprendre l'utilisation des paramtres et heuristiques du
disque quorum, reportez-vous la page man qdisk(5). Si vous avez besoin d'aide pour la
comprhension et l'utilisation d'un disque quorum, veuillez contacter un reprsentant autoris du
support Red Hat.
Pour configurer votre systme pour l'utilisation d'un disque quorum, utilisez la commande suivante :
ccs -h host --setquorumd [quorumd options]

Remarquez que cette commande rinitialise toutes les autres proprits que vous pouvez paramtrer
avec l'option --setquorum d avec leurs valeurs par dfaut, comme le dcrit la Section 5.1.5,
Commandes remplaant les paramtres prcdents .
Le T ableau 5.1, Options du disque quorum rsume la signification des options du disque quorum
que vous pourriez devoir paramtrer. Pour obtenir la liste complte des paramtres du disque quorum,
reportez-vous au schma du cluster sur /usr/share/cluster/cluster.rng et au schma annot
sur /usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l.
T ableau 5.1. Options du disque quorum
Paramtre

Description

interval

Frquence, en secondes, des cycles de lecture/criture.

votes

Nombre de votes que le dmon quorum annonce cm an lorsqu'il obtient un


score assez lev.

tko

Nombre de cycles qu'un nud doit rater pour tre dclar comme tant
mort.

min_score

Score minimum qu'un nud doit effectuer pour tre considr comme
vivant . Si oubli, ou si ajust sur 0, floor((n+1)/2), est utilis, o n
est la somme des scores heuristiques. La valeur Minimum Score ne doit
jamais excder la somme des scores heuristiques, sinon le disque quorum
ne pourra pas tre disponible.

device

Priphrique de stockage que le dmon quorum utilise. Le priphrique doit


tre le mme sur tous les nuds.

label

Spcifie l'tiquette du disque quorum cr par l'utilitaire m kqdisk. Si ce


champ contient une entre, l'tiquette remplace le champ Device. Si ce
champ est utilis, le dmon quorum lit /proc/partitions et vrifie les
signatures qdisk sur chaque priphrique bloc trouv, comparant l'tiquette
l'tiquette spcifie. Ceci est utile pour les configurations dans lesquelles
le nom du priphrique quorum diffre selon les nuds.

Utilisez la commande suivante pour configurer les heuristiques pour un disque quorum :
ccs -h host --addheuristic [heuristic options]

95

Red Hat Enterprise Linux 6 Administration de clusters

Le T ableau 5.2, Heuristiques du disque quorum rsume la signification des heuristiques du disque
quorum que vous pourriez devoir paramtrer.
T ableau 5.2. Heuristiques du disque quorum
Paramtre

Description

program

Chemin vers le programme utilis pour dterminer si cette heuristique est


disponible. Ceci peut tre n'importe quoi qui est excutable par /bin/sh c. Une valeur retourne de 0 indique un succs ; toute autre chose indique
un chec. Ce paramtre est requis pour utiliser un disque quorum.

interval

Frquence (en secondes) laquelle l'heuristique est analyse. L'intervalle


par dfaut pour toute heuristique est de 2 secondes.

score

Poids de l'heuristique. Soyez prudent lorsque vous dterminez les scores


des heuristiques. Le score par dfaut de chaque heuristique est de 1.

tko

Nombre d'checs conscutifs requis avant que cette heuristique ne soit


dclare indisponible.

Pour afficher une liste des options du disque quorum et des heuristique configures sur un systme,
vous pouvez excuter la commande suivante :
ccs -h host --lsquorum

Pour supprimer une heuristique spcifie par une option d'heuristique, vous pouvez excuter la
commande suivante :
ccs -h host rmheuristic [heuristic options]

Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .

Remarque
La synchronisation et l'activation propage et active le fichier de configuration du cluster mis jour.
Cependant, pour que le disque quorum puisse oprer, vous devez redmarrer le cluster
(reportez-vous la Section 6.2, Dmarrer et arrter un cluster ), vous assurant ainsi que vous
avez bien redmarr le dmon qdiskd sur chaque nud.

5.14. Diverses configurations de clusters


Cette section dcrit l'utilisation de la commande ccs pour configurer ce qui suit :
Section 5.14.1, Version de la configuration du cluster
Section 5.14.2, Configuration de la multidiffusion
Section 5.14.3, Configurer un cluster deux nuds
Section 5.14.4, Journalisation
Section 5.14.5, Configurer le protocole d'anneau redondant ( Redundant Ring )
Vous pouvez aussi utiliser la commande ccs pour dfinir les paramtres de configuration avancs du
cluster, y compris les options totem , dlm , rm et cm an. Pour obtenir des informations sur la dfinition
de ces paramtres, voir la page man ccs(8) et le schma annot du fichier de configuration du cluster
sur /usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l.
Pour afficher une liste des divers attributs du cluster qui ont t configurs pour un cluster, excutez la

96

Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs

commande suivante :
ccs -h host --lsmisc

5.14 .1. Version de la configuration du cluster


Un fichier de configuration de cluster inclut une valeur de version de configuration d'un cluster. La valeur
de la version de la configuration est dfinie sur 1 par dfaut lorsque vous crez un fichier de
configuration de cluster, celle-ci est automatiquement incrmente chaque fois que vous modifiez la
configuration de votre cluster. Cependant, si vous devez la dfinir sur une autre valeur, vous pouvez la
spcifier l'aide de la commande suivante :
ccs -h host --setversion n

Vous pouvez obtenir la valeur de la version de la configuration actuelle sur un fichier de configuration de
cluster existant l'aide de la commande suivante :
ccs -h host --getversion

Pour incrmenter la valeur de la version de la configuration de 1 dans le fichier de configuration du


cluster sur tous les nuds du cluster, excutez la commande suivante :
ccs -h host --incversion

5.14 .2. Configuration de la multidiffusion


Si vous ne spcifiez pas d'adresse de multidiffusion dans le fichier de configuration du cluster, le logiciel
du module complmentaire Red Hat High Availability va en crer une base sur l'ID du cluster. Le logiciel
gnrera les 16 bits les plus bas de l'adresse et les ajoutera la portion la plus haute de l'adresse
selon que le protocole IP est IPv4 ou IPv6 :
Pour IPv4 L'adresse forme est 239.192. plus les 16 bits les plus bas gnrs par le logiciel du
module complmentaire Red Hat High Availability.
Pour IPv6 L'adresse forme est FF15:: plus les 16 bits les plus bas gnrs par le logiciel du
module complmentaire Red Hat High Availability.

Note
L'ID du cluster est un identifiant unique que cm an gnre pour chaque cluster. Pour voir l'ID du
cluster, excutez la commande cm an_tool status sur un nud de cluster.
Vous pouvez manuellement spcifier une adresse de multidiffusion dans le fichier de configuration du
cluster avec la commande suivante :
ccs -h host --setmulticast multicastaddress

Remarquez que cette commande rinitialise toutes les autres proprits que vous pouvez paramtrer
avec l'option --setm ulticast avec leurs valeurs par dfaut, comme le dcrit la Section 5.1.5,
Commandes remplaant les paramtres prcdents .
Si vous spcifiez une adresse de multidiffusion, vous devriez utiliser les sries 239.192.x.x (ou FF15::
pour IPv6) utilises par cm an. L'utilisation d'une adresse de multidiffusion hors de cette plage peut
provoquer des rsultats imprvisibles. Par exemple, utiliser 224.0.0.x (qui quivaut "All hosts on the
network") peut ne pas tre achemin correctement, certains matriaux pourraient mme ne pas du tout
l'acheminer.
Si vous spcifiez ou modifiez une adresse de multidiffusion, vous devrez redmarrer le cluster pour que

97

Red Hat Enterprise Linux 6 Administration de clusters

celle-ci prenne effet. Pour obtenir des informations sur le dmarrage et l'arrt d'un cluster avec la
commande ccs, reportez-vous la Section 6.2, Dmarrer et arrter un cluster .

Note
Si vous spcifiez une adresse de multidiffusion, assurez-vous de bien vrifier la configuration
des routeurs par lesquels les paquets des clusters passent. Certains routeurs prennent
longtemps pour apprendre les adresses, affectant ainsi svrement la performance du cluster.
Pour supprimer une adresse de multidiffusion d'un fichier de configuration, utilisez l'option -setm ulticast de ccs mais ne spcifiez pas d'adresse de multidiffusion :
ccs -h host --setmulticast

5.14 .3. Configurer un cluster deux nuds


Si vous tes en train de configurer un cluster deux nuds, vous pouvez excuter la commande
suivante afin de permettre un nud unique de maintenir le quorum (si un nud choue par exemple) :
ccs -h host --setcman two_node=1 expected_votes=1

Remarquez que cette commande rinitialise toutes les autres proprits que vous pouvez paramtrer
avec l'option --setcm an avec leurs valeurs par dfaut, comme le dcrit la Section 5.1.5, Commandes
remplaant les paramtres prcdents .
Lorsque vous utilisez la commande ccs --setcm an pour ajouter, supprimer, ou pour modifier l'option
two_node, vous devez redmarrer le cluster pour que ce changement prenne effet. Pour obtenir des
informations sur le dmarrage et l'arrt d'un cluster avec la commande ccs, reportez-vous la
Section 6.2, Dmarrer et arrter un cluster .
5.14 .4 . Journalisation
Vous pouvez activer le dbogage de tous les dmons dans un cluster ou activer la journalisation pour le
traitement de cluster spcifique.
Pour activer le dbogage de tous les dmons, excutez la commande suivante. Par dfaut, la
journalisation est dirige vers le fichier /var/log/cluster/dmon.log.
ccs -h host --setlogging [logging options]

Par exemple, la commande suivante active le dbogage de tous les dmons.


# ccs -h node1.example.com --setlogging debug=on

Remarquez que cette commande rinitialise toutes les autres proprits que vous pouvez paramtrer
avec l'option --setlogging avec leurs valeurs par dfaut, comme le dcrit la Section 5.1.5,
Commandes remplaant les paramtres prcdents .
Pour activer le dbogage d'un processus individuel, excutez la commande suivante. La configuration de
la journalisation par dmon remplace les paramtres gnraux.
ccs -h host --addlogging [logging daemon options]

Par exemple, les commandes suivantes activent le dbogage des dmons corosync et fenced.
# ccs -h node1.example.com --addlogging name=corosync debug=on
# ccs -h node1.example.com --addlogging name=fenced debug=on

98

Chapitre 6. Grer le module complmentaire Red Hat High Availability avec ccs

Pour supprimer les paramtres de journalisation des dmons individuels, utilisez la commande suivante.
ccs -h host --rmlogging name=clusterprocess

Par exemple, la commande suivante supprime les paramtres de journalisation spcifiques au dmon
fenced
ccs -h host --rmlogging name=fenced

Pour la liste des dmons pour lesquels vous pouvez activer la journalisation ainsi que pour les options
de journalisation supplmentaires que vous pouvez configurer pour la journalisation globale ou par
dmon , veuillez vous reporter la page man cluster.conf(5).
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
5.14 .5. Configurer le protocole d'anneau redondant ( Redundant Ring )
partir de Red Hat Enterprise Linux 6.4, le module complmentaire Red Hat High Availability prend en
charge la configuration du protocole d'anneau redondant. Lors de l'utilisation du protocole d'anneau
redondant, un certain nombre de considrations sont prendre en compte, comme le dcrit la
Section 7.6, Configurer le protocole d'anneau redondant ( Redundant Ring ) .
Pour spcifier une seconde interface rseau utiliser pour le protocole d'anneau redondant, ajoutez un
nom alterne pour le nud en utilisant l'option --addalt de la commande ccs :
ccs -h host --addalt node_name alt_name

Par exemple, la commande suivante configure le nom alternatif clusternet-node1-eth2 du nud de


cluster clusternet-node1-eth1 :
# ccs -h clusternet-node1-eth1 --addalt clusternet-node1-eth1 clusternet-node1eth2

Optionnellement, vous pouvez manuellement spcifier une adresse de multidiffusion, un port et un T T L


pour le second anneau. Si vous spcifiez une adresse de multidiffusion pour le second anneau, soit
l'adresse de multidiffusion alterne, soit le port alterne doit tre diffrent de l'adresse de multidiffusion du
premier anneau. Si vous spcifiez un port alterne, les numros de port du premier anneau et du second
anneau doivent tre diffrents d'au moins deux car le systme utilise port et port-1 pour effectuer des
oprations. Si vous ne spcifiez pas d'adresse de multidiffusion, le systme utilisera automatiquement
une adresse de multidiffusion diffrente pour le second anneau.
Pour spcifier un adresse de multidiffusion alterne, ou un port ou un T T L alterne pour le second
anneau, vous devez utiliser l'option --setaltm ulticast de la commande ccs :
ccs -h host --setaltmulticast [alt_multicast_address] [alt_multicast_options].

Par exemple, la commande suivante dfinit une adresse de multidiffusion de 239.192.99.88, le port 888
et un T T L de 3 pour le cluster dfini dans le fichier cluster.conf sur le nud clusternet-node1eth1 :
ccs -h clusternet-node1-eth1 --setaltmulticast 239.192.99.88 port=888 ttl=3

Pour supprimer une adresse de multidiffusion alterne, spcifiez l'option --setaltm ulticast de la
commande ccs, mais ne spcifiez pas d'adresse de multidiffusion. Remarquez que l'excution de cette
commande rinitialise toutes les autres proprits que vous pouvez dfinir avec l'option -setaltm ulticast avec leurs valeurs par dfaut, comme dcrit dans la Section 5.1.5, Commandes

99

Red Hat Enterprise Linux 6 Administration de clusters

remplaant les paramtres prcdents .


Une fois que vous aurez termin de configurer tous les composants de votre cluster, vous devrez
synchroniser le fichier de configuration du cluster avec tous les nuds, comme le dcrit la Section 5.15,
Propager le fichier de configuration sur les nuds du cluster .

5.15. Propager le fichier de configuration sur les nuds du cluster


Aprs avoir cr ou modifi un fichier de configuration de cluster sur un des nuds du cluster, vous
devrez propager ce mme fichier sur tous les nuds du cluster et activer la configuration.
Utilisez la commande suivante pour propager et activer un fichier de configuration de cluster :
ccs -h host --sync --activate

Pour vrifier que tous les nuds spcifis dans le fichier de configuration du cluster hte possdent un
fichier de configuration identique, excutez la commande suivante :
ccs -h host --checkconf

Si vous avez cr ou modifi un fichier de configuration sur un nud local, utilisez la commande
suivante pour envoyer ce fichier sur un des nuds du cluster :
ccs -f file -h host --setconf

Pour vrifier que tous les nuds spcifis dans le fichier local possdent le mme fichier de
configuration de cluster, excutez la commande suivante :
ccs -f file --checkconf

100

Chapitre 7. Configurer le module complmentaire Red Hat High Availability avec des outils de ligne de commande

Chapitre 6. Grer le module complmentaire Red Hat High


Availability avec ccs
Ce chapitre dcrit les diverses tches adminstratives pour la gestion du module complmentaire Red
Hat High Availability au moyen de la commande ccs, qui est prise en charge partir de la version 6.1 de
Red Hat Enterprise Linux et de ses versions plus rcentes. Ce chapitre est compos des sections
suivantes :
Section 6.1, Grer les nuds de clusters
Section 6.2, Dmarrer et arrter un cluster
Section 6.3, Diagnostiquer et corriger des problmes dans un cluster

6.1. Grer les nuds de clusters


Cette section documente comment effectuer les fonctions de gestion de nuds suivantes avec la
commande ccs :
Section 6.1.1, Causer un nud de joindre ou quitter un cluster
Section 6.1.2, Ajouter un membre un cluster en cours d'excution
6.1.1. Causer un nud de joindre ou quitter un cluster
Vous pouvez utiliser la commande ccs pour faire qu'un nud quitte un cluster en arrtant les services
cluster sur ce nud. Causer le dpart d'un nud d'un cluster ne supprime pas les informations de
configuration de ce nud. Faire qu'un nud quitte un cluster empche le nud de joindre le cluster
automatiquement lorsqu'il est redmarr.
Pour qu'un nud quitte un cluster, excutez la commande suivante, celle-ci stoppe les services cluster
sur le nud spcifi avec l'option -h :
ccs -h host --stop

Lorsque vous arrtez les services cluster sur un nud, tout service excut sur ce nud basculera :
Pour compltement supprimer un nud de la configuration du cluster, utilisez l'option --rm node de la
commande ccs, comme dcrit dans la Section 5.4, Crer un cluster .
Pour faire en sorte qu'un nud rejoigne un cluster, excutez la commande suivante, celle-ci dmarre les
services cluster sur le nud spcifi avec l'option -h :
ccs -h host --start

6.1.2. Ajouter un membre un cluster en cours d'excution


Pour ajouter un membre un cluster en cours d'excution, ajoutez un nud au cluster comme dcrit
dans la Section 5.4, Crer un cluster . Aprs avoir mis jour le fichier de configuration, propagez le
fichier sur tous les nuds dans le cluster et assurez-vous de bien activer le nouveau fichier de
configuration du cluster, comme dcrit dans la Section 5.15, Propager le fichier de configuration sur les
nuds du cluster .

6.2. Dmarrer et arrter un cluster


Vous pouvez utiliser la commande ccs pour arrter un cluster l'aide de la commande suivante, celle-ci
stoppe les services cluster sur tous les nuds dans le cluster :
ccs -h host --stopall

Vous pouvez utiliser la commande ccs pour dmarrer un cluster qui n'est pas en cours d'excution

101

Red Hat Enterprise Linux 6 Administration de clusters

l'aide de la commande suivante, celle-ci lance les services cluster sur tous les nuds dans le cluster :
ccs -h host --startall

6.3. Diagnostiquer et corriger des problmes dans un cluster


Pour obtenir des informations sur le diagnostic et la correction de problmes dans un cluster, voir le
Chapitre 9, Diagnostiquer et corriger des problmes dans un cluster. Il existe de simples vrifications
que vous pouvez mener l'aide de la commande ccs.
Pour vrifier que tous les nuds spcifis dans le fichier de configuration du cluster hte possdent
des fichiers de configuration de cluster identiques, excutez la commande suivante :
ccs -h host --checkconf

Si vous avez cr ou modifi un fichier de configuration sur un nud local, vous pouvez vrifier que
tous les nuds spcifis dans le fichier local possdent des fichiers de configuration du cluster
identiques l'aide de la commande suivante :
ccs -f file --checkconf

102

Exemples de configurations de base

Chapitre 7. Configurer le module complmentaire Red Hat High


Availability avec des outils de ligne de commande
Ce chapitre dcrit comment configurer le logiciel du module complmentaire Red Hat High Availability en
modifiant directement le fichier de configuration du cluster (/etc/cluster/cluster.conf) et en
utilisant des outils de ligne de commande. Ce chapitre fournit des procdures sur la construction d'un
fichier de configuration tape par tape, en commenant par un fichier exemple fournit dans le chapitre.
Un fichier de configuration squelette peut tre copi depuis la page man cluster.conf et servir
d'alternative au commencement avec l'exemple de fichier ci-joint. Cependant, faire ainsi ne s'aligne pas
forcment sur les informations fournies dans les procdures ultrieures de ce chapitre. Il existe d'autres
manires de crer et de configurer un fichier de configuration de cluster ; ce chapitre propose des
procdures pour la construction une section la fois. Aussi, n'oubliez pas qu'il ne s'agit que du point de
dpart pour le dveloppement d'un fichier de configuration adapt vos besoins de mise en cluster.
Ce chapitre est compos des sections suivantes :
Section 7.1, T ches de configuration
Section 7.2, Cration d'un fichier de configuration de cluster de base
Section 7.3, Configurer le fencing
Section 7.4, Configurer les domaines de basculement
Section 7.5, Configurer les services HA
Section 7.7, Configurer les options de dbogage
Section 7.6, Configurer le protocole d'anneau redondant ( Redundant Ring )
Section 7.8, Vrifier une configuration

Important
Assurez-vous que le dploiement du module complmentaire High Availability rpond bien vos
besoins et qu'il est pris en charge. Consultez un reprsentant Red Hat autoris afin de vrifier
votre configuration avant le dploiement. En outre, prvoyez suffisamment de temps pour une
priode de rodage de la configuration afin de tester les diffrents modes d'chec.

Important
Ce chapitre fait rfrence aux lments et attributs de cluster.conf communment utiliss.
Pour obtenir la liste et la description complte des lments et attributs cluster.conf,
reportez-vous au schma des clusters sur /usr/share/cluster/cluster.rng, et au
schma annot sur /usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l (par exemple,
/usr/share/doc/cm an-3.0.12/cluster_conf.htm l).

Important
Certaines procdures dans ce chapitre appellent utiliser la commande cm an_tool version
-r pour propager une configuration de cluster travers un cluster. L'utilisation de cette
commande requiert que ricci soit en cours d'excution. L'utilisation de ricci requerra un mot de
passe la premire fois que vous aurez une interaction avec ricci, et ce depuis n'importe quelle
machine. Pour obtenir des informations sur le service ricci, reportez-vous la Section 2.13,
Considrations pour ricci .

103

Red Hat Enterprise Linux 6 Administration de clusters

Remarque
Les procdures dans ce chapitre peuvent inclure des commandes spcifiques pour certains
outils en ligne de commande rpertoris dans l'Annexe E, Rsum des outils de la ligne de
commande. Pour obtenir plus d'informations sur les commandes et les variables, reportez-vous
la page man de chaque outil de ligne de commande.

7.1. Tches de configuration


La configuration du logiciel du module complmentaire Red Hat High Availability avec des outils de ligne
de commande est compos des tapes suivantes :
1. Cration d'un cluster. Reportez-vous la Section 7.2, Cration d'un fichier de configuration de
cluster de base .
2. Configuration du fencing. Reportez-vous la Section 7.3, Configurer le fencing .
3. Configuration des domaines de basculement. Reportez-vous la Section 7.4, Configurer les
domaines de basculement .
4. Configuration des services HA. Reportez-vous la Section 7.5, Configurer les services HA .
5. Vrification d'une configuration. Reportez-vous la Section 7.8, Vrifier une configuration .

7.2. Cration d'un fichier de configuration de cluster de base


Pourvu que le matriel du cluster, Red Hat Enterprise Linux, et le logiciel du module complmentaire High
Availability soient installs, vous pourrez crer un fichier de configuration de cluster
(/etc/cluster/cluster.conf) et commencer excuter le module complmentaire High Availability.
En tant que point de dmarrage seulement, cette section dcrit comment crer un squelette de fichier de
configuration de cluster sans utiliser le fencing, de domaines de basculement, ou de services HA. Les
sections utlrieures dcrivent comment configurer ces parties du fichier de configuration.

Important
Ceci n'est qu'une tape intermdiaire pour crer un fichier de configuration de cluster, le fichier
en rsultant n'est pas cltur et n'est pas considr comme une configuration prise en charge.
Les tapes suivantes dcrivent comment crer et configurer un squelette de fichier de configuration de
cluster. Finalement, le fichier de configuration de votre cluster variera selon le nombre de nuds, le type
de fencing, le type et le nombre de services HA et selon d'autres exigences spcifiques au site.
1. Sur n'importe quel nud du cluster, crez /etc/cluster/cluster.conf l'aide du modle de
l'exemple dans l'Exemple 7.1, Exemple de cluster.conf : configuration de base .
2. (Optional) Si vous configurez un cluster deux nuds, vous pouvez ajouter la ligne suivante
au fichier de configuration afin de permettre un nud unique de maintenir le quorum (si un
nud choue par exemple) :
<cm an two_node="1" expected_votes="1"/>
Lorsque vous ajoutez ou supprimez l'option two_node du fichier cluster.conf, vous devez
redmarrer le cluster pour que cette modification prenne effet lors de la mise jour de la
configuration. Pour des informations sur la mise jour d'une configuration de cluster, reportezvous la Section 8.4, Mettre jour une configuration . Pour un exemple de spcification de
l'option two_node, reportez-vous l'Exemple 7.2, Exemple de cluster.conf : configuration
deux nuds de base .\n\n\t\n
3. Spcifiez le nom du cluster ainsi que son numro de version de configuration l'aide des attributs
cluster : nam e et config_version (reportez-vous l'Exemple 7.1, Exemple de

104

La valeur du consensus pour totem dans un cluster deux nuds

cluster.conf : configuration de base ou l'Exemple 7.2, Exemple de cluster.conf :


configuration deux nuds de base ).
4. Dans la section clusternodes, spcifiez le nom du nud et l'ID du nud de chaque nud
utilisant les attributs clusternode : nam e et nodeid.
5. Enregistrez /etc/cluster/cluster.conf.
6. Validez le fichier avec le schma du cluster (cluster.rng) en excutant la commande
ccs_config_validate. Par exemple :
[root@example-01 ~]# ccs_config_validate
Configuration validates

7. Propagez le fichier de configuration sur /etc/cluster/ dans chaque nud du cluster. Par
exemple, vous pourriez propager le fichier vers d'autres nuds de cluster l'aide de la
commande scp.

Remarque
La propagation d'un fichier de configuration de cluster de cette manire est ncessaire la
premire fois qu'un cluster est cr. Une fois que le cluster est install et en cours
d'excution, le fichier de configuration du cluster peut tre propag l'aide de cm an_tool
version -r. Il est possible d'utiliser la commande scp pour propager un fichier de
configuration mis jour. Cependant, le logiciel du cluster doit tre arrt sur tous les
nuds pendant l'utilisation de la commande scp. En outre, vous devriez excuter
ccs_config_validate si vous propagez un fichier de configuration mis jour via la
commande scp.

Remarque
T andis que d'autres lments et attributs sont prsents dans l'exemple du fichier de
configuration (par exemple, fence et fencedevices), il n'est pas ncessaire de les
remplir maintenant. Des procdures expliques ultrieurement dans ce chapitre
fournissent des informations sur la spcification d'autres lments et attributs.
8. Dmarrez le cluster. Excutez la commande suivante sur chaque nud de cluster :
service cm an start
Par exemple :
[root@example-01 ~]# service cman start
Starting cluster:
Checking Network Manager...
Global setup...
Loading kernel modules...
Mounting configfs...
Starting cman...
Waiting for quorum...
Starting fenced...
Starting dlm_controld...
Starting gfs_controld...
Unfencing self...
Joining fence domain...

[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]

9. Sur n'importe quel nud de cluster, excutez cm an_tool nodes pour vrifier que les nuds
fonctionnent en tant que membres dans le cluster (dcrit comme M dans la colonne du statut
Sts ). Par exemple :

105

Red Hat Enterprise Linux 6 Administration de clusters

[root@example-01 ~]# cman_tool nodes


Node Sts
Inc
Joined
1
M
548
2010-09-28 10:52:21
2
M
548
2010-09-28 10:52:21
3
M
544
2010-09-28 10:52:21

Name
node-01.example.com
node-02.example.com
node-03.example.com

10. Si le cluster est en cours d'excution, procdez Section 7.3, Configurer le fencing .

Exemples de configurations de base


L'Exemple 7.1, Exemple de cluster.conf : configuration de base et l'Exemple 7.2, Exemple de
cluster.conf : configuration deux nuds de base (pour un cluster deux nuds) fournissent
tous deux un exemple trs basique de fichier de configuration de cluster comme point de dpart. Les
procdures suivantes dans ce chapitre fournissent des informations sur la configuration du fencing et
des services HA.
Exemple 7.1. Exemple de cluster.conf : configuration de base

<cluster name="mycluster" config_version="2">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
</cluster>

106

Exemples de configurations du fencing

Exemple 7.2. Exemple de cluster.conf : configuration deux nuds de base

<cluster name="mycluster" config_version="2">


<cman two_node="1" expected_votes="1"/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
</cluster>

La valeur du consensus pour totem dans un cluster deux nuds


Lorsque vous crez un cluster deux nuds et que vous ne souhaitez pas ajouter de nud
supplmentaire au cluster ultrieurement, vous devriez alors omettre la valeur du consensus dans la
balise totem du fichier cluster.conf, ainsi la valeur consensus sera calcule automatiquement.
Lorsque la valeur consensus est calcule automatiquement, les rgles suivantes sont utilises :
S'il y a deux nuds ou moins, la valeur consensus sera (token * 0.2), avec un plafond de 2000
msec et un plancher de 200 msec.
S'il y a trois nuds ou plus, la valeur consensus sera (token + 2000 msec)
Si vous laissez l'utilitaire cm an configurer votre dlai d'expiration de consensus de cette manire, alors
le dplacement ultrieur de deux trois nuds (ou plus) requerra le redmarrage du cluster, puisque le
dlai d'expiration du consensus devra changer vers cette valeur plus importante, base sur le dlai
d'expiration du token.
Si vous configurez un cluster deux nuds et souhaitez le mettre jour dans le futur plus de deux
nuds, vous pouvez remplacer le dlai d'expiration du consensus de manire ce qu'un redmarrage
du cluster ne soit pas requis lors du dplacement de deux trois nuds (ou plus). Ceci peut tre
effectu dans le fichier cluster.conf comme suit :

<totem token="X" consensus="X + 2000" />

Remarquez que l'analyse de configuration (de l'anglais, configuration parser ) ne calcule pas X +
2000 automatiquement. Une valeur entire doit tre utilise plutt qu'une quation.
L'avantage offert par l'utilisation du dlai d'expiration optimis du consensus pour des clusters deux
nuds est que le temps pris par le basculement est rduit pour les cas deux nuds puisque le
consensus n'est pas une fonction du dlai d'expiration du token.
Remarquez que pour l'autodtection de deux nuds dans cm an, le nombre de neouds physiques est le
plus importants, et non la prsence de la directive two_node=1 dans le fichier cluster.conf.

107

Red Hat Enterprise Linux 6 Administration de clusters

7.3. Configurer le fencing


La configuration du fencing consiste en (a) la spcification d'un (ou plusieurs) priphrique(s) fence
dans un cluster et en (b) la spcification d'une (ou plusieurs) mthode(s) fence pour chaque nud (
l'aide du ou des priphriques spcifis).
Configurez cluster.conf comme suit en vous basant sur le type des priphriques et des mthodes
fence requis pour votre configuration :
1. Dans la section fencedevices, spcifiez chaque priphrique fence l'aide d'un lment
fencedevice et d'attributs dpendants au(x) priphrique(s) fence. L'Exemple 7.3,
Priphrique fence APC ajout cluster.conf montre un exemple de fichier de
configuration avec un priphrique fence APC qui lui est ajout.
2. Sur la section clusternodes, dans l'lment fence de chaque section de clusternode,
spcifiez chaque mthode fence du nud. Spcifiez le nom de la mthode fence l'aide de
l'attribut nam e de m ethod. Spcifiez le priphrique fence pour chaque mthode fence l'aide de
l'lment device et de ses attributs, nam e et des paramtres spcifiques au priphrique fence.
L'Exemple 7.4, Mthodes fence ajoutes cluster.conf montre un exemple de mthode
fence avec un priphrique fence pour chaque nud dans le cluster.
3. Pour des mthodes fence non-alimentes (c'est--dire le fencing SAN/stockage) dans la section
clusternodes, ajoutez une section unfence. Ceci vous assure qu'un nud fenced n'est pas
r-activ tant que le nud n'a pas t redmarr. Pour plus d'informations sur l'unfencing d'un
nud, reportez-vous la page man fence_node(8).
La section unfence ne contient pas de sections m ethod comme la section fence. Elle contient
des rfrences device, qui mettent en miroir les sections des priphriques correspondants
pour fence, avec l'addition notable de l'action explicite (action) sur "on" ou sur "enable". La
mme section fencedevice est rfrence par les lignes fence et unfence device et les
mmes arguments par nud devraient tre rpts.
La spcification de l'attribut action sur "on" ou sur "enable" active le nud lorsque redmarr.
L'Exemple 7.4, Mthodes fence ajoutes cluster.conf et l'Exemple 7.5,
cluster.conf : Multiples mthodes fence par nud incluent des exemple des lments et
attributs unfence.
Pour obtenir plus d'informations sur unfence, reportez-vous la page man fence_node.
4. Mettez jour l'attribut config_version en incrmentant sa valeur (par exemple, en la modifiant
de config_version="2" config_version="3">).
5. Enregistrez /etc/cluster/cluster.conf.
6. (Optional) Validez le fichier mis jour sur le schma du cluster (cluster.rng) en excutant
la commande ccs_config_validate. Par exemple :
[root@example-01 ~]# ccs_config_validate
Configuration validates

7. Excutez la commande cm an_tool version -r pour propager la configuration au reste des


nuds du cluster. Ceci excutera aussi une validation supplmentaire. Il est ncessaire que
ricci soit excut dans chaque nud de cluster afin de pouvoir propager les informations
mises jour sur la configuration du cluster.
8. Vrifiez que le fichier de configuration mis jour a t propag.
9. Procdez la Section 7.4, Configurer les domaines de basculement .
Si ncessaire, vous pouvez configurer des configurations complexes avec de multiples mthodes fence
par nud et de multiples priphriques fence par mthode fence. Lors de la spcification de multiples
mthodes fence par nud, si le fencing choue avec la premire mthode, le dmon fence, fenced,
tente la mthode suivante et continuera d'essayer les mthodes successivement jusqu' ce qu'une
d'entre elles fonctionne.

108

Exemples de configurations du fencing

De temps en temps, le fencing d'un nud requiert la dsactivation de deux chemins d'E/S ou de deux
ports d'alimentation. Ceci est effectu en spcifiant deux priphriques ou plus dans la mthode fence.
fenced excute l'agent fence une fois par ligne de priphrique fence, chaque ligne doit fonctionner
pour que le fencing soit considr comme russi.
Des configurations plus complexes sont affiches dans la section intitule Exemples de configurations
du fencing .
Vous pouvez trouver plus d'informations sur la configuration de priphriques fence spcifiques sur la
page man de l'agent des priphriques fence (par exemple, la page man fence_apc). En outre, vous
pourrez trouver des informations supplmentaires sur les paramtres du fencing dans l'Annexe A,
Paramtres des priphriques fence, sur les agents fence dans /usr/sbin/, sur le schma du cluster
dans /usr/share/cluster/cluster.rng et sur le schma annot sur /usr/share/doc/cm anX.Y.ZZ/cluster_conf.htm l (par exemple, /usr/share/doc/cm an3.0.12/cluster_conf.htm l).

Exemples de configurations du fencing


Les exemple suivants montrent une simple configuration avec une mthode par nud et un
priphrique fence par mthode fence :
Exemple 7.3, Priphrique fence APC ajout cluster.conf
Exemple 7.4, Mthodes fence ajoutes cluster.conf
Les exemples suivants proposent des configurations plus complexes :
Exemple 7.5, cluster.conf : Multiples mthodes fence par nud
Exemple 7.6, cluster.conf : Fencing, multiples ports multipath
Exemple 7.7, cluster.conf : Effectuer le fencing de nuds avec des alimentations duelles

Remarque
Les exemples dans cette section ne sont pas exhaustifs, il peut y avoir d'autres manires de
configurer le fencing en fonction de vos besoins.

109

Red Hat Enterprise Linux 6 Administration de clusters

Exemple 7.3. Priphrique fence APC ajout cluster.conf

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>

Dans cet exemple, un priphrique fence (fencedevice) a t ajout l'lment fencedevices


en spcifiant l'agent fence (agent) en tant que fence_apc, l'adresse IP (ipaddr) en tant que
apc_ip_exam ple, l'identifiant de connexion (login) en tant que login_exam ple, le nom du
priphrique fence (nam e) en tant que apc et le mot de passe (passwd) en tant que
password_exam ple.

110

Exemples de configurations du fencing

Exemple 7.4 . Mthodes fence ajoutes cluster.conf

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>

Dans cet exemple, une mthode fence (m ethod) a t ajoute chaque nud. Le nom de la
mthode fence (nam e) de chaque nud est APC. Le priphrique (device) pour la mthode fence
dans chaque nud spcifie le nom (nam e) comme apc et un unique numro de port d'alimentation
de l'interrupteur APC (port) pour chaque nud. Par exemple, le numro de port de node01.example.com est 1 (port="1"). Le nom de priphrique de chaque nud (device
nam e="apc") pointe vers le priphrique fence au nom (nam e) apc sur cette ligne de l'lment
fencedevices : fencedevice agent="fence_apc" ipaddr="apc_ip_exam ple"
login="login_exam ple" nam e="apc" passwd="password_exam ple".

111

Red Hat Enterprise Linux 6 Administration de clusters

Exemple 7.5. cluster.conf : Multiples mthodes fence par nud

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="11"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="11" action="on"/>
</unfence
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="12"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="12" action="on"/>
</unfence
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="13"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="13" action="on"/>
</unfence
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc" passwd="password_example"/>
<fencedevice agent="fence_sanbox2" ipaddr="san_ip_example"
login="login_example" name="sanswitch1" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>

112

Exemples de configurations du fencing

Exemple 7.6. cluster.conf : Fencing, multiples ports multipath

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="SAN-multi">
<device name="sanswitch1" port="11"/>
<device name="sanswitch2" port="11"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="11" action="on"/>
<device name="sanswitch2" port="11" action="on"/>
</unfence
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="SAN-multi">
<device name="sanswitch1" port="12"/>
<device name="sanswitch2" port="12"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="12" action="on"/>
<device name="sanswitch2" port="12" action="on"/>
</unfence
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="SAN-multi">
<device name="sanswitch1" port="13"/>
<device name="sanswitch2" port="13"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="13" action="on"/>
<device name="sanswitch2" port="13" action="on"/>
</unfence
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_sanbox2" ipaddr="san_ip_example"
login="login_example" name="sanswitch1" passwd="password_example"/>
<fencedevice agent="fence_sanbox2" ipaddr="san_ip_example"
login="login_example" name="sanswitch2" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>

113

Red Hat Enterprise Linux 6 Administration de clusters

Exemple 7.7. cluster.conf : Effectuer le fencing de nuds avec des alimentations


duelles

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC-dual">
<device name="apc1" port="1"action="off"/>
<device name="apc2" port="1"action="off"/>
<device name="apc1" port="1"action="on"/>
<device name="apc2" port="1"action="on"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC-dual">
<device name="apc1" port="2"action="off"/>
<device name="apc2" port="2"action="off"/>
<device name="apc1" port="2"action="on"/>
<device name="apc2" port="2"action="on"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC-dual">
<device name="apc1" port="3"action="off"/>
<device name="apc2" port="3"action="off"/>
<device name="apc1" port="3"action="on"/>
<device name="apc2" port="3"action="on"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc1" passwd="password_example"/>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc2" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>

Lors de l'utilisation d'interrupteurs d'alimentation pour clturer des nuds avec des alimentations
duelles, les agents doivent fermer les deux ports d'alimentation avant de restaurer l'alimentation sur
l'un ou l'autre. Le comportement off-on par dfaut de l'agent pourrait faire que l'alimentation n'est
jamais compltement dsactive sur le nud.

7.4. Configurer les domaines de basculement


Un domaine de basculement est un sous-ensemble nomm de nuds d'un cluster qui sont capables
d'excuter un service cluster dans le cas d'un chec de nud. Un domaine de basculement peut
possder les caractristiques suivantes :

114

Exemples de configurations du fencing

Unrestricted Ceci vous permet de spcifier qu'un sous-ensemble de membres est prfr, mais
qu'un service cluster assign ce domaine peut s'excuter sur n'importe quel membre disponible.
Restricted Ceci vous permet de restreindre les membres pouvant excuter un service cluster en
particulier. Si aucun des membres dans un domaine de basculement restricted n'est disponible, le
service cluster ne pourra pas tre lanc (manuellement ou par le logiciel du cluster).
Unordered Lorsqu'un service cluster est assign un domaine de basculement unordered, le
membre sur lequel le service cluster est excut est choisi parmi les membres disponibles du
domaine de basculement sans ordre de priorit.
Ordered Ceci vous permet de spcifier un ordre de prfrence parmi les membres d'un domaine
de basculement. Les domaines de basculement ordered slectionnent le nud avec le numro de
priorit le plus bas en premier. Autrement dit, le nud dans un domaine de basculement avec un
numro de priorit de "1" spcifie la priorit la plus haute, il est ainsi le nud prfr dans le
domaine de basculement. Aprs ce nud, le nud prfr suivant sera le nud avec le numro de
priorit le plus haut qui suit, et ainsi de suite.
Failback Ceci vous permet de spcifier si un service dans le domaine de basculement devrait tre
restaur sur le nud sur lequel il tait initialement excut avant que ce nud tombe en panne. La
configuration de cette caractristique est utile dans des circonstances o un nud tombe en panne
de manire rptitive et fait partie d'un domaine de basculement ordered. Dans ces circonstances, si
un nud est le nud prfr dans un domaine de basculement, il est possible qu'un service tombe
en panne puis se restaure de manire rptitive entre le nud prfr et un autre nud, affectant
svrement la performance.

Remarque
La caractristique failback est uniquement applicable si le basculement ordered est configur.

Remarque
Modifier la configuration d'un domaine de basculement n'a aucun effet sur les services en cours
d'excution.

Remarque
Les domaines de basculement ne sont pas requis pour les oprations.
Par dfaut, les domaines de basculement sont unrestricted et unordered.
Dans un cluster possdant plusieurs membres, l'utilisation d'un domaine de basculement restricted peut
minimiser le travail de paramtrage du cluster pour qu'il excute un service cluster (comme httpd), qui
requiert que vous paramtriez la configuration de manire identique sur tous les membres excutant le
service cluster. Au lieu de paramtrer le cluster entier afin qu'il excute le service cluster, il vous est
possible de paramtrer uniquement les membres dans le domaine de basculement restricted que vous
associerez au service cluster.

Remarque
Pour configurer un membre prfr, vous pouvez crer un domaine de basculement unrestricted
comprenant uniquement un membre du cluster. Faire ceci cause au service cluster de s'excuter
sur ce membre du cluster en premier (le membre prfr), mais permet au service cluster de
basculer sur tout autre membre.

115

Red Hat Enterprise Linux 6 Administration de clusters

Pour configurer un domaine de basculement, utilisez les procdures suivantes :


1. Ouvrez /etc/cluster/cluster.conf sur n'importe quel nud dans le cluster.
2. Ajoutez la section squelette suivante dans l'lment rm pour chaque domaine de basculement
utiliser :

<failoverdomains>
<failoverdomain name=""
<failoverdomainnode
<failoverdomainnode
<failoverdomainnode
</failoverdomain>
</failoverdomains>

nofailback="" ordered="" restricted="">


name="" priority=""/>
name="" priority=""/>
name="" priority=""/>

Remarque
Le nombre d'attributs failoverdom ainnode dpend du nombre de nuds dans le
domaine de basculement. La section squelette failoverdom ain dans le texte prcdent
affiche trois lments failoverdom ainnode (sans aucun nom de nud spcifi),
signifiant ainsi qu'il y a trois nuds dans le domaine de basculement.
3. Dans la section failoverdom ain, fournissez les valeurs des lments et attributs. Pour des
descriptions des lments et attributs, reportez-vous la section failoverdomain du schma de
clusters annot. Le schma de clusters annot est disponible sur /usr/share/doc/cm anX.Y.ZZ/cluster_conf.htm l (par exemple, /usr/share/doc/cm an3.0.12/cluster_conf.htm l) dans n'importe quel nud de cluster. Pour voir un exemple de
section failoverdom ains, reportez-vous l'Exemple 7.8, Domaine de basculement ajout
cluster.conf .
4. Mettez jour l'attribut config_version en incrmentant sa valeur (par exemple, en la modifiant
de config_version="2" config_version="3">).
5. Enregistrez /etc/cluster/cluster.conf.
6. (Optional) Validez le fichier sur le schma du cluster (cluster.rng) en excutant la
commande ccs_config_validate. Par exemple :
[root@example-01 ~]# ccs_config_validate
Configuration validates

7. Excutez la commande cm an_tool version -r pour propager la configuration au reste des


nuds de cluster.
8. Procdez la Section 7.5, Configurer les services HA .
L'Exemple 7.8, Domaine de basculement ajout cluster.conf propose un exemple de
configuration avec un domaine de basculement ordered et unrestricted.

116

Exemples de configurations du fencing

Exemple 7.8. Domaine de basculement ajout cluster.conf

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="example_pri" nofailback="0" ordered="1"
restricted="0">
<failoverdomainnode name="node-01.example.com" priority="1"/>
<failoverdomainnode name="node-02.example.com" priority="2"/>
<failoverdomainnode name="node-03.example.com" priority="3"/>
</failoverdomain>
</failoverdomains>
</rm>
</cluster>

La section failoverdom ains contient une section failoverdom ain pour chaque domaine de
basculement dans le cluster. Cet exemple possde un domaine de basculement. Sur la ligne
failoverdom ain, le nom (nam e) est spcifi en tant que exam ple_pri. En outre, il ne spcifie
aucune restauration failback (failback="0"), il spcifie que le basculement est ordered
(ordered="1") et que le domaine de basculement est unrestricted (restricted="0").

7.5. Configurer les services HA


La configuration des services HA (haute disponibilit, ou High Availability ) consiste en la
configuration des ressources et leur assignement des services.
Les sections qui suivent dcrivent comment modifier /etc/cluster/cluster.conf afin d'ajouter des
ressources et des services.
Section 7.5.1, Ajouter des ressources cluster
Section 7.5.2, Ajouter un service cluster un cluster

117

Red Hat Enterprise Linux 6 Administration de clusters

Important
Il peut y avoir un grand ventail de configurations possible avec les ressources et services High
Availability. Pour une meilleure comprhension des paramtres et du comportement des
ressources, reportez-vous l'Annexe B, Paramtres des ressources HA et l'Annexe C,
Comportement des ressources HA. Pour une performance optimale et pour vous assurer que
votre configuration peut tre prise en charge, contactez un reprsentant approuv du support
Red Hat.

7.5.1. Ajouter des ressources cluster


Vous povuez configurer deux types de ressources :
Global Ressources disponibles tous les services dans le cluster. Celles-ci sont configures
dans la section resources du fichier de configuration (dans l'lment rm ).
Service-specific Ressources disponibles un seul service. Celles-ci sont configures dans
chaque section service du fichier de configuration (dans l'lment rm ).
Cette section dcrit comment ajouter une ressource globale. Pour voir les procdures sur la
configuration des ressources spcifiques au service ( service-specific ), reportez-vous la
Section 7.5.2, Ajouter un service cluster un cluster .
Suivez les tapes dans cette section pour ajouter une ressource cluster globale.
1. Ouvrez /etc/cluster/cluster.conf sur n'importe quel nud dans le cluster.
2. Ajoutez une section resources dans l'lment rm . Par exemple :

<rm>
<resources>
</resources>
</rm>

3. Remplissez-la avec les ressources correspondantes aux services que vous souhaitez crer. Par
exemple, voici des ressources utiliser dans le service Apache. Celles-ci sont composes d'une
ressource de systme de fichiers (fs), d'une ressource IP (ip) et d'une ressource Apache
(apache).

<rm>
<resources>
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www"
fstype="ext3"/>
<ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server"
server_root="/etc/httpd" shutdown_wait="0"/>
</resources>
</rm>

L'Exemple 7.9, Fichier cluster.conf avec des ressources ajoutes montre un exemple du
fichier cluster.conf avec la section resources ajoute.
4. Mettez jour l'attribut config_version en incrmentant sa valeur (par exemple, en modifiant
config_version="2" en config_version="3").
5. Enregistrez /etc/cluster/cluster.conf.

118

Exemples de configurations du fencing

6. (Optional) Validez le fichier sur le schma du cluster (cluster.rng) en excutant la


commande ccs_config_validate. Par exemple :
[root@example-01 ~]# ccs_config_validate
Configuration validates

7. Excutez la commande cm an_tool version -r pour propager la configuration au reste des


nuds de cluster.
8. Vrifiez que le fichier de configuration mis jour a t propag.
9. Procdez la Section 7.5.2, Ajouter un service cluster un cluster .

119

Red Hat Enterprise Linux 6 Administration de clusters

Exemple 7.9. Fichier cluster.conf avec des ressources ajoutes

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="example_pri" nofailback="0" ordered="1"
restricted="0">
<failoverdomainnode name="node-01.example.com" priority="1"/>
<failoverdomainnode name="node-02.example.com" priority="2"/>
<failoverdomainnode name="node-03.example.com" priority="3"/>
</failoverdomain>
</failoverdomains>
<resources>
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www"
fstype="ext3"/>
<ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server"
server_root="/etc/httpd" shutdown_wait="0"/>
</resources>
</rm>
</cluster>

7.5.2. Ajouter un service cluster un cluster


Pour ajouter un service cluster au cluster, suivez les tapes de cette section.
1. Ouvrez /etc/cluster/cluster.conf sur n'importe quel nud dans le cluster.
2. Ajoutez une section service avec l'lment rm pour chaque service. Par exemple :

120

Exemples de configurations du fencing

<rm>
<service autostart="1" domain="" exclusive="0" name=""
recovery="restart">
</service>
</rm>

3. Configurez les paramtres suivants (attributs) dans l'lment service :


autostart Spcifie s'il faut dmarrer le service automatiquement lorsque le cluster
dmarre. Veuillez utiliser 1 pour activer et 0 pour dsactiver, le service est activ par
dfaut.
dom ain Spcifie un domaine de basculement (s'il est requis).
exclusive Spcifie une politique o le service s'excute uniquement sur des nuds sur
lesquels aucun autre service ne s'excute.
recovery Spcifie une stratgie de rcupration pour le service. Les options disponibles
du service sont dplacer, redmarrer, dsactiver, ou redmarrer-dsactiver.
4. Selon le type de ressources que vous souhaitez utiliser, remplissez le service avec des
ressources globales ou spcifiques au service
Par exemple, voici un service Apache qui utilise des ressources globales :

<rm>
<resources>
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www"
fstype="ext3"/>
<ip address="127.143.131.100" monitor_link="yes"
sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server"
server_root="/etc/httpd" shutdown_wait="0"/>
</resources>
<service autostart="1" domain="example_pri" exclusive="0"
name="example_apache" recovery="relocate">
<fs ref="web_fs"/>
<ip ref="127.143.131.100"/>
<apache ref="example_server"/>
</service>
</rm>

Par exemple, voici un service Apache qui utilise des ressources spcifiques au service :

<rm>
<service autostart="0" domain="example_pri" exclusive="0"
name="example_apache2" recovery="relocate">
<fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www2"
fstype="ext3"/>
<ip address="127.143.131.101" monitor_link="yes"
sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server2"
server_root="/etc/httpd" shutdown_wait="0"/>
</service>
</rm>

L'Exemple 7.10, cluster.conf avec services ajouts : l'un utilisant des ressources globales
et l'autre utilisant des ressources spcifiques au service montre un exemple de fichier
cluster.conf avec deux services :

121

Red Hat Enterprise Linux 6 Administration de clusters

exam ple_apache Ce service utilise les ressources globales web_fs,


127.14 3.131.100 et exam ple_server.
exam ple_apache2 Ce service utilise les ressources spcifiques au service web_fs2,
127.14 3.131.101 et exam ple_server2.
5. Mettez jour l'attribut config_version en incrmentant sa valeur (par exemple, en la modifiant
de config_version="2" config_version="3">).
6. Enregistrez /etc/cluster/cluster.conf.
7. (Optional) Validez le fichier mis jour sur le schma du cluster (cluster.rng) en excutant
la commande ccs_config_validate. Par exemple :
[root@example-01 ~]# ccs_config_validate
Configuration validates

8. Excutez la commande cm an_tool version -r pour propager la configuration au reste des


nuds de cluster.
9. Vrifiez que le fichier de configuration mis jour a t propag.
10. Procdez la Section 7.8, Vrifier une configuration .

122

Exemples de configurations du fencing

Exemple 7.10. cluster.conf avec services ajouts : l'un utilisant des ressources
globales et l'autre utilisant des ressources spcifiques au service

123

Red Hat Enterprise Linux 6 Administration de clusters

<cluster name="mycluster" config_version="3">


<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="example_pri" nofailback="0" ordered="1"
restricted="0">
<failoverdomainnode name="node-01.example.com" priority="1"/>
<failoverdomainnode name="node-02.example.com" priority="2"/>
<failoverdomainnode name="node-03.example.com" priority="3"/>
</failoverdomain>
</failoverdomains>
<resources>
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www"
fstype="ext3"/>
<ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server"
server_root="/etc/httpd" shutdown_wait="0"/>
</resources>
<service autostart="1" domain="example_pri" exclusive="0"
name="example_apache" recovery="relocate">
<fs ref="web_fs"/>
<ip ref="127.143.131.100"/>
<apache ref="example_server"/>
</service>
<service autostart="0" domain="example_pri" exclusive="0"
name="example_apache2" recovery="relocate">
<fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www2"
fstype="ext3"/>
<ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server2"
server_root="/etc/httpd" shutdown_wait="0"/>
</service>
</rm>
</cluster>

124

Exemples de configurations du fencing

7.6. Configurer le protocole d'anneau redondant ( Redundant


Ring )
partir de Red Hat Enterprise Linux 6.4, le module complmentaire Red Hat High Availability prend en
charge la configuration du protocole d'anneau redondant.
Lorsque vous configurez un systme pour qu'il utilise le protocole d'anneau redondant, vous devez
prendre en compte les considrations suivantes :
Ne spcifiez pas plus de deux anneaux.
Chaque anneau doit utiliser le mme protocole, ne mlangez pas IPv4 et IPv6.
Si ncessaire, vous pouvez spcifier une adresse de multidiffusion pour le deuxime anneau. Si
vous spcifiez une adresse de multidiffusion pour le deuxime anneau, l'adresse de multidiffusion
alterne ou le port alterne doit tre diffrent de l'adresse de multidiffusion du premier anneau. Si vous
ne spcifiez pas d'adresse de multidiffusion alterne, le systme utilisera automatiquement une
adresse de multidiffusion diffrente pour le deuxime anneau.
Si vous spcifiez un port alterne, les numros de port du premier et second anneau doivent diffrer
d'au moins deux, car le systme utilise port et port-1 pour effectuer des oprations.
N'utilisez pas deux diffrentes interfaces sur le mme sous-rseau.
En gnral, il est recommand de configurer le protocole d'anneau redondant sur deux diffrents NIC
et deux diffrents commutateurs, au cas o un NIC ou un commutateur chouerait.
N'utilisez pas la commande ifdown ou service network stop pour simuler une panne rseau.
Cela dtruit le cluster et requiert que vous redmarriez tous les nuds du cluster pour restaurer.
N'utilisez pas NetworkManager, car il excutera la commande ifdown si le cable est dbranch.
Lorsqu'un nud d'un NIC choue, l'anneau entier est marqu comme tant en chec.
Aucune intervention manuelle n'est requise pour restaurer aprs un anneau en chec. Pour effectuer
une restauration, vous devrez uniquement corriger la raison originale de l'chec, telle que l'chec
d'un NIC ou d'un commutateur.
Pour spcifier une seconde interface rseau utiliser pour le protocole d'anneau redondant, ajoutez un
composant altnam e la section clusternode du fichier de configuration cluster.conf. Lorsque
vous spcifiez altnam e, vous devrez spcifier un attribut nam e pour indiquer un second nom d'hte
ou adresse IP pour le nud.
L'exemple suivant spcifie clusternet-node1-eth2 comme nom alternatif pour le nud du cluster
clusternet-node1-eth1.

<cluster name="mycluster" config_version="3" >


<logging debug="on"/>
<clusternodes>
<clusternode name="clusternet-node1-eth1" votes="1" nodeid="1">
<fence>
<method name="single">
<device name="xvm" domain="clusternet-node1"/>
</method>
</fence>
<altname name="clusternet-node1-eth2"/>
</clusternode>

La section altnam e dans le bloc clusternode n'est pas dpendant de sa position. Elle peut se
trouver avant ou aprs la section fence. Ne spcifiez pas plus d'un composant altnam e pour un
nud de cluster ou le systme chouera au dmarrage.
Optionnellement, vouspouvez spcifier une adresse de multidiffusion, un port et un T T L pour le second

125

Red Hat Enterprise Linux 6 Administration de clusters

anneau en incluant un composant altm ulticast dans la section cm an du fichier de configuration


cluster.conf. Le composant altm ulticast accepte addr, port et le paramtre ttl.
L'exemple suivant affiche la section cm an d'un fichier de configuration de cluster qui dfinit une adresse
de multidiffusion, un port et un T T L pour le second anneau.

<cman>
<multicast addr="239.192.99.73" port="666" ttl="2"/>
<altmulticast addr="239.192.99.88" port="888" ttl="3"/>
</cman>

7.7. Configurer les options de dbogage


Vous pouvez activer le dbogage de tous les dmons dans un cluster ou activer la journalisation pour le
traitement de cluster spcifique.
Pour activer le dbogage de tous les dmons, ajoutez ce qui suit au fichier
/etc/cluster/cluster.conf. Par dfaut, la journalisation est dirige vers le fichier
/var/log/cluster/dmon.log.

<cluster config_version="7" name="rh6cluster">


<logging debug="on"/>
...
</cluster>

Pour activer le dbogage des processus individuels, ajoutez les lignes suivantes au fichier
/etc/cluster/cluster.conf. La configuration de la journalisation par dmon remplace les
paramtres gnraux.

<cluster config_version="7" name="rh6cluster">


...
<logging>
<!-- turning on per-subsystem debug logging -->
<logging_daemon name="corosync" debug="on" />
<logging_daemon name="fenced" debug="on" />
<logging_daemon name="qdiskd" debug="on" />
<logging_daemon name="rgmanager" debug="on" />
<logging_daemon name="dlm_controld" debug="on" />
<logging_daemon name="gfs_controld" debug="on" />
</logging>
...
</cluster>

Pour la liste des dmons pour lesquels vous pouvez activer la journalisation ainsi que pour les options
de journalisation supplmentaires que vous pouvez configurer pour la journalisation globale ou par
dmon , veuillez vous reporter la page man cluster.conf(5).

7.8. Vrifier une configuration


Une fois que vous avez cr votre fichier de configuration de cluster, vrifiez qu'il fonctionne
correctement en effectuant les tapes suivantes :
1. Sur chaque nud, redmarrez le logiciel du cluster. Cette action vous assurera que toute addition
de configuration qui n'est vrifie qu'au moment du dmarrage sera bien incluse dans la

126

Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande

configuration en cours d'excution. Vous pouvez redmarrer le logiciel du cluster en excutant


service cm an restart. Par exemple :
[root@example-01 ~]# service cman restart
Stopping cluster:
Leaving fence domain...
Stopping gfs_controld...
Stopping dlm_controld...
Stopping fenced...
Stopping cman...
Waiting for corosync to shutdown:
Unloading kernel modules...
Unmounting configfs...
Starting cluster:
Checking Network Manager...
Global setup...
Loading kernel modules...
Mounting configfs...
Starting cman...
Waiting for quorum...
Starting fenced...
Starting dlm_controld...
Starting gfs_controld...
Unfencing self...
Joining fence domain...

[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]

2. Excutez service clvm d start si CLVM est utilis pour crer des volumes clusteriss. Par
exemple :
[root@example-01 ~]# service clvmd start
Activating VGs:

OK

3. Excutez service gfs2 start si vous utilisez Red Hat GFS2. Par exemple :
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA):
Mounting GFS2 filesystem (/mnt/gfsB):

[
[

OK
OK

]
]

4. Excutez service rgm anager start si vous utilisez des services HA (haute disponibilit, de
l'anglais high-availability ). Par exemple :
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager:

OK

5. Sur n'importe quel nud de cluster, excutez cm an_tool nodes pour vrifier que les nuds
fonctionnent en tant que membres dans le cluster (dcrit comme M dans la colonne du statut
Sts ). Par exemple :
[root@example-01 ~]# cman_tool nodes
Node Sts
Inc
Joined
1
M
548
2010-09-28 10:52:21
2
M
548
2010-09-28 10:52:21
3
M
544
2010-09-28 10:52:21

Name
node-01.example.com
node-02.example.com
node-03.example.com

6. Sur tout nud, vrifiez que les services HA fonctionnent bien comme prvu l'aide de l'utilitaire
clustat. En outre, clustat affiche le statut des nuds du cluster. Par exemple :

127

Red Hat Enterprise Linux 6 Administration de clusters

[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010
Member Status: Quorate
Member Name
------ ---node-03.example.com
node-02.example.com
node-01.example.com
Service Name
------- ---service:example_apache
service:example_apache2

ID
Status
---- -----3 Online, rgmanager
2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)

State
----started
disabled

7. Si le cluster fonctionne comme prvu, alors la cration du fichier de configuration est termine.
Vous pouvez grer le cluster avec les outils de ligne de commande dcrits dans le Chapitre 8,
Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande.

128

Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande

Chapitre 8. Grer le module complmentaire Red Hat High


Availability avec des outils de ligne de commande
Ce chapitre dcrit les diverses tches administratives pour la gestion du module complmentaire Red
Hat High Availability et comporte les sections suivantes :
Section 8.1, Dmarrer et arrter le logiciel du cluster
Section 8.2, Ajouter ou supprimer un nud
Section 8.3, Grer les services High-Availability
Section 8.4, Mettre jour une configuration

Important
Assurez-vous que le dploiement du module complmentaire Red Hat High Availability
correspond bien vos besoins et peut tre pris en charge. Consultez un reprsentant autoris
de Red Hat pour vrifier votre configuration avant de la dployer. En outre, prvoyez
suffisamment de temps pour une priode de rodage de la configuration afin de tester les
diffrents modes d'chec.

Important
Ce chapitre fait rfrence aux lments et attributs de cluster.conf communment utiliss.
Pour obtenir la liste et la description complte des lments et attributs cluster.conf,
reportez-vous au schma des clusters sur /usr/share/cluster/cluster.rng, et au
schma annot sur /usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l (par exemple,
/usr/share/doc/cm an-3.0.12/cluster_conf.htm l).

Important
Certaines procdures dans ce chapitre appellent utiliser la commande cm an_tool version
-r pour propager une configuration de cluster travers un cluster. L'utilisation de cette
commande requiert que ricci soit en cours d'excution.

Remarque
Les procdures dans ce chapitre peuvent inclure des commandes spcifiques pour certains
outils en ligne de commande rpertoris dans l'Annexe E, Rsum des outils de la ligne de
commande. Pour obtenir plus d'informations sur les commandes et les variables, reportez-vous
la page man de chaque outil de ligne de commande.

8.1. Dmarrer et arrter le logiciel du cluster


Vous pouvez dmarrer ou arrter un logiciel de cluster sur un nud selon la Section 8.1.1, Dmarrer
un logiciel de cluster et la Section 8.1.2, Arrter un logiciel de cluster . Dmarrer le logiciel de cluster
sur un nud le fait rejoindre le cluster ; arrter le logiciel de cluster sur un nud le fait quitter le cluster.
8.1.1. Dmarrer un logiciel de cluster
Pour dmarrer le logiciel du cluster sur un nud, saisissez les commandes suivantes dans cet ordre :

129

Red Hat Enterprise Linux 6 Administration de clusters

1. service cm an start
2. service clvm d start, si CLVM a t utilis pour crer des volumes clusteriss
3. service gfs2 start, si vous utilisez Red Hat GFS2
4. service rgm anager start, si vous utilisez les services high-availability (HA) (rgm anager).
Par exemple :
[root@example-01 ~]# service cman start
Starting cluster:
Checking Network Manager...
[ OK ]
Global setup...
[ OK ]
Loading kernel modules...
[ OK ]
Mounting configfs...
[ OK ]
Starting cman...
[ OK ]
Waiting for quorum...
[ OK ]
Starting fenced...
[ OK ]
Starting dlm_controld...
[ OK ]
Starting gfs_controld...
[ OK ]
Unfencing self...
[ OK ]
Joining fence domain...
[ OK ]
[root@example-01 ~]# service clvmd start
Starting clvmd:
[ OK ]
Activating VG(s):
2 logical volume(s) in volume group "vg_example" now active
[ OK ]
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA):
[ OK ]
Mounting GFS2 filesystem (/mnt/gfsB):
[ OK ]
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager:
[ OK ]
[root@example-01 ~]#

8.1.2. Arrter un logiciel de cluster


Pour arrter le logiciel du cluster sur un nud, saisissez les commandes suivantes dans cet ordre :
1. service rgm anager stop, si vous utilisez les services high-availability (HA) (rgm anager).
2. service gfs2 stop, si vous utilisez Red Hat GFS2
3. um ount -at gfs2, si vous utilisez Red Hat GFS2 en conjonction avec rgm anager, pour vous
assurer que tous les fichiers GFS2 monts pendant le lancement de rgm anager (mais pas
dmonts lors de la fermeture) ont bien t dmonts.
4. service clvm d stop, si CLVM a t utilis pour crer des volumes clusteriss
5. service cm an stop
Par exemple :

130

Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande

[root@example-01 ~]# service rgmanager stop


Stopping Cluster Service Manager:
[root@example-01 ~]# service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA):
Unmounting GFS2 filesystem (/mnt/gfsB):
[root@example-01 ~]# umount -at gfs2
[root@example-01 ~]# service clvmd stop
Signaling clvmd to exit
clvmd terminated
[root@example-01 ~]# service cman stop
Stopping cluster:
Leaving fence domain...
Stopping gfs_controld...
Stopping dlm_controld...
Stopping fenced...
Stopping cman...
Waiting for corosync to shutdown:
Unloading kernel modules...
Unmounting configfs...
[root@example-01 ~]#

[
[
[

OK
OK
OK

[
[

OK
OK

]
]
]

]
]

[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]

Remarque
Arrter un logiciel de cluster sur un nud cause aux services HA de basculer sur un autre
nud. Comme alternative, prenez en considration la possibilit de dplacer ou de migrer les
services HA vers un autre nud avant d'arrter le logiciel du cluster. Pour obtenir des
informations sur la gestion des services HA, reportez-vous la Section 8.3, Grer les services
High-Availability .

8.2. Ajouter ou supprimer un nud


Cette section dcrit comment supprimer un nud d'un cluster et comment ajouter un nud un cluster.
Vous pouvez supprimer un nud d'un cluster selon la Section 8.2.1, Supprimer un nud d'un
cluster . Vous pouvez ajouter un nud un cluster selon la Section 8.2.2, Ajouter un nud un
cluster .
8.2.1. Supprimer un nud d'un cluster
Supprimer un nud d'un cluster consiste en la fermeture du logiciel du cluster sur le nud supprimer
et en la mise jour de la configuration du cluster pour reflter la modification.

Important
Si la suppression d'un nud du cluster cause une transition de plus de deux nuds deux
nuds, vous devrez redmarrer le logiciel du cluster sur chaque nud aprs avoir mis jour le
fichier de configuration du cluster.
Pour supprimer un nud d'un cluster, procdez aux tapes suivantes :
1. Sur n'importe quel nud, utilisez l'utilitaire clusvcadm pour dplacer, migrer, ou arrter chaque
service HA en cours de suppression du cluster qui est excut sur le nud. Pour obtenir plus
d'informations sur l'utilisation de clusvcadm , reportez-vous la Section 8.3, Grer les services
High-Availability .
2. Sur le nud supprimer du cluster, arrtez le logiciel du cluster selon la Section 8.1.2, Arrter
un logiciel de cluster . Par exemple :

131

Red Hat Enterprise Linux 6 Administration de clusters

[root@example-01 ~]# service rgmanager stop


Stopping Cluster Service Manager:
[root@example-01 ~]# service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA):
Unmounting GFS2 filesystem (/mnt/gfsB):
[root@example-01 ~]# service clvmd stop
Signaling clvmd to exit
clvmd terminated
[root@example-01 ~]# service cman stop
Stopping cluster:
Leaving fence domain...
Stopping gfs_controld...
Stopping dlm_controld...
Stopping fenced...
Stopping cman...
Waiting for corosync to shutdown:
Unloading kernel modules...
Unmounting configfs...
[root@example-01 ~]#

[
[
[

OK
OK
OK

[
[

OK
OK

]
]
]
]
]

[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]

3. Sur n'importe quel nud dans le cluster, modifiez /etc/cluster/cluster.conf pour


supprimer la section clusternode du nud supprimer. Par exemple, dans l'Exemple 8.1,
Configuration d'un cluster trois nuds , si node-03.example.com est cens tre supprim,
alors supprimez la section clusternode pour ce nud. Si la suppression d'un (ou plusieurs)
nud(s) cause au cluster de devenir un cluster deux nuds, vous pouvez ajouter la ligne
suivante au fichier de configuration afin de permettre un nud unique de maintenir le quorum
(au cas o un nud choue) :
<cm an two_node="1" expected_votes="1"/>
Reportez-vous la Section 8.2.3, Exemples de configurations deux nuds et trois nuds
pour une comparaison entre une configuration deux nuds et une configuration trois nuds.
4. Mettez jour l'attribut config_version en incrmentant sa valeur (par exemple, en la modifiant
de config_version="2" config_version="3">).
5. Enregistrez /etc/cluster/cluster.conf.
6. (Optional) Validez le fichier mis jour sur le schma du cluster (cluster.rng) en excutant
la commande ccs_config_validate. Par exemple :
[root@example-01 ~]# ccs_config_validate
Configuration validates

7. Excutez la commande cm an_tool version -r pour propager la configuration au reste des


nuds de cluster.
8. Vrifiez que le fichier de configuration mis jour a t propag.
9. Si le dcompte des nuds du cluster est pass de plus de deux nuds deux nuds, vous
devrez redmarrer le logiciel du cluster comme suit :
a. Sur chaque nud, arrtez le logiciel du cluster selon la Section 8.1.2, Arrter un logiciel
de cluster . Par exemple :

132

Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande

[root@example-01 ~]# service rgmanager stop


Stopping Cluster Service Manager:
[root@example-01 ~]# service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA):
Unmounting GFS2 filesystem (/mnt/gfsB):
[root@example-01 ~]# service clvmd stop
Signaling clvmd to exit
clvmd terminated
[root@example-01 ~]# service cman stop
Stopping cluster:
Leaving fence domain...
Stopping gfs_controld...
Stopping dlm_controld...
Stopping fenced...
Stopping cman...
Waiting for corosync to shutdown:
Unloading kernel modules...
Unmounting configfs...
[root@example-01 ~]#

[
[
[

OK
OK
OK

[
[

OK
OK

]
]
]
]
]

[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]

b. Sur chaque nud, dmarrez le logiciel du cluster selon la Section 8.1.1, Dmarrer un
logiciel de cluster . Par exemple :
[root@example-01 ~]# service cman start
Starting cluster:
Checking Network Manager...
[ OK ]
Global setup...
[ OK ]
Loading kernel modules...
[ OK ]
Mounting configfs...
[ OK ]
Starting cman...
[ OK ]
Waiting for quorum...
[ OK ]
Starting fenced...
[ OK ]
Starting dlm_controld...
[ OK ]
Starting gfs_controld...
[ OK ]
Unfencing self...
[ OK ]
Joining fence domain...
[ OK ]
[root@example-01 ~]# service clvmd start
Starting clvmd:
[ OK ]
Activating VG(s):
2 logical volume(s) in volume group "vg_example" now
active
[ OK ]
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA):
[ OK ]
Mounting GFS2 filesystem (/mnt/gfsB):
[ OK ]
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager:
[ OK ]
[root@example-01 ~]#

c. Sur n'importe quel nud de cluster, excutez cm an_tool nodes pour vrifier que les
nuds fonctionnent en tant que membres dans le cluster (dcrit comme M dans la
colonne du statut Sts ). Par exemple :
[root@example-01 ~]# cman_tool nodes
Node Sts
Inc
Joined
1
M
548
2010-09-28 10:52:21
2
M
548
2010-09-28 10:52:21

Name
node-01.example.com
node-02.example.com

d. Sur tout nud, vrifiez que les services HA fonctionnent bien comme prvu l'aide de
l'utilitaire clustat. En outre, clustat affiche le statut des nuds du cluster. Par exemple :

133

Red Hat Enterprise Linux 6 Administration de clusters

[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010
Member Status: Quorate
Member Name
------ ---node-02.example.com
node-01.example.com
Service Name
------- ---service:example_apache
service:example_apache2

ID
Status
---- -----2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)

State
----started
disabled

8.2.2. Ajouter un nud un cluster


Ajouter un nud un cluster consiste en la mise jour de la configuration du cluster, la propagation de
la configuration mise jour vers les nuds ajouter et le dmarrage du logiciel du cluster sur ce nud.
Pour ajouter un nud un cluster, procdez aux tapes suivantes :
1. Sur n'importe quel nud dans le cluster, modifiez /etc/cluster/cluster.conf pour ajouter
la section clusternode du nud ajouter. Par exemple, dans l'Exemple 8.2, Configuration
d'un cluster deux nuds , si node-03.example.com est cens tre ajout, alors ajoutez la
section clusternode pour ce nud. Si l'ajout d'un (ou plusieurs) nud(s) cause au cluster de
passer d'un cluster deux nuds un cluster trois nuds ou plus, supprimez les attributs
cm an de /etc/cluster/cluster.conf comme suit :
cm an two_node="1"
expected_votes="1"
Reportez-vous la Section 8.2.3, Exemples de configurations deux nuds et trois nuds
pour une comparaison entre une configuration deux nuds et une configuration trois nuds.
2. Mettez jour l'attribut config_version en incrmentant sa valeur (par exemple, en la modifiant
de config_version="2" config_version="3">).
3. Enregistrez /etc/cluster/cluster.conf.
4. (Optional) Validez le fichier mis jour sur le schma du cluster (cluster.rng) en excutant
la commande ccs_config_validate. Par exemple :
[root@example-01 ~]# ccs_config_validate
Configuration validates

5. Excutez la commande cm an_tool version -r pour propager la configuration au reste des


nuds de cluster.
6. Vrifiez que le fichier de configuration mis jour a t propag.
7. Propagez le fichier de configuration mis jour vers /etc/cluster/ dans chaque nud
ajouter au cluster. Par exemple, utilisez la commande scp pour envoyer le fichier de configuration
mis jour sur chaque nud ajouter au cluster.
8. Si le dcompte des nuds du cluster est pass de deux nuds plus de deux nuds, vous
devrez redmarrer le logiciel du cluster dans les nuds du cluster comme suit :
a. Sur chaque nud, arrtez le logiciel du cluster selon la Section 8.1.2, Arrter un logiciel
de cluster . Par exemple :

134

Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande

[root@example-01 ~]# service rgmanager stop


Stopping Cluster Service Manager:
[root@example-01 ~]# service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA):
Unmounting GFS2 filesystem (/mnt/gfsB):
[root@example-01 ~]# service clvmd stop
Signaling clvmd to exit
clvmd terminated
[root@example-01 ~]# service cman stop
Stopping cluster:
Leaving fence domain...
Stopping gfs_controld...
Stopping dlm_controld...
Stopping fenced...
Stopping cman...
Waiting for corosync to shutdown:
Unloading kernel modules...
Unmounting configfs...
[root@example-01 ~]#

[
[
[

OK
OK
OK

[
[

OK
OK

]
]
]
]
]

[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]

b. Sur chaque nud, dmarrez le logiciel du cluster selon la Section 8.1.1, Dmarrer un
logiciel de cluster . Par exemple :
[root@example-01 ~]# service cman start
Starting cluster:
Checking Network Manager...
[ OK ]
Global setup...
[ OK ]
Loading kernel modules...
[ OK ]
Mounting configfs...
[ OK ]
Starting cman...
[ OK ]
Waiting for quorum...
[ OK ]
Starting fenced...
[ OK ]
Starting dlm_controld...
[ OK ]
Starting gfs_controld...
[ OK ]
Unfencing self...
[ OK ]
Joining fence domain...
[ OK ]
[root@example-01 ~]# service clvmd start
Starting clvmd:
[ OK ]
Activating VG(s):
2 logical volume(s) in volume group "vg_example" now
active
[ OK ]
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA):
[ OK ]
Mounting GFS2 filesystem (/mnt/gfsB):
[ OK ]
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager:
[ OK ]
[root@example-01 ~]#

9. Sur chaque nud ajouter au cluster, dmarrez le logiciel du cluster selon la Section 8.1.1,
Dmarrer un logiciel de cluster . Par exemple :

135

Red Hat Enterprise Linux 6 Administration de clusters

[root@example-01 ~]# service cman start


Starting cluster:
Checking Network Manager...
[ OK ]
Global setup...
[ OK ]
Loading kernel modules...
[ OK ]
Mounting configfs...
[ OK ]
Starting cman...
[ OK ]
Waiting for quorum...
[ OK ]
Starting fenced...
[ OK ]
Starting dlm_controld...
[ OK ]
Starting gfs_controld...
[ OK ]
Unfencing self...
[ OK ]
Joining fence domain...
[ OK ]
[root@example-01 ~]# service clvmd start
Starting clvmd:
[ OK ]
Activating VG(s):
2 logical volume(s) in volume group "vg_example" now
active
[ OK ]
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA):
[ OK ]
Mounting GFS2 filesystem (/mnt/gfsB):
[ OK ]
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager:
[root@example-01 ~]#

OK

10. Sur n'importe quel nud et l'aide de l'utilitaire clustat, vrifiez que chaque nud ajout est
en cours d'excution et fait partie du cluster. Par exemple :
[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010
Member Status: Quorate
Member Name
------ ---node-03.example.com
node-02.example.com
node-01.example.com
Service Name
------- ---service:example_apache
service:example_apache2

ID
Status
---- -----3 Online, rgmanager
2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)

State
----started
disabled

Pour obtenir des informations sur l'utilisation de clustat, reportez-vous la Section 8.3, Grer
les services High-Availability .
En outre, vous pouvez utiliser cm an_tool status pour vrifier les votes de nuds, le compte
des nuds, et le compte quorum. Par exemple :

136

Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande

[root@example-01 ~]#cman_tool status


Version: 6.2.0
Config Version: 19
Cluster Name: mycluster
Cluster Id: 3794
Cluster Member: Yes
Cluster Generation: 548
Membership state: Cluster-Member
Nodes: 3
Expected votes: 3
Total votes: 3
Node votes: 1
Quorum: 2
Active subsystems: 9
Flags:
Ports Bound: 0 11 177
Node name: node-01.example.com
Node ID: 3
Multicast addresses: 239.192.14.224
Node addresses: 10.15.90.58

11. Sur n'importe quel nud, vous pouvez vous servir de l'utilitaire clusvcadm pour migrer ou
dplacer un service en cours d'excution sur le nouveau nud du cluster. Vous pouvez aussi
activer tout service dsactiv. Pour obtenir des informations sur l'utilisation de clusvcadm ,
reportez-vous la Section 8.3, Grer les services High-Availability .
8.2.3. Exemples de configurations deux nuds et trois nuds
Reportez-vous aux exemples suivants pour des comparaisons entre les configurations deux nuds
et les configurations trois nuds.

137

Red Hat Enterprise Linux 6 Administration de clusters

Exemple 8.1. Configuration d'un cluster trois nuds

138

Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande

<cluster name="mycluster" config_version="3">


<cman/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="example_pri" nofailback="0" ordered="1"
restricted="0">
<failoverdomainnode name="node-01.example.com" priority="1"/>
<failoverdomainnode name="node-02.example.com" priority="2"/>
<failoverdomainnode name="node-03.example.com" priority="3"/>
</failoverdomain>
</failoverdomains>
<resources>
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www"
fstype="ext3"/>
<ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server"
server_root="/etc/httpd" shutdown_wait="0"/>
</resources>
<service autostart="0" domain="example_pri" exclusive="0"
name="example_apache" recovery="relocate">
<fs ref="web_fs"/>
<ip ref="127.143.131.100"/>
<apache ref="example_server"/>
</service>
<service autostart="0" domain="example_pri" exclusive="0"
name="example_apache2" recovery="relocate">
<fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www"
fstype="ext3"/>
<ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server2"
server_root="/etc/httpd" shutdown_wait="0"/>
</service>
</rm>
</cluster>

139

Red Hat Enterprise Linux 6 Administration de clusters

Exemple 8.2. Configuration d'un cluster deux nuds

<cluster name="mycluster" config_version="3">


<cman two_node="1" expected_votes="1"/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="example_pri" nofailback="0" ordered="1"
restricted="0">
<failoverdomainnode name="node-01.example.com" priority="1"/>
<failoverdomainnode name="node-02.example.com" priority="2"/>
</failoverdomain>
</failoverdomains>
<resources>
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www"
fstype="ext3"/>
<ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server"
server_root="/etc/httpd" shutdown_wait="0"/>
</resources>
<service autostart="0" domain="example_pri" exclusive="0"
name="example_apache" recovery="relocate">
<fs ref="web_fs"/>
<ip ref="127.143.131.100"/>
<apache ref="example_server"/>
</service>
<service autostart="0" domain="example_pri" exclusive="0"
name="example_apache2" recovery="relocate">
<fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www"
fstype="ext3"/>
<ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server2"
server_root="/etc/httpd" shutdown_wait="0"/>
</service>
</rm>
</cluster>

8.3. Grer les services High-Availability


Vous pouvez grer les services high-availability en utilisant Cluster Status Utility, clustat, et

14 0

Considrations pour l'utilisation des oprations Freeze et Unfreeze

Cluster User Service Administration Utility, clusvcadm . clustat affiche l'tat d'un cluster et
clusvcadm fournit possibilit de grer les services high-availability.
Cette section fournit des informations de base sur la gestion des services HA l'aide des commandes
clustat et clusvcadm . Celle-ci comporte les sous-sections suivantes :
Section 8.3.1, Afficher l'tat du service HA avec clustat
Section 8.3.2, Grer les services HA avec clusvcadm
8.3.1. Afficher l'tat du service HA avec clustat
clustat affiche l'tat global du cluster. Il est ainsi possible de voir les informations sur l'adhsion, le
quorum, l'tat de tous les services high-availability (haute disponibilit), clustat indique aussi le nud
sur lequel la commande clustat est excute (Local). Le T ableau 8.1, tat des services dcrit les
tats dans lesquels les services peuvent se trouver, ceux-ci s'affichent lors de l'excution de clustat.
L'Exemple 8.3, cran clustat montre un exemple de l'cran de clustat. Pour obtenir de plus
amples informations sur l'excution de la commande clustat, reportez-vous la page man clustat.
T ableau 8.1. tat des services
tat des services

Description

Started

Les ressources d'un service sont configures et disponibles sur le systme


du cluster propritaire du service.

Recovering

Le service est en attente de dmarrage sur un autre nud.

Disabled

Le service a t dsactiv et n'a pas de propritaire qui lui est assign. Un


service dsactiv n'est jamais redmarr automatiquement par le cluster.

Stopped

Dans l'tat arrt, le service sera valu pour dmarrer aprs le service
suivant ou la transition de nud. Ceci est un tat temporaire. Vous pouvez
activer ou dsactiver le service de cet tat.

Failed

Le service est prsum mort. Un service est plac dans cet tat lorsque
l'opration stop d'une ressource choue. Une fois que le service se trouve
dans cet tat, vous devez vrifier qu'aucune ressource n'est alloue (par
exemple, des systmes de fichiers monts) avant d'effectuer une requte
disable. La seule opration pouvant s'effectuer lorsqu'un service est
entr dans cet tat est disable..

Uninitialized

Cet tat peut apparatre dans certains cas lors du dmarrage et de


l'excution de clustat -f.

Exemple 8.3. cran clustat


[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:15 2010
Member Status: Quorate
Member Name
------ ---node-03.example.com
node-02.example.com
node-01.example.com
Service Name
------- ---service:example_apache
service:example_apache2

ID
Status
---- -----3 Online, rgmanager
2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)

State
----started
disabled

14 1

Red Hat Enterprise Linux 6 Administration de clusters

8.3.2. Grer les services HA avec clusvcadm


Vous pouvez grer les services HA en utilisant la commande clusvcadm . Avec celle-ci, vous pouvez
effectuer les oprations suivantes :
Activer et lancer un service.
Dsactiver un service.
Arrter un service.
Geler un service
Dgeler un service
Migrer un service (uniquement pour les services de machines virtuelles)
Dplacer un service.
Redmarrer un service.
Le T ableau 8.2, Oprations des services dcrit les oprations avec plus de dtails. Pour une
description complte de la dmarche suivre pour effectuer ces oprations, reportez-vous la page
man de l'utilitaire clusvcadm .

14 2

Considrations pour l'utilisation des oprations Freeze et Unfreeze

T ableau 8.2. Oprations des services


Opration
du service

Description

Syntaxe de la commande

Enable

Lance le service, optionnellement sur une


cible prfre et optionnellement selon les
rgles du domaine de basculement. En
l'absence d'une cible prfre ou de
rgles de domaine de basculement, l'hte
local o clusvcadm est excut lancera
le service. Si l'opration d'origine start
choue, le service se comportera comme
si l'opration relocate avait t requise
(reportez-vous Relocate dans ce
tableau). Si l'opration fonctionne, le
service sera plac dans l'tat started .

clusvcadm -e <service_nam e> ou


clusvcadm -e <service_nam e> -m
<m em ber> (L'utilisation de l'option -m
option spcifie le membre-cible prfr sur
lequel lancer le service.)

Disable

Arrte le service et le place dans un tat


dasctiv. Ceci est l'unique opration
permise lorsqu'un service est dans l'tat
failed.

clusvcadm -d <service_nam e>

Relocate

Dplace le service sur un autre nud.


Optionnellement, vous pouvez spcifier un
nud prfr pour recevoir le service,
mais l'incapacit du service s'excuter
sur cet hte (par exemple, si le service ne
parvient pas dmarrer ou si l'hte est
hors-ligne) n'empche pas le
dplacement, et un autre nud est choisi.
rgm anager tente de dmarrer le service
sur n'importe quel nud permis dans le
cluster. Si aucun nud-cible permis dans
le cluster ne dmarre le service, le
dplacement choue et le service tente
d'tre redmarr sur le propritaire
d'origine. Si le propritaire d'origine ne
peut pas redmarrer le service, alors le
service est plac dans l'tat stopped.

clusvcadm -r <service_nam e> ou


clusvcadm -r <service_nam e> -m
<m em ber> (L'utilisation de l'option -m
spcifie le membre-cible prfr sur lequel
lancer le service.)

Stop

Arrte le service et le place dans l'tat


stopped.

clusvcadm -s <service_nam e>

Freeze

Gle un service sur le nud sur lequel il


est en cours d'excution. Ceci empche
les vrifications d'tat du service ainsi que
les basculements au cas o le nud
chouerait ou si rgmanager tait arrt.
Ceci peut tre utilis pour suspendre un
service afin de permettre la maintenance
des ressources sous-jacentes. Reportezvous la section intitule
Considrations pour l'utilisation des
oprations Freeze et Unfreeze pour
obtenir des informations importantes sur
l'utilisation des oprations freeze et
unfreeze.

clusvcadm -Z <service_nam e>

Unfreeze

Unfreeze retire un service de l'tat freeze.


ceci r-active les vrifications d'tat.
Reportez-vous la section intitule

clusvcadm -U <service_nam e>

14 3

Red Hat Enterprise Linux 6 Administration de clusters

Considrations pour l'utilisation des


oprations Freeze et Unfreeze pour
obtenir d'importantes informations sur
l'utilisation des oprations freeze et
unfreeze.
Migrate

Restart

Migre une machine virtuelle sur un autre


nud. Vous devez spcifier un nudcible. Selon l'chec, un chec de migration
peut rsulter en la machine virtuelle se
trouvant dans l'tat failed ou dans l'tat
started dans le propritaire d'origine.

clusvcadm -M <service_nam e> -m


<m em ber>

Redmarre un service sur le nud sur


lequel il est actuellement en cours
d'excution.

clusvcadm -R <service_nam e>

Important
Pour l'opration migrate, vous
devez spcifier un nud-cible
l'aide de l'option -m <m em ber>.

Considrations pour l'utilisation des oprations Freeze et Unfreeze


L'utilisation de l'opration freeze permet la maintenance de certaines parties des services rgm anager.
Par exemple, si vous possdez une base de donnes et un serveur web dans un service rgm anager,
vous pouvez geler le service rgm anager, arrter la base de donnes, effectuer la maintenance,
redmarrer la base de donnes, puis dgeler le service.
Lorsqu'un service est gel, il se comporte comme suit :
Les vrifications d'tat sont dsactives.
Les oprations Start sont dsactives.
Les oprations Stop sont dsactives.
Le basculement ne se produira pas (mme si vous teignez le propritaire du service).

Important
Ne pas suivre ces directives peut faire que les ressources soient alloues sur plusieurs htes :
Vous ne devriez pas arrter toutes les instances de rgmanager lorsqu'un service est gel,
moins que vous ne planifiez de redmarrer les htes avant de relancer rgmanager.
Vous ne devriez pas dgeler un service avant que le propritaire du service ne rejoigne le
cluster et qu'il ne redmarre rgmanager.

8.4. Mettre jour une configuration


Mettre jour la configuration d'un cluster consiste en la modification du fichier de configuration du
cluster (/etc/cluster/cluster.conf) et en sa propagation vers chaque nud dans le cluster.
Vous pouvez mettre jour la configuration en utilisant l'une des procdures suivantes :
Section 8.4.1, Mettre jour une configuration l'aide de cm an_tool version -r
Section 8.4.2, Mettre jour une configuration l'aide de scp
8.4 .1. Mettre jour une configuration l'aide de cm an_tool version -r
Pour mettre jour la configuration l'aide de la commande cm an_tool version -r, procdez aux

14 4

Considrations pour l'utilisation des oprations Freeze et Unfreeze

tapes suivantes :
1. Sur tout nud dans le cluster, modifiez le fichier /etc/cluster/cluster.conf.
2. Mettez jour l'attribut config_version en incrmentant sa valeur (par exemple, en la modifiant
de config_version="2" config_version="3">).
3. Enregistrez /etc/cluster/cluster.conf.
4. Excutez la commande cm an_tool version -r pour propager la configuration au reste des
nuds du cluster. Il est ncessaire que ricci soit en cours d'excution dans chaque nud de
cluster afin de pouvoir propager les informations mises jour de la configuration du cluster.
5. Vrifiez que le fichier de configuration mis jour a t propag.
6. Vous pouvez ignorer cette tape (redmarrer le logiciel du cluster) si vous avez uniquement
effectu les changements de configuration suivants :
Supprimer un nud de la configuration du cluster Sauf si le dcompte des nuds passe
de plus de deux nuds deux nuds. Pour obtenir des informations sur la suppression d'un
nud d'un cluster et sur la transition de plus de deux nuds deux nuds, reportez-vous
la Section 8.2, Ajouter ou supprimer un nud .
Ajouter un nud la configuration du cluster Sauf si le dcompte des nuds passe de
deux nuds plus de deux nuds. Pour obtenir des informations sur l'ajout d'un nud un
cluster et sur la transition de deux nuds plus de deux nuds, reportez-vous la
Section 8.2.2, Ajouter un nud un cluster .
Modifier la manire dont les dmons journalisent les informations.
Ajout, modification, ou suppression d'un service HA ou de la maintenance VM.
Ajout, modification, ou suppression de la maintenance des ressources.
Ajout, modification, ou suppression de la maintenance du domaine de basculement.
Sinon, vous devrez redmarrer le logiciel du cluster comme suit :
a. Sur chaque nud, arrtez le logiciel du cluster selon la Section 8.1.2, Arrter un logiciel
de cluster . Par exemple :
[root@example-01 ~]# service rgmanager stop
Stopping Cluster Service Manager:
[root@example-01 ~]# service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA):
Unmounting GFS2 filesystem (/mnt/gfsB):
[root@example-01 ~]# service clvmd stop
Signaling clvmd to exit
clvmd terminated
[root@example-01 ~]# service cman stop
Stopping cluster:
Leaving fence domain...
Stopping gfs_controld...
Stopping dlm_controld...
Stopping fenced...
Stopping cman...
Waiting for corosync to shutdown:
Unloading kernel modules...
Unmounting configfs...
[root@example-01 ~]#

[
[
[

OK
OK
OK

[
[

OK
OK

]
]
]
]
]

[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]

b. Sur chaque nud, dmarrez le logiciel du cluster selon la Section 8.1.1, Dmarrer un
logiciel de cluster . Par exemple :

14 5

Red Hat Enterprise Linux 6 Administration de clusters

[root@example-01 ~]# service cman start


Starting cluster:
Checking Network Manager...
[ OK ]
Global setup...
[ OK ]
Loading kernel modules...
[ OK ]
Mounting configfs...
[ OK ]
Starting cman...
[ OK ]
Waiting for quorum...
[ OK ]
Starting fenced...
[ OK ]
Starting dlm_controld...
[ OK ]
Starting gfs_controld...
[ OK ]
Unfencing self...
[ OK ]
Joining fence domain...
[ OK ]
[root@example-01 ~]# service clvmd start
Starting clvmd:
[ OK ]
Activating VG(s):
2 logical volume(s) in volume group "vg_example" now
active
[ OK ]
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA):
[ OK ]
Mounting GFS2 filesystem (/mnt/gfsB):
[ OK ]
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager:
[ OK ]
[root@example-01 ~]#

Arrter et dmarrer le logiciel du cluster assure que toutes les modifications de la


configuration, qui ne sont vrifies qu'au dmarrage, sont bien incluses dans la
configuration en cours d'excution.
7. Sur n'importe quel nud de cluster, excutez cm an_tool nodes pour vrifier que les nuds
fonctionnent en tant que membres dans le cluster (dcrit comme M dans la colonne du statut
Sts ). Par exemple :
[root@example-01 ~]# cman_tool nodes
Node Sts
Inc
Joined
1
M
548
2010-09-28 10:52:21
2
M
548
2010-09-28 10:52:21
3
M
544
2010-09-28 10:52:21

Name
node-01.example.com
node-02.example.com
node-03.example.com

8. Sur tout nud, vrifiez que les services HA fonctionnent bien comme prvu l'aide de l'utilitaire
clustat. En outre, clustat affiche le statut des nuds du cluster. Par exemple :
[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010
Member Status: Quorate
Member Name
------ ---node-03.example.com
node-02.example.com
node-01.example.com
Service Name
------- ---service:example_apache
service:example_apache2

ID
Status
---- -----3 Online, rgmanager
2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)

State
----started
disabled

9. Si le cluster s'excute comme prvu, vous avez termin de mettre jour la configuration.
8.4 .2. Mettre jour une configuration l'aide de scp
Pour mettre jour la configuration l'aide de la commande scp, procdez aux tapes suivantes :
1. Sur chaque nud, arrtez le logiciel du cluster selon la Section 8.1.2, Arrter un logiciel de

14 6

Chapitre 9. D iagnostiquer et corriger des problmes dans un cluster

1. Sur chaque nud, arrtez le logiciel du cluster selon la Section 8.1.2, Arrter un logiciel de
cluster . Par exemple :
[root@example-01 ~]# service rgmanager stop
Stopping Cluster Service Manager:
[root@example-01 ~]# service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA):
Unmounting GFS2 filesystem (/mnt/gfsB):
[root@example-01 ~]# service clvmd stop
Signaling clvmd to exit
clvmd terminated
[root@example-01 ~]# service cman stop
Stopping cluster:
Leaving fence domain...
Stopping gfs_controld...
Stopping dlm_controld...
Stopping fenced...
Stopping cman...
Waiting for corosync to shutdown:
Unloading kernel modules...
Unmounting configfs...
[root@example-01 ~]#

[
[
[

OK
OK
OK

[
[

]
]
]

OK
OK

]
]

[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]

2. Sur tout nud dans le cluster, modifiez le fichier /etc/cluster/cluster.conf.


3. Mettez jour l'attribut config_version en incrmentant sa valeur (par exemple, en la modifiant
de config_version="2" config_version="3">).
4. Enregistrez /etc/cluster/cluster.conf.
5. Validez le fichier mis jour avec le schma du cluster (cluster.rng) en excutant la commande
ccs_config_validate. Par exemple :
[root@example-01 ~]# ccs_config_validate
Configuration validates

6. Si le fichier mis jour est valide, utilisez la commande scp pour le propager sur /etc/cluster/
dans chaque nud du cluster.:
7. Vrifiez que le fichier de configuration mis jour a t propag.
8. Sur chaque nud, dmarrez le logiciel du cluster selon la Section 8.1.1, Dmarrer un logiciel de
cluster . Par exemple :

14 7

Red Hat Enterprise Linux 6 Administration de clusters

[root@example-01 ~]# service cman start


Starting cluster:
Checking Network Manager...
[ OK ]
Global setup...
[ OK ]
Loading kernel modules...
[ OK ]
Mounting configfs...
[ OK ]
Starting cman...
[ OK ]
Waiting for quorum...
[ OK ]
Starting fenced...
[ OK ]
Starting dlm_controld...
[ OK ]
Starting gfs_controld...
[ OK ]
Unfencing self...
[ OK ]
Joining fence domain...
[ OK ]
[root@example-01 ~]# service clvmd start
Starting clvmd:
[ OK ]
Activating VG(s):
2 logical volume(s) in volume group "vg_example" now
active
[ OK ]
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA):
[ OK ]
Mounting GFS2 filesystem (/mnt/gfsB):
[ OK ]
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager:
[ OK ]
[root@example-01 ~]#

9. Sur n'importe quel nud de cluster, excutez cm an_tool nodes pour vrifier que les nuds
fonctionnent en tant que membres dans le cluster (dcrit comme M dans la colonne du statut
Sts ). Par exemple :
[root@example-01 ~]# cman_tool nodes
Node Sts
Inc
Joined
1
M
548
2010-09-28 10:52:21
2
M
548
2010-09-28 10:52:21
3
M
544
2010-09-28 10:52:21

Name
node-01.example.com
node-02.example.com
node-03.example.com

10. Sur tout nud, vrifiez que les services HA fonctionnent bien comme prvu l'aide de l'utilitaire
clustat. En outre, clustat affiche le statut des nuds du cluster. Par exemple :
[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010
Member Status: Quorate
Member Name
------ ---node-03.example.com
node-02.example.com
node-01.example.com
Service Name
------- ---service:example_apache
service:example_apache2

ID
Status
---- -----3 Online, rgmanager
2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)

State
----started
disabled

11. Si le cluster s'excute comme prvu, vous avez termin de mettre jour la configuration.

14 8

Chapitre 9. D iagnostiquer et corriger des problmes dans un cluster

Chapitre 9. Diagnostiquer et corriger des problmes dans un


cluster
Les problmes de clusters, par nature, peuvent tre difficiles rsoudre. Cela est d la complexit
prsente par un cluster de systmes compar au diagnostic de problmes sur un systme unique.
T outefois, il existe des problmes communs que les administrateurs systme pourraient plus
frquemment rencontrer lors du dploiement ou de l'administration d'un cluster. Comprendre comment
aborder ces problmes communs peut grandement faciliter le dploiement et l'administration d'un
cluster.
Ce chapitre fournit des informations sur certains problmes communs de clusters et sur la manire de
les rsoudre. Davantage d'aide peut tre trouve dans la base de connaissances et en contactant un
reprsentant autoris Red Hat. Si le problme est plus particulirement li au systme de fichiers GFS2,
vous pourrez trouver des informations ce sujet dans le document Global File System 2.

9.1. Les changements de configuration ne prennent pas effet


Lorsque vous effectuez des changements la configuration du cluster, vous devez propager ceux-ci
sur chaque nud dans le cluster.
Lorsque vous configurez un cluster l'aide de Conga, Conga propage les modifications
automatiquement lorsque vous les appliquez.
Pour obtenir des informations sur la propagation des modifications apportes la configuration du
cluster avec la commande ccs, reportez-vous la Section 5.15, Propager le fichier de configuration
sur les nuds du cluster .
Pour obtenir des informations sur la propagation des modifications apportes la configuration du
cluster avec des outils de ligne de commande, reportez-vous la Section 8.4, Mettre jour une
configuration .
Si vous apportez l'une des modifications suivantes votre cluster, il ne sera pas ncessaire de
redmarrer le cluster aprs les avoir propag afin qu'elles prennent effet.
Supprimer un nud de la configuration du cluster Sauf si le dcompte des nuds passe de plus
de deux nuds deux nuds.
Ajouter un nud la configuration du cluster Sauf si le dcompte des nuds passe de deux
nuds plus de deux nuds.
Modifier les paramtres de connexion.
Ajouter, modifier ou supprimer des services HA ou des composants VM.
Ajouter, modifier ou supprimer des ressources cluster.
Ajouter, modifier ou supprimer des domaines de basculement.
Si vous procdez toute autre modification de configuration sur votre cluster, vous devrez redmarrer
le cluster pour que ces modifications soient implmentes. Les modifications de configuration de cluster
qui suivent requirent un redmarrage du cluster pour prendre effet :
L'ajout ou la suppression de l'option two_node du fichier de configuration du cluster.
Renommer le cluster.
La modification de l'une des horloges de corosync ou openais.
Ajouter, modifier ou supprimer des heuristiques du disque quorum, la modification de n'importe quelle
horloge du disque quorum, ou la modification du priphrique disque du quorum. Un redmarrage
complet du dmon qdiskd est ncessaire pour que ces modifications prennent effet.
La modification du mode central_processing pour rgm anager. Un redmarrage complet de
rgm anager est ncessaire pour que ces changements prennent effet.
La modification de l'adresse de multidiffusion.
Le basculement du mode de transport de la multiffusion UDP la monodiffusion UDP, ou de la

14 9

Red Hat Enterprise Linux 6 Administration de clusters

monodiffusion UDP la multiffusion UDP.


Vous pouvez redmarrer le cluster l'aide de Conga, de la commande ccs ou des outils de ligne de
commande,
Pour obtenir des informations sur le redmarrage d'un cluster avec Conga, reportez-vous la
Section 4.4, Dmarrer, arrter, redmarrer et supprimer des clusters .
Pour obtenir des informations sur le redmarrage d'un cluster avec la commande ccs, reportez-vous
la Section 6.2, Dmarrer et arrter un cluster .
Pour obtenir des informations sur le redmarrage d'un cluster avec des outils de ligne de commande,
reportez-vous la Section 8.1, Dmarrer et arrter le logiciel du cluster .

9.2. Le cluster ne se forme pas


Si vous ne parvenez pas former un nouveau cluster, vrifiez ce qui suit :
Assurez-vous que la rsolution de nom est correctement paramtre. Le nom du nud du cluster
dans le fichier cluster.conf devrait correspondre au nom utilis pour rsoudre l'adresse de ce
cluster sur le rseau que le cluster utilisera pour communiquer. Par exemple, si les noms des nuds
du cluster sont nodea et nodeb, assurez-vous que les deux nuds possdent bien des entres
dans les fichiers /etc/cluster/cluster.conf et /etc/hosts qui correspondent ces noms.
Si le cluster utilise la multidiffusion pour les communications entre nuds, assurez-vous que le trafic
de multidiffusion n'est pas bloqu, retard ou que rien ne soit en train d'interfrer avec sur le rseau
que le cluster utilise pour communiquer. Notez que certains interrupteurs Cisco possdent des
fonctionnalits pouvant provoquer des dlais au trafic de multidiffusion.
Utilisez telnet ou SSH pour vrifier si vous pouvez atteindre des nuds distants.
Excutez la commande ethtool eth1 | grep link pour vrifier si le lien ethernet fonctionne.
Utilisez la commande tcpdum p sur chaque nud pour vrifier le trafic du rseau.
Assurez-vous qu'aucune rgle de pare-feu ne bloque les communications entre les nuds.
Assurez-vous que les interfaces utilises par le cluster pour les communications inter-nuds ne
soient utilises par aucun autre mode de liaison que les modes 0, 1, ou 2. (Les modes de liaison 0 et
2 sont pris en charge partir de Red Hat Enterprise Linux 6.4.)

9.3. nuds incapables de rejoindre le cluster aprs un clturage


(fencing) ou un redmarrage
Si les nuds ne rejoignent pas le cluster aprs un clturage (fencing) ou un redmarrage, vrifiez ce
qui suit :
Les clusters dont le trafic passe par un interrupteur Cisco Catalyst peuvent rencontrer ce problme.
Assurez-vous que tous les nuds du cluster possdent la mme version du fichier
cluster.conf. Si le fichier cluster.conf est diffrent sur n'importe quel nud, alors ces
nuds pourraient ne pas tre en mesure de rejoindre le cluster aprs le fencing.
partir de Red Hat Enterprise Linux 6.1, vous pouvez utiliser la commande suivante pour vrifier que
tous les nuds spcifis dans le fichier de configuration du cluster de l'hte possdent bien un
fichier de configuration du cluster identique :
ccs -h host --checkconf

Pour obtenir des informations sur la commande ccs, voir le Chapitre 5, Configurer le module
complmentaire Red Hat High Availability avec la commande ccs et le Chapitre 6, Grer le module
complmentaire Red Hat High Availability avec ccs.
Assurez-vous de bien avoir configur chkconfig on pour les services clusters dans le nud qui
tente de rejoindre le cluster.
Assurez-vous qu'aucune rgle de pare-feu ne bloque les communications entre le nud et les

150

Chapitre 9. D iagnostiquer et corriger des problmes dans un cluster

Assurez-vous qu'aucune rgle de pare-feu ne bloque les communications entre le nud et les
autres nuds dans le cluster.

9.4. chec du dmon cluster


RGManager possde un processus de surveillance qui redmarre l'hte au cas o le processus
rgm anager principal chouerait de manire inattendue. Ceci entrane le fencing du nud du cluster et
la rcupration du service par rgm anager sur un autre hte. Lorsque le dmon de surveillance dtecte
que le processus rgm anager principal est en panne, il redmarrera le nud du cluster, puis les
nuds actifs du cluster dtecteront que le nud est parti et l'expulseront du cluster.
Le numro de PID (process ID) le plus bas est le processus de surveillance qui effectuera une action si
son processus enfant (processus avec un numro de PID plus lev) choue. Capturer le cur du
processus avec le numro de PID le plus haut en utilisant gcore peut vous aider rsoudre un dmon
en chec.
Installez les paquetages requis pour capturer et afficher le core (cur), puis assurez-vous que les
versions de rgm anager et rgm anager-debuginfo sont bien les mmes, sinon le core (cur)
de l'application capture pourrait se rvler inutilisable.
$ yum -y --enablerepo=rhel-debuginfo install gdb rgmanager-debuginfo

9.4 .1. Capturer le core (cur) de rgm anager lors du runtime.


Il existe deux processus rgm anager excuts lors du dmarrage. Vous devez capturer le core
(cur) du processus rgm anager avec le numro PID le plus lev.
Ci-dessous figure un exemple de sortie de la commande psaffichant deux processus de rgm anager.

$ ps aux | grep rgmanager | grep -v grep


root
root

22482
22483

0.0
0.0

0.5
0.2

23544
78372

5136 ?
2060 ?

S<Ls Dec01
S<l Dec01

0:00 rgmanager
0:47 rgmanager

Dans l'exemple suivant, le programme pidof est utilis pour dterminer automatiquement le numro
PID le plus lev, qui est le PID correct pour crer le core (cur). La commande complte capture le
core de l'application du processus 22483, qui possde le PID le plus lev.
$ gcore -o /tmp/rgmanager-$(date '+%F_%s').core $(pidof -s rgmanager)

9.4 .2. Capturer le core (cur) lorsque le dmon choue


Par dfaut, le script /etc/init.d/functions bloque les fichiers principaux des dmons appels par
/etc/init.d/rgm anager. Pour que le dmon cre des core (curs) d'applications, vous devez
activer cette option. Cette procdure doit tre effectue sur tous les nuds des clusters dont le core
d'application doit tre captur.
Pour crer un fichier cur lorsque le dmon rgmanager tombe en panne, veuillez modifier le fichier
/etc/sysconfig/cluster. Le paramtre DAEMONCOREFILELIMIT permet au dmon de crer des
fichiers curs si le processus tombe en panne. Il existe une option, -w, qui empche le processus de
surveillance de s'excuter. Le dmon de surveillance est responsable du redmarrage du nud du
cluster si rgm anager tombe en panne et dans certains cas, si le dmon est en cours d'excution, alors
le fichier cur ne sera pas gnr, il doit ainsi tre dsactiv afin de capturer les fichiers curs.
DAEMONCOREFILELIMIT="unlimited"
RGMGR_OPTS="-w"

Redmarrez rgmanager pour activer les nouvelles options de configuration :

151

Red Hat Enterprise Linux 6 Administration de clusters

service rgmanager restart

Remarque
Si les services du cluster sont excuts sur ce nud de cluster, alors les services excuts
pourraient se retrouver en mauvais tat.
Le fichier core sera crit lorsqu'il est gnr par l'chec du processus rgm anager
ls /core*

La sortie devrait tre similaire ce qui suit :


/core.11926

Dplacez ou supprimez tous les anciens fichiers core sous le rpertoire / avant de redmarrer
rgm anager pour capturer le core de l'application. Le nud du cluster qui a expriment l'chec de
rgm anager devra tre redmarr ou cltur ( fenced ) une fois que le core est captur afin
d'tre sr que le processus de surveillance n'tait pas en cours d'excution.
9.4 .3. Enregistrement d'une session de backtrace gdb
Une fois que vous avez captur le fichier core , vous pouvez voir son contenu en utilisant gdb, le
dbogueur GNU. Pour enregistrer une session script de gdb sur le fichier core du systme affect,
veuillez excuter ce qui suit :
$ script /tmp/gdb-rgmanager.txt
$ gdb /usr/sbin/rgmanager /tmp/rgmanager-.core.

Ceci lancera une session gdb, tandis que script l'enregistrera sur le fichier texte correspondant.
Lorsque vous tes dans une session gdb, excutez les commandes suivantes :
(gdb) thread apply all bt full
(gdb) quit

Pressez sur ctrl-D pour arrter la session script et l'enregistrer sur le fichier texte.

9.5. Suspension des services du cluster


Lorsque les services du cluster tentent de clturer un nud, les services du cluster s'arrtent jusqu'
ce que l'opration fence se termine. Ainsi, si le stockage ou les services contrls par le cluster restent
suspendus et que les nuds du cluster affichent diffrentes vues de l'adhsion au cluster, ou si le
cluster est suspendu lorsque vous tentez de clturer un nud et que vous devez redmarrer des
nuds pour la rcupration, vrifiez les conditions suivantes :
Le cluster a peut-tre tent de clturer un nud et l'opration fence a peut-tre choue.
Observez le fichier /var/log/m essages sur tous les nuds et voyez s'il y a des messages
d'chec du fencing. S'il y en a, alors redmarrez les nuds dans le cluster et configurez le fencing
correctement.
Vrifiez qu'une partition du rseau ne s'est pas produite, comme dcrit dans la Section 9.8,
Chaque nud d'un cluster deux nuds rapporte que le second nud est en panne . Vrifiez
aussi si les communications entre nuds sont toujours possibles et si le rseau fonctionne.
Si des nuds quittent le cluster, les nuds restants peuvent ne pas atteindre le quorum. Le quorum
doit tre atteint pour que le cluster puisse fonctionner. Si des nuds sont supprims et que le
cluster n'atteint pas le quorum, alors les services et le stockage seront suspendus. Dans ce cas,

152

Chapitre 10. Configuration SNMP avec le module complmentaire Red Hat High Availability

ajustez les votes attendus ou restituez la quantit requise de nuds au cluster.

Note
Vous pouvez clturer un nud manuellement avec la commande fence_node ou avec Conga.
Pour obtenir des informations, voir la page man fence_node et la Section 4.3.2, Causer un
nud de joindre ou quitter un cluster .

9.6. Le service cluster ne dmarre pas


Si un service contrl par un cluster ne dmarre pas, vrifiez les conditions suivantes.
Il peut y avoir une erreur de syntaxe dans la configuration du service dans le fichier cluster.conf.
Vous pouvez utiliser la commande rg_test pour valider la syntaxe de la configuration. S'il y a un
faute dans la configuration ou la syntaxe, rg_test vous informera sur le problme.
$ rg_test test /etc/cluster/cluster.conf start service servicename

Pour obtenir plus d'informations sur la commande rg_test, voir la Section C.5, Dbogage et
testage des services et de l'ordre des ressources .
Si la configuration est valide, augmentez alors la journalisation du gestionnaire du groupe de
ressource puis lisez les journaux des messages pour dterminer ce qui cause l'chec du dmarrage
du service. Vous pouvez augmenter le niveau de journalisation en ajoutant le paramtre
loglevel="7" au marqueur rm dans le fichier cluster.conf. Vous remarquerez alors une
augmentation de la verbosit dans les journaux des messages concernant le dmarrage, l'arrt et la
migration des services clusteriss.

9.7. chec de la migration des services contrls par le cluster


Si un service contrl par un cluster ne parvient pas migrer vers un autre nud mais que le service
dmarre sur certains nuds spcifiques, vrifiez les conditions suivantes :
Assurez-vous que les ressources requises pour excuter un service donn sont prsentes sur tous
les nuds du cluster qui pourraient devoir excuter ce service. Par exemple, si le service clusteris
suppose qu'un fichier script se trouve dans un emplacement spcifique ou dans un systme de
fichiers mont sur un point de montage spcifique, alors vous devez vous assurer que ces
ressources sont disponibles aux emplacements prvus sur tous les nuds du cluster.
Assurez-vous que les domaines de basculement, les dpendances et l'exclusivit des services ne
sont pas configurs d'une manire vous empchant de migrer les services vers des nuds.
Si le service en question est une ressource de machine virtuelle, vrifiez la documentation pour vous
assurer que tout le travail de configuration ralis est correct.
Augmentez la journalisation du gestionnaire des groupes de services, comme dcrit dans la
Section 9.6, Le service cluster ne dmarre pas , puis lisez les journaux de messages pour
dterminer ce qui cause l'chec de la migration du dmarrage du service.

9.8. Chaque nud d'un cluster deux nuds rapporte que le


second nud est en panne
Si votre cluster est un cluster deux nuds et que chaque nud rapporte qu'il fonctionne et que l'autre
nud est en panne, ceci indique que les nuds du cluster ne parviennent pas communiquer via
multidiffusion sur le rseau de pulsation du cluster, ce qui est aussi connu sous le nom de "split brain"
ou de "partition du rseau". Pour rpondre ce problme, vrifiez les conditions dcrites dans la
Section 9.2, Le cluster ne se forme pas .

153

Red Hat Enterprise Linux 6 Administration de clusters

9.9. nuds clturs sur un chemin d'accs LUN en chec


Si un ou plusieurs nuds du cluster sont clturs lorsqu'il y a un chec du chemin d'accs LUN, cela
peut rsulter d'une utilisation d'un disque quorum sur un stockage multiples chemins d'accs. Si vous
utilisez un disque quorum et que celui-ci se trouve sur un stockage multiple chemins d'accs,
assurez-vous que les dlais paramtrs sont corrects afin de tolrer les checs de chemins d'accs.

9.10. Le disque quorum n'apparat pas en tant que membre du


cluster
Si vous avez configur le systme pour qu'il utilise un disque quorum mais que le disque quorum
n'apparat pas en tant que membre du cluster, vrifiez les conditions suivantes.
Assurez-vous de bien avoir ajust chkconfig on pour le service qdisk.
Assurez-vous de bien avoir dmarr le service qdisk.
Remarquez que l'enregistrement du disque quorum sur le cluster peut prendre quelques minutes. Ce
comportement est normal et prvu.

9.11. Comportement inhabituel des basculements


L'un des problmes communs des serveurs de clusters est le comportement inhabituel des
basculements. Les services s'arrteront lorsque d'autres services dmarrent ou des services
refuseront de dmarrer lors d'un basculement. Ceci peut rsulter de la nature de systmes de
basculement complexes consistant des domaines de basculement, des dpendances des services, et
des exclusivits des services. Essayez d'chelonner vers un service ou une configuration de domaine
de basculement plus simple pour voir si le problme persiste. vitez les fonctionnalits comme
l'exclusivit et la dpendance de service moins de bien comprendre de quelle manire celles-ci
peuvent affecter le basculement quelles que soient les conditions.

9.12. Le fencing se produit au hasard


Si vous remarquez qu'un nud est cltur au hasard, vrifiez les conditions suivantes.
La cause profonde des fences est toujours un nud perdant un jeton, cela signifie que celui-ci a
perdu la facult de communiquer avec le reste du cluster et arrt de retourner la pulsation.
T oute situation rsultant en un systme ne retournant pas la pulsation dans l'intervalle spcifie du
jeton peut mener une opration de fencing. Par dfaut, l'intervalle du jeton est de 10 secondes. Cet
intervalle peut tre spcifi en ajoutant la valeur souhaite (en millisecondes) au paramtre du jeton
de la balise totem dans le fichier cluster.conf (par exemple, en paramtrant totem
token="30000" pour 30 secondes).
Assurez-vous que le rseau est solide et fonctionne comme prvu.
Assurez-vous que les interfaces utilises par le cluster pour les communications inter-nuds ne
soient utilises par aucun autre mode de liaison que les modes 0, 1, ou 2. (Les modes de liaison 0 et
2 sont pris en charge partir de Red Hat Enterprise Linux 6.4.)
Prenez des mesures pour dterminer si le systme est gel ou s'il y a une panique du noyau.
Paramtrez l'utilitaire kdum p et voyez si vous trouvez un cur lors de l'une de ces cltures.
Assurez-vous qu'il ne s'agisse pas d'un problme attribu par erreur au fencing. Par exemple,
lorsque le disque quorum jecte un nud d un chec du stockage ou un produit de tierce partie
comme Oracle RAC redmarrant un nud cause d'une condition externe quelconque. Les journaux
des messages sont souvent trs utiles pour dterminer de tels problmes. Lorsque des
redmarrages de nuds se produisent ou lorsque des fences se mettent en place, l'inspection des
journaux des messages de tous les nuds dans le cluster partir du moment auquel le
redmarrage ou le fencing s'est produit devrait tre une pratique standard.
Inspectez minutieusement le systme pour trouver des dfauts de matriel pouvant mener le
systme ne plus rpondre la pulsation lorsqu'il le devrait.

154

Chapitre 10. Configuration SNMP avec le module complmentaire Red Hat High Availability

9.13. La journalisation du dbogage pour le DLM ( Distributed Lock


Manager , ou gestionnaire de verrous distribus) doit tre active
Il existe deux options de dbogage pour le DLM (gestionnaire de verrous distribus) pouvant tre
actives si ncessaire : Le dbogage du noyau DLM et le dbogage de verrous POSIX.
Pour activer le dbogage DLM, modifiez le fichier /etc/cluster/cluster.conf pour ajouter des
options de configuration la balise dlm . L'option log_debug active les messages de dbogage du
noyau DLM et l'option plock_debug active les messages de dbogage de verrous POSIX.
L'exemple de section du fichier /etc/cluster/cluster.conf qui suit affiche la balise dlm qui active
les options de dbogage DLM :

<cluster config_version="42" name="cluster1">


...
<dlm log_debug="1" plock_debug="1"/>
...
</cluster>

Aprs avoir modifi le fichier /etc/cluster/cluster.conf, veuillez excutez la commande


cm an_tool version -r pour propager la configuration au reste des nuds du cluster.

155

Red Hat Enterprise Linux 6 Administration de clusters

Chapitre 10. Configuration SNMP avec le module


complmentaire Red Hat High Availability
partir de Red Hat Enterprise Linux 6.1 et de ses versions plus rcentes, le module complmentaire
Red Hat High Availability fournit la prise en charge des interruptions SNMP. Ce chapitre dcrit comment
configurer votre systme pour SNMP et est suivi d'un rsum des interruptions que le module
complmentaire Red Hat High Availability met pour des vnements spcifiques de clusters.

10.1. SNMP et le module complmentaire Red Hat High Availability


foghorn, le sous-agent SNMP du module complmentaire Red Hat High Availability, met les
interruptions SNMP. Le sous-agent foghorn, communique avec le dmon snm pd au moyen du
protocole AgentX. Le sous-agent foghorn peut uniquement crer les interruptions SNMP, il ne prend
pas en charge d'autres oprations SNMP comme get ou set.
Il n'y a pas d'options config actuellement pour le sous-agent foghorn. Il ne peut pas tre configur
pour utiliser un socket spcifique. Seul le socket AgentX est actuellement pris en charge.

10.2. Configurer SNMP avec le module complmentaire Red Hat High


Availability
Pour configurer SNMP avec le module complmentaire Red Hat High Availability, effectuez les tapes
suivantes sur chaque nud dans le cluster afin de vous assurer que les services ncessaires sont
bien activs et en cours d'excution.
1. Pour utiliser des interruptions SNMP avec le module complmentaire Red Hat High Availability, le
service snm pd est requis et agit en tant qu'agent matre. Comme le service foghorn est le
sous-agent et utilise le protocole AgentX, vous devez ajouter la ligne suivante au fichier
/etc/snm p/snm pd.conf pour activer la prise en charge d'AgentX :
master agentx

2. Pour spcifier l'hte vers lequel les notifications des interruptions SNMP devraient tre envoyes,
ajoutez la ligne suivante au fichier /etc/snm p/snm pd.conf :
trap2sink host

Pour obtenir des informations sur la gestion des notifications, voir la page man snm pd.conf.
3. Assurez-vous que le dmon snm pd est bien activ et en cours d'excution en excutant les
commandes suivantes :
# chkconfig snmpd on
# service snmpd start

4. Si le dmon m essagebus n'est pas dj activ et en cours d'excution, excutez les commandes
suivantes :
# chkconfig messagebus on
# service messagebus start

5. Assurez-vous que le dmon foghorn est bien activ et en cours d'excution en excutant les
commandes suivantes :
# chkconfig foghorn on
# service foghorn start

6. Excutez la commande suivante pour configurer votre systme de manire ce que COROSYNC-

156

Chapitre 11. Configuration de Samba en cluster

MIB gnre des interruptions SNMP et pour vous assurer que le dmon corosync-notifyd
est bien activ et en cours d'excution :
# echo "OPTIONS=\"-d\" " > /etc/sysconfig/corosync-notifyd
# chkconfig corosync-notifyd on
# service corosync-notifyd start

Aprs avoir configur chaquen nud dans le cluster pour SNMP et vous tre assur que les services
ncessaires sont en cours d'excution, des signaux D-bus seront reus par le service foghorn et
traduits en interruptions SNMPv2. Ces interruptions sont ensuite passes l'hte que vous avez dfini
avec l'entre trapsink pour recevoir les interruptions SNMPv2.

10.3. Transfrer les interruptions SNMP


Il est possible de transfrer des interruptions SNMP sur une machine qui ne fait pas partie du cluster, et
sur laquelle vous pouvez utiliser le dmon snm ptrapd et personnaliser la manire par laquelle
rpondre aux notifications.
Effectuez les tapes suivantes pour transfrer des interruptions SNMP dans un cluster vers une
machine qui n'est pas l'un des nuds du cluster :
1. Pour chaque nud dans le cluster, suivez la procdure dcrite dans la Section 10.2, Configurer
SNMP avec le module complmentaire Red Hat High Availability , en paramtrant l'entre
trap2sink host dans le fichier /etc/snm p/snm pd.conf pour spcifier l'hte externe qui
excutera le dmon snm ptrapd.
2. Sur l'hte externe qui recevra les interruptions, modifiez le fichier de configuration
/etc/snm p/snm ptrapd.conf pour spcifier vos chanes de communaut. Par exemple, vous
pouvez utiliser l'entre suivante pour permettre au dmon snm ptrapd de traiter les notifications
l'aide de la chane de communaut public.
authCommunity log,execute,net public

3. Sur l'hte externe qui recevra les interruptions, assurez-vous que le dmon snm ptrapd est
activ et en cours d'excution en saisissant les commandes suivantes :
# chkconfig snmptrapd on
# service snmptrapd start

Pour obtenir plus d'informations sur le traitement des notifications SNMP, voir la page man
snm ptrapd.conf.

10.4. Interruptions SNMP produites par le module complmentaire


Red Hat High Availability
Le dmon foghorn gnre les interruptions suivantes :
fenceNotifyFenceNode
Cette interruption se produit lorsqu'un nud cltur (fenced) tente de clturer un autre nud.
Remarquez que cette interruption est uniquement gnre sur un nud - le nud qui a tent
d'effectuer l'opration de fencing. La notification inclut les champs suivants :
fenceNodeNam e - nom du nud cltur
fenceNodeID - id de nud du nud cltur
fenceResult - rsultat de l'opration fence (0 pour une russite, -1 lorsqu'un problme s'est
produit, -2 si aucune mthode fence n'est dfinie)
rgm anagerServiceStateChange

157

Red Hat Enterprise Linux 6 Administration de clusters

Cette interruption se produit lorsque l'tat d'un service cluster change. La notification inclut les
champs suivants :
rgm anagerServiceNam e - nom du service, qui inclut le type de service (par exemple,
service:foo ou vm :foo).
rgm anagerServiceState - tat du service. Ceci exclut les tats transitionnels tels que
starting (dmarrage) et stopping (arrt) pour rduire l'encombrement dans les interruptions.
rgm anagerServiceFlags - indicateurs de service. Actuellement, deux indicateurs sont pris
en charge : frozen, indiquant un service qui a t gel l'aide de clusvcadm -Z et partial,
indiquant un service dans lequel une ressource en chec a t marque comme non-critique
pour que celle-ci puisse chouer et que ses composants puissent tre redmarrs sans que le
service entier ne soit affect.
rgm anagerServiceCurrentOwner - propritaire du service. Si le service n'est pas en cours
d'excution, celui-ci affichera (none) (aucun).
rgm anagerServicePreviousOwner - dernier propritaire du service, s'il est connu. S'il n'est
pas connu, celui-ci peut afficher (none) (aucun).
Le dmon corosync-nodifyd gnre les interruptions suivantes :
corosyncNoticesNodeStatus
Cette interruption se produit lorsqu'un nud rejoint ou quitte le cluster. La notification inclut les
champs suivants :
corosyncObjectsNodeNam e - nom du nud
corosyncObjectsNodeID - id du nud
corosyncObjectsNodeAddress - adresse IP du nud
corosyncObjectsNodeStatus - tat du nud (joined ou left)
corosyncNoticesQuorum Status
Cette interruption se produit lorsque l'tat du quorum change. La notification inclut les champs
suivants :
corosyncObjectsNodeNam e - nom du nud
corosyncObjectsNodeID - id du nud
corosyncObjectsQuorum Status - nouvel tat du quorum (quorate ou NOT quorate)
corosyncNoticesAppStatus
Cette interruption se produit lorsqu'une application client se connecte ou se dconnecte de
Corosync.
corosyncObjectsNodeNam e - nom du nud
corosyncObjectsNodeID - id du nud
corosyncObjectsAppNam e - nom de l'application
corosyncObjectsAppStatus - nouvel tat de l'application (connected ou disconnected)

158

Chapitre 11. Configuration de Samba en cluster

Chapitre 11. Configuration de Samba en cluster


partir de Red Hat Enterprise Linux 6.2, le module complmentaire Red Hat High Availability a fourni la
prise en charge de l'excution de Samba en cluster sous une configuration active/active. Ceci requiert
que vous installiez et configuriez CT DB sur tous les nuds dans un cluster, ce que vous utilisez en
conjonction avec les systmes de fichiers en cluster GFS2.

Note
Red Hat Enterprise Linux 6 prend en charge un maximum de quatre nuds excutant Samba
clusteris.
Ce chapitre dcrit la procdure pour configurer CT DB en configurant un exemple de systme. Pour
obtenir des informations sur la configuration des systmes de fichier GFS2, reportez-vous Global File
System 2. Pour obtenir des informations sur la configuration de volumes logiques, reportez-vous
Administration LVM.

11.1. Vue d'ensemble de CTDB


CT DB est une implmentation cluster de la base de donnes T DB utilise par Samba. Pour utiliser
CT DB, un systme de fichiers clusteris doit tre disponible et partag sur tous les nuds dans le
cluster. CT DB fournit des fonctionnalits pour cluster sur le haut de ce systme de fichiers clusteris.
partir de Red Hat Enterprise Linux 6.2, CT DB excute aussi une pile de cluster en parallle celle
fournie par le clustering Red Hat Enterprise Linux. CT DB gre les appartenances des nuds, les
rcuprations/basculements, les relocations IP et les services Samba.

11.2. Paquetages requis


En plus des paquetages standards requis pour excuter les modules complmentaires Red Hat High
Availability et Red Hat Resilient Storage, l'excution de Samba avec le clustering Red Hat Enterprise
Linux requiert les paquetages suivants :
ctdb
sam ba
sam ba-com m on
sam ba-winbind-clients

11.3. Configuration GFS2


Configurer Samba avec le clustering Red Hat Enterprise Linux requiert deux systmes de fichiers GFS2 :
un petit systme de fichiers pour CT DB et un second pour le partage Samba. Cet exemple montre
comment crer les deux systmes de fichiers GFS2.
Avant de crer les systmes de fichiers GFS2, crez un volume logique LVM pour chacun des systmes
de fichiers. Pour obtenir des informations sur la cration de volumes logiques, reportez-vous l'ouvrage
Administration LVM. Cet exemple utiliser les volumes logiques suivants :
/dev/csm b_vg/csm b_lv, qui contient les donnes utilisateur qui seront exportes via le partage
Samba et doit donc tre dimensionn en consquence. Cet exemple cre un volume logique d'une
taille de 100 Go.
/dev/csm b_vg/ctdb_lv, qui contiendra les informations sur l'tat du partage CT DB et doit faire
une taille de 1 Go.
Crez des groupes de volumes et volumes logiques clusteriss sur un nud du cluster uniquement.

159

Red Hat Enterprise Linux 6 Administration de clusters

Pour crer un systme de fichiers GFS2 sur un volume logique, excutez la commande m kfs.gfs2.
Excutez cette commande sur un nud du cluster uniquement.
Pour crer le systme de fichiers devant hberger le partage Samba sur le volume logique
/dev/csm b_vg/csm b_lv, veuillez excuter la commande suivante :
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:gfs2 /dev/csmb_vg/csmb_lv

La signification des paramtres est comme suit :


-j
Spcifie le nombre de journaux crer dans le systme de fichiers. Cet exemple utilise un
cluster trois nuds, nous crons donc un journal par nud.
-p
Spcifie le protocole de verrouillage. lock_dlm est le protocole de verrouillage utilis par
GFS2 pour les communications entre les nuds.
-t
Spcifie le nom du tableau de verrouillage et se trouve sous le format cluster_name:fs_name.
Dans cet exemple, le nom du cluster spcifi dans le fichier cluster.conf est csm b et nous
utilisons gfs2 en tant que nom du systme de fichiers.

La sortie de cette commande apparat comme suit :


This will destroy any data on /dev/csmb_vg/csmb_lv.
It appears to contain a gfs2 filesystem.
Are you sure you want to proceed? [y/n] y
Device:
/dev/csmb_vg/csmb_lv
Blocksize: 4096
Device Size 100.00 GB (26214400 blocks)
Filesystem Size: 100.00 GB (26214398 blocks)
Journals: 3
Resource Groups: 400
Locking Protocol:
"lock_dlm"
Lock Table:
"csmb:gfs2"
UUID:
94297529-ABG3-7285-4B19-182F4F2DF2D7

Dans cet exemple, le systme de fichiers /dev/csm b_vg/csm b_lv sera mont sur l'emplacement
/m nt/gfs2 sur tous les nuds. Ce point de montage doit correspondre la valeur que vous spcifiez
comme tant l'emplacement du rpertoire share (rpertoire de partage) avec l'option path = dans le
fichier /etc/sam ba/sm b.conf, comme le dcrit la Section 11.5, Configuration de Samba .
Pour crer le systme de fichiers devant hberger les informations d'tat de CT DB sur le volume
logique /dev/csm b_vg/ctdb_lv, veuillez excuter la commande suivante :
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:ctdb_state
/dev/csmb_vg/ctdb_lv

Remarquez que cette commande spcifie un nom de tableau de verrouillage diffrent de celui dans
l'exemple qui cre le systme de fichier sur /dev/csm b_vg/csm b_lv. Ceci permet de distinguer les
noms des tableaux de verrouillage des diffrents priphriques utiliss pour les systmes de fichiers.

160

Chapitre 11. Configuration de Samba en cluster

La sortie de m kfs.gfs2 apparat comme suit :


This will destroy any data on /dev/csmb_vg/ctdb_lv.
It appears to contain a gfs2 filesystem.
Are you sure you want to proceed? [y/n] y
Device:
/dev/csmb_vg/ctdb_lv
Blocksize:
4096
Device Size
1.00 GB (262144 blocks)
Filesystem Size: 1.00 GB (262142 blocks)
Journals: 3
Resource Groups: 4
Locking Protocol: "lock_dlm"
Lock Table:
"csmb:ctdb_state"
UUID:
BCDA8025-CAF3-85BB-B062-CC0AB8849A03

Dans cet exemple, le systme de fichiers /dev/csm b_vg/ctdb_lv sera mont sur l'emplacement
/m nt/ctdb sur tous les nuds. Ce point de montage doit correspondre la valeur que vous spcifiez
comme tant l'emplacement du fichier .ctdb.lock avec l'option CT DB_RECOVERY_LOCK dans le fichier
/etc/sysconfig/ctdb, comme le dcrit la Section 11.4, Configuration de CT DB .

11.4. Configuration de CTDB


Le fichier de configuration de CT DB se trouve dans /etc/sysconfig/ctdb. Les champs devant tre
obligatoirement configurs pour oprer CT DB sont les suivants :
CT DB_NODES
CT DB_PUBLIC_ADDRESSES
CT DB_RECOVERY_LOCK
CT DB_MANAGES_SAMBA (doit tre activ)
CT DB_MANAGES_WINBIND (doit tre activ si excut sur un serveur membre)
L'exemple suivant montre un fichier de configuration avec les champs obligatoires pour oprer CT DB
dfinis avec des exemples de paramtres :
CTDB_NODES=/etc/ctdb/nodes
CTDB_PUBLIC_ADDRESSES=/etc/ctdb/public_addresses
CTDB_RECOVERY_LOCK="/mnt/ctdb/.ctdb.lock"
CTDB_MANAGES_SAMBA=yes
CTDB_MANAGES_WINBIND=yes

La signification de ces paramtres est comme suit.


CT DB_NODES
Spcifie l'emplacement du fichier contenant la liste des nuds du cluster.
Le fichier /etc/ctdb/nodes que CT DB_NODES rfrence rpertorie simplement les adresses
IP des nuds du cluster, comme dans l'exemple suivant :
192.168.1.151
192.168.1.152
192.168.1.153

Dans cet exemple, il n'y a qu'une seule interface/adresse IP sur chaque nud utilis pour les
communications cluster/CT DB et pour servir les clients. Cependant, il est fortement
recommand que chaque nud de cluster possde deux interfaces rseau, ainsi un ensemble

161

Red Hat Enterprise Linux 6 Administration de clusters

d'interfaces pourra tre ddi aux communications cluster/CT DB et un autre ensemble pourra
tre ddi l'accs public du client. Veuillez utiliser les adresses IP correctes du rseau du
cluster et vous assurer que les nom d'htes/adresses IP utiliss dans le fichier
cluster.conf sont bien les mmes. De la mme manire, veuillez utiliser les interfaces
correctes du rseau public pour l'accs client dans le fichier public_addresses.
Il est critique que le fichier /etc/ctdb/nodes soit identique sur tous les nuds car l'ordre
est important et CT DB chouera si diffrentes informations se trouvent sur diffrents nuds.
CT DB_PUBLIC_ADDRESSES
Spcifie l'emplacement du fichier qui rpertorie les adresses IP pouvant tre utilises pour
accder aux partages Samba exports par ce cluster. Ce sont les adresses IP que vous
devriez configurer dans DNS pour le nom du serveur Samba clusteris et les adresses
auxquelles les clients CIFS se connecteront. Configurez le nom du serveur Samba clusteris
comme tant un enregistrement DNS de type A avec de multiples adresses IP et laissez le DNS
Round-Robin distribuer les clients travers les nuds du cluster.
Pour cet exemple, nous avons configur une entre DNS Round-Robin csm b-server avec
toutes les adresses rpertories dans le fichier /etc/ctdb/public_addresses. Le DNS
distribuera les clients utilisant cette entre sur le cluster l'aide de la technique du DNS
Round-Robin.
Le contenu du fichier /etc/ctdb/public_addresses sur chaque nud est comme suit :
192.168.1.201/0 eth0
192.168.1.202/0 eth0
192.168.1.203/0 eth0

Cet exemple utilise trois adresses qui sont actuellement inutilises sur le rseau. Dans votre
propre configuration, choisissez les adresses pouvant tre accdes par les clients voulus.
Alternativement, cet exemple affiche le contenu des fichiers /etc/ctdb/public_addresses
dans un cluster dans lequel se trouvent trois nuds, mais un total de quatre adresses
publiques. Dans cet exemple, l'adresse IP 198.162.2.1 peut tre hberge par le nud 0 ou le
nud 1 et sera disponible aux clients aussi longtemps que l'un de ces nuds sera disponible.
Cette adresse publique sera indisponible aux clients uniquement si les nuds 0 et 1 chouent.
T outes les autres adresses publiques peuvent uniquement tre servies par un seul nud
respectivement et seront donc seulement disponibles si le nud respectif est aussi disponible.
Le fichier /etc/ctdb/public_addresses sur le nud 0 inclut le contenu suivant :
198.162.1.1/24 eth0
198.162.2.1/24 eth1

Le fichier /etc/ctdb/public_addresses sur le nud 1 inclut le contenu suivant :


198.162.2.1/24 eth1
198.162.3.1/24 eth2

Le fichier /etc/ctdb/public_addresses sur le nud 2 inclut le contenu suivant :


198.162.3.2/24 eth2

CT DB_RECOVERY_LOCK
Spcifie un fichier verrou que CT DB utilise de manire interne pour la rcupration. Ce fichier
doit tre sur un stockage partag afin que tous les nuds du cluster puissent y accder.
L'exemple de cette section utilise le systme de fichiers GFS2 qui sera mont sur /m nt/ctdb

162

Paramtres des priphriques fence

sur tous les nuds. Ceci est diffrent du systme de fichiers GFS2 qui hbergera le partage
Samba devant tre export. Ce fichier verrou de rcupration est utilis afin de prvenir les
scnarios de type split-brain . Dans les versions plus rcentes de CT DB ( partir de la
version 1.0.112), la spcification de ce fichier est optionnelle partir du moment o celle-ci est
remplace par un autre mcanisme de prvention de split-brain .
CT DB_MANAGES_SAMBA
Lorsqu'activ, en paramtrant sur yes, cette valeur spcifie que CT DB est autoris dmarrer
et arrter le service Samba comme ncessaire, afin de fournir un basculement ou une migration
du service.
Lorsque CT DB_MANAGES_SAMBA est activ, vous devriez dsactiver le dmarrage automatique
init des dmons sm b et nm b en excutant les commandes suivantes :
[root@clusmb-01 ~]# chkconfig snb off
[root@clusmb-01 ~]# chkconfig nmb off

CT DB_MANAGES_WINBIND
Lorsqu'activ, en paramtrant sur yes, cette valeur spcifie que CT DB est autoris dmarrer
et arrter le dmon winbind comme requis. Celui-ci devrait tre activ lorsque CT DB est
utilis dans un domaine Windows ou en mode de scurit de rpertoire actif.
Lorsque CT DB_MANAGES_WINBIND est activ, vous devriez dsactiver le dmarrage
automatique init du dmon winbind en excutant la commande suivante :
[root@clusmb-01 ~]# chkconfig windinbd off

11.5. Configuration de Samba


Dans cet exemple, le fichier de configuration de Samba sm b.conf est plac sur
/etc/sam ba/sm b.conf. Il contient les paramtres suivants :
[global]
guest ok = yes
clustering = yes
netbios name = csmb-server
[csmb]
comment = Clustered Samba
public = yes
path = /mnt/gfs2/share
writeable = yes
ea support = yes

Cet exemple exporte un partage avec le nom csm b, se trouvant sur /m nt/gfs2/share. Ceci est
diffrent du systme de fichiers partag GFS2 sur /m nt/ctdb/.ctdb.lock que nous avons spcifi
comme tant le paramtre CT DB_RECOVERY_LOCK dans le fichier de configuration CT DB sur
/etc/sysconfig/ctdb.
Dans cet exemple, nous crerons le rpertoire share sur /m nt/gfs2 lorsque nous le monterons pour
la premire fois. L'entre clustering = yes ordonne Samba d'utiliser CT DB. L'entre netbios
nam e = csm b-server paramtre explicitement tous les nuds de manire ce qu'ils aient un nom
NetBIOS commun. Le paramtre ea support est requis si vous planifiez d'utiliser des attributs
tendus.
Le fichier de configuration sm b.conf doit tre identique sur tous les nuds du cluster.

163

Red Hat Enterprise Linux 6 Administration de clusters

Samba propose aussi une configuration base sur le registre avec la commande net conf pour que la
configuration reste automatiquement synchronise entre les diffrents membres du cluster sans avoir
copier manuellement les fichiers de configuration des nuds du cluster. Pour obtenir des informations
sur la commande net conf, veuillez vous reporter la page man net(8).

11.6. Lancer CTDB et les services Samba


Aprs avoir dmarr le cluster, vous devez monter les systmes de fichiers GFS2 crs, comme le
dcrit la Section 11.3, Configuration GFS2 . Les permissions sur le rpertoire Samba share et les
comptes d'utilisateurs sur les nuds du cluster doivent tre paramtrs pour l'accs client.
Veuillez excuter la commande suivante sur tous les nuds pour lancer le dmon ctdbd. Comme cet
exemple configure CT DB avec CT DB_MANAGES_SAMBA=yes, CT DB lancera aussi le service Samba sur
tous les nuds et exportera tous les partages Samba configurs.
[root@clusmb-01 ~]# service ctdb start

CT DB peut prendre quelques minutes pour lancer Samba, exporter les partages et se stabiliser.
Excuter ctdb status affiche le statut de CT DB, comme l'exemple suivant le montre :
[root@clusmb-01 ~]# ctdb status
Number of nodes:3
pnn:0 192.168.1.151
OK (THIS NODE)
pnn:1 192.168.1.152
OK
pnn:2 192.168.1.153
OK
Generation:1410259202
Size:3
hash:0 lmaster:0
hash:1 lmaster:1
hash:2 lmaster:2
Recovery mode:NORMAL (0)
Recovery master:0

Lorsque tous les nuds sont Ok , vous pourrez utiliser le serveur Samba clusteris en toute
scurit, comme le dcrit la Section 11.7, Utiliser le serveur Samba clusteris .

11.7. Utiliser le serveur Samba clusteris


Les clients peuvent se connecter au partage Samba qui a t export en se connectant l'une des
adresses IP spcifies dans le fichier /etc/ctdb/public_addresses, ou en utilisant l'entre DNS
csm b-server configure au pralable, comme suit :
[root@clusmb-01 ~]# mount -t cifs //csmb-server/csmb /mnt/sambashare -o
user=testmonkey

ou
[user@clusmb-01 ~]$ smbclient //csmb-server/csmb

164

Paramtres des priphriques fence

Paramtres des priphriques fence


Cet annexe fournit des tableaux avec les descriptions des paramtres des priphriques fence. Vous
pouvez configurer les paramtres avec luci, en utilisant la commande ccs, ou en modifiant le fichier
etc/cluster/cluster.conf. Pour obtenir une liste et description complte des paramtres du
priphrique fence pour chaque agent fence, veuillez vous reporter la page man de cet agent.

Remarque
Le paramtre Name pour un priphrique fence spcifie un nom arbitraire pour le priphrique
qui sera utilis par le module complmentaire Red Hat High Availability. Il ne s'agit pas de la
mme chose que le nom DNS du priphrique.

Remarque
Certains priphriques fence possdent un paramtre optionnel Password Script. Le paramtre
Password Script vous permet de spcifier qu'un mot de passe de priphrique fence soit
fournit par un script plutt que par le paramtre Password. L'utilisation du paramtre Password
Script supplante le paramtre Password, permettant aux mots de passe de ne pas tre visibles
dans le fichier de configuration du cluster (/etc/cluster/cluster.conf).
T ableau A.1, Rsum des priphriques fence rpertorie les priphriques fence, les agents des
priphriques fence associs aux priphriques fence, et fournit une rfrence au tableau documentant
les paramtres des priphriques fence.

165

Red Hat Enterprise Linux 6 Administration de clusters

T ableau A.1. Rsum des priphriques fence


Priphrique
fence

Agent fence

Rfrences aux
descriptions des
paramtres

Interrupteur
d'alimentation
APC
(telnet/SSH)

fence_apc

T ableau A.2, Interrupteur


d'alimentation APC
(telnet/SSH)

Interrupteur
Brocade Fabric

fence_brocade

T ableau A.4, Interrupteur


Brocade Fabric

MDS Cisco

fence_cisco_mds

T ableau A.5, MDS Cisco

UCS Cisco

fence_cisco_ucs

T ableau A.6, UCS Cisco

DRAC 5 de
Dell

fence_drac5

T ableau A.7, DRAC 5 de


Dell

Commutateur
d'alimentation
rseau Eaton
Eaton
Network Power
Switch
(Interface
SNMP)

fence_eaton_snmp

T ableau A.8, Contrleur


d'alimentation rseau Eaton
(Interface SNMP) (Red Hat
Enterprise Linux 6.4 et versions
suprieures)

Contrleur
SAN Egenera

fence_egenera

T ableau A.9, Contrleur SAN


Egenera

ePowerSwitch

fence_eps

T ableau A.10,
ePowerSwitch

Fence virt

fence_virt

T ableau A.11, Fence virt

RSB Fujitsu
Siemens
(Remoteview
Service Board)

fence_rsb

T ableau A.12, RSB Fujitsu


Siemens (Remoteview Service
Board)

HP
BladeSystem

fence_hpblade

T ableau A.13, HP
BladeSystem (Red Hat
Enterprise Linux 6.4 et versions
suprieures)

HP iLO/iLO2
(Integrated
Lights Out)

fence_ilo

T ableau A.14, HP iLO/iLO2


(Integrated Lights Out)

HP iLO
(Integrated
Lights Out) MP

fence_ilo_mp

T ableau A.15, HP iLO


(Integrated Lights Out) MP

IBM
BladeCenter

fence_bladecenter

T ableau A.16, IBM


BladeCenter

IBM
BladeCenter
SNMP

fence_ibmblade

T ableau A.17, IBM


BladeCenter SNMP

IBM iPDU

fence_ipdu

T ableau A.18, IBM iPDU (Red


Hat Enterprise Linux 6.4 et
versions suprieures)

IF MIB

fence_ifmib

T ableau A.19, IF MIB

Modular Intel

fence_intelmodular

T ableau A.20, Modular Intel

IPMI (Interface

fence_ipmilan

T ableau A.21, IPMI (Interface

166

Paramtres des priphriques fence

de gestion de
plateforme
intelligente, en
anglais
Intelligent
Platform
Management
Interface )
LAN

de gestion de plateforme
intelligente, en anglais
Intelligent Platform
Management Interface ) LAN

API REST
RHEV-M

fence_rhevm

T ableau A.22, RHEV-M REST


API (RHEL 6.2 et versions plus
rcentes avec RHEV 3.0 et
versions plus rcentes)

Fencing SCSI

fence_scsi

T ableau B.19, SAP Instance

Fencing
VMware
(Interface
SOAP)

fence_vmware_soap

T ableau A.24, Fencing


VMware (interface SOAP) (Red
Hat Enterprise Linux 6.2 et
versions plus rcentes)

Interrupteur
d'alimentation
WT I

fence_wti

T ableau A.25, Interrupteur


d'alimentation WT I

Le T ableau A.2, Interrupteur d'alimentation APC (telnet/SSH) rpertorie les paramtres de


priphriques fence utiliss par fence_apc, l'agent fence pour APC sur telnet/SSH.
T ableau A.2. Interrupteur d'alimentation APC (telnet/SSH)
Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique APC connect au cluster auquel le dmon


fence se connecte via telnet/ssh.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Port IP
(optionnel)

ipport

Port T CP utiliser pour se connecter au priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Port

port

Le port.

Interrupteur
(optionnel)

switch

Numro d'interrupteur de l'interrupteur APC qui se connecte au


nud lorsque vous avez de multiples interrupteurs connects en
chane.

Utiliser SSH

secure

Indique que le systme utilisera SSH pour accder au


priphrique.

Chemin vers le
fichier
d'identit SSH

identity_fi
le

Fichier d'identit de SSH.

167

Red Hat Enterprise Linux 6 Administration de clusters

Le T ableau A.3, Interrupteur d'alimentation sur SNMP rpertorie les paramtres de priphrique
fence utiliss par fence_apc_snm p, qui est l'agent fence pour APC qui se connecte au priphrique
SNP via le protocole SNMP.
T ableau A.3. Interrupteur d'alimentation sur SNMP
Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique APC connect au cluster auquel le dmon


fence se connecte via le protocole SNMP.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

UDP/T CP port

udpport

Port UDP/T CP utiliser pour la connexion avec le priphrique, la


valeur par dfaut est 161.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Version de
SNMP

snm p_versio
n

Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.

Communaut
SNMP

com m unity

Chane SNMP community , la valeur par dfaut est private.

Niveau de
scurit SNMP

snm p_sec_le
vel

Niveau de scurit SNMP (noAuthNoPriv, authNoPriv, authPriv).

Protocole
d'authentificati
on SNMP

snm p_auth_p
rot

Protocole d'authentification SNMP (MD5, SHA).

Protocole de
confidentialit
SNMP

snm p_priv_p
rot

Protocole de confidentialit SNMP (DES, AES).

Mot de passe
du protocole
de
confidentialit
SNMP

snm p_priv_p
asswd

Mot de passe du protocole de confidentialit SNMP.

Script du
protocole de
confidentialit
SNMP

snm p_priv_p
asswd_scrip
t

Script fournissant un mot de passe pour le protocole de


confidentialit SNMP. Son utilisation supplante le paramtre SNMP
privacy protocol password (mot de passe du protocole de
confidentialit SNMP).

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Numro (de la
prise) du port

port

Le port.

Le T ableau A.4, Interrupteur Brocade Fabric rpertorie les paramtres de priphrique fence utiliss
par fence_brocade, l'agent fence des interrupteurs Brocade FC.

168

Paramtres des priphriques fence

T ableau A.4 . Interrupteur Brocade Fabric


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique Brocade connect au cluster.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP assigne au priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Port

port

Numro de la prise de l'interrupteur.

Le T ableau A.5, MDS Cisco rpertorie les paramtres du priphrique fence utiliss par
fence_cisco_m ds, l'agent fence pour Cisco MDS.

169

Red Hat Enterprise Linux 6 Administration de clusters

T ableau A.5. MDS Cisco


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique MDS 9000 series de Cisco avec SNMP


activ.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

UDP/T CP port

udpport

Port UDP/T CP utiliser pour la connexion avec le priphrique, la


valeur par dfaut est 161.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Numro (de la
prise) du port

port

Le port.

Version de
SNMP

snm p_versio
n

Version SNMP utiliser (1, 2c, 3).

Communaut
SNMP

com m unity

Chane SNMP Community.

Niveau de
scurit SNMP

snm p_sec_le
vel

Niveau de scurit SNMP (noAuthNoPriv, authNoPriv, authPriv).

Protocole
d'authentificati
on SNMP

snm p_auth_p
rot

Protocole d'authentification SNMP (MD5, SHA).

Protocole de
confidentialit
SNMP

snm p_priv_p
rot

Protocole de confidentialit SNMP (DES, AES).

Mot de passe
du protocole
de
confidentialit
SNMP

snm p_priv_p
asswd

Mot de passe du protocole de confidentialit SNMP.

Script du
protocole de
confidentialit
SNMP

snm p_priv_p
asswd_scrip
t

Script fournissant un mot de passe pour le protocole de


confidentialit SNMP. Son utilisation supplante le paramtre SNMP
privacy protocol password (mot de passe du protocole de
confidentialit SNMP).

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Le T ableau A.6, UCS Cisco rpertorie les paramtres du priphrique fence utiliss par
fence_cisco_ucs, l'agent fence pour Cisco UCS.

170

Paramtres des priphriques fence

T ableau A.6. UCS Cisco


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique UCS Cisco.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

IP port
(optional)

ipport

Port T CP utiliser pour se connecter au priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Utiliser SSH

ssl

Utilisez les connexions SSL pour communiquer avec le


priphrique.

Sousorganisation

suborg

Chemin supplmentaire ncessaire pour accder la sousorganisation.

Numro (de la
prise) du port

port

Nom de la machine virtuelle.

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Le T ableau A.7, DRAC 5 de Dell rpertorie les paramtres du priphrique fence utiliss par
fence_drac5, fence_cisco_ucs, l'agent fence pour Dell DRAC 5.

171

Red Hat Enterprise Linux 6 Administration de clusters

T ableau A.7. DRAC 5 de Dell


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom assign au DRAC.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au DRAC.

Port IP
(optionnel)

ipport

Port T CP utiliser pour se connecter au priphrique.

Connexion

login

Nom de connexion utilis pour accder au DRAC.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au DRAC.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Utiliser SSH

secure

Indique que le systme utilisera SSH pour accder au


priphrique.

Chemin vers le
fichier
d'identit SSH

identity_fi
le

Fichier d'identit de SSH.

Nom du
module

m odule_nam
e

(Optionnel) Nom du module pour le DRAC lorsque vous possdez


de multiples modules DRAC.

Forcer l'invite
de commande

cm d_prom pt

Invite de commande utiliser. La valeur par dfaut est \$.

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

T ableau A.8, Contrleur d'alimentation rseau Eaton (Interface SNMP) (Red Hat Enterprise Linux 6.4 et
versions suprieures) rpertorie les paramtres de priphrique rseau utiliss par
fence_eaton_snm p, l'agent fence du commutateur d'alimentation rseau Eaton sur SNMP.

172

Paramtres des priphriques fence

T ableau A.8. Contrleur d'alimentation rseau Eaton (Interface SNMP) (Red Hat Enterprise
Linux 6.4 et versions suprieures)
Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du commutateur d'alimentation rseau Eaton connect au


cluster.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Port UDP/T CP
(optionnel)

udpport

Port UDP/T CP utiliser pour la connexion avec le priphrique, la


valeur par dfaut est 161.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Version de
SNMP

snm p_versio
n

Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.

Communaut
SNMP

com m unity

Chane SNMP community , la valeur par dfaut est private.

Niveau de
scurit SNMP

snm p_sec_le
vel

Niveau de scurit SNMP (noAuthNoPriv, authNoPriv, authPriv).

Protocole
d'authentificati
on SNMP

snm p_auth_p
rot

Protocole d'authentification SNMP (MD5, SHA).

Protocole de
confidentialit
SNMP

snm p_priv_p
rot

Protocole de confidentialit SNMP (DES, AES).

Mot de passe
du protocole
de
confidentialit
SNMP

snm p_priv_p
asswd

Mot de passe du protocole de confidentialit SNMP.

Script du
protocole de
confidentialit
SNMP

snm p_priv_p
asswd_scrip
t

Script fournissant un mot de passe pour le protocole de


confidentialit SNMP. Son utilisation supplante le paramtre SNMP
privacy protocol password (mot de passe du protocole de
confidentialit SNMP).

Attente
dmarrage
(secondes)

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Numro (de la
prise) du port

port

Numro de la prise physique ou nom de la machine virtuelle. Ce


paramtre est toujours requis.

Le T ableau A.9, Contrleur SAN Egenera rpertorie les paramtres du priphrique fence utiliss
par fence_egenera, l'agent fence pour Egenera BladeFrame.

173

Red Hat Enterprise Linux 6 Administration de clusters

T ableau A.9. Contrleur SAN Egenera


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique BladeFrame Egenera connect au cluster.

CServer

cserver

Nom d'hte (optionnellement nom d'utilisateur sous la forme


usernam e@ hostnam e) assign au priphrique. Reportez-vous
la page man fence_egenera(8) pour obtenir plus d'informations.

ESH Path
(optional)

esh

Chemin d'accs de la commande esh sur le cserver (par dfaut


/opt/panmgr/bin/esh)

Nom
d'utilisateur :

user

Nom de la connexion, la valeur par dfaut est root.

lpan

lpan

LPAN (de l'anglais, Logical Process Area Network , rseau de la


zone du processus logique) du priphrique.

pserver

pserver

Nom du processing blade (pserver) du priphrique.

Le T ableau A.10, ePowerSwitch rpertorie les paramtres du priphrique fence utiliss par
fence_eps, l'agent fence pour ePowerSwitch.
T ableau A.10. ePowerSwitch
Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique ePowerSwitch connect au cluster.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Nom de la
page cache

hidden_page

Nom de la page cache du priphrique.

Numro (de la
prise) du port

port

Numro de la prise physique ou nom de machine virtuelle.

Le T ableau A.11, Fence virt rpertorie les paramtres du priphrique fence utiliss par
fence_virt, l'agent fence pour un priphrique fence Fence virt .

174

Paramtres des priphriques fence

T ableau A.11. Fence virt


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique fence Fence virt .

Priphrique
srie

serial_devi
ce

Sur l'hte, le priphrique srie doit tre mapp dans le fichier de


configuration de chaque domaine. Pour obtenir plus d'informations,
voir la page man fence_virt.conf. Si ce champ est spcifi, il
cause l'agent du fencing fence_virt d'oprer en mode srie.
Ne pas spcifier de valeur cause l'agent du fencing
fence_virt d'oprer en mode canal VM.

Paramtres de
srie

serial_para
ms

Paramtres de srie. Les valeurs par dfaut sont 115200, 8N1.

Adresse IP du
canal VM

channel_add
ress

Adresse IP du canal. La valeur par dfaut est 10.0.2.179.

Port ou
domaine
(dprci)

port

Machine virtuelle (Nom ou UUID de domaine) clturer.

ipport

Port du canal. La valeur par dfaut est 1229, qui est la valeur
utilise lors de la configuration de ce priphrique fence avec luci.

Le T ableau A.12, RSB Fujitsu Siemens (Remoteview Service Board) rpertorie les paramtres du
priphrique fence utiliss par fence_rsb, l'agent fence pour le RSB Fujitsu-Siemens.
T ableau A.12. RSB Fujitsu Siemens (Remoteview Service Board)
Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du RSB utiliser en tant que priphrique fence.

Adresse IP ou
nom d'hte

ipaddr

Nom d'hte assign au priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Port T CP

ipport

Numro de port cout par le service telnet. La valeur par dfaut


est 3172.

T ableau A.13, HP BladeSystem (Red Hat Enterprise Linux 6.4 et versions suprieures) rpertorie les
paramtres du priphrique fence utiliss par fence_hpblade, l'agent fence de HP BladeSystem.

175

Red Hat Enterprise Linux 6 Administration de clusters

T ableau A.13. HP BladeSystem (Red Hat Enterprise Linux 6.4 et versions suprieures)
Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique HP BladeSystem connect au cluster.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique HP


BladeSystem.

Port IP
(optionnel)

ipport

Port T CP utiliser pour se connecter au priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique HP


BladeSystem. Ce paramtre est requis.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion sur le


priphrique fence.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Forcer l'invite
de commande

cm d_prom pt

Invite de commande utiliser. La valeur par dfaut est \$.

Le port
manquant
retourne OFF
au lieu d'un
chec

m issing_as_
off

Le port manquant retourne OFF au lieu d'un chec.

Attente
dmarrage
(secondes)

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Utiliser SSH

secure

Indique que le systme utilisera SSH pour accder au


priphrique.

Chemin vers le
fichier
d'identit SSH

identity_fi
le

Fichier d'identit de SSH.

Le T ableau A.14, HP iLO/iLO2 (Integrated Lights Out) rpertorie les paramtres du priphrique
fence utiliss par fence_ilo, l'agent fence pour les priphriques HP iLO.

176

Paramtres des priphriques fence

T ableau A.14 . HP iLO/iLO2 (Integrated Lights Out)


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du serveur avec le support HP iLO.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Port IP
(optionnel)

ipport

Port T CP utiliser pour une connexion avec le priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Le T ableau A.15, HP iLO (Integrated Lights Out) MP rpertorie les paramtres du priphrique fence
utiliss par fence_ilo_m p, l'agent fence pour les priphriques HP iLO MP.
T ableau A.15. HP iLO (Integrated Lights Out) MP
Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du serveur avec le support HP iLO.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Port IP
(optionnel)

ipport

Port T CP utiliser pour une connexion avec le priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Utiliser SSH

secure

Indique que le systme utilisera SSH pour accder au


priphrique.

Chemin vers le
fichier
d'identit SSH

identity_fi
le

Fichier d'identit de SSH.

Forcer l'invite
de commande

cm d_prom pt

Invite de commande utiliser. La valeur par dfaut est MP>,


hpiLO->.

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Le T ableau A.16, IBM BladeCenter rpertorie les paramtres du priphrique fence utiliss par
fence_bladecenter, l'agent fence pour IBM BladeCenter.

177

Red Hat Enterprise Linux 6 Administration de clusters

T ableau A.16. IBM BladeCenter


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique IBM BladeCenter connect au cluster.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

IP port
(optional)

ipport

Port T CP utiliser pour une connexion avec le priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Utiliser SSH

secure

Indique que le systme utilisera SSH pour accder au


priphrique.

Chemin vers le
fichier
d'identit SSH

identity_fi
le

Fichier d'identit de SSH.

Le T ableau A.17, IBM BladeCenter SNMP rpertorie les paramtres du priphrique fence utiliss
par fence_ibm blade, l'agent fence pour IBM BladeCenter sur SNMP.

178

Paramtres des priphriques fence

T ableau A.17. IBM BladeCenter SNMP


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique IBM BladeCenter SNMP connect au cluster.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Port UDP/T CP
(optionnel)

udpport

Port UDP/T CP utiliser pour les connexions avec le priphrique,


la valeur par dfaut est 161.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Version de
SNMP

snm p_versio
n

Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.

Communaut
SNMP

com m unity

Chane SNMP Community.

Niveau de
scurit SNMP

snm p_sec_le
vel

Niveau de scurit SNMP (noAuthNoPriv, authNoPriv, authPriv).

Protocole
d'authentificati
on SNMP

snm p_auth_p
rot

Protocole d'authentification SNMP (MD5, SHA).

Protocole de
confidentialit
SNMP

snm p_priv_p
rot

Protocole de confidentialit SNMP (DES, AES).

Mot de passe
du protocole
de
confidentialit
SNMP

snm p_priv_p
asswd

Mot de passe du protocole de confidentialit SNMP.

Script du
protocole de
confidentialit
SNMP

snm p_priv_p
asswd_scrip
t

Script fournissant un mot de passe pour le protocole de


confidentialit SNMP. Son utilisation supplante le paramtre SNMP
privacy protocol password (mot de passe du protocole de
confidentialit SNMP).

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Port

port

Numro de la prise physique ou nom de machine virtuelle.

T ableau A.18, IBM iPDU (Red Hat Enterprise Linux 6.4 et versions suprieures) rpertorie les
paramtres du priphrique fence utiliss par fence_ipdu, l'agent fence pour iPDU sur priphriques
SNMP.

179

Red Hat Enterprise Linux 6 Administration de clusters

T ableau A.18. IBM iPDU (Red Hat Enterprise Linux 6.4 et versions suprieures)
Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique IBM iPDU connect au cluster auquel le


dmon fence se connecte via le protocole SNMP.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Port UDP/T CP

udpport

Port UDP/T CP utiliser pour la connexion avec le priphrique, la


valeur par dfaut est 161.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Version de
SNMP

snm p_versio
n

Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.

Communaut
SNMP

com m unity

Chane SNMP community , la valeur par dfaut est private.

Niveau de
scurit SNMP

snm p_sec_le
vel

Niveau de scurit SNMP (noAuthNoPriv, authNoPriv, authPriv).

Protocole
d'authentificati
on SNMP

snm p_auth_p
rot

Protocole d'authentification SNMP (MD5, SHA).

Protocole de
confidentialit
SNMP

snm p_priv_p
rot

Protocole de confidentialit SNMP (DES, AES).

Mot de passe
du protocole
de
confidentialit
SNMP

snm p_priv_p
asswd

Mot de passe du protocole de confidentialit SNMP.

Script du
protocole de
confidentialit
SNMP

snm p_priv_p
asswd_scrip
t

Script fournissant un mot de passe pour le protocole de


confidentialit SNMP. Son utilisation supplante le paramtre SNMP
privacy protocol password (mot de passe du protocole de
confidentialit SNMP).

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Port

port

Le port.

Le T ableau A.19, IF MIB rpertorie les paramtres du priphrique fence utiliss par fence_ifm ib,
l'agent fence pour les priphriques IF-MIB.

180

Paramtres des priphriques fence

T ableau A.19. IF MIB


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique IF MIB connect au cluster.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Port UDP/T CP
(optionnel)

udpport

Port UDP/T CP utiliser pour la connexion avec le priphrique, la


valeur par dfaut est 161.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Version de
SNMP

snm p_versio
n

Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.

Communaut
SNMP

com m unity

Chane SNMP Community.

Niveau de
scurit SNMP

snm p_sec_le
vel

Niveau de scurit SNMP (noAuthNoPriv, authNoPriv, authPriv).

Protocole
d'authentificati
on SNMP

snm p_auth_p
rot

Protocole d'authentification SNMP (MD5, SHA).

Protocole de
confidentialit
SNMP

snm p_priv_p
rot

Protocole de confidentialit SNMP (DES, AES).

Mot de passe
du protocole
de
confidentialit
SNMP

snm p_priv_p
asswd

Mot de passe du protocole de confidentialit SNMP.

Script du
protocole de
confidentialit
SNMP

snm p_priv_p
asswd_scrip
t

Script fournissant un mot de passe pour le protocole de


confidentialit SNMP. Son utilisation supplante le paramtre SNMP
privacy protocol password (mot de passe du protocole de
confidentialit SNMP).

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Port

port

Numro de la prise physique ou nom de machine virtuelle.

Le T ableau A.20, Modular Intel rpertorie les paramtres du priphrique fence utiliss par
fence_intelm odular, l'agent fence pour Intel Modular.

181

Red Hat Enterprise Linux 6 Administration de clusters

T ableau A.20. Modular Intel


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique Intel Modular connect au cluster.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Version de
SNMP

snm p_versio
n

Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.

Communaut
SNMP

com m unity

Chane SNMP community , la valeur par dfaut est private.

Niveau de
scurit SNMP

snm p_sec_le
vel

Niveau de scurit SNMP (noAuthNoPriv, authNoPriv, authPriv).

Protocole
d'authentificati
on SNMP

snm p_auth_p
rot

Protocole d'authentification SNMP (MD5, SHA).

Protocole de
confidentialit
SNMP

snm p_priv_p
rot

Protocole de confidentialit SNMP (DES, AES).

Mot de passe
du protocole
de
confidentialit
SNMP

snm p_priv_p
asswd

Mot de passe du protocole de confidentialit SNMP.

Script du
protocole de
confidentialit
SNMP

snm p_priv_p
asswd_scrip
t

Script fournissant un mot de passe pour le protocole de


confidentialit SNMP. Son utilisation supplante le paramtre SNMP
privacy protocol password (mot de passe du protocole de
confidentialit SNMP).

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Port

port

Numro de la prise physique ou nom de machine virtuelle.

Le T ableau A.21, IPMI (Interface de gestion de plateforme intelligente, en anglais Intelligent Platform
Management Interface ) LAN rpertorie les paramtres de priphriques fence utiliss par
fence_ipm ilan, l'agent fence pour IPMI sur LAN.

182

Paramtres des priphriques fence

T ableau A.21. IPMI (Interface de gestion de plateforme intelligente, en anglais Intelligent


Platform Management Interface ) LAN
Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique IPMI LAN connect au cluster.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Connexion

login

Nom de connexion d'un utilisateur en mesure d'effectuer des


commandes de mise sous/hors tension sur un port IPMI donn.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion sur le port IPMI.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

T ype
d'authentificati
on

auth

T ype d'authentification IPMI LAN : none (aucun), password (mot


de passe), ou m d5.

Utiliser
Lanplus

lanplus

T rue ou 1. Si vide, alors la valeur est False.

Ciphersuite to
use

cipher

Serveur distant d'authentification, et algoritmes d'intgrit et de


chiffrement utiliser pour les connexions lanplus IPMIv2.

Niveau de
privilges

privlvl

Niveau de privilges du priphrique IPMI.

Le T ableau A.22, RHEV-M REST API (RHEL 6.2 et versions plus rcentes avec RHEV 3.0 et versions
plus rcentes) rpertorie les paramtres du priphrique fence utiliss par fence_rhevm , l'agent
fence pour RHEV-M REST API.
T ableau A.22. RHEV-M REST API (RHEL 6.2 et versions plus rcentes avec RHEV 3.0 et
versions plus rcentes)
Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique de fencing RHEV-M REST API.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Port IP
(optionnel)

ipport

Port T CP utiliser pour une connexion avec le priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Utiliser SSH

ssl

Utilisez les connexions SSL pour communiquer avec le


priphrique.

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Port

port

Numro de la prise physique ou nom de machine virtuelle.

183

Red Hat Enterprise Linux 6 Administration de clusters

Le T ableau A.23, Fencing SCSI rpertorie les paramtres du priphrique fence utiliss par
fence_scsi, l'agent fence pour les rservations persistantes SCSI.

Remarque
L'utilisation des rservations persistantes SCSI en tant que mthode fence est prise en charge
avec les limitations suivantes :
Lors de l'utilisation du fencing SCSI, tous les nuds dans le cluster doivent s'enregistrer avec
les mmes priphriques afin que chaque nud puisse supprimer la cl d'enregistrement
d'un autre nud de tous les priphriques auprs desquels elle est enregistre.
Les priphriques utiliss pour les volumes de clusters devraient tre un LUN complet et non
des partitions. Les rservations persistantes SCSI fonctionnent sur un LUN entier, ce qui
signifie que l'accs est contrl sur chaque LUN, pas sur les partitions individuelles.

T ableau A.23. Fencing SCSI


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique fence SCSI.

Node name
Cl pour
l'action actuelle

(remplace le nom du nud)

Le T ableau A.24, Fencing VMware (interface SOAP) (Red Hat Enterprise Linux 6.2 et versions plus
rcentes) rpertorie les paramtres du priphrique fence utiliss par fence_vm ware_soap, l'agent
fence pour VMWare sur SOAP API.

184

Paramtres des ressources HA

T ableau A.24 . Fencing VMware (interface SOAP) (Red Hat Enterprise Linux 6.2 et versions
plus rcentes)
Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom du priphrique de fencing de la machine virtuelle.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou nom d'hte assign au priphrique.

Port IP
(optionnel)

ipport

Port T CP utiliser pour une connexion avec le priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Sparateur

separator

Sparateur pour CSV cr par la liste des oprations. La valeur


par dfaut est une virgule ( , ).

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Nom de la VM

port

Nom de la machine virtuelle sous le format de chemin d'inventaire


(par exemple,
/datacenter/vm/Discovered_virtual_machine/myMachine).

UUID de la VM

uuid

UUID de la machine virtuelle sur laquelle effectuer le fencing.

Utiliser SSH

ssl

Utilisez les connexions SSL pour communiquer avec le


priphrique.

Le T ableau A.25, Interrupteur d'alimentation WT I rpertorie les paramtres du priphrique fence


utiliss par fence_wti, l'agent fence pour l'interrupteur d'alimentation rseau WT I.

185

Red Hat Enterprise Linux 6 Administration de clusters

T ableau A.25. Interrupteur d'alimentation WT I


Champ luci

Attribut
cluster.con
f

Description

Nom

nam e

Nom de l'interrupteur d'alimentation WT I connect au cluster.

Adresse IP ou
nom d'hte

ipaddr

Adresse IP ou adresse du nom d'hte assigne au priphrique.

Port IP
(optionnel)

ipport

Port T CP utiliser pour se connecter au priphrique.

Connexion

login

Nom de connexion utilis pour accder au priphrique.

Mot de passe

passwd

Mot de passe utilis pour authentifier la connexion au


priphrique.

Script de mot
de passe
(optionnel)

passwd_scri
pt

Script fournissant un mot de passe pour accder au priphrique


fence. Son utilisation supplante le paramtre Password.

Port

port

Numro de la prise physique ou nom de machine virtuelle.

Force
command
prompt

cm d_prom pt

Invite de commande utiliser. La valeur par dfaut est [RSM>,


>MPC, IPS>, T PS>, NBB>, NPS>, VMR>]

Dlai de
l'alimentation

power_wait

Nombre de secondes d'attente aprs avoir effectu une


commande de mise hors tension ou de mise sous tension.

Utiliser SSH

secure

Indique que le systme utilisera SSH pour accder au


priphrique.

Chemin vers le
fichier
d'identit SSH

identity_fi
le

Fichier d'identit de SSH.

186

Paramtres des ressources HA

Paramtres des ressources HA


Cet annexe fournit les descriptions des paramtres des ressources HA. Vous pouvez configurer les
paramtres avec luci, en utilisant la commande ccs, ou en modifiant le fichier
etc/cluster/cluster.conf. Le T ableau B.1, Sommaire des ressources HA rpertorie les
ressources, leurs agents de ressources correspondants, et les rfrences aux autres tableaux
contenant des descriptions de paramtres. Pour mieux comprendre les agents de ressources, vous
pouvez les voir dans le fichier /usr/share/cluster de chaque nud du cluster.
En outre des agents de ressources dcrits dans cet annexe, le rpertoire /usr/share/cluster inclut
un script OCF factice pour un groupe de ressources, service.sh. Pour obtenir des informations
supplmentaires sur les paramtres inclus dans ce script, reportez-vous au script service.sh.
Pour obtenir la liste et les descriptions compltes des lments et attributs de cluster.conf,
reportez-vous au schma du cluster sous /usr/share/cluster/cluster.rng, et au schma sous
/usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l (par exemple, /usr/share/doc/cm an3.0.12/cluster_conf.htm l).

187

Red Hat Enterprise Linux 6 Administration de clusters

T ableau B.1. Sommaire des ressources HA


Ressource

Agent de ressources

Rfrences aux descriptions des


paramtres

Apache

apache.sh

T ableau B.2, Serveur Apache

Instance Condor

condor.sh

T ableau B.3, Instance Condor

Systme de fichiers

fs.sh

T ableau B.4, Systme de fichiers

Systme de fichiers
GFS2

clusterfs.sh

T ableau B.5, GFS2

Adresse IP

ip.sh

T ableau B.6, Adresse IP

LVM HA

lvm.sh

T ableau B.7, LVM HA

MySQL

mysql.sh

T ableau B.8, MySQL

Client NFS

nfsclient.sh

T ableau B.9, Client NFS

Export NFS

nfsexport.sh

T ableau B.10, Export NFS

Serveur NFS

nfsserver.sh

T ableau B.11, Serveur NFS

Montage NFS/CIFS

netfs.sh

T ableau B.12, Montage NFS/CIFS

Open LDAP

openldap.sh

T ableau B.13, Open LDAP

Instance de
basculement Oracle
10g/11g

oracledb.sh

T ableau B.14, Instance de basculement Oracle


10g/11g

Instance de
basculement Oracle
10g

orainstance.sh

T ableau B.15, Instance de basculement Oracle


10g

Listener Oracle 10g

oralistener.sh

T ableau B.16, Listener Oracle 10g

PostgreSQL 8

postgres-8.sh

T ableau B.17, PostgreSQL 8

SAP Database

SAPDatabase

T ableau B.18, SAP Database

SAP Instance

SAPInstance

T ableau B.19, SAP Instance

Samba

samba.sh

T ableau B.20, Serveur Samba

Script

script.sh

T ableau B.21, Script

Sybase ASE

ASEHAagent.sh

T ableau B.22, Instance de basculement ASE


Sybase

T omcat 6

tomcat-6.sh

T ableau B.23, T omcat 6

Virtual Machine

vm.sh

T ableau B.24, Virtual Machine


REMARQUE : luci affiche ceci en tant que service
virtuel si le cluster hte peut prendre en charge
les machines virtuelles.

188

Paramtres des ressources HA

T ableau B.2. Serveur Apache


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Nom du service Apache.

Serveur root

server_root

La valeur pas dfaut est /etc/httpd.

Fichier de
configuration

config_file

Spcifie le fichier de configuration. La valeur par dfaut est


/etc/httpd/conf.

Options httpd

httpd_optio
ns

Autres options en ligne de commande pour httpd.

Attente
fermeture (en
secondes)

shutdown_wa
it

Spcifie le nombre de secondes attendre pour la fermeture


correcte de la fin du service.

T ableau B.3. Instance Condor


Champ

Champ luci

Attribut de cluster.conf

Nom
d'instance

nam e

Spcifie un nom unique pour l'instance Condor.

T ype de soussystme
Condor

type

Spcifie le type de sous-systme Condor pour cette instance :


schedd, job_server, ou query_server.

189

Red Hat Enterprise Linux 6 Administration de clusters

T ableau B.4 . Systme de fichiers


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Spcifie un nom pour la ressources du systme de fichiers.

T ype de
systme de
fichiers

fstype

Si non spcifi, m ount essaie de dterminer le type de systme


de fichiers.

Point de
montage

m ountpoint

Chemin dans la hirarchie du systme de fichiers pour monter ce


systme de fichiers.

Device
(priphrique),
FS Label
(tiquette FS),
ou UUID

device

Spcifie le priphrique associ aux ressources du systme de


fichiers. Ceci peut tre un priphrique bloc, une tiquette de
systme de fichiers, ou l'UUID d'un systme de fichiers.

Options de
montage

options

Options de montage ; options utilises lorsque le systme de


fichiers est mont. Celles-ci peuvent tre spcifique au systme
de fichiers. Reportez-vous la page man mount(8) pour voir les
options de montage prises en charge.

ID du systme
de fichiers
(optionnel)

fsid

Remarque
ID du systme de fichiers est uniquement utilis par
les services NFS.
Lors de la cration d'une nouvelle ressource de systme de
fichiers, vous pouvez laisser ce champ vide. Laisser ce champ
vide fait que l'ID du systme de fichiers sera assign
automatiquement aprs avoir committ le paramtre pendant la
configuration. Si vous devez assigner un ID de systme de fichiers
excplicitement, spcifiez-le dans ce champ.

Forcer le
dmontage

force_unm ou
nt

Si activ, il force le systme de fichier se dmonter. Le paramtre


par dfaut est disabled. Lorsqu'il essaie d'effectuer le
dmontage, Force Unmount supprime tous les processus utilisant
le point de montage afin de le librer.

Forcer fsck

force_fsck

Si activ, fsck sera excut sur le systme de ficheirs avant qu'il


ne soit mont. Le paramtre par dfaut est disabled.

Activez le
dmon NFS et
la solution de
contournement
lockd (Red Hat
Enterprise
Linux 6.4 et
versions
suprieures)

nfsrestart

Si votre systme de fichiers est export via NFS et qu'il choue


occasionnellement se dmonter (lors d'une fermeture ou du
transfert d'un service), le paramtrage de cette option effacera
toute rfrence au systme de fichiers avant l'opration de
dmontage. Le paramtrage de cette option requiert que vous
activiez l'option Forcer le dm ontage et ne doit pas tre
utilise avec la ressource NFS Server. Comme il s'agit d'une
tentative force de dmontage d'un systme de fichiers, veuillez
paramtrer cette option en dernier recours uniquement.

Utiliser les
vrifications
rapides de
statut

quick_statu
s

Si activ, effectue des vrifications rapides du statut.

Redmarrer le
nud hte si
le dmontage

self_fence

Si activ, redmarre le nud le dmontage du systme de fichiers


choue. L'agent de ressources filesystem (systme de

190

Paramtres des ressources HA

le dmontage
choue

fichiers) accepte les valeurs 1, yes, on, ou true pour activer ce


paramtre et les valeurs 0, no, off, ou false pour le dsactiver.
Le paramtre par dfaut est disabled (dsactiv).

191

Red Hat Enterprise Linux 6 Administration de clusters

T ableau B.5. GFS2


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Nom de la ressource du systme de fichiers.

Point de
montage

m ountpoint

Cheminselon lequel la ressource du systme de fichiers est


monte.

Device
(priphrique),
FS Label
(tiquette FS),
ou UUID

device

Fichier du priphrique associ la ressource du systme de


fichiers.

T ype de
systme de
fichiers

fstype

Paramtrer sur GFS2 sur luci

Options de
montage

options

Options de montage.

ID du systme
de fichiers
(optionnel)

fsid

Remarque
ID du systme de fichiers est uniquement utilis par
les services NFS.
Lors de la cration d'une nouvelle ressource GFS2, vous pouvez
laisser ce champ vide. Laisser ce champ vide fera que l'ID du
systme de fichiers sera assign automatiquement aprs avoir
committ le paramtre pendant la configuration. Si vous devez
assigner un ID de systme de fichiers explicitement, spcifiez-le
dans ce champ.

Forcer le
dmontage

force_unm ou
nt

Si activ, il force le systme de fichiers se dmonter. Le


paramtre par dfaut est disabled. Lorsqu'il essaie d'effectuer le
dmontage, Force Unmount supprime tous les processus utilisant
le point de montage afin de librer celui-ci. Avec les ressources
GFS2, le point de montage n'est pas dmont lors du service
dmontage moins que Force Unmount (Forcer le dmontage)
ne soit enabled (activ).

Activez le
dmon NFS et
la solution de
contournement
lockd (Red Hat
Enterprise
Linux 6.4 et
versions
suprieures)

nfsrestart

Si votre systme de fichiers est export via NFS et qu'il choue


occasionnellement se dmonter (lors d'une fermeture ou du
transfert d'un service), le paramtrage de cette option effacera
toute rfrence au systme de fichiers avant l'opration de
dmontage. Le paramtrage de cette option requiert que vous
activiez l'option Forcer le dm ontage et ne doit pas tre
utilise avec la ressource NFS Server. Comme il s'agit d'une
tentative force de dmontage d'un systme de fichiers, veuillez
paramtrer cette option en dernier recours uniquement.

Redmarrer le
nud hte si
le dmontage
choue

self_fence

Si activer et dmonter le systme de fichiers choue, le nud


redmarrera immdiatement. En gnral, ceci est utilis en
conjonction avec la prise en charge de force-unmount (forcer le
dmontage), mais n'est pas requis. L'agent de ressources GFS2
accepte les valeurs 1, yes, on, ou true pour activer ce paramtre
et les valeurs 0, no, off, ou false pour le dsactiver.

192

Paramtres des ressources HA

T ableau B.6. Adresse IP


Champ luci

Attribut de
cluster.con
f

Description

IP Address
(adresse IP),
Netmask Bits
(bits de
masque
rseau)

address

L'adresse IP (et optionnellement les bits du masque rseau) pour


la ressource. Les bits du masque rseau, ou la longueur du
prfixe rseau, peut se situer aprs l'adresse avec une barre
oblique utilise comme sparateur, en conformit avec la notation
CIDR (par exemple, 10.1.1.1/8). Ceci est une adresse IP virtuelle.
Les adresses IPv4 et IPv6 sont prises en charge, tout comme le
contrle du lien NIC pour chaque adresse IP.

Monitor Link

m onitor_lin
k

Activer ceci cause la vrification du statut d'chouer si le lien sur


le NIC vers lequel cette adresse IP se dirige n'est pas prsent.

Dsactiver les
mises jour
des routes
statiques

disable_rdi
sc

Dsactiver les mises jour du routage l'aide du protocole


RDISC.

Nombre de
secondes de
veille aprs la
suppression
d'une adresse
IP

sleeptim e

Spcifie le temps (en secondes) de veille.

T ableau B.7. LVM HA


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Nom unique pour cette ressource LVM.

Nom du
groupe de
volumes

vg_nam e

Nom descriptif du groupe de volumes gr.

Nom du
volume logique
(optionnel)

lv_nam e

Nom du volume logique gr. Ce paramtre est optionnel s'il y a


plus d'un volume logique dans le groupe de volumes gr.

Fencing du
nud s'il est
incapable de
nettoyer les
balises LVM

self_fence

Effectuez le fencing du nud s'il est incapable de supprimer les


balises LVM. L'agent de ressources LVM accepte les valeurs 1 ou
yes pour activer ce paramtre et les valeurs 0 ou no pour le
dsactiver.

193

Red Hat Enterprise Linux 6 Administration de clusters

T ableau B.8. MySQL


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Spcifie un nom pour la ressource de MySQL server.

Fichier de
configuration

config_file

Spcifie le fichier de configuration. La valeur par dfaut est


/etc/m y.cnf.

Listen Address

listen_addr
ess

Spcifie une adresse IP pour MySQL server. Si aucune adresse IP


n'est fournie, la premire adresse IP du service sera utilise.

Options
mysqld

m ysqld_opti
ons

Autres options en ligne de commande pour httpd.

Attente
dmarrage (en
secondes)

startup_wai
t

Spcifie le nombre de secondes attendre pour la fin correcte du


dmarrage du service.

Attente
fermeture (en
secondes)

shutdown_wa
it

Spcifie le nombre de secondes attendre pour la fermeture


correcte de la fin du service.

T ableau B.9. Client NFS


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Ceci est un nom symbolique d'un client habitu y faire rfrence


dans l'arborescence des ressources. Il ne s'agit pas de la mme
chose que l'option Target (Cible).

Nom d'hte,
caractre
gnrique, ou
netgroup de la
cible

target

Serveur partir duquel vous effectuez le montage. Il peut tre


spcifi l'aide d'un nom d'hte, d'un caractre de remplacement
(bas sur adresse IP ou nom d'hte), ou d'un netgroup dfinissant
un hte ou des htes vers lequel (ou lesquels) exporter.

Autoriser la
rcupration
de ce client
NFS

allow_recov
er

Autorise la rcupration.

Options

options

Dfinit une liste d'options pour ce client par exemple, des droits
d'accs client supplmentaires. Pour plus d'informations, reportezvous aux Options gnrales de la page man exports (5).

194

Paramtres des ressources HA

T ableau B.10. Export NFS


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Nom descriptif de la ressource. La ressource NFS Export s'assure


que les dmons NFS sont en cours d'excution. Elle est
entirement rutilisable ; habituellement, seule une ressource NFS
Export est ncessaire.

Astuce
Nom de la ressource NFS Export, afin qu'elle soit clairement
distinguable des autres ressources NFS.

T ableau B.11. Serveur NFS


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Nom descriptif de la ressource du serveur NFS. La ressource du


serveur NFS est utile pour exporter des systmes de fichiers
NFSv4 sur des clients. cause de la manire dont NFSv4
fonctionne, seule une ressource NFSv4 peut exister sur un
serveur la fois. En outre, il n'est pas possible d'utiliser la
ressource de serveur NFS lorsque des instances locales de NFS
sont aussi utilises sur chaque nud de cluster.

195

Red Hat Enterprise Linux 6 Administration de clusters

T ableau B.12. Montage NFS/CIFS


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Nom symbolique du montage NFS ou CIFS.

Remarque
Cette ressource est requise lorsqu'un service cluster est
configur de manire tre un client NFS.

Point de
montage

m ountpoint

Chemin sur lequel la ressource du systme de fichiers est monte.

Hte

host

Adresse IP ou nom d'hte du serveur NFS/CIFS.

Nom du
rpertoire NFS
Export ou nom
du partage
CIFS

export

Nom du rpertoire NFS Export ou nom du partage CIFS.

T ype de
systme de
fichiers

fstype

T ype de systme de fichiers :

Forcer le
dmontage

force_unm ou
nt

Si Force Unmount (Forcer le dmontage) est activ, le cluster


supprime tous les processus l'aide de ce systme de fichiers
lorsque le service est arrt. La suppression de tous les
processus l'aide du systme de fichiers libre l'espace du
systme de fichiers. Autrement, le dmontage chouera et le
service sera redmarr.

Ne pas
dmonter le
systme de
fichiers
pendant une
opration
d'arrt ou de
dplacement.

no_unm ount

Si activ, cela spcifie que le systme de fichiers ne doit pas tre


dmont pendant une opration d'arrt ou de dplacement.

Options

options

Options de montage. Spcifie une liste des options de montage. Si


aucune n'est spcifie, le systme de fichiers est mont -o sync.

196

NFS Spcifie l'utilisation de la version par dfaut de NFS.


Ceci est le paramtre par dfaut.
NFS v4 Spcifie l'utilisation du protocole NFSv4.
CIFS Spcifie l'utilisation du protocole CIFS.

Paramtres des ressources HA

T ableau B.13. Open LDAP


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Spcifie un nom de service pour la connexion et pour d'autres


raisons.

Fichier de
configuration

config_file

Spcifie un chemin absolu vers un fichier de configuration. La


valeur par dfaut est /etc/openldap/slapd.conf.

Liste des URL

url_list

La valeur par dfaut est ldap:///.

Options
slapd

slapd_optio
ns

Autres options en ligne de commande de slapd.

Attente
fermeture (en
secondes)

shutdown_wa
it

Spcifie le nombre de secondes attendre pour la fermeture


correcte de la fin du service.

T ableau B.14 . Instance de basculement Oracle 10g/11g


Champ luci

Attribut de
cluster.con
f

Description

Nom
d'instance
(SID) de
l'instance
Oracle

nam e

Nom d'instance.

Nom
d'utilisateur
Oracle

user

Ceci est le nom d'utilisateur de l'utilisateur Oracle sous lequel


l'instance AS d'Oracle est excute.

Rpertoire de
base de
l'application
Oracle

hom e

Ceci est le rpertoire de base d'Oracle (l'application, et non


l'utilisateur). Il est configur lorsque vous installez Oracle.

T ype
d'installation
Oracle

type

T ype d'installation Oracle. Par dfaut : 10g, Database Instance


and Listener Only base, Database, Listener, Enterprise Manager
et ISQL*Plus : base-em (ou 10g), ou Internet Application Server
(infrastructure) : ias (ou 10g-ias).

Nom d'hte
virtuel
(optionnel)

vhost

Nom d'hte virtuel correspondant au nom d'hte de l'installation


d'Oracle 10g. Remarquez que pendant le dmarrage/arrt d'une
ressource oracledb, votre nom d'hte est temporairement modifi
sous ce nom d'hte. Ainsi, vous devriez configurer une ressource
oracledb faisant partie d'un service exclusif uniquement.

197

Red Hat Enterprise Linux 6 Administration de clusters

T ableau B.15. Instance de basculement Oracle 10g


Champ luci

Attribut de
cluster.con
f

Description

Nom
d'instance
(SID) de
l'instance
Oracle

nam e

Nom d'instance.

Nom
d'utilisateur
Oracle

user

Ceci est le nom d'utilisateur de l'utilisateur Oracle sous lequel


l'instance d'Oracle est excute.

Rpertoire de
base de
l'application
Oracle

hom e

Ceci est le rpertoire de base d'Oracle (l'application, et non


l'utilisateur). Il est configur lorsque vous installez Oracle.

Liste des
listeners
Oracle
(optionnels,
spars par
des espaces)

listeners

Liste des listeners Oracle qui seront lancs avec l'instance de la


base de donnes. Les noms de listeners sont spars par des
espaces vides. Vide par dfaut, ce qui dsactive les listeners.

Chemin vers le
fichier verrou
(optionnel)

lockfile

Emplacement du fichier verrou qui sera utilis pour vrifier si


Oracle devrait tre excut ou non. Se met par dfaut sous
l'emplacement /tm p.

T ableau B.16. Listener Oracle 10g


Champ luci

Attribut de
cluster.con
f

Description

Nom du
listener

nam e

Nom du listener.

Nom
d'utilisateur
Oracle

user

Ceci est le nom d'utilisateur de l'utilisateur Oracle sous lequel


l'instance d'Oracle est excute.

Rpertoire de
base de
l'application
Oracle

hom e

Ceci est le rpertoire de base d'Oracle (l'application, et non


l'utilisateur). Il est configur lorsque vous installez Oracle.

198

Paramtres des ressources HA

T ableau B.17. PostgreSQL 8


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Spcifie un nom de service pour la connexion et pour d'autres


raisons.

Fichier de
configuration

config_file

Dfinit un chemin absolu vers le fichier de configuration. La valeur


par dfaut est /var/lib/pgsql/data/postgresql.conf.

Postmaster
User

postm aster_
user

Utilisateur qui excute le serveur de la base de donnes car elle


ne peut tre excute par root. La valeur par dfaut est postgres.

Options
Postmaster

postm aster_
options

Autres options en ligne de commande de postmaster.

Attente
fermeture (en
secondes)

shutdown_wa
it

Spcifie le nombre de secondes attendre pour la fermeture


correcte de la fin du service.

199

Red Hat Enterprise Linux 6 Administration de clusters

T ableau B.18. SAP Database


Champ luci

Attribut de
cluster.con
f

Description

Nom de base
de donnes
SAP

SID

Spcifie un identifiant de systme SAP unique. Par exemple, P01.

Rpertoire
excutable
SAP

DIR_EXECUT A
BLE

Spcifie le chemin d'accs complet vers sapstartsrv et


sapcontrol.

T ype de base
de donnes

DBT YPE

Spcifie un type des bases de donnes suivantes : Oracle, DB6,


ou ADA.

Nom du
listener Oracle

NET SERVICEN
AME

Spcifie le nom de l'couteur (listener) T NS d'Oracle.

La pile ABAP
n'est pas
installe, seule
la pile Java est
installe

DBJ2EE_ONLY

Si aucune pile ABAP n'est installe dans la base de donnes SAP,


activez ce paramtre.

Surveillance du
niveau des
applications

ST RICT _MONI Active la surveillance du niveau des applications.


T ORING

Rcupration
du dmarrage
automatique
( Automatic
Startup
Recovery )

AUT OMAT IC_R


ECOVER

Activer ou dsactiver la rcupration du dmarrage automatique.

Chemin vers
Java SDK

JAVE_HOME

Chemin vers Java SDK.

Nom du fichier
du pilote JDBC

DB_JARS

Nom de fichier du pilote JDBC.

Chemin vers
un script prdmarrage

PRE_ST ART _U
SEREXIT

Chemin vers un script pr-dmarrage.

Chemin vers
un script postdmarrage

POST _ST ART


_USEREXIT

Chemin vers un script post-dmarrage.

Chemin vers
un script prarrt

PRE_ST OP_US
EREXIT

Chemin vers un script pr-arrt

Chemin vers
un script postarrt

POST _ST OP_


USEREXIT

Chemin vers un script post-arrt

Rpertoire
Bootstrap
de l'instance
J2EE

DIR_BOOT ST
RAP

Chemin d'accs complet du rpertoire de dmarrage de l'instance


J2EE. Par exemple,
/usr/sap/P01/J00/j2ee/cluster/bootstrap.

Chemin du
stockage de
scurit J2EE

DIR_SECST OR
E

Chemin d'accs complet du rpertoire de stockage de scurit


J2EE. Par exemple,
/usr/sap/P01/SYS/global/security/lib/tools.

200

Paramtres des ressources HA

T ableau B.19. SAP Instance


Champ luci

Attribut de
cluster.con
f

Description

Nom
d'instance SAP

InstanceNam
e

Nom complet de l'instance SAP. Par exemple,


P01_DVEBMGS00_sapp01ci.

Rpertoire
excutable
SAP

DIR_EXECUT A
BLE

Chemin d'accs complet vers sapstartsrv et sapcontrol.

Rpertoire
contenant le
profil ST ART
SAP.

DIR_PROFILE

Chemin d'accs complet vers le profil ST ART SAP.

Nom du profil
ST ART SAP

ST ART _PROFI Spcifie le nom du profil ST ART SAP.


LE

Nombre de
secondes
d'attente avant
la vrification
du statut du
dmarrage

ST ART _WAIT T
IME

Spcifie le nombre de secondes attendre avant de vrifier le


statut du dmarrage (ne pas attendre J2EE-Addin).

Activer la
rcupration
du dmarrage
automatique
( Automatic
Startup
Recovery )

AUT OMAT IC_R


ECOVER

Activer ou dsactiver la rcupration du dmarrage automatique.

Chemin vers
un script prdmarrage

PRE_ST ART _U
SEREXIT

Chemin vers un script pr-dmarrage.

Chemin vers
un script postdmarrage

POST _ST ART


_USEREXIT

Chemin vers un script post-dmarrage.

Chemin vers
un script prarrt

PRE_ST OP_US
EREXIT

Chemin vers un script pr-arrt

Chemin vers
un script postarrt

POST _ST OP_


USEREXIT

Chemin vers un script post-arrt

Remarque
Concernant le T ableau B.20, Serveur Samba , lors de la cration ou de la modification d'un
service cluster, connectez une ressource du service Samba directement au service, et non une
ressource faisant partie d'un service.

201

Red Hat Enterprise Linux 6 Administration de clusters

T ableau B.20. Serveur Samba


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Spcifie le nom du serveur Samba.

Fichier de
configuration

config_file

Fichier de configuration Samba

Autres options
en ligne de
commande de
smbd

sm bd_option
s

Autres options en ligne de commande de smbd.

Autres options
en ligne de
commande de
nmbd

nm bd_option
s

Autres options en ligne de commande de nmbd.

Attente
fermeture (en
secondes)

shutdown_wa
it

Spcifie le nombre de secondes attendre pour la fermeture


correcte de la fin du service.

T ableau B.21. Script


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Spcifie un nom pour le script personnalis de l'utilisateur. La


ressource script permet un script init compatible avec LSB d'tre
utilis pour dmarrer un service clusteris.

Chemin
complet vers le
fichier script

file

Saisir le chemin d'accs de ce script personnalis (par exemple,


/etc/init.d/userscript).

202

Paramtres des ressources HA

T ableau B.22. Instance de basculement ASE Sybase


Champ luci

Attribut de
cluster.con
f

Description

Nom
d'instance

nam e

Spcifie le nom d'instance de la ressource ASE Sybase.

Nom du
serveur ASE

server_nam e

Nom du serveur ASE configur pour le service HA.

Rpertoire de
base SYBASE

sybase_hom e

Rpertoire de base des produits Sybase.

Fichier de
connexion

login_file

Chemin d'accs complet du fichier de connexion qui contient la


paire identifiant-mot de passe.

Fichier des
interfaces

interfaces_
file

Chemin d'accs complet du fichiers des interfaces utilis pour


dmarrer/accder au serveur ASE.

Nom du
rpertoire
SYBASE_ASE

sybase_ase

Nom du rpertoire sour sybase_home o les produits ASE sont


installs.

Nom du
rpertoire
SYBASE_OCS

sybase_ocs

Nom du rpertoire sous sybase_home o les produits OCS sont


installs. Par exemple, ASE-15_0.

Utilisateur
Sybase

sybase_user

Utilisateur pouvant excuter le serveur ASE.

Attente
dmarrage (en
secondes)

start_tim eo
ut

Valeur du dlai du dmarrage.

Attente
fermeture (en
secondes)

shutdown_ti
m eout

Valeur du dlai de fermeture.

Dlai
d'expiration
Deep Probe

deep_probe_
tim eout

Le nombre maximum de secondes de l'attente pour une rponse


du serveur ASE avant de dterminer que le serveur n'a pas de
rponse pendant l'excution de Deep Probe.

T ableau B.23. T omcat 6


Champ luci

Attribut de
cluster.con
f

Description

Nom

nam e

Spcifie un nom de service pour la connexion et pour d'autres


raisons.

Fichier de
configuration

config_file

Spcifie le chemin d'accs absolu du fichier de configuration. La


valeur par dfaut est /etc/tom cat6/tom cat6.conf.

Attente
fermeture (en
secondes)

shutdown_wa
it

Spcifie le nombre de secondes d'attendre de la fin correcte de la


fermeture du service. La valeur par dfaut est 30.

203

Red Hat Enterprise Linux 6 Administration de clusters

Important
Concernant le T ableau B.24, Virtual Machine , lorsque vous configurez votre cluster avec les
ressources d'une machine virtuelle, vous devriez utiliser les outils rgm anager pour dmarrer et
arrter les machines virtuelles. L'utilisation de virsh pour dmarrer une machine peut entraner
l'excution de la machine virtuelle dans plusieurs emplacements, ce qui peut provoquer une
corruption de donnes dans celle-ci. Pour obtenir des informations sur la configuration de votre
systme pour rduire la possibilit qu'un administrateur effectue un double-dmarrage
accidentel en utilisant les outils du cluster et des outils non-clusteriss, reportez-vous la
Section 2.14, Configurer des machines virtuelles dans un environnement clusteris .

Note
Les ressources de machines virtuelles sont configures diffremment des autres ressources de
cluster. Pour configurer une machine virtuelle avec luci, veuillez ajouter un groupe de services au
cluster, puis ajoutez une ressource au service, en slectionnant Virtual Machine en tant que
type de ressource virtuelle et en saisissant les paramtres des ressource de la machine virtuelle.
Pour obtenir des informations sur la configuration d'une machine virtuelle avec la commande ccs,
reportez-vous la Section 5.12, Ressources de machine virtuelle .

204

Comportement des ressources HA

T ableau B.24 . Virtual Machine


Champ luci

Attribut de
cluster.con
f

Description

Nom du
service

nam e

Spcifie le nom de la machine virtuelle. Lors de l'utilisation de


l'interface luci, vous pouvez spcifier ceci en tant que nom de
service.

Dmarrer ce
service
automatiqueme
nt

autostart

Si activ, cette machine virtuelle est dmarre automatiquement


une fois que le cluster atteint le quorum. Si ce paramtre est
dsactiv, cette machine virtuelle ne sera pas dmarre
automatiquement une fois que le cluster aura atteint le quorum, et
elle entrera alors dans l'tat disabled (dactiv).

Excuter de
manire
exclusive

exclusive

Si activ, cette machine virtuelle peut uniquement tre dplace


pour tre excute sur un autre nud de manire exclusive.
C'est--dire de s'excuter sur un nud sur lequel aucune autre
machine virtuelle n'est excute. S'il n'y a pas d'autre nud
disponible pour qu'une machine virtuelle puisse tre excute de
manire exclusive, alors la machine virtuelle ne sera pas
redmarre aprs cet chec. En outre, les autres machines
virtuelles ne se dplacent pas automatiquement sur un nud qui
excute cette machine virtuelle en tant que Run exclusive
(Excuter de manire exclusive). Vous pouvez outrepasser cette
option avec un dmarrage manuel ou des oprations de
dplacement.

Domaine de
basculement

dom ain

Dfinit une liste des membres du cluster essayer au cas o une


machine virtuelle chouerait.

Stratgie de
rcupration

recovery

La Recovery policy (stratgie de rcupration) offre les options


suivantes :
Disable Dsactive la machine virtuelle si elle choue.
Relocate T ente de redmarrer la machine virtuelle dans un
autre nud (ne tente pas de redmarrer avec le nud actuel).
Restart T ente de redmarrer la machine virtuelle
localement (dans le nud actuel) avant de tenter de la
dplacer (par dfaut) vers un autre nud.
Restart-Disable Le service sera redmarr s'il choue.
Cependant, si le redmarrage du service choue, celui-ci sera
dsactiv, au lieu d'tre dplac sur un autre hte dans le
cluster.

Options de
redmarrage

m ax_restart
s,
restart_exp
ire_tim e

Avec Restart ou Restart-Disable slectionn comme politique


de rcupration pour un service, ceci spcifie le nombre maximum
d'chec du redmarrage avant que le dplacement ou la
dsactivation du service ne soit effectu. Spcifie aussi le temps
en secondes au bout duquel il faut arrter de redmarrer.

T ype de
migration

m igrate

Spcifie un type de migration live ou pause. Le paramtre par


dfaut est live.

Mappage de
migration

m igration_
m apping

Spcifie une interface de migration alternative. Vous pouvez


spcifier ceci par exemple lorsque l'adresse rseau utilise pour
la migration de la machine virtuelle sur un nud est diffrente de
l'adresse du nud utilise pour les communications du cluster.
La spcification de ce qui suit indique que lorsque vous migrer un
machine virtuelle de m em ber m em ber2, vous effectuez en fait
une migration vers target2. De la mme manire, lorsque vous

205

Red Hat Enterprise Linux 6 Administration de clusters

effectuez une migration de m em ber2 m em ber, la migration est


effectue avec target.
m em ber:target,m em ber2:target2
Status
Program

status_prog
ram

tat du programme excuter en plus de la vrification standard


de la prsence d'une machine virtuelle. Si spcifi, l'tat du
programme est excut une fois par minute. Ceci vous permet de
dterminer l'tat des services critiques dans une machine virtuelle.
Par exemple, si une machine virtuelle excute un serveur web,
votre tat du programme peut vrifier si un serveur web fonctionne
correctement ; si la vrification de l'tat choue, (qui est signifie
par le retour d'une valeur ingale zro), la machine virtuelle est
rcupre.
Une fois qu'une machine virtuelle est dmarre, l'agent de
ressources de la machine virtuelle appellera l'tat du programme
et attendra le retour d'un code de russite (zro) avant de revenir.
Le dlai d'expiration est fix 5 minutes.

Chemin
d'accs xmlfile
utilis pour
crer la VM

xm lfile

Chemin d'accs complet du fichier XML libvirt contenant la


dfinition du domaine libvirt.

Chemin
d'accs du
fichier de
configuration
de la VM

path

Spcification du chemin d'accs dlimite par le caractre deuxpoints (:) indiquant que l'agent des ressources de la machine
virtuelle (vm .sh) recherche le fichier de configuration de la
machine virtuelle. Par exemple :
/m nt/guests/config:/etc/libvirt/qem u.

Important
Le chemin d'accs ne doit jamais directement pointer vers
le fichier de configuration d'une machine virtuelle.

Chemin
d'accs du
rpertoire VM
snapshot

snapshot

Chemin d'accs du rpertoire d'instantans o l'image de la


machine virtuelle sera stocke.

URI de
l'hyperviseur

hypervisor_
uri

URI de l'hyperviseur (habituellement automatique).

URI de la
migration

m igration_u
ri

URI de la migration (habituellement automatique).

Donnes du
tunnel sur ssh
pendant la
migration

tunnelled

Donnes du tunnel sur ssh pendant la migration.

206

Ordre de dmarrage de ressource enfant type

Comportement des ressources HA


Cet annexe dcrit le comportement habituel des ressources HA. Il est conu dans le but de fournir des
informations accessoires pouvant tre utiles lors de la configuration des services HA. Vous pouvez
configurer les paramtres avec Luci ou en modifiant /etc/cluster/cluster.conf. Pour obtenir des
descriptions des paramtres de ressources HA, reportez-vous l'Annexe B, Paramtres des
ressources HA. Pour mieux comprendre les agents de ressources, vous pouvez les voir dans le fichier
/usr/share/cluster de chaque nud du cluster.

Remarque
Pour bien comprendre les informations prsentes dans cet annexe, vous devrez possder une
comprhension dtaille des agents de ressources et du fichier de configuration du cluster,
/etc/cluster/cluster.conf.
Un service HA est un groupe de ressources de cluster configures en une entit cohrente fournissant
des services spcialiss aux clients. Un service HA est reprsent comme une arborescence de
ressources dans le fichier de configuration du cluster /etc/cluster/cluster.conf (dans chaque
nud du cluster). Dans le fichier de configuration du lcuster, chaque arborescence de ressources est
une reprsentation XML spcifiant chaque ressource, ses attributs, et ses relations aux autres
ressources dans l'arborescence des ressources (parents, enfants et de mme parent).

Remarque
Comme un service HA est compos de ressources organises en une arborescence
hirarchique, on peut parfois faire rfrence un service en tant qu'arborescence de ressources
ou que groupe de ressources. Les deux termes sont synonymes de service HA.
la racine de chaque arborescence de ressources se trouve un type de ressources spcial une
ressource de service. Les autres types de ressources comprennent le reste d'un service, dterminant
ainsi ses caractristiques. Configurer un service HA revient crer une ressource de service, crer des
ressources de cluster subordines et les organiser en une entit cohrente conforme aux restrictions
hirarchiques du service.
Cet annexe est compos des sections suivantes :
Section C.1, Relations entre parents, enfants, et enfants de mmes parents parmi les ressources
Section C.2, Ordre de dmarrage des relations de mme parent et ordre des enfants de
ressources
Section C.3, Hritage, le bloc <ressources>, et la rutilisation des ressources
Section C.4, Rcupration de dfaillance et sous-arbres indpendants
Section C.5, Dbogage et testage des services et de l'ordre des ressources

Remarque
Les sections qui suivent les exemples prsents du fichier de configuration du cluster
/etc/cluster/cluster.conf, sont des fins d'illustration uniquement.

C.1. Relations entre parents, enfants, et enfants de mmes parents parmi


les ressources
Un service cluster est une entit intgre qui est excute sous le contrle de rgm anager. T outes les

207

Red Hat Enterprise Linux 6 Administration de clusters

ressources d'un service sont excutes sur le mme nud. Du point de vue de rgm anager, un
service cluster est une entit qui peut tre dmarre, arrte, ou dplace. Cependant, l'intrieur d'un
service clusterm la hirarchie des ressources dtermine l'ordredans lequel chaque ressource est
dmarre puis arrte. Les niveaux de hirarchie sont : parent, enfant, et de mme parent.
Exemple C.1, Hirarchie des ressources du service foo affiche un exemple d'arborescence de
ressources du service foo. Dans l'exemple, les relations entre les ressources sont comme suit :
fs:m yfs (<fs name="myfs" ...>) et ip:10.1.1.2 (<ip address="10.1.1.2 .../>) sont de mme
parent.
fs:m yfs (<fs name="myfs" ...>) is the parent of script:script_child (<script
name="script_child"/>).
script:script_child (<script name="script_child"/>) est l'enfant de fs:m yfs (<fs
name="myfs" ...>).
Exemple C.1. Hirarchie des ressources du service foo
<service name="foo" ...>
<fs name="myfs" ...>
<script name="script_child"/>
</fs>
<ip address="10.1.1.2" .../>
</service>

Les rgles suivantes s'appliquent aux relations parents/enfants dans une arborescence de
ressources :
Les parents sont dmarrs avant les enfants.
Les enfants doivent tous s'arrter correctement avant qu'un parent puisse tre arrt.
Pour qu'une ressource soit considre comme tant en bonne sant, tous ses enfants doivent tre
en bonne sant.

C.2. Ordre de dmarrage des relations de mme parent et ordre des


enfants de ressources
La ressource Service dtermine l'ordre de dmarrage et l'ordre d'arrt des ressources enfants si elle
dsigne un attribut de type enfant pour une ressource enfant comme suit :
Dsigne un attribut de type enfant (ressource enfant type) Si la ressource Service dsigne un
attribut de type enfant pour une ressource enfant, la ressource enfant est type. L'attribut de type
enfant dtermine de manire explicite l'ordre de dbut et de fin de la ressource enfant.
Ne dsigne pas d'attributs de type enfant (ressource enfant non-type) Si la ressource Service ne
dsigne pas un attribut de type enfant pour une ressource enfant, la ressource enfant est non-type.
La ressource Service ne contrle pas explicitement les ordres de dmarrage et d'arrt d'une
ressource enfant non-type. Cependant, une ressource enfant non-type est dmarre et arrte en
fonction de son ordre dans /etc/cluster/cluster.conf. En outre, les ressources enfant nontypes sont dmarres une fois que toutes les ressources enfants types sont dmarres et elles
sont arrtes avant que toute ressource enfant type ne soit arrte.

Remarque
La ressource Service est la seule ressource implmentant un ordre de type de ressource enfant
dfini.
Pour obtenir plus d'informations sur l'ordre de dmarrage et d'arrt des ressources enfants types,

208

Ordre d'arrt des ressources enfant non-types

Pour obtenir plus d'informations sur l'ordre de dmarrage et d'arrt des ressources enfants types,
reportez-vous la Section C.2.1, Ordre de dmarrage et d'arrt des ressources enfant types . Pour
obtenir plus d'information sur l'ordre de dmarrage et d'arrt des ressources enfants non-types,
reportez-vous la Section C.2.2, Ordre de dmarrage et d'arrt de ressources enfant non-types .
C.2.1. Ordre de dmarrage et d'arrt des ressources enfant types
Pour une ressource enfant type, l'attribut du type de la ressource enfant dfinit l'ordre de dmarrage et
d'arrt de chaque type de ressource avec un numro pouvant aller de 1 100 ; une valeur pour le
dmarrage et une valeur pour l'arrt. Plus le numro est bas, plus le type de ressource dmarrera ou
s'arrtera tt. Par exemple, le T ableau C.1, Ordre de dmarrage et d'arrt des ressources enfants
affiche les valeurs de dmarrage et d'arrt pour chaque type de ressource ; l'Exemple C.2, Valeurs de
dmarrage et d'arrt de la ressource : extraites de l'agent de la ressource Service service.sh
affiche les valeurs de dmarrage et d'arrt telles qu'elles apparaissent sur l'agent de la ressource
Service service.sh. Pour la ressource Service, tous les enfants LVM sont dmarrs en premier, suivis
par tous les enfant systmes de fichiers, suivis par tous les enfants scripts, et ainsi de suite.
T ableau C.1. Ordre de dmarrage et d'arrt des ressources enfants
Ressource

T ype d'enfant

Valeur de l'ordre de
dmarrage

Valeur de l'ordre
d'arrt

LVM

lvm

Systme de fichiers

fs

Systme de fichiers
GFS2

clusterfs

Montage NFS

netfs

Export NFS

nfsexport

Client NFS

nfsclient

IP Address

ip

Samba

smb

Script

script

Exemple C.2. Valeurs de dmarrage et d'arrt de la ressource : extraites de l'agent de la


ressource Service service.sh
<special tag="rgmanager">
<attributes root="1" maxinstances="1"/>
<child type="lvm" start="1" stop="9"/>
<child type="fs" start="2" stop="8"/>
<child type="clusterfs" start="3" stop="7"/>
<child type="netfs" start="4" stop="6"/>
<child type="nfsexport" start="5" stop="5"/>
<child type="nfsclient" start="6" stop="4"/>
<child type="ip" start="7" stop="2"/>
<child type="smb" start="8" stop="3"/>
<child type="script" start="9" stop="1"/>
</special>

Le classement dans un type de ressource est prserv lorsqu'il est ferm dans le fichier de
configuration du cluster /etc/cluster/cluster.conf. Par exemple, prenez en considration l'ordre
de dmarrage et d'arrt des ressources enfants types dans l'Exemple C.3, Classement dans un type
de ressource .

209

Red Hat Enterprise Linux 6 Administration de clusters

Exemple C.3. Classement dans un type de ressource


<service name="foo">
<script name="1" .../>
<lvm name="1" .../>
<ip address="10.1.1.1" .../>
<fs name="1" .../>
<lvm name="2" .../>
</service>

Ordre de dmarrage de ressource enfant type


Dans l'Exemple C.3, Classement dans un type de ressource , les ressources sont dmarres dans
l'ordre suivant :
1. lvm :1 Ceci est une ressource LVM, T outes les ressources LVM sont dmarres en premier.
lvm :1 (<lvm nam e="1" .../>) est la premire ressource LVM dmarre dar il s'agit de la
premire ressource LVM rpertorie dans la portion Service foo de
/etc/cluster/cluster.conf.
2. lvm :2 Ceci est une ressource LVM. T outes les ressources LVM sont dmarres en premier.
lvm :2 (<lvm nam e="2" .../>) est dmarr aprs lvm :1 car lvm :2 est rpertori aprs
lvm :1 dans la portion Service foo de /etc/cluster/cluster.conf.
3. fs:1 Ceci est une ressource de systme de fichiers. S'il y avait d'autres ressources de
systmes de fichiers dans Service foo, elles seraient dmarres dans l'ordre dfinit dans la
portion Service foo de /etc/cluster/cluster.conf.
4. ip:10.1.1.1 Ceci est une ressource d'adresse IP. S'il y avait d'autres ressources
d'adresses IP dans Service foo, elles seraient dmarres dans l'ordre dfinit dans la portion
Service foo de /etc/cluster/cluster.conf.
5. script:1 Ceci est une ressource de script. S'il y avait d'autres ressources de scripts dans
Service foo, elles seraient dmarres dans l'ordre dfinit dans la portion Service foo de
/etc/cluster/cluster.conf.

Ordre d'arrt des ressources enfants types


Dans l'Exemple C.3, Classement dans un type de ressource , les ressources sont arrtes dans
selon l'ordre suivant :
1. script:1 Ceci est une ressource Script. S'il y avait d'autres ressources Script dans Service
foo, elles seraient arrtes dans l'ordre inverse dfinit dans la portion Service foo de
/etc/cluster/cluster.conf.
2. ip:10.1.1.1 Ceci est une ressource adresse IP. S'il y avait d'autres ressources adresse IP
dans Service foo, elles seraient arrtes dans l'ordre inverse dfinit dans la portion Service foo
de /etc/cluster/cluster.conf.
3. fs:1 Ceci est une ressource Systme de fichiers. S'il y avait d'autres ressources Systme de
fichiers dans Service foo, elles seraient arrtes dans l'ordre inverse dfinit dans la portion
Service foo de /etc/cluster/cluster.conf.
4. lvm :2 Ceci est une ressource LVM. T outes les ressources LVM sont arrtes en dernier.
lvm :2 (<lvm nam e="2" .../>) est arrt avant lvm :1 ; les ressources l'intrieur du
groupe d'un type de ressources sont arrtes dans l'ordre inverse dfinit dans la portion Service
foo de /etc/cluster/cluster.conf.
5. lvm :1 Ceci est une ressource LVM. T outes les ressources LVM sont arrtes en dernier.
lvm :1 (<lvm nam e="1" .../>) est arrt aprs lvm :2 ; les ressources l'intrieur du
groupe d'un type de ressources sont arrtes dans l'ordre inverse dfinit dans la portion Service
foo de /etc/cluster/cluster.conf.

210

Ordre d'arrt des ressources enfant non-types

C.2.2. Ordre de dmarrage et d'arrt de ressources enfant non-types


Des considrations supplmentaires sont requises pour les ressources enfants sans type. Pour une
ressource enfant sans type, l'ordre de dmarrage et d'arrt ne sont pas explicitement spcifis par la
ressource Service. Au lieu de cela, l'ordre de dmarrage et d'arrt sont dtermins en fonction de l'ordre
de la ressources enfant dans /etc/cluster/cluster.conf. En outre, les ressources enfant sans
type sont dmarres aprs toutes les ressources enfants avec type et arrtes avant toute ressource
enfant avec type.
Par exemple, prenez en considration l'ordre de dmarrage et d'arrt des ressources enfant non-types
dans l'Exemple C.4, Ressources enfant types et non-types dans un service .
Exemple C.4 . Ressources enfant types et non-types dans un service
<service name="foo">
<script name="1" .../>
<nontypedresource name="foo"/>
<lvm name="1" .../>
<nontypedresourcetwo name="bar"/>
<ip address="10.1.1.1" .../>
<fs name="1" .../>
<lvm name="2" .../>
</service>

Ordre de dmarrage de ressources enfant non-types


Dans l'Exemple C.4, Ressources enfant types et non-types dans un service , les ressources
enfant sont dmarres dans l'ordre suivant :
1. lvm :1 Ceci est une ressource LVM, T outes les ressources LVM sont dmarres en premier.
lvm :1 (<lvm nam e="1" .../>) est la premire ressource LVM dmarre dar il s'agit de la
premire ressource LVM rpertorie dans la portion Service foo de
/etc/cluster/cluster.conf.
2. lvm :2 Ceci est une ressource LVM. T outes les ressources LVM sont dmarres en premier.
lvm :2 (<lvm nam e="2" .../>) est dmarr aprs lvm :1 car lvm :2 est rpertori aprs
lvm :1 dans la portion Service foo de /etc/cluster/cluster.conf.
3. fs:1 Ceci est une ressource de systme de fichiers. S'il y avait d'autres ressources de
systmes de fichiers dans Service foo, elles seraient dmarres dans l'ordre dfinit dans la
portion Service foo de /etc/cluster/cluster.conf.
4. ip:10.1.1.1 Ceci est une ressource d'adresse IP. S'il y avait d'autres ressources
d'adresses IP dans Service foo, elles seraient dmarres dans l'ordre dfinit dans la portion
Service foo de /etc/cluster/cluster.conf.
5. script:1 Ceci est une ressource de script. S'il y avait d'autres ressources de scripts dans
Service foo, elles seraient dmarres dans l'ordre dfinit dans la portion Service foo de
/etc/cluster/cluster.conf.
6. nontypedresource:foo Ressource non-type. Comme il s'agit d'une ressource non-type,
celle-ci est lance aprs le dmarrage des ressources types. En outre, son ordre dans la
ressource Service est avant les autres ressources non-types nontypedresourcetwo:bar ;
elle est ainsi lance avant nontypedresourcetwo:bar. (Les ressources non-types sont
lances dans l'ordre dans lequel elles apparaissent dans la ressource Service.)
7. nontypedresourcetwo:bar Ressource non-type. Comme il s'agit d'une ressource nontype, celle-ci est lance aprs le dmarrage des ressources types. En outre, son ordre dans la
ressource Service est aprs les autres ressources non-types nontypedresource:foo ; elle
est ainsi lance aprs nontypedresource:foo. (Les ressources non-types sont lances
dans l'ordre dans lequel elles apparaissent dans la ressource Service.)

211

Red Hat Enterprise Linux 6 Administration de clusters

Ordre d'arrt des ressources enfant non-types


Dans l'Exemple C.4, Ressources enfant types et non-types dans un service , les ressources
enfant sont arrtes dans l'ordre suivant :
1. nontypedresourcetwo:bar Ressource non-type. Comme il s'agit d'une ressource nontype, celle-ci est arrte avant l'arrt des ressources types. En outre, son ordre dans la
ressource Service est aprs les autres ressources non-types nontypedresource:foo ; elle
est ainsi arrte avant nontypedresource:foo. (Les ressources non-types sont arrtes
dans l'ordre inverse par rapport l'ordre dans lequel elles apparaissent dans la ressource
Service.)
2. nontypedresource:foo Ceci est une ressource non-type. Comme il s'agit d'une
ressource non-type, celle-ci est arrte avant l'arrt des ressources types. En outre, son ordre
dans la ressource Service est avant les autres ressources non-types
nontypedresourcetwo:bar ; elle est ainsi arrte aprs nontypedresourcetwo:bar. (Les
ressources non-types sont arrtes l'ordre inverse par rapport l'ordre dans lequel elles
apparaissent dans la ressource Service.)
3. script:1 Ceci est une ressource Script. S'il y avait d'autres ressources Script dans Service
foo, elles seraient arrtes dans l'ordre inverse dfinit dans la portion Service foo de
/etc/cluster/cluster.conf.
4. ip:10.1.1.1 Ceci est une ressource adresse IP. S'il y avait d'autres ressources adresse IP
dans Service foo, elles seraient arrtes dans l'ordre inverse dfinit dans la portion Service foo
de /etc/cluster/cluster.conf.
5. fs:1 Ceci est une ressource Systme de fichiers. S'il y avait d'autres ressources Systme de
fichiers dans Service foo, elles seraient arrtes dans l'ordre inverse dfinit dans la portion
Service foo de /etc/cluster/cluster.conf.
6. lvm :2 Ceci est une ressource LVM. T outes les ressources LVM sont arrtes en dernier.
lvm :2 (<lvm nam e="2" .../>) est arrt avant lvm :1 ; les ressources l'intrieur du
groupe d'un type de ressources sont arrtes dans l'ordre inverse dfinit dans la portion Service
foo de /etc/cluster/cluster.conf.
7. lvm :1 Ceci est une ressource LVM. T outes les ressources LVM sont arrtes en dernier.
lvm :1 (<lvm nam e="1" .../>) est arrt aprs lvm :2 ; les ressources l'intrieur du
groupe d'un type de ressources sont arrtes dans l'ordre inverse dfinit dans la portion Service
foo de /etc/cluster/cluster.conf.

C.3. Hritage, le bloc <ressources>, et la rutilisation des ressources


Certaines ressources bnficient de l'hritage des valeurs depuis une ressource parente. Ceci est
communment le case pour un service NFS. L'Exemple C.5, Paramtrage du service NFS pour une
rutilisation des ressources et un hritage montre une configuration de service NFS typique,
paramtre pour une rutilisation des ressources et un hritage.

212

Ordre d'arrt des ressources enfant non-types

Exemple C.5. Paramtrage du service NFS pour une rutilisation des ressources et un
hritage

<resources>
<nfsclient name="bob" target="bob.example.com"
options="rw,no_root_squash"/>
<nfsclient name="jim" target="jim.example.com"
options="rw,no_root_squash"/>
<nfsexport name="exports"/>
</resources>
<service name="foo">
<fs name="1" mountpoint="/mnt/foo" device="/dev/sdb1" fsid="12344">
<nfsexport ref="exports"> <!-- nfsexport's path and fsid attributes
are inherited from the mountpoint &
fsid attribute of the parent fs
resource -->
<nfsclient ref="bob"/> <!-- nfsclient's path is inherited from
the
mountpoint and the fsid is added to
the
options string during export -->
<nfsclient ref="jim"/>
</nfsexport>
</fs>
<fs name="2" mountpoint="/mnt/bar" device="/dev/sdb2" fsid="12345">
<nfsexport ref="exports">
<nfsclient ref="bob"/> <!-- Because all of the critical data
for this
resource is either defined in the
resources block or inherited, we
can
reference it again! -->
<nfsclient ref="jim"/>
</nfsexport>
</fs>
<ip address="10.2.13.20"/>
</service>

Si le service tait plat (c'est--dire sans relations de type parent/enfant), il devrait alors tre configur
comme suit :
Le service ncessiterait quatre ressources nfsclient une par fichier (soit un total de deux pour les
systmes de fichiers), et une par machine-cible (soit un total de deux pour les machines-cibles).
Le service devrait spcifier le chemin d'exportation et l'ID du systme de fichiers chaque nfsclient,
ce qui induit la possibilit d'erreurs dans la configuration.
Cependant, dans l'Exemple C.5, Paramtrage du service NFS pour une rutilisation des ressources et
un hritage , les ressources client NFS nfsclient:bob et nfsclient:jim ne sont dfinies qu'une seule fois.
De mme, la ressource d'exportation NFS nfsexport:exports n'est dfinie qu'une seule fois. T ous les
attributs ncessits par les ressources sont hrits de ressources parentes. Comme les attributs
hrits sont dynamiques (et ne rentrent pas en conflit les uns avec les autres), il est possible de
rutiliser ces ressources c'est pourquoi ils sont dfinit dans le bloc des ressources, mme si ce n'est
pas pratique pour la configuration de certaines ressources se trouvant dans de multiples
emplacements. Par exemple, la configuration d'une ressource de systme de fichiers dans de multiples
emplacements peut rsulter en le montage d'un systme de fichiers sur deux nuds, et ainsi provoquer
des problmes.

213

Red Hat Enterprise Linux 6 Administration de clusters

C.4 . Rcupration de dfaillance et sous-arbres indpendants


Dans la plupart des environnements d'entreprise, le droulement habituel de la rcupration d'un
service aprs une dfaillance est d'effectuer un redmarrage complet du service si l'un des composants
du service choue. Par exemple, dans Exemple C.6, Rcupration normale aprs dfaillance du
service foo , si l'un des scripts dfini dans ce service choue, le droulement habituel est de
redmarrer (ou de transfrer ou dsactiver, selon la politique de restauration du service) le service.
Cependant, sous certaines circonstances, des parties du services peuvent tre considres comme
non-critiques ; il peut se rvler ncessaire de ne redmarrer qu'une partie du service en place avant de
tenter une rcupration normale. Pour effectuer ceci, vous pouvez utiliser l'attribut
__independent_subtree. Par exemple, dans l'Exemple C.7, Rcupration aprs dfaillance du
service foo avec l'attribut __independent_subtree , l'attribut __independent_subtree est utilis
afin d'effectuer les actions suivantes :
Si script:script_one choue, redmarrez script:script_one, script:script_two, et script:script_three.
Si script:script_two choue, redmarrez script:script_two uniquement.
Si script:script_three choue, redmarrez restart script:script_one, script:script_two, et
script:script_three.
Si script:script_four choue, redmarrez la totalit du service.
Exemple C.6. Rcupration normale aprs dfaillance du service foo
<service name="foo">
<script name="script_one" ...>
<script name="script_two" .../>
</script>
<script name="script_three" .../>
</service>

Exemple C.7. Rcupration aprs dfaillance du service foo avec l'attribut


__independent_subtree
<service name="foo">
<script name="script_one" __independent_subtree="1" ...>
<script name="script_two" __independent_subtree="1" .../>
<script name="script_three" .../>
</script>
<script name="script_four" .../>
</service>

Dans certaines circonstances, si le composant d'un service choue, vous devriez dsactiver ce
composant uniquement, sans dsactiver le service entier afin d'viter que d'autres services utilisant
d'autres composants de ce service soient affects. partir de Red Hat Enterprise Linux 6.1, ceci peut
tre accompli en utilisant l'attribut __independent_subtree="2", qui dsigne le sous-arbre
indpendant comme tant non-critique.

Note
Vous pouvez utiliser l'indicateur non-critique sur les ressources rfrence unique uniquement.
L'indicateur non-critique fonctionne avec toutes les ressources tous les niveaux de
l'arborescence des ressources, mais ne devrait pas tre utilis au niveau le plus haut lors de la
dfinition des services ou des machines virtuelles.
partir de la version 6.1 de Red Hat Enterprise Linux, vous pouvez dfinir maximum restart et les
expirations restart sur une base par nud dans l'arborescence des ressources des sous-arbres

214

Vrification des ressources de service de cluster et dlai de basculement

expirations restart sur une base par nud dans l'arborescence des ressources des sous-arbres
indpendants. Pour dfinir ces limites, vous pouvez utiliser les attributs suivants :
__m ax_restarts configure le nombre maximum de redmarrages tolrs avant d'abandonner.
__restart_expire_tim e configure le temps, en secondes, partir duquel un redmarrage n'est
plus tent.

C.5. Dbogage et testage des services et de l'ordre des ressources


Vous pouvez dboguer et tester l'ordre des services et des ressources avec l'utilitaire rg_test.
rg_test est un utilitaire en ligne de commande fourni par le paquetage rgm anager qui est excut
depuis un shell ou un terminal (il n'est pas disponible sous Conga). Le T ableau C.2, Rsum de
l'utilitaire rg_test rsume les actions et la syntaxe de l'utilitaire rg_test.

215

Red Hat Enterprise Linux 6 Administration de clusters

T ableau C.2. Rsum de l'utilitaire rg_test


Action

Syntaxe

Afficher les
rgles des
ressources
que
rg_test
comprend.

rg_test rules

T ester une
configuratio
n (et
/usr/share/c
luster) pour
des erreurs
ou des
agents de
ressources
redondants.

rg_test test /etc/cluster/cluster.conf

Afficher
l'ordre de
dmarrage
et d'arrt
d'un
service.

Afficher l'ordre de dmarrage :

Dmarrer
ou arrter
un service
de manire
explicite.

rg_test noop /etc/cluster/cluster.conf start service servicename


Afficher l'ordre d'arrt :
rg_test noop /etc/cluster/cluster.conf stop service servicename

Important
Effectuez cela sur un seul nud, et dsactivez le service dans rgmanager en
premier chaque fois.
Dmarrer un service :
rg_test test /etc/cluster/cluster.conf start service servicename
Arrter un service :
rg_test test /etc/cluster/cluster.conf stop service servicename

Calculer et
afficher le
delta de
l'arboresce
nce des
ressources
entre deux
fichiers
cluster.conf.

216

rg_test delta

cluster.conf file 1

cluster.conf file 2

Par exemple :
rg_test delta /etc/cluster/cluster.conf.bak
/etc/cluster/cluster.conf

Rsum des outils de la ligne de commande

Vrification des ressources de service de cluster et dlai de


basculement
Cet annexe dcrit comment rgm anager surveille le statut des ressources de cluster et comment
modifier l'intervalle de vrification de statut. L'annexe dcrit aussi le paramtre du service
__enforce_tim eouts, qui indique si un dlai pour une opration provoque l'chec d'un service.

Note
Pour mieux comprendre les informations prsentes dans cet annexe, vous aurez besoin d'une
bonne comprhension des agents de ressources et du fichier de configuration du cluster,
/etc/cluster/cluster.conf. Pour obtenir la liste et la description complte des lments et
attributs cluster.conf, reportez-vous au schma des clusters sur
/usr/share/cluster/cluster.rng, et au schma annot sur /usr/share/doc/cm anX.Y.ZZ/cluster_conf.htm l (par exemple, /usr/share/doc/cm an3.0.12/cluster_conf.htm l).

D.1. Modifier l'intervalle de vrification du statut des ressources


rgm anager vrifie le statut des ressources individuelles, pas des services entiers. T outes les 10
secondes, rgmanager scanne l'arborescence des ressources, cherchant des ressources ayant pass
leur intervalle de vrification de statut .
Chaque agent de ressources spcifie l'intervalle de temps entre les vrifications priodiques de statut.
Chaque ressource utilise ces valeurs d'intervalles sauf si explicitement supprimes dans le fichier
cluster.conf avec la balise spciale <action> :\t
<cm an two_node="1" expected_votes="1"/>
Cette balise est un enfant spcial de la ressource elle-mme dans le fichier cluster.conf. Par
exemple, si vous possdez une ressource de systme de fichier sur laquelle vous souhaiteriez
supprimer l'intervalle de vrification de statut, vous pouvez spcifier la ressource du systme de fichier
dans le fichier cluster.conf comme suit :

<fs name="test" device="/dev/sdb3">


<action name="status" depth="*" interval="10" />
<nfsexport...>
</nfsexport>
</fs>

Certains agents fournissent de multiples profondeurs de vrification. Par exemple, une vrification
de statut de systme de fichiers normal (profondeur 0) vrifie si le systme de fichiers est mont sur le
bon emplacement. Une vrification plus intensive aura une profondeur de 10, et vrifiera si vous pouvez
lire un fichier depuis le systme de fichiers. Une vrification de profondeur 20 vrifiera si vous pouvez
crire sur le systme de fichiers. Dans l'exemple donn ici, la profondeur est dfinie sur * , indiquant
ainsi que ces valeurs devraient tre utilises pour toutes les profondeurs. Le rsultat est que le
systme de fichiers test est vrifi la plus grande profondeur offerte par l'agent de ressources (dans
ce cas, 20) toutes les 10 secondes.

D.2. Appliquer les dlais des ressources


Il n'y a pas de dlai pour dmarrer, arrter, ou faire basculer des ressources. Certaines ressources
prennent un temps de dure indtermine pour dmarrer ou pour s'arrter. Malheureusement, l'chec
d'un arrt (y compris un dlai) rend le service inoprable (tat d'chec). Vous pouvez, si vous le

217

Red Hat Enterprise Linux 6 Administration de clusters

souhaitez, activer l'application de dlais sur chaque ressource dans un service de manire individuelle
en ajoutant __enforce_tim eouts="1" la rfrence dans le fichier cluster.conf.
L'exemple suivant affiche un service de cluster ayant t configur avec l'attribut
__enforce_tim eouts dfinit pour la ressource netfs. Avec cet attribut dfini, si plus de 30
secondes sont ncessaires pour dmonter le systme de fichiers NFS pendant un processus de
rcupration, l'opration expirera, mettant par la mme occasion le service en tat d'chec.

</screen>
<rm>
<failoverdomains/>
<resources>
<netfs export="/nfstest" force_unmount="1" fstype="nfs" host="10.65.48.65"
mountpoint="/data/nfstest" name="nfstest_data" options="rw,sync,soft"/>
</resources>
<service autostart="1" exclusive="0" name="nfs_client_test" recovery="relocate">
<netfs ref="nfstest_data" __enforce_timeouts="1"/>
</service>
</rm>

218

LVM haute disponibilit (HA-LVM)

Rsum des outils de la ligne de commande


T ableau E.1, Rsum des outils de la ligne de commande rsume les outils en ligne de commande
prfrs pour la configuration et la gestion du composant additionnel High Availability. Pour obtenir plus
d'informations sur les commandes et les variables, reportez-vous la page man de chaque outil de
ligne de commande.

219

Red Hat Enterprise Linux 6 Administration de clusters

T ableau E.1. Rsum des outils de la ligne de commande


Outil de la ligne de
commande

Utilis avec

But

ccs_config_dum p Outil de
vidage de configuration de
cluster

Infrastructure du
cluster

ccs_config_dum p gnre une sortie


XML de la configuration en cours
d'excution. La configuration en cours
d'excution est parfois diffrente de la
configuration stocke sur fichier car
certains sous-systmes stockent ou
paramtrent des informations par dfaut
dans la configuration. Ces valeurs ne sont
gnralement pas prsentes sur la
version sur disque de la configuration,
mais sont requises lors de l'excution
pour que le cluster puisse fonctionner
correctement. Pour plus d'informations sur
cet outil, reportez-vous la page man
ccs_config_dump(8).

ccs_config_validate
Outil de validation de la
configuration du cluster

Infrastructure du
cluster

ccs_config_validate valide
cluster.conf sur le schma,
cluster.rng (qui se trouve dans
/usr/share/cluster/cluster.rng)
sur chaque nud. Pour plus
d'informations sur cet outil, reportez-vous
la page man ccs_config_validate(8).

clustat Utilitaire de statut


du cluster

Composants de
gestion du service
High-availability

La commande clustat affiche le statut


du cluster. Elle affiche les informations
d'abonnement, une vue du quorum, ainsi
que l'tat de tous les services utilisateur
configurs. Pour plus d'informations sur
cet outil, reportez-vous la page man
clustat(8).

clusvcadm Utilitaire
d'administration du service
utilisateur du cluster

Composants de
gestion du service
High-availability

La commande clusvcadm vous permet


d'activer, de dsactiver, de transfrer, et
de redmarrer les services highavailability dans un cluster. Pour plus
d'informations sur cet outil, reportez-vous
la page man clusvcadm(8).

cm an_tool Outil de gestion


du cluster

Infrastructure du
cluster

cm an_tool est un programme qui gre le


gestionnaire de clusters CMAN. Il offre la
possibilit de rejoindre un cluster, de le
quitter, de tuer (kill) un nud, ou de
changer le nombre de votes d'un nud
pour atteindre le quorum dans un cluster.
Pour plus d'informations sur cet outil,
reportez-vous la page man
cman_tool(8).

fence_tool Outil Fence

Infrastructure du
cluster

fence_tool est un programme utilis


pour rejoindre et quitter le domaine Fence.
Pour plus d'informations sur cet outil,
reportez-vous la page man
fence_tool(8).

220

LVM haute disponibilit (HA-LVM)

LVM haute disponibilit (HA-LVM)


Le module complmentaire Red Hat High Availability fournit la prise en charge haute disponibilit des
volumes LVM (HA-LVM) dans une configuration de basculement. Celle-ci est diffrente des
configurations active/active qui sont actives par CLVM (gestionnaire de volumes logiques clusteriss),
qui est un ensemble d'extensions mises en cluster de LVM permettant un cluster d'ordinateurs de
grer leur stockage partag.
L'utilisation de CLVM ou de HA-LVM doit tre base sur les besoins des applications ou services
dploys.
Si les applications sont conscientes de l'existence du cluster et ont t paramtres pour tre
excutes simultanment sur de multiples machines la fois, alors CLVM devrait tre utilis. Plus
particulirement, si plus d'un nud de votre cluster requiert accs votre stockage, qui sera ensuite
partag travers les diffrents nuds actifs, alors vous devrez utiliser CLVM. CLVM permet un
utilisateur de configurer des volumes logiques sur un stockage partag en verrouillant l'accs au
stockage physique pendant qu'un volume est en cours de configuration et utilise les services de
verrouillage clusteriss pour grer le stockage partag. Pour obtenir des informations sur CLVM et
sur la configuration LVM en gnral, reportez-vous au document Administration LVM.
Si les applications fonctionnent de manire optimale dans des configurations actives/passives
(basculement) o seul un nud unique accdant au stockage est actif la fois, vous devriez utiliser
des agents LVM de haute disponibilit (HA-LVM).
La plupart des applications fonctionneront mieux sous une configuration active/passive car elles ne sont
pas conues ou optimises pour tre excutes simultanment avec d'autres instances. Choisir
d'excuter une application qui n'est pas consciente des clusters sur des volumes logiques clusteriss
peut provoquer une dgradation de la performance si le volume logique est mis en miroir. Ceci est d au
fait qu'il y a une surcharge de communications du ou des cluster(s) pour les volumes logiques dans ces
instances. Une application consciente du ou des cluster(s) doit tre en mesure de raliser des
amliorations de la performance au-del des pertes de performance offertes par les systmes de
fichiers du ou des cluster(s) et des volumes logiques reconnaissant le(s) cluster(s). Ceci est plus
facilement faisable pour certaines applications et charges de travail que pour d'autres. Dterminer quels
sont les pr-requis du cluster et si l'effort supplmentaire pour optimiser un cluster dans une
configuration active/active offrira des dividendes est la meilleure manire de choisir entre deux variantes
de LVM. La plupart des utilisateurs obtiendront les meilleurs rsultats de haute disponibilit en utilisant
HA-LVM.
HA-LVM et CLVM sont similaires dans le fait qu'ils empchent la corruption des mtadonnes LVM et de
ses volumes logiques, qui pourraient autrement se produire si de multiples machines taient autorises
effectuer des changements superposs. HA-LVM impose une restriction faisant qu'un volume logique
peut uniquement tre activ de manire exclusive ; c'est--dire qu'il ne peut tre actif que sur une seule
machine la fois. Ceci signifie que seules des implmentations locales (non-clusterises) de pilotes de
stockages sont utilises. viter une surcharge de coordination de cluster de cette manire permet
d'amliorer la performance. CLVM n'impose pas de telles restrictions - l'utilisateur est libre d'activer un
volume logique sur toutes les machines d'un cluster, ce qui pousse utiliser des pilotes de stockage
reconnaissant le cluster, permettant ainsi d'installer des systmes de fichiers et des applications
reconnaissant le cluster au-dessus de celui-ci.
HA-LVM peut tre paramtr afin d'utiliser l'une de deux mthodes pour raliser son mandat d'activation
de volume logique de manire exclusive.
La mthode prfre utilise CLVM, mais celle-ci active uniquement les volumes logiques de manire
exclusive. Cela prsente les avantages d'une installation plus facile et permet une meilleure
prvention des erreurs administratives (comme la suppression d'un volume logique en cours
d'utilisation). Pour utiliser CLVM, les logiciels des modules complmentaires High Availability et
Resilient Storage, y compris le dmon clvm d, doivent tre en cours d'excution.
La procdure pour configurer HA-LVM l'aide de cette mthode est dcrite dans la Section F.1,
Configurer le basculement HA-LVM avec CLVM (mthode prfre) .
La seconde mthode utilise le verrouillage de machine locale et des balises LVM. Cette mthode

221

Red Hat Enterprise Linux 6 Administration de clusters

La seconde mthode utilise le verrouillage de machine locale et des balises LVM. Cette mthode
prsente l'avantage de ne pas ncessiter de paquetages de cluster LVM ; elle requiert cependant
des tapes supplmentaires lors de son installation et n'empchera pas un administrateur de
supprimer par erreur un volume logique d'un nud du cluster lorsqu'il n'est pas actif. La procdure
pour configurer HA-LVM l'aide de cette mthode est dcrite dans la Section F.2, Configurer le
basculement HA-LVM avec le T agging (tiquetage) .

F.1. Configurer le basculement HA-LVM avec CLVM (mthode prfre)


Pour dfinir la basculement HA-LVM ( l'aide de la variante CLVM prfre), veuillez procder aux
tapes suivantes :
1. Assurez-vous que votre systme est configur pour prendre en charge CLVM, ce qui requiert :
Les modules complmentaires High Availability et Resilient Storage installs, y compris le
paquetage cm irror si les volumes logiques CLVM doivent tre mis en miroir.
Le paramtre locking_type dans la section globale du fichier /etc/lvm /lvm .conf doit
tre dfini sur la valeur 3 .
Les logiciels des modules complmentaires High Availability et Resilient Storage, y compris le
dmon clvm d, doivent tre en cours d'excution. Pour la mise en miroir CLVM, le service
cm irrord doit aussi tre lanc.
2. Crez le volume logique et le systme de fichiers l'aide des commandes standard de LVM et
des systmes de fichiers, comme dans l'exemple suivant.
# pvcreate /dev/sd[cde]1
# vgcreate -cy shared_vg /dev/sd[cde]1
# lvcreate -L 10G -n ha_lv shared_vg
# mkfs.ext4 /dev/shared_vg/ha_lv
# lvchange -an shared_vg/ha_lv

Pour obtenir des informations sur la cration de volumes logiques LVM, reportez-vous au
document Administration LVM.
3. Modifiez le fichier /etc/cluster/cluster.conf afin d'inclure le nouveau volume logique cr
en tant que ressource dans l'un de vos services. Alternativement, vous pouvez utiliser Conga ou
la commande ccs pour configurer LVM et les ressources du systme de fichiers du cluster. Cidessous figure une section exemple du gestionnaire de ressources du fichier
/etc/cluster/cluster.conf, qui configure un volume logique CLVM en tant que ressource
de cluster :

222

Historique des versions

<rm>
<failoverdomains>
<failoverdomain name="FD" ordered="1" restricted="0">
<failoverdomainnode name="neo-01" priority="1"/>
<failoverdomainnode name="neo-02" priority="2"/>
</failoverdomain>
</failoverdomains>
<resources>
<lvm name="lvm" vg_name="shared_vg" lv_name="ha-lv"/>
<fs name="FS" device="/dev/shared_vg/ha-lv" force_fsck="0"
force_unmount="1" fsid="64050" fstype="ext4" mountpoint="/mnt" options=""
self_fence="0"/>
</resources>
<service autostart="1" domain="FD" name="serv" recovery="relocate">
<lvm ref="lvm"/>
<fs ref="FS"/>
</service>
</rm>

F.2. Configurer le basculement HA-LVM avec le T agging (tiquetage)


Pour configurer le basculement HA-LVM en utilisant des balises dans le fichier /etc/lvm /lvm .conf,
veuillez procder aux tapes suivantes :
1. Assurez-vous que le paramtre locking_type dans la section globale du fichier
/etc/lvm /lvm .conf est bien dfini sur la valeur 1 .
2. Crez le volume logique et le systme de fichiers l'aide des commandes standard de LVM et
des systmes de fichiers, comme dans l'exemple suivant.
# pvcreate /dev/sd[cde]1
# vgcreate shared_vg /dev/sd[cde]1
# lvcreate -L 10G -n ha_lv shared_vg
# mkfs.ext4 /dev/shared_vg/ha_lv

Pour obtenir des informations sur la cration de volumes logiques LVM, reportez-vous au
document Administration LVM.
3. Modifiez le fichier /etc/cluster/cluster.conf afin d'inclure le nouveau volume logique cr
en tant que ressource dans l'un de vos services. Alternativement, vous pouvez utiliser Conga ou
la commande ccs pour configurer LVM et les ressources du systme de fichiers du cluster. Cidessous figure une section exemple du gestionnaire de ressources du fichier
/etc/cluster/cluster.conf, qui configure un volume logique CLVM en tant que ressource
de cluster :

223

Red Hat Enterprise Linux 6 Administration de clusters

<rm>
<failoverdomains>
<failoverdomain name="FD" ordered="1" restricted="0">
<failoverdomainnode name="neo-01" priority="1"/>
<failoverdomainnode name="neo-02" priority="2"/>
</failoverdomain>
</failoverdomains>
<resources>
<lvm name="lvm" vg_name="shared_vg" lv_name="ha_lv"/>
<fs name="FS" device="/dev/shared_vg/ha_lv" force_fsck="0"
force_unmount="1" fsid="64050" fstype="ext4" mountpoint="/mnt" options=""
self_fence="0"/>
</resources>
<service autostart="1" domain="FD" name="serv" recovery="relocate">
<lvm ref="lvm"/>
<fs ref="FS"/>
</service>
</rm>

Note
Si de multiples volumes logiques se trouvent dans le groupe de volumes, alors le nom du
volume logique (lv_nam e) dans la ressource lvm doit tre laiss vide ou non-spcifi.
Veuillez aussi remarquer que dans une configuration HA-LVM, un groupe de volumes peut
uniquement tre utilis par un seul service.
4. Modifiez le champ volum e_list dans le fichier /etc/lvm /lvm .conf. Veuillez inclure le nom
de votre groupe de volumes root et votre nom d'hte comme rpertori dans le fichier
/etc/cluster/cluster.conf et prcd du caractre @ . Le nom d'hte inclure ici est la
machine sur laquelle vous modifiez le fichier lvm .conf, et non un nom d'hte distant. Remarquez
que cette chane DOIT correspondre au nom du nud spcifi dans le fichier cluster.conf.
Ci-dessous figure un exemple d'entre du fichier /etc/lvm /lvm .conf :
volume_list = [ "VolGroup00", "@neo-01" ]

Cette balise sera utilise pour activer les VG (groupes de volumes) ou LV (volumes logiques)
partags. N'INCLUEZ PAS les noms des groupes de volumes devant tre partags l'aide de
HA-LVM.
5. Mettez jour le priphrique initrd sur tous les nuds de votre cluster :
# dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)

6. Redmarrez tous les nuds afin de vous assurer que le priphrique initrd correct est en
cours d'utilisation.

224

Historique des versions

Historique des versions


Version 5.0-25.2
Wed May 1 2013
Sam Friedmann
Fichiers de traduction synchroniss avec les sources XML 5.0-25
Version 5.0-25.1
T hu Apr 18 2013
Chester Cheng
Fichiers de traduction synchroniss avec les sources XML 5.0-25
Version 5.0-25
Mon Feb 18 2013
Version pour la distribution GA 6.4

Steven Levine

Version 5.0-23
Wed Jan 30 2013
Rsout : 901641
Corrige et clarifie les rgles iptables.

Steven Levine

Version 5.0-22
T ue Jan 29 2013
Rsout : 788636
Documente la configuration RRP travers la commande ccs.

Steven Levine

Rsout : 789010
Documente la configuration RRP dans le fichier cluster.conf.
Version 5.0-20
Fri Jan 18 2013
Steven Levine
Rsout : 894097
Supprime les conseils pour vous assurer que vous n'utilisez pas le balisage VLAN.
Rsout : 845365
Indique que les modes de liaisons 0 et 2 sont maintenant pris en charge.
Version 5.0-19
T hu Jan 17 2013
Rsout : 896234
Clarifie la terminologie des rfrences aux nuds de clusters.

Steven Levine

Version 5.0-16
Mon Nov 26 2012
Version pour la distribution 6.4 Bta

Steven Levine

Version 5.0-15
Wed Nov 20 2012
Steven Levine
Rsout : 838988
Documente l'attribut nfsrestart pour les agents de ressources de systmes de fichiers.
Rsout : 843169
Documente l'agent fence IBM iPDU.
Rsout : 846121
Documente l'agent fence du contrleur d'alimentation rseau Eaton (Interface SNMP).
Rsout : 856834
Documente l'agent fence HP Bladesystem.
Rsout : 865313
Documente l'agent de ressources du serveur NFS.
Rsout : 862281
Clarifie quelles commandes ccs remplacent les paramtres prcdents.

225

Red Hat Enterprise Linux 6 Administration de clusters

Rsout : 846205
Documente le filtrage du composant igm p du pare-feu iptables.
Rsout : 857172
Documente la capacit de supprimer des utilisateurs de luci.
Rsout : 857165
Documente le niveau de privilges de l'agent fence IPMI.
Rsout : 840912
Clarifie le problme du formatage avec le tableau des paramtres de ressources.
Rsout : 849240, 870292
Clarifie la procdure d'installation.
Rsout : 871165
Clarifie la description du paramtres d'adresse IP dans la description de l'agent de ressources de
l'adresse IP.
Rsout : 845333, 869039, 856681
Corrige des erreurs de typographie mineures et clarifie des ambigu ts techniques mineures.
Version 5.0-12
T hu Nov 1 2012
Ajout d'agents fence maintenant pris en charge.

Steven Levine

Version 5.0-7
T hu Oct 25 2012
Ajout d'une section sur les smantiques de remplacement.

Steven Levine

Version 5.0-6
T ue Oct 23 2012
Correction de la valeur par dfaut de Post Join Delay .

Steven Levine

Version 5.0-4
T ue Oct 16 2012
Ajout de la description de la ressource du serveur NFS.

Steven Levine

Version 5.0-2
T hu Oct 11 2012
Mises jour des descriptions de Conga.

Steven Levine

Version 5.0-1
Mon Oct 8 2012
Clarifications des smantiques de ccs

Steven Levine

Version 4 .0-5
Fri Jun 15 2012
Version pour la distribution GA 6.3

Steven Levine

Version 4 .0-4
T ue Jun 12 2012
Steven Levine
Rsout : 830148
Assure la consistance des exemples de numros de port pour Luci.
Version 4 .0-3
T ue May 21 2012
Steven Levine
Rsout : 696897
Ajoute des informations de paramtres cluster.conf aux tableaux de paramtres et de ressources de
priphriques fence.
Rsout : 811643

226

Index

Ajoute la procdure pour restaurer une base de donnes luci sur une machine spare.
Version 4 .0-2
Wed Apr 25 2012
Steven Levine
Rsout : 815619
Supprime l'avertissement sur l'utilisation de UDP Unicast (monodiffusion UDP) avec les systmes de
fichiers GFS2.
Version 4 .0-1
Fri Mar 30 2012
Steven Levine
Rsout : 771447, 800069, 800061
Mise jour de la documentation de luci pour qu'elle soit consistante avec la version 6.3 de Red Hat
Enterprise Linux.
Rsout : 712393
Ajoute des informations sur la capture d'un cur d'application pour RGManager.
Rsout : 800074
Documente l'agent de ressources condor.
Rsout : 757904
Documente la copie de sauvegarde et la restauration de la configuration de luci.
Rsout : 772374
Ajotue une section sur la gestion des machines virtuelles dans un cluster.
Rsout : 712378
Ajoute la documentation sur la configuration HA-LVM.
Rsout : 712400
Documente les options de dbogage.
Rsout : 751156
Documente le nouveau paramtre fence_ipm ilan.
Rsout : 721373
Documente les changements de configuration qui ncessitent un redmarrage du cluster.
Version 3.0-5
T hu Dec 1 2011
Steven Levine
Publication pour disponibilit gnrale de Red Hat Enterprise Linux 6.2
Rsout : 755849
Corrige l'exemple du paramtre monitor_link.
Version 3.0-4
Mon Nov 7 2011
Steven Levine
Rsout : 749857
Ajoute la documentation pour le priphrique fence RHEV-M REST API.
Version 3.0-3
Fri Oct 21 2011
Steven Levine
Rsout : #747181, #747182, #747184, #747185, #747186, #747187, #747188, #747189, #747190,
#747192
Corrige les erreurs typographiques et ambigu ts trouves pendant la rvision QE de la documentation
de Red Hat Enterprise Linux 6.2.
Version 3.0-2
Rsout : #743757

Fri Oct 7 2011

Steven Levine

227

Red Hat Enterprise Linux 6 Administration de clusters

Corrige la rfrence au mode de liaison pris en charge dans la section troubleshooting (rsolution de
problmes).
Version 3.0-1
Wed Sep 28 2011
Rvision initiale de Red Hat Enterprise Linux version 6.2 Beta

Steven Levine

Rsout : #739613
Documente la prise en charge des nouvelles options ccs pour afficher les priphriques fence et les
services disponibles.
Rsout : #707740
Documente les mises jour de l'interface Conga et la prise en charge de la dfinition des permissions
utilisateur pour administrer Conga.
Rsout : #731856
Documente le support de la configuration de luci par le biais du fichier /etc/sysconfig/luci.
Rsout : #736134
Documente la prise en charge du transport UDPU.
Rsout : #736143
Documente la prise en charge de Samba clusteris.
Rsout : #617634
Documente comment configurer l'unique adresse IP sur laquelle luci est servi.
Rsout : #713259
Documente la prise en charge de l'agent fence_vm ware_soap.
Rsout : #721009
Fournit un lien vers l'article Support Essentials (les essentiels du support)
Rsout : #717006
Fournit des informations sur l'autorisation du trafic de multidiffusion via le pare-feu iptables.
Rsout : #717008
Fournit des informations sur la vrification de statut de service cluster et sur le dlai de basculement.
Rsout : #711868
Clarifie la description d'autostart.
Rsout : #728337
Documente la procdure pour ajouter des ressources vm avec la commande ccs.
Rsout : #725315, #733011, #733074, #733689
Correction d'erreurs typographiques mineures.
Version 2.0-1
T hu May 19 2011
Rvision initiale de Red Hat Enterprise Linux 6.1
Rsout : #671250
Documente la prise en charge des interruptions SNMP.
Rsout : #659753

228

Steven Levine

Index

Documente la commande ccs.


Rsout : #665055
Met jour la documentation Conga pour reflter l'affichage mis jour et la prise en charge des
fonctionnalits.
Rsout : #680294
Documente le besoin de mot de passe d'accs pour l'agent ricci.
Rsout : #687871
Ajoute un chapitre sur la rsolution.
Rsout : #673217
Correction d'erreurs typographiques.
Rsout : #675805
Ajoute une rfrence sur le schma de cluster.conf aux tableaux des paramtres des ressources
HA.
Rsout : #672697
Met jour les tableaux des paramtres des priphriques fence pour inclure tous les priphriques de
clturage pris en charge.
Rsout : #677994
Corrige les informations sur les paramtres de l'agent fence fence_ilo.
Rsout : #629471
Ajoute une note technique sur le paramtrage d'une valeur de consensus dans un cluster deux
nuds.
Rsout : #579585
Met jour une section sur la mise niveau du logiciel du module complmentaire Red Hat High
Availability.
Rsout : #643216
Clarifie de petits problmes travers le document.
Rsout : #643191
Fournit des amliorations et des corrections sur la documentation de luci.
Rsout : #704539
Met jour le tableau des paramtres des ressources Virtual Machine.
Version 1.0-1
Wed Nov 10 2010
Publication initiale de Red Hat Enterprise Linux 6

Paul Kennedy

Index
A
ACPI
- configuration, Configurer l'ACPI pour une utilisation avec des priphriques fence intgrs

administration de cluster

229

Red Hat Enterprise Linux 6 Administration de clusters

- considrations pour ricci, Considrations pour ricci

administration de clusters, Avant de configurer le module complmentaire Red Hat High


Availability (Haute Disponibilit), Configurer le pare-feu iptables pour autoriser des
composants de clusters, Grer le module complmentaire Red Hat High Availability avec
Conga, Grer le module complmentaire Red Hat High Availability avec ccs, Grer le
module complmentaire Red Hat High Availability avec des outils de ligne de commande
- activation des ports IP, Activation des ports IP
- afficher les services HA avec clustat, Afficher l'tat du service HA avec clustat
- ajouter un nud de cluster, Ajouter un membre un cluster en cours d'excution, Ajouter
un membre un cluster en cours d'excution
- arrter un cluster, Dmarrer, arrter, redmarrer et supprimer des clusters, Dmarrer et
arrter un cluster
- commutateurs rseau et adresses de multidiffusion, Adresses de multidiffusion
- configuration ACPI, Configurer l'ACPI pour une utilisation avec des priphriques fence
intgrs
- configuration de iptables, Activation des ports IP
- considrations pour utiliser le disque quorum, Considrations pour utiliser le disque
Quorum
- considrations pour utiliserqdisk, Considrations pour utiliser le disque Quorum
- dmarrer un cluster, Dmarrer, arrter, redmarrer et supprimer des clusters, Dmarrer et
arrter un cluster
- dmarrer, arrter, redmarrer un cluster, Dmarrer et arrter le logiciel du cluster
- diagnostiquer et corriger des problmes dans un cluster, Diagnostiquer et corriger des
problmes dans un cluster, Diagnostiquer et corriger des problmes dans un cluster
- grer les services high-availability, Grer les services High-Availability, Grer les services
High-Availability
- grer les services high-availability, freeze et unfreeze, Grer les services HA avec
clusvcadm, Considrations pour l'utilisation des oprations Freeze et Unfreeze
- grer un nud de cluster, Grer les nuds de clusters, Grer les nuds de clusters
- machines virtuelles, Configurer des machines virtuelles dans un environnement clusteris
- matriel compatible, Matriel compatible
- mettre jour la configuration, Mettre jour une configuration
- mettre jour la configuration d'un cluster l'aide de cman_tool version -r, Mettre jour
une configuration l'aide de cman_tool version -r
- mettre jour la configuration d'un cluster l'aide de scp, Mettre jour une configuration
l'aide de scp
- mise jour, Mettre jour une configuration
- NetworkManager, Considrations pour NetworkManager
- quitter un cluster, Causer un nud de joindre ou quitter un cluster, Causer un nud
de joindre ou quitter un cluster
- redmarrer un cluster, Dmarrer, arrter, redmarrer et supprimer des clusters
- redmarrer un nud de cluster, Redmarrer un nud de cluster
- rejoindre un cluster, Causer un nud de joindre ou quitter un cluster, Causer un
nud de joindre ou quitter un cluster
- SELinux, Module complmentaire Red Hat High Availability et SELinux
- supprimer un cluster, Dmarrer, arrter, redmarrer et supprimer des clusters
- supprimer un nud de cluster, Supprimer un membre d'un cluster
- supprimer un nud de la configuration ; ajouter un nud la configuration , Ajouter ou
supprimer un nud
- validation de la configuration, Validation de la configuration

administration des clusters


- considrations gnrales, Considrations pour une configuration gnrale

230

Index

adresses de multidiffusion
- considrations pour une utilisation avec des commutateurs rseau et des adresses de
multidiffusion, Adresses de multidiffusion

agent fence
- Commutateur d'alimentation rseau Eaton, Paramtres des priphriques fence
- fence_apc, Paramtres des priphriques fence
- fence_apc_snmp, Paramtres des priphriques fence
- fence_bladecenter, Paramtres des priphriques fence
- fence_brocade, Paramtres des priphriques fence
- fence_cisco_mds, Paramtres des priphriques fence
- fence_cisco_ucs, Paramtres des priphriques fence
- fence_drac5, Paramtres des priphriques fence
- fence_eaton_snmp, Paramtres des priphriques fence
- fence_egenera, Paramtres des priphriques fence
- fence_eps, Paramtres des priphriques fence
- fence_hpblade, Paramtres des priphriques fence
- fence_ibmblade, Paramtres des priphriques fence
- fence_ifmib, Paramtres des priphriques fence
- fence_ilo, Paramtres des priphriques fence
- fence_ilo_mp, Paramtres des priphriques fence
- fence_intelmodular, Paramtres des priphriques fence
- fence_ipdu, Paramtres des priphriques fence
- fence_ipmilan, Paramtres des priphriques fence
- fence_rhevm, Paramtres des priphriques fence
- fence_rsb, Paramtres des priphriques fence
- fence_scsi, Paramtres des priphriques fence
- fence_virt, Paramtres des priphriques fence
- fence_vmware_soap, Paramtres des priphriques fence
- fence_wti, Paramtres des priphriques fence

agent fence fence_apc, Paramtres des priphriques fence


agent fence fence_bladecenter, Paramtres des priphriques fence
agent fence fence_cisco_ucs, Paramtres des priphriques fence
agent fence fence_drac5, Paramtres des priphriques fence
agent fence fence_eaton_snmp, Paramtres des priphriques fence
agent fence fence_egenera, Paramtres des priphriques fence
agent fence fence_eps, Paramtres des priphriques fence
agent fence fence_hpblade, Paramtres des priphriques fence
agent fence fence_ibmblade, Paramtres des priphriques fence
agent fence fence_ifmib, Paramtres des priphriques fence
agent fence fence_ilo, Paramtres des priphriques fence
agent fence fence_ilo_mp, Paramtres des priphriques fence
agent fence fence_intelmodular, Paramtres des priphriques fence
agent fence fence_ipdu, Paramtres des priphriques fence
agent fence fence_ipmilan, Paramtres des priphriques fence
agent fence fence_rhevm, Paramtres des priphriques fence
agent fence fence_rsb, Paramtres des priphriques fence
agent fence fence_scsi, Paramtres des priphriques fence

231

Red Hat Enterprise Linux 6 Administration de clusters

agent fence fence_virt, Paramtres des priphriques fence


agent fence fence_vmware_soap, Paramtres des priphriques fence
agent fence fence_wti, Paramtres des priphriques fence

B
balise totem
- valeur du consensus, La valeur du consensus pour totem dans un cluster deux nuds

C
cluster
- administration, Avant de configurer le module complmentaire Red Hat High Availability
(Haute Disponibilit), Grer le module complmentaire Red Hat High Availability avec
Conga, Grer le module complmentaire Red Hat High Availability avec ccs, Grer le
module complmentaire Red Hat High Availability avec des outils de ligne de commande
- dmarrer, arrter, redmarrer, Dmarrer et arrter le logiciel du cluster
- diagnostiquer et corriger des problmes, Diagnostiquer et corriger des problmes dans
un cluster, Diagnostiquer et corriger des problmes dans un cluster

commentaires, Commentaires, Configurer le pare-feu iptables pour autoriser des


composants de clusters
Commutateur d'alimentation rseau Eaton, Paramtres des priphriques fence
comportement, ressources HA, Comportement des ressources HA
configuration
- service HA, Considrations pour la configuration des services HA

configuration de clusters, Configurer le module complmentaire Red Hat High


Availability avec Conga, Configurer le module complmentaire Red Hat High Availability
avec des outils de ligne de commande
- ajouter ou supprimer un nud, Ajouter ou supprimer un nud

configuration du cluster, Configurer le module complmentaire Red Hat High Availability


avec la commande ccs
configuration du service HA
- aperu, Considrations pour la configuration des services HA

Configurer LVM haute disponibilit, LVM haute disponibilit (HA-LVM)


Conga
- accder, Configurer le logiciel du module complmentaire Red Hat High Availability

D
disque quorum
- considrations pour utiliser, Considrations pour utiliser le disque Quorum

F
232

Index

fence_apc_snmp fence agent, Paramtres des priphriques fence


fence_brocade fence agent, Paramtres des priphriques fence
fence_cisco_mds fence agent, Paramtres des priphriques fence
fencing SCSI, Paramtres des priphriques fence
fonctionnalits nouvelles et modifies, Nouvelles fonctionnalits et fonctionnalits
modifies

G
gnrales
- considrations pour l'administration des clusters, Considrations pour une configuration
gnrale

gestionnaires de services cluster


- configuration, Ajouter un service cluster un cluster

gestionnaires des services de clusters


- configuration, Ajouter un service cluster un cluster, Ajouter un service cluster un
cluster

I
Interrupteur Brocade Fabric de priphrique fence, Paramtres des priphriques fence
Interrupteur d'alimentation APC sur priphrique fence SNMP, Paramtres des
priphriques fence
Interrupteur d'alimentation APC sur priphrique fence telnet/SSH, Paramtres des
priphriques fence
introduction, Introduction, Vrification des ressources de service de cluster et dlai de
basculement
- autres documents Red Hat Enterprise Linux, Introduction

iptables
- configuration, Activation des ports IP

L
logiciel du cluster
- configuration, Configurer le module complmentaire Red Hat High Availability avec Conga,
Configurer le module complmentaire Red Hat High Availability avec la commande ccs,
Configurer le module complmentaire Red Hat High Availability avec des outils de ligne de
commande

LVM, haute disponibilit, LVM haute disponibilit (HA-LVM)

M
machines virtuelles, dans un cluster, Configurer des machines virtuelles dans un
environnement clusteris
matriel

233

Red Hat Enterprise Linux 6 Administration de clusters

- compatible, Matriel compatible

N
NetworkManager
- dsactiver pour une utilisation avec clusters, Considrations pour NetworkManager

O
outils, ligne de commande, Rsum des outils de la ligne de commande

P
paramtres, priphrique fence, Paramtres des priphriques fence
paramtres, ressources HA, Paramtres des ressources HA
priphrique fence
- Cisco MDS, Paramtres des priphriques fence
- Cisco UCS, Paramtres des priphriques fence
- Contrleur SAN Egenera, Paramtres des priphriques fence
- Dell DRAC 5, Paramtres des priphriques fence
- ePowerSwitch, Paramtres des priphriques fence
- Fence virt, Paramtres des priphriques fence
- fencing SCSI, Paramtres des priphriques fence
- HP BladeSystem, Paramtres des priphriques fence
- HP iLO MP, Paramtres des priphriques fence
- HP iLO/iLO2, Paramtres des priphriques fence
- IBM BladeCenter, Paramtres des priphriques fence
- IBM BladeCenter SNMP, Paramtres des priphriques fence
- IBM iPDU, Paramtres des priphriques fence
- IF MIB, Paramtres des priphriques fence
- Intel Modular, Paramtres des priphriques fence
- Interrupteur Brocade fabric, Paramtres des priphriques fence
- Interrupteur d'alimentation APC sur SNMP, Paramtres des priphriques fence
- Interrupteur d'alimentation APC sur telnet/SSH, Paramtres des priphriques fence
- interrupteur d'alimentation WT I, Paramtres des priphriques fence
- IPMI LAN, Paramtres des priphriques fence
- RHEV-M REST API, Paramtres des priphriques fence
- RSB (Remoteview Service Board) Fujitsu Siemens, Paramtres des priphriques fence
- VMware (interface SOAP), Paramtres des priphriques fence

Priphrique fence CISCO MDS, Paramtres des priphriques fence


Priphrique fence Cisco UCS, Paramtres des priphriques fence
priphrique fence de l'interrupteur d'alimentation WT I, Paramtres des priphriques
fence
Priphrique fence Dell DRAC 5, Paramtres des priphriques fence
Priphrique fence du contrleur SAN Egenera , Paramtres des priphriques fence
Priphrique fence du RSB (Remoteview Service Board) Fujitsu Siemens, Paramtres
des priphriques fence
priphrique fence ePowerSwitch, Paramtres des priphriques fence
priphrique fence Fence virt, Paramtres des priphriques fence
Priphrique fence HP Bladesystem, Paramtres des priphriques fence

234

Index

priphrique fence HP iLO MP, Paramtres des priphriques fence


priphrique fence HP iLO/iLO2, Paramtres des priphriques fence
priphrique fence IBM BladeCenter, Paramtres des priphriques fence
priphrique fence IBM BladeCenter SNMP, Paramtres des priphriques fence
priphrique fence IBM iPDU, Paramtres des priphriques fence
Priphrique fence IF MIB, Paramtres des priphriques fence
priphrique fence Inter Modular, Paramtres des priphriques fence
priphrique fence IPMI LAN, Paramtres des priphriques fence
priphrique fence RHEV-M REST API, Paramtres des priphriques fence
priphrique fence VMware (interface SOAP) , Paramtres des priphriques fence
priphriques fence intgrs
- configuration ACPI, Configurer l'ACPI pour une utilisation avec des priphriques fence
intgrs

ports IP
- activation, Activation des ports IP

Q
qdisk
- considrations pour utiliser, Considrations pour utiliser le disque Quorum

R
relations
- ressource du cluster, Relations entre parents, enfants, et enfants de mmes parents
parmi les ressources

relations entre ressources du cluster, Relations entre parents, enfants, et enfants de


mmes parents parmi les ressources
rsolution de problmes
- diagnostiquer et corriger des problmes dans un cluster, Diagnostiquer et corriger des
problmes dans un cluster, Diagnostiquer et corriger des problmes dans un cluster

ricci
- considrations pour l'administration de clusters, Considrations pour ricci

S
SELinux
- configurer, Module complmentaire Red Hat High Availability et SELinux

services cluster, Ajouter un service cluster un cluster, Ajouter un service cluster un


cluster, Ajouter un service cluster un cluster
- (voir aussi ajout la configuration du cluster)

235

Red Hat Enterprise Linux 6 Administration de clusters

T
tableaux
- priphriques fence, paramtres, Paramtres des priphriques fence
- ressources HA, paramtres, Paramtres des ressources HA

types
- ressources du cluster, Considrations pour la configuration des services HA

types de ressources du cluster, Considrations pour la configuration des services HA,


Vrification des ressources de service de cluster et dlai de basculement

V
valeur du consensus, La valeur du consensus pour totem dans un cluster deux nuds
validation
- configuration du cluster, Validation de la configuration

vue d'ensemble
- fonctionnalits, nouvelles et modifies, Nouvelles fonctionnalits et fonctionnalits
modifies

236

Вам также может понравиться