Академический Документы
Профессиональный Документы
Культура Документы
Administration de clusters
Configurer et grer le module complmentaire High Availability
Note lgale
Copyright 2013 Red Hat, Inc. and others. The text of and illustrations in this document are licensed by
Red Hat under a Creative Commons AttributionShare Alike 3.0 Unported license ("CC-BY-SA"). An
explanation of CC-BY-SA is available at . In accordance with CC-BY-SA, if you distribute this document or
an adaptation of it, you must provide the URL for the original version. Red Hat, as the licensor of this
document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest
extent permitted by applicable law. Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss,
MetaMatrix, Fedora, the Infinity Logo, and RHCE are trademarks of Red Hat, Inc., registered in the United
States and other countries. Linux is the registered trademark of Linus Torvalds in the United States and
other countries. Java is a registered trademark of Oracle and/or its affiliates. XFS is a trademark of
Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries. MySQL
is a registered trademark of MySQL AB in the United States, the European Union and other countries. All
other trademarks are the property of their respective owners. 1801 Varsity Drive Raleigh, NC 27 606207 2 USA Phone: +1 919 7 54 37 00 Phone: 888 7 33 4281 Fax: +1 919 7 54 37 01
Mots-cls
Rsum
Configurer et grer le module complmentaire High Availability dcrit la configuration et la gestion du
module complmentaire High Availability sur Red Hat Enterprise Linux 6.
8
8
8
10
11
11
Hat
13
13
13
14
15
15
16
16
17
.Mise
. . . . .. .niveau
. . . . . . .du
. . . logiciel
. . . . . . . .du
. . . module
. . . . . . . . complmentaire
. . . . . . . . . . . . . . . . . Red
. . . . .Hat
. . . .High
. . . . .Availability
............
1.5. Configurer le logiciel du module complmentaire Red Hat High Availability
18
18
.Chapitre
. . . . . . . . .2.
. . Avant
. . . . . . .de
. . . configurer
. . . . . . . . . . . le
. . .module
. . . . . . . .complmentaire
. . . . . . . . . . . . . . . . .Red
. . . . Hat
. . . . High
. . . . . .Availability
.....
(Haute Disponibilit)
2.1. Considrations pour une configuration gnrale
2.2. Matriel compatible
2.3. Activation des ports IP
2.3.1. Activation des ports IP sur des nuds de clusters
2.3.2. Activer le port IP pour luci
2.3.3. Configurer le pare-feu iptables pour autoriser des composants de clusters
2.4. Configurer luci avec /etc/sysconfig/luci
2.5. Configurer l'ACPI pour une utilisation avec des priphriques fence intgrs
2.5.1. Dsactivation de l'ACPI Soft-Off avec la gestion chkconfig
2.5.2. Dsactivation de l'ACPI Soft-Off avec le BIOS
2.5.3. Compltement dsactiver ACPI dans le fichier grub.conf
2.6. Considrations pour la configuration des services HA
2.7. Validation de la configuration
2.8. Considrations pour NetworkManager
2.9. Considrations pour utiliser le disque Quorum
2.10. Module complmentaire Red Hat High Availability et SELinux
2.11. Adresses de multidiffusion
2.12. T rafic de monodiffusion UDP
2.13. Considrations pour ricci
2.14. Configurer des machines virtuelles dans un environnement clusteris
19
19
21
21
21
21
22
23
23
25
25
26
27
29
32
32
34
34
34
34
35
.Chapitre
. . . . . . . . .3.
. . Configurer
. . . . . . . . . . . .le
. . module
. . . . . . . . complmentaire
. . . . . . . . . . . . . . . . . Red
. . . . .Hat
. . . .High
. . . . . Availability
. . . . . . . . . . . .avec
. . . Conga
36
3.1. T ches de configuration
36
3.2. Dmarrage de luci
37
3.3. Contrler l'accs luci
38
3.4. Crer un cluster
39
3.5. Proprits globales du cluster
42
3.5.1. Configurer les proprits gnrales
42
43
43
44
44
45
46
47
47
47
48
48
49
49
51
52
53
54
54
55
.Chapitre
. . . . . . . . .4. . .Grer
. . . . . . le
. . .module
. . . . . . . .complmentaire
. . . . . . . . . . . . . . . . .Red
. . . . Hat
. . . . High
. . . . . Availability
. . . . . . . . . . . . avec
. . . . . .Conga
..
4.1. Ajouter un cluster existante l'interface luci
58
4.2. Supprimer un cluster de l'interface luci
58
4.3. Grer les nuds de clusters
58
4.3.1. Redmarrer un nud de cluster
59
4.3.2. Causer un nud de joindre ou quitter un cluster
59
4.3.3. Ajouter un membre un cluster en cours d'excution
60
4.3.4. Supprimer un membre d'un cluster
60
4.4. Dmarrer, arrter, redmarrer et supprimer des clusters
61
4.5. Grer les services High-Availability
62
4.6. Effectuer une copie de sauvegarde et restaurer une configuration Luci
62
.Chapitre
. . . . . . . . .5.
. . Configurer
. . . . . . . . . . . .le
. . module
. . . . . . . . complmentaire
. . . . . . . . . . . . . . . . . Red
. . . . .Hat
. . . . High
. . . . . Availability
. . . . . . . . . . . . avec
. . . la
commande ccs
5.1. Aperu oprationnel
5.1.1. Crer le fichier de configuration du cluster sur un systme local
5.1.2. Afficher la configuration actuelle du cluster
5.1.3. Spcifier les mots de passe ricci avec la commande css
5.1.4. Modifier les composants de la configuration du cluster
5.1.5. Commandes remplaant les paramtres prcdents
5.1.6. Validation de la configuration
5.2. T ches de configuration
5.3. Dmarrage de ricci
5.4. Crer un cluster
5.5. Configuration des priphriques fence
5.6. Rpertorier les priphriques fence et les options de priphriques fence
5.7. Configuration du fencing pour les membres du cluster
5.7.1. Configurer un priphrique fence unique bas sur l'alimentation pour un nud
5.7.2. Configurer un priphrique fence unique bas sur stockage pour un nud
5.7.3. Configurer un priphrique fence de sauvegarde
5.7.4. Configurer un nud avec une alimentation redondante
5.7.5. Supprimer les mthodes et instances fence
5.8. Configurer un domaine de basculement
5.9. Configurer les ressources globales du cluster
5.10. Ajouter un service cluster un cluster
5.11. Rpertorier les services cluster disponibles
58
65
65
66
66
66
67
67
68
68
68
69
70
72
74
74
76
78
82
84
85
87
87
89
91
92
93
94
94
95
95
96
97
98
98
98
98
98
99
.Chapitre
. . . . . . . . .7.
. . Configurer
. . . . . . . . . . . .le
. . module
. . . . . . . . complmentaire
. . . . . . . . . . . . . . . . . Red
. . . . .Hat
. . . . High
. . . . . Availability
. . . . . . . . . . . . avec
. . . des outils
de ligne de commande
100
7.1. T ches de configuration
101
7.2. Cration d'un fichier de configuration de cluster de base
101
. . . . . . . . . . .de
Exemples
. . .configurations
. . . . . . . . . . . . . . . de
. . . .base
...............................................
103
.La
. . .valeur
. . . . . . .du
. . .consensus
. . . . . . . . . . . pour
. . . . . .totem
. . . . . . dans
. . . . . .un
. . .cluster
. . . . . . . .. deux
. . . . . .nuds
...................
7.3. Configurer le fencing
104
105
.Exemples
. . . . . . . . . .de
. . .configurations
. . . . . . . . . . . . . . . du
. . . .fencing
...............................................
7.4. Configurer les domaines de basculement
7.5. Configurer les services HA
7.5.1. Ajouter des ressources cluster
7.5.2. Ajouter un service cluster un cluster
7.6. Configurer le protocole d'anneau redondant ( Redundant Ring )
7.7. Configurer les options de dbogage
7.8. Vrifier une configuration
106
111
114
115
117
122
123
123
.Chapitre
. . . . . . . . .8.
. . Grer
. . . . . . .le
. . module
. . . . . . . . complmentaire
. . . . . . . . . . . . . . . . . Red
. . . . .Hat
. . . . High
. . . . . Availability
. . . . . . . . . . . . avec
. . . . . .des
. . outils de
ligne de commande
126
8.1. Dmarrer et arrter le logiciel du cluster
126
8.1.1. Dmarrer un logiciel de cluster
126
8.1.2. Arrter un logiciel de cluster
127
8.2. Ajouter ou supprimer un nud
128
8.2.1. Supprimer un nud d'un cluster
128
8.2.2. Ajouter un nud un cluster
131
8.2.3. Exemples de configurations deux nuds et trois nuds
134
8.3. Grer les services High-Availability
137
8.3.1. Afficher l'tat du service HA avec clustat
138
8.3.2. Grer les services HA avec clusvcadm
139
.Considrations
. . . . . . . . . . . . . . . .pour
. . . . .l'utilisation
. . . . . . . . . . . .des
. . . . oprations
. . . . . . . . . . . .Freeze
. . . . . . . .et
. . Unfreeze
....................
8.4. Mettre jour une configuration
8.4.1. Mettre jour une configuration l'aide de cman_tool version -r
8.4.2. Mettre jour une configuration l'aide de scp
14 1
141
141
143
.Chapitre
. . . . . . . . .9.
. . Diagnostiquer
. . . . . . . . . . . . . . . .et
. . corriger
. . . . . . . . .des
. . . . problmes
. . . . . . . . . . . .dans
. . . . . un
. . . cluster
.................
9.1. Les changements de configuration ne prennent pas effet
9.2. Le cluster ne se forme pas
14 6
146
147
153
153
153
154
154
.Chapitre
. . . . . . . . .11.
. . . .Configuration
. . . . . . . . . . . . . . de
. . . .Samba
. . . . . . . en
. . . cluster
......................................
11.1. Vue d'ensemble de CT DB
11.2. Paquetages requis
11.3. Configuration GFS2
11.4. Configuration de CT DB
11.5. Configuration de Samba
11.6. Lancer CT DB et les services Samba
11.7. Utiliser le serveur Samba clusteris
156
156
156
156
158
160
161
161
. . . . . . . . . . . . .des
Paramtres
. . . . priphriques
. . . . . . . . . . . . . . . fence
................................................
162
. . . . . . . . . . . . .des
Paramtres
. . . . ressources
. . . . . . . . . . . . HA
...................................................
184
.Comportement
. . . . . . . . . . . . . . . des
. . . . .ressources
. . . . . . . . . . . .HA
...............................................
C.1. Relations entre parents, enfants, et enfants de mmes parents parmi les ressources
C.2. Ordre de dmarrage des relations de mme parent et ordre des enfants de
ressources
C.2.1. Ordre de dmarrage et d'arrt des ressources enfant types
204
. . . . . . .de
Ordre
. . . dmarrage
. . . . . . . . . . . .de
. . .ressource
. . . . . . . . . . .enfant
. . . . . . . type
.....................................
207
.Ordre
. . . . . .d'arrt
. . . . . . . .des
. . . .ressources
. . . . . . . . . . . .enfants
. . . . . . . . types
.........................................
C.2.2. Ordre de dmarrage et d'arrt de ressources enfant non-types
207
208
. . . . . . .de
Ordre
. . . dmarrage
. . . . . . . . . . . .de
. . .ressources
. . . . . . . . . . . .enfant
. . . . . . . non-types
....................................
208
.Ordre
. . . . . .d'arrt
. . . . . . . .des
. . . .ressources
. . . . . . . . . . . .enfant
. . . . . . . non-types
..........................................
C.3. Hritage, le bloc <ressources>, et la rutilisation des ressources
C.4. Rcupration de dfaillance et sous-arbres indpendants
C.5. Dbogage et testage des services et de l'ordre des ressources
209
209
211
212
.Vrification
. . . . . . . . . . . .des
. . . .ressources
. . . . . . . . . . . .de
. . . service
. . . . . . . . de
. . . cluster
. . . . . . . .et
. . .dlai
. . . . . de
. . . basculement
..................
D.1. Modifier l'intervalle de vrification du statut des ressources
D.2. Appliquer les dlais des ressources
214
214
214
204
205
206
Introduction
. . . . . . . . . des
Rsum
. . . . outils
. . . . . . .de
. . .la
. . ligne
. . . . . .de
. . .commande
..............................................
216
.LVM
. . . . haute
. . . . . . .disponibilit
. . . . . . . . . . . . .(HA-LVM)
.......................................................
F.1. Configurer le basculement HA-LVM avec CLVM (mthode prfre)
F.2. Configurer le basculement HA-LVM avec le T agging (tiquetage)
218
219
220
. . . . . . . . . . . .des
Historique
. . . .versions
................................................................
222
.Index
...............................................................................
A
B
C
D
F
G
I
L
M
N
O
P
Q
R
S
T
V
226
226
229
229
229
229
230
230
230
230
231
231
231
232
232
232
233
233
10
Introduction
Introduction
Ce document fournit des informations sur l'installation, la configuration et la gestion des modules
complmentaires Red Hat High Availability. Les modules complmentaires Red Hat High Availability vous
permettent de connecter un groupe d'ordinateurs (appels des nuds ou des membres) de manire
fonctionner ensemble en tant que cluster. Dans ce document, l'utilisation du mot cluster(s), ou grappe(s),
est utilis en faisant rfrence un groupe d'ordinateurs excutant le module complmentaire Red Hat
High Availability.
Les lecteurs de ce document devraient possder une matrise avance du fonctionnement de Red Hat
Enterprise Linux et comprendre les concepts des clusters, du stockage, et de l'informatique de serveurs.
Pour obtenir plus d'informations surRed Hat Enterprise Linux 6, reportez-vous aux ressources
suivantes :
Guide d'installation Red Hat Enterprise Linux Fournit des informations sur l'installation de Red Hat
Enterprise Linux 6.
Guide de dploiement Red Hat Enterprise Linux Fournit des informations sur le dploiement, la
configuration et l'administration de Red Hat Enterprise Linux 6.
Pour obtenir plus d'informations sur le module complmentaire High Availability et les autres produits qui
y sont lis pour Red Hat Enterprise Linux 6, reportez-vous aux ressources suivantes :
Aperu du module complmentaire High Availability Fournit un aperu de haut niveau du module
complmentaire High Availability.
Administration du gestionnaire de volume logiques (LVM) Fournit une description du gestionnaire
de volumes logiques LVM, y compris des informations sur l'excution de LVM dans un environnement
clusteris.
Global File System 2 : Configuration et administration Fournit des informations sur l'installation, la
configuration et la maintenance de Red Hat GFS2 (Red Hat Global File System 2), qui est inclus dans
le module complmentaire Resilient Storage.
DM Multipath Fournit des informations sur l'utilisation de la fonctionnalit DM Multipath (DeviceMapper Multipath) de Red Hat Enterprise Linux 6.
Administration de l'quilibreur de charges Fournit des informations sur la configuration de
systmes et services de haute performance avec le module complmentaire quilibreur de charges,
un ensemble de composants logiciels fournissant des serveurs virtuels Linux (LVS, de l'anglais
Linux Virtual Server ) pour quilibrer les charges IP sur un ensemble de serveurs rels.
Notes de publication Fournit des informations sur la version actuelle des produits Red Hat.
La documentation sur le module complmentaire High Availability et les autres documents de Red Hat
sont disponibles sous les formats HT ML, PDF et RPM sur le CD Red Hat Enterprise Linux
Documentation et en ligne sur http://docs.redhat.com/docs/en-US/index.html.
1. Conventions d'criture
Ce manuel utilise plusieurs conventions pour souligner l'importance de certains mots ou expressions,
mais aussi en vue d'attirer l'attention sur certains passages d'informations prcis.
Pour les ditions sur support papier et numrique (PDF), ce manuel utilise des caractres issus de
Liberation Fonts. La police de caractres Liberation Fonts est galement utilise pour les ditions HT ML
si elle est installe sur votre systme. Sinon, des polices de caractres alternatives quivalentes sont
utilises. Notez que Red Hat Enterprise Linux 5 et versions suprieures contiennent la police Liberation
Fonts par dfaut.
1.1. Conventions typographiques
Quatre conventions typographiques sont utilises pour attirer l'attention sur certains mots et
expressions. Ces conventions et les circonstances auxquelles elles s'appliquent sont les suivantes.
11
12
Chapitre 1. Aperu de la gestion et de la configuration du module complmentaire Red Hat High Availability
Desktop
Desktop1
documentation
downloads
drafts
images
mss
notes
photos
scripts
stuff
svgs
svn
Les citations de code source sont galement prsentes en rom ains espacem ent fixe mais
sont prsents et surligns comme suit :
13
package org.jboss.book.jca.ex1;
import javax.naming.InitialContext;
public class ExClient
{
public static void main(String args[])
throws Exception
{
InitialContext iniCtx = new InitialContext();
Object
ref
= iniCtx.lookup("EchoBean");
EchoHome
home
= (EchoHome) ref;
Echo
echo
= home.create();
System.out.println("Created Echo");
System.out.println("Echo.echo('Hello') = " + echo.echo("Hello"));
}
}
Note
Une remarque est une forme de conseil, un raccourci ou une approche alternative par rapport
une tche entreprendre. L'ignorer ne devrait pas provoquer de consquences ngatives, mais
vous pourriez passer ct d'une astuce qui vous aurait simplifie la vie.
Important
Les blocs d'informations importantes dtaillent des lments qui pourraient tre facilement
ngligs : des modifications de configurations qui s'appliquent uniquement la session actuelle
ou des services qui ont besoin d'tre redmarrs avant toute mise jour. Si vous ignorez une
case tiquete Important , vous ne perdrez aucunes donnes mais cela pourrait tre source
de frustration et d'irritation.
Avertissement
Un avertissement ne devrait pas tre ignor. Ignorer des avertissements risque fortement
d'entrainer des pertes de donnes.
2. Commentaires
Si vous identifiez une erreur typographique, ou si vous pensez un faon d'amliorer ce manuel, fatesnous en part. Veuillez soumettre un rapport dans Bugzilla (http://bugzilla.redhat.com/bugzilla/) sous le
composant doc-Cluster_Administration.
Assurez-vous de bien mentionner l'identifiant du manuel :
Cluster_Administration(EN)-6 (2013-2-15T16:26)
En mentionnant l'identifiant de ce manuel, nous pouvons voir la version exacte du guide que vous
14
Chapitre 1. Aperu de la gestion et de la configuration du module complmentaire Red Hat High Availability
possdez.
Si vous avez des suggestions pour amliorer la documentation, essayez d'tre aussi prcis que
possible. Si vous avez trouv une erreur, veuillez inclure le numro de la section ainsi que des portions
du texte qui l'entoure afin que nous puissions la retrouver plus facilement.
15
Note
Pour obtenir des informations sur les meilleures pratiques pour dployer et mettre jour des
clusters Red Hat Enterprise Linux l'aide des modules complmentaires High Availability (Haute
disponibilit) et GFS2 ( Red Hat Global File System 2 ), reportez-vous l'article Red Hat
Enterprise Linux Cluster, High Availability, and GFS Deployment Best Practices sur le Portail
client Red Hat l'adresse : . https://access.redhat.com/kb/docs/DOC-40821.
Ce chapitre fournit un rsum des fonctionnalits et mises jour ajoutes au module complmentaire
Red Hat High Availability depuis la publication initiale de Red Hat Enterprise Linux 6, suivi par un aperu
de la configuration et de la gestion du module complmentaire Red Hat High Availability.
16
Chapitre 1. Aperu de la gestion et de la configuration du module complmentaire Red Hat High Availability
la ressource choue alors seule cette ressource est dsactive. Pour obtenir des informations sur
cette fonctionnalit, voir la Section 3.10, Ajouter un service cluster un cluster et la Section C.4,
Rcupration de dfaillance et sous-arbres indpendants .
Ce document inclut maintenant le nouveau Chapitre 9, Diagnostiquer et corriger des problmes dans
un cluster.
En outre, de petites corrections et clarifications ont t effectues sur le document.
1.1.2. Nouvelles fonctionnalits et fonctionnalits modifies de Red Hat Enterprise Linux 6.2
Red Hat Enterprise Linux 6.2 inclut la documentation et les mises jour et modifications des
fonctionnalits suivantes.
Red Hat Enterprise Linux fournit maintenant du support pour excuter Clustered Samba sous
une configuration active/active. Pour obtenir des informations sur les configurations de Samba
clusteris, reportez-vous au Chapitre 11, Configuration de Samba en cluster.
Mme si tout utilisateur en mesure de s'authentifier sur le systme hbergeant luci peut se
connecter luci, partir de Red Hat Enterprise Linux 6.2, seul l'utilisateur root du systme excutant
luci peut accder tous les composants luci jusqu' ce qu'un administrateur (l'utilisateur root, ou un
utilisateur avec des permissions d'administrateur) dfinisse les permissions pour cet utilisateur.
Pour obtenir des informations sur la dfinition des permissions luci pour les utilisateurs, reportezvous la Section 3.3, Contrler l'accs luci .
Les nuds d'un cluster peuvent communiquer entre eux en utilisant le mcanisme de transport de
monodiffusion UDP. Pour obtenir des informations sur la configuration de la monodiffusion UDP,
veuillez vous reporter la Section 2.12, T rafic de monodiffusion UDP .
Vous pouvez maintenant configurer certains aspects du comportement de luci par le biais du fichier
/etc/sysconfig/luci. Par exemple, vous pouvez configurer spcifiquement l'unique adresse IP
laquelle luci est servi. Pour obtenir des informations sur la configuration de l'unique adresse IP
laquelle luci est servi, reportez-vous au T ableau 2.2, Port IP activ sur un ordinateur excutant
luci . Pour obtenir des informations sur le fichier /etc/sysconfig/luci en gnral, reportezvous la Section 2.4, Configurer luci avec /etc/sysconfig/luci .
La commande ccs inclut maintenant l'option --lsfenceopts, qui imprime une liste des
priphriques fence disponibles, ainsi que l'option --lsfenceopts fence_type, qui imprime
chaque type fence disponible. Pour obtenir des informations sur ces options, reportez-vous la
Section 5.6, Rpertorier les priphriques fence et les options de priphriques fence .
La commande ccs inclut maintenant l'option --lsserviceopts, qui imprime une liste des services
cluster actuellement disponibles pour votre cluster, ainsi que l'option --lsserviceopts
service_type, qui imprime une liste des options que vous pouvez spcifier pour un type de service
particulier. Pour obtenir des informations sur ces options, reportez-vous la Section 5.11,
Rpertorier les services cluster disponibles .
Red Hat Enterprise Linux 6.2 fournit le support pour l'agent fence VMware (interface SOAP). Pour
obtenir des informations sur les paramtres des priphriques fence, reportez-vous l'Annexe A,
Paramtres des priphriques fence.
Red Hat Enterprise Linux 6.2 fournit le support pour l'agent fence RHEV-M REST API, avec RHEV 3.0
et versions plus rcentes. Pour obtenir des informations sur les paramtres des priphriques
fence, reportez-vous l'Annexe A, Paramtres des priphriques fence.
partir de Red Hat Enterprise Linux 6.2, lorsque vous configurez une machine virtuelle dans un
cluster avec la commande ccs, vous pourrez utiliser l'option --addvm (plutt que l'option
addservice). Ceci assure la dfinition correcte de la ressource vm directement sous le nud de
configuration rm dans le fichier de configuration du cluster. Pour obtenir des informations sur la
configuration des ressources de machines virtuelles avec la commande ccs, reportez-vous la
Section 5.12, Ressources de machine virtuelle .
Ce document inclut un nouvel annexe, Annexe D, Vrification des ressources de service de cluster et
dlai de basculement. Cet annexe dcrit comment rgm anager surveille le statut des ressources de
clusters et comment modifier l'intervalle des vrifications de statut. L'annexe dcrit aussi le
paramtre de service __enforce_tim eouts, qui indique qu'un dlai d'inactivit pour une opration
17
18
Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)
rseau Eaton (Interface SNMP), de l'agent fence de HP BladeSystem et de l'agent fence d'IBM iPDU.
Pour obtenir des informations sur les paramtres des priphriques fence, veuillez vous rfrer
l'Annexe A, Paramtres des priphriques fence.
L'Annexe B, Paramtres des ressources HA fournit maintenant une description de l'agent de
ressources du serveur NFS.
partir de Red Hat Enterprise Linux 6.4, l'utilisateur root ou un utilisateur possdant des
permissions d'administrateur luci peut aussi utiliser l'interface luci pour supprimer des utilisateurs
du systme. Ceci est document dans la Section 3.3, Contrler l'accs luci .
L'Annexe B, Paramtres des ressources HA fournit une description du nouveau paramtre
nfsrestart pour les ressources HA GFS2 et le systme de fichiers.
Ce document inclut une nouvelle section, Section 5.1.5, Commandes remplaant les paramtres
prcdents .
Section 2.3, Activation des ports IP inclut maintenant des informations sur le filtrage de igm p sur
le pare-feu iptables.
L'agent fence IPMI LAN prend maintenant en charge un paramtre pour configurer le niveau de
privilges sur le priphrique IPMI, comme document dans l'Annexe A, Paramtres des
priphriques fence.
En outre du mode de liaison Ethernet 1, les modes de liaisons 0 et 2 sont maintenant pris en charge
pour les communications inter-nuds dans un cluster. Des conseils pour les rsolutions de
problmes dans ce document qui vous suggrent de vous assurer que vous utilisez bien
uniquement les modes de liaisons pris en charge ont pris note de cette addition.
Les priphriques baliss VLAN sont maintenant pris en charge pour les communications
cardiaques de cluster. Les conseils des rsolutions de problmes qui indiquaient que ceci n'est pas
pris en charge ont t supprims de ce document.
Le module Red Hat High Availability prend maintenant en charge la configuration du protocole
d'anneau redondant. Pour obtenir des informations gnrales sur l'utilisation de cette fonctionnalit
et sur la configuration du fichier de configuration cluster.conf, reportez-vous la Section 7.6,
Configurer le protocole d'anneau redondant ( Redundant Ring ) . Pour obtenir des informations
sur la configuration du protocole d'anneau redondant avec luci, reportez-vous la Section 3.5.4,
Configurer le protocole d'anneau redondant ( Redundant Ring ) . Pour obtenir des informations
sur la configuration du protocole d'anneau redondant avec la commande ccs, reportez-vous la
Section 5.14.5, Configurer le protocole d'anneau redondant ( Redundant Ring ) .
En outre, de petites corrections et clarifications ont t effectues sur le document.
19
Avant de configurer le module complmentaire Red Hat High Availability (Haute Disponibilit) ou vrifiez
avec un reprsentant autoris de Red Hat.
Nuds de cluster Ordinateurs capables d'excuter le logiciel Red Hat Enterprise Linux 6, avec au
moins 1Go de RAM.
Commutateur ou concentrateur Ethernet pour rseau public Ceci est requis pour que le client
puisse accder au cluster.
Commutateur ou concentrateur Ethernet pour rseau priv Ceci est requis pour la communication
entre les nuds du cluster et le reste du matriel du cluster, comme les commutateurs d'alimentation
rseau et les interrupteurs Fibre Channel.
Commutateur d'alimentation du rseau Un commutateur d'alimentation du rseau est recommand
pour effectuer le fencing dans un cluster de niveau entreprise.
Commutateur Fibre Channel Un commutateur Fibre Channel fournit l'accs au stockage Fibre
Channel. D'autres options sont disponibles pour le stockage selon le type d'interface de stockage,
iSCSI par exemple. Un commutateur Fibre Channel peut tre configur de manire effectuer le
fencing.
Stockage Un certain type de stockage est requis pour un cluster. Le type requis dpend du but du
cluster.
Figure 1.1. Aperu du matriel du module complmentaire Red Hat High Availability
20
Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)
Vous pouvez utiliser la commande yum install pour installer les paquetages des logiciels du module
complmentaire Red Hat High Availability :
# yum install rgmanager lvm2-cluster gfs2-utils
Remarque qu'installer rgm anager uniquement tlchargera toutes les dpendances ncessaires pour
crer un cluster HA depuis le canal HighAvailability. Les paquetages lvm 2-cluster et gfs2-utils
font partie du canal ResilientStorage et pourraient ne pas tre ncessaires sur votre site.
Remarque
system -config-cluster n'est pas disponible dans Red Hat Enterprise Linux 6.
21
Important
Assurez-vous que le dploiement du module complmentaire Red Hat High Availability
correspond bien vos besoins et peut tre pris en charge. Consultez un reprsentant autoris
de Red Hat pour vrifier votre configuration avant de la dployer. En outre, prvoyez
suffisamment de temps pour une priode de rodage de la configuration afin de tester les
diffrents modes d'chec.
Section 2.1, Considrations pour une configuration gnrale
Section 2.2, Matriel compatible
Section 2.3, Activation des ports IP
Section 2.4, Configurer luci avec /etc/sysconfig/luci
Section 2.5, Configurer l'ACPI pour une utilisation avec des priphriques fence intgrs
Section 2.6, Considrations pour la configuration des services HA
Section 2.7, Validation de la configuration
Section 2.8, Considrations pour NetworkManager
Section 2.9, Considrations pour utiliser le disque Quorum
Section 2.10, Module complmentaire Red Hat High Availability et SELinux
Section 2.11, Adresses de multidiffusion
Section 2.12, T rafic de monodiffusion UDP
Section 2.13, Considrations pour ricci
Section 2.14, Configurer des machines virtuelles dans un environnement clusteris
22
Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)
unique et possdent ainsi un plafond plus bas qu'un systme de fichiers de cluster. Red Hat
recommande l'utilisation de ces systmes de fichiers plutt que GFS2 dans le cas o un nud
unique doit monter le systme de fichiers. Red Hat continuera prendre en charge les
systmes de fichiers GFS2 nud unique pour ses clients existants.
Lorsque vous configurer un systme de fichiers GFS2 en tant que systme de fichiers de
cluster, vous devez vous assurer que tous les nuds du cluster ont accs au systme de
fichiers partag. Les configurations de clusters asymtriques dans lesquelles certains nuds
ont accs au systme de fichiers et pas d'autres ne sont pas prises en charge. Ceci ne
requiert pas que tous les nuds montent le systme de fichiers GFS2.
Configuration du matriel sans point de dfaillance unique (No-single-point-of-failure
hardware configuration)
Les clusters peuvent inclure une matrice RAID double contrleur, de multiples canaux rseau
lis, de multiples chemins d'accs entre les membres du cluster et le stockage, et des
systmes onduleurs (UPS, de l'anglais un-interruptible power supply ) afin de s'assurer
qu'aucune dfaillance unique ne rsulte en temps d'inactivit ou en perte de donnes.
Alternativement, un cluster de bas cot peut tre install pour offrir moins de disponibilit qu'un
cluster sans point de dfaillance unique. Par exemple, vous pouvez paramtrer un cluster avec
une matrice RAID contrleur unique et un seul canal Ethernet.
Certaines alternatives bas cot, comme les contrleurs RAID htes, les RAID logiciels sans
prise en charge de clusters, et les configurations parallles SCSI avec multi-initiateur ne sont
pas compatibles, ou ne sont pas appropries pour une utilisation en tant que stockage partag
de cluster.
Assurance d'intgrit des donnes
Pour s'assurer de l'intgrit des donnes, seul un nud peut excuter un service de cluster et
accder aux donnes du cluster-service la fois. L'utilisation d'interrupteurs d'alimentation
dans la configuration du matriel du cluster active un nud pour alimenter le cycle
d'alimentation d'un autre nud avant de redmarrer les services HA de ce nud pendant le
processus de basculement. Ceci empche les deux nuds d'accder simultanment aux
donnes et de les corrompres. Des priphriques fence (des solutions matrielles ou
logicielles pouvant allumer, teindre et redmarrer des nuds de clusters distance) sont
utiliss pour garantir l'intgrit des donnes sous toutes conditions d'chec.
Liaison de canal Ethernet
Le quorum du cluster et la sant du nud sont dtermins par la communication de messages
parmi les nuds du cluster via Ethernet. En outre, les nuds de clusters utilisent Ethernet
pour tout un ventail d'autres fonctions critiques de clusters (pour le fencing par exemple).
Avec la liaison de canaux Ethernet, de multiples interfaces Ethernet sont configures de
manire se comporter comme une seule interface, rduisant ainsi le risque de dfaillance
d'un point unique dans la connexion Ethernet commute habituelle parmi les nuds de clusters
et le reste du matriel du cluster.
partir de Red Hat Enterprise Linux 6.4, les modes de liaisons 0, 1 et 2 sont pris en charge.
IPv4 et IPv6
Le module complmentaire High Availability prend en charge les protocoles Internet IPv4 et
IPv6. La prise en charge de IPv6 par le module complmentaire High Availability est une
nouveaut de Red Hat Enterprise Linux 6.
23
Protocole
Composant
5404, 5405
UDP
11111
T CP
21064
T CP
16851
T CP
m odclusterd
Remarque
Si un nud de cluster excute luci, le port 11111 devrait dj tre activ.
24
Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)
Protocole
Composant
8084
T CP
partir de Red Hat Enterprise Linux 6.1, qui permet l'activation de la configuration par le biais du fichier
/etc/sysconfig/luci, vous pouvez spcifiquement configurer l'unique adresse IP laquelle luci est
servi. Vous pouvez utiliser cette capacit sir l'infrastructure de votre serveur incorpore plus d'un rseau
et que vous souhaitez accder luci depuis le rseau interne uniquement. Pour ce faire, veuillez
dcommenter et modifier la ligne dans le fichier spcifiant host. Par exemple, pour modifier le
paramtre host dans le fichier sur 10.10.10.10, modifiez la ligne host comme suit :
host = 10.10.10.10
Pour igm p (protocole de gestion de groupes internet Internet Group Management Protocol ) :
$ iptables -I INPUT -p igmp -j ACCEPT
Aprs avoir excut ces commandes, veuillez excuter la commande suivante pour enregistrer la
configuration actuelle afin que les changements soient persistants lors des redmarrages.
25
2. Remplacez 4443 par le numro de port souhait, qui peut tre plus grand que ou gal 1024
(qui n'est pas un port privilgi). Par exemple, vous pouvez modifier cette ligne du fichier comme
suit pour dfinir le port par lequel luci est servi sur 8084.
port = 8084
Important
Lorsque vous modifiez un paramtre de configuration dans le fichier /etc/sysconfig/luci
pour redfinir une valeur par dfaut, vous devriez prendre soin de bien utiliser la valeur la place
de la valeur documente par dfaut. Par exemple, lorsque vous modifiez le port sur lequel luci
est servi, assurez-vous de bien spcifier la valeur modifie lors de l'activation d'un port IP pour
luci, comme le dcrit la Section 2.3.2, Activer le port IP pour luci .
Les paramtres du port et de l'hte modifis seront automatiquement reflts dans l'URL affich
lorsque le service luci dmarre, comme le dcrit la Section 3.2, Dmarrage de luci . Vous
devriez utiliser cet URL pour accder luci.
Pour obtenir plus d'informations sur les paramtres que vous pouvez configurer avec le fichier
/etc/sysconfig/luci, reportez-vous la documentation dans le fichier mme.
26
Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)
Remarque
Pour obtenir les informations les plus rcentes sur les priphriques fence intgrs pris en
charge par le module complmentaire Red Hat High Availability, reportez-vous
http://www.redhat.com/cluster_suite/hardware/.
Si un nud de cluster est configur pour tre clos par un priphrique fence intgr, dsactivez l'ACPI
Soft-Off sur ce nud. La dsactivation de l'ACPI Soft-Off permet un priphrique fence intgr
d'arrter un nud compltement et immdiatement plutt que de tenter d'effectuer un arrt normal (par
exemple avec shutdown -h now). Si l'ACPI Soft-Off est activ, un priphrique fence intgr peut
prendre quatre secondes ou plus pour arrter un nud (voir la remarque suivante). En outre, si l'ACPI
Soft-Off est activ et qu'un nud panique ou se fige lors de l'arrt, un priphrique fence intgr
pourrait ne pas russir arrter le nud. Dans ces circonstances, la clture est retarde ou mise en
chec. Ainsi, lorsqu'un nud est clos avec un priphrique fence intgr et qu'ACPI Soft-Off est activ,
un cluster devra tre rcupr lentement ou ncessitera une intervention administrative.
Remarque
Le temps requis pour clore un nud dpend du priphrique fence intgr utilis. Certains
priphriques fence intgrs effectuent l'quivalent de lorsque le bouton d'alimentation est
press et maintenu ; ainsi, le priphrique fence teint le nud en quatre cinq secondes.
D'autres priphriques fence intgrs effectuent l'quivalent de lorsque le bouton d'alimentation
est press momentanment, se fiant au systme d'exploitation pour arrter le nud, dans ce
cas, le laps de temps pris par le priphrique fence pour teindre le nud est bien plus long que
quatre cinq secondes.
Pour dsactiver l'ACPI Soft-Off, utilisez la gestion chkconfig et vrifiez que le nud s'arrte
immdiatement lorsqu'il est fenced . La manire prfre de dsactiver l'ACPI Soft-Off est avec la
gestion chkconfig. Cependant, si cette mthode n'est pas satisfaisante pour votre cluster, vous
pouvez dsactiver ACPI Soft-Off l'aide de l'une des mthodes suivantes :
Modifiez le paramtre BIOS sur "instant-off" ou sur un autre paramtre quivalent qui arrtera le
nud sans dlai
Remarque
Dsactiver l'ACPI Soft-Off avec le BIOS peut ne pas tre possible sur certains ordinateurs.
Ajouter acpi=off la ligne de commande de dmarrage du noyau du fichier
/boot/grub/grub.conf.
Important
Cette mthode dsactive compltement l'ACPI ; certains ordinateurs ne dmarrent pas
correctement si l'ACPI est compltement dsactiv. Utilisez cette mthode uniquement si les
autres mthodes ne sont pas effectives sur votre cluster.
Les sections suivantes fournissent des procdures pour la mthode prfre et les mthodes
alternatives de dsactivation de l'ACPI Soft-Off :
Section 2.5.1, Dsactivation de l'ACPI Soft-Off avec la gestion chkconfig Mthode prfre
Section 2.5.2, Dsactivation de l'ACPI Soft-Off avec le BIOS Premire mthode alternative
27
Section 2.5.3, Compltement dsactiver ACPI dans le fichier grub.conf Seconde mthode
alternative
2.5.1. Dsactivation de l'ACPI Soft-Off avec la gestion chkconfig
Vous pouvez utiliser la gestion chkconfig pour dsactiver l'ACPI Soft-Off soit en supprimant le dmon
ACPI (acpid) de la gestion chkconfig ou en teignant acpid.
Remarque
Ceci est la mthode prfre pour dsactiver l'ACPI Soft-Off.
Dsactivez l'ACPI Soft-Off avec la gestion chkconfig sur chaque nud du cluster comme suit :
1. Excutez l'une des commandes suivantes :
chkconfig --del acpid Cette commande supprime acpid de la gestion chkconfig.
OU
chkconfig --level 234 5 acpid off Cette commande teint acpid.
2. Redmarrez le nud.
3. Lorsque le cluster est configur et en cours d'excution, vrifiez que le nud s'teint
immdiatement lorsqu'il est fenced .
Remarque
Vous pouvez clore le nud avec la commande fence_node ou Conga.
Remarque
Dsactiver l'ACPI Soft-Off avec le BIOS peut ne pas tre possible sur certains ordinateurs.
Vous pouvez dsactiver l'ACPI Soft-Off en configurant le BIOS de chaque nud de cluster comme suit :
1. Redmarrez le nud et lancez le programme BIOS CMOS Setup Utility.
2. Accdez au menu Power (ou un autre menu de gestion de l'alimentation).
3. Dans le menu Power, ajustez la fonction Soft-Off by PWR-BT T N (ou son quivalent) sur
Instant-Off (ou sur le paramtre quivalent qui arrte le nud sans dlai via le bouton
d'alimentation). L'Exemple 2.1, BIOS CMOS Setup Utility : Soft-Off by PWR-BT T N
paramtr sur Instant-Off montre un menu Power avec la fonction ACPI Function paramtre
sur Enabled (activ) et Soft-Off by PWR-BT T N paramtre sur Instant-Off.
Remarque
Les quivalents de ACPI Function, Soft-Off by PWR-BT T N, et Instant-Off peuvent
varier grandement selon les ordinateurs. Cependant, l'objectif de cette procdure est de
configurer le BIOS de manire ce que l'ordinateur puisse tre teint via le bouton de
l'alimentation sans dlais.
28
Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)
Remarque
Vous pouvez clore le nud avec la commande fence_node ou Conga.
Exemple 2.1. BIOS CMOS Setup Utility : Soft-Off by PWR-BT T N paramtr sur InstantOff
+---------------------------------------------|-------------------+
|
ACPI Function
[Enabled]
|
Item Help
|
|
ACPI Suspend Type
[S1(POS)]
|-------------------|
| x Run VGABIOS if S3 Resume
Auto
|
Menu Level
* |
|
Suspend Mode
[Disabled]
|
|
|
HDD Power Down
[Disabled]
|
|
|
Soft-Off by PWR-BTTN
[Instant-Off
|
|
|
CPU THRM-Throttling
[50.0%]
|
|
|
Wake-Up by PCI card
[Enabled]
|
|
|
Power On by Ring
[Enabled]
|
|
|
Wake Up On LAN
[Enabled]
|
|
| x USB KB Wake-Up From S3
Disabled
|
|
|
Resume by Alarm
[Disabled]
|
|
| x Date(of Month) Alarm
0
|
|
| x Time(hh:mm:ss) Alarm
0 : 0 :
|
|
|
POWER ON Function
[BUTTON ONLY
|
|
| x KB Power ON Password
Enter
|
|
| x Hot Key Power ON
Ctrl-F1
|
|
|
|
|
|
|
|
+---------------------------------------------|-------------------+
Cet exemple montre la fonction ACPI Function paramtre sur Enabled (activ) et Soft-Off by
PWR-BT T N paramtr sur Instant-Off.
Important
Cette mthode dsactive compltement l'ACPI ; certains ordinateurs ne dmarrent pas
correctement si l'ACPI est compltement dsactiv. Utilisez cette mthode uniquement si les
autres mthodes ne sont pas effectives sur votre cluster.
Vous pouvez compltement dsactiver l'ACPI en modifiant le fichier grub.conf de chaque nud du
cluster comme suit :
1. Ouvrez /boot/grub/grub.conf l'aide d'un diteur de texte.
29
Remarque
Vous pouvez clore le nud avec la commande fence_node ou Conga.
30
Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)
ainsi sur quel nud un service HA devrait basculer. Si vous ne spcifiez pas de priorits de
basculement, un service HA peut alors basculer sur n'importe quel nud dans son domaine de
basculement. Vous pouvez aussi spcifier si un service HA est restreint de manire uniquement
s'excuter sur les nuds du domaine de basculement qui lui est associ. (Lorsque associ un
domaine de basculement non-restreint, un service HA peut dmarrer sur n'importe quel nud si aucun
des membres du domaine de basculement n'est disponible.)
La Figure 2.1, Exemple de service de cluster de serveur web montre un exemple d'un service HA qui
est un serveur web nomm "content-webserver". Celui-ci est excut dans le nud B du cluster et se
trouve dans un domaine de basculement consistant des nuds A, B et D. En outre, le domaine de
basculement est configur avec une priorit de basculements vers le nud D avant le nud A et avec
une restriction de basculements vers les nuds de ce domaine de basculements uniquement. Le
service HA comprend ces ressources de cluster :
Ressource adresse IP IP address 10.10.10.201.
Ressource d'application nomme "httpd-content" script d'initialisation d'application de serveur
web /etc/init.d/httpd (spcifiant httpd).
Ressource de systme de fichiers Red Hat GFS2 nomm "gfs2-content-webserver".
Les clients accdent au service HA via l'adresse IP 10.10.10.201, activant l'interaction avec l'application
du serveur web httpd-content. L'application httpd-content utilise le systme de fichiers gfs2-contentwebserver. Si le nud B devait chouer, le service HA content-webserver basculera sur le nud D. Si
le nud D n'est pas disponible ou s'il chouait aussi, le service basculera sur le nud A. Le
basculement se produira avec une interruption minimale du service des clients du cluster. Par exemple,
dans un service HT T P, certaines informations sur l'tat peuvent tre perdues (comme avec les donnes
de session). Le service HA sera accessible depuis un autre nud du cluster via la mme adresse IP
31
Remarque
Pour obtenir plus d'informations sur les services HA et sur les domaines de basculements,
reportez-vous l'Aperu du module complmentaire High Availability. Pour obtenir des
informations sur la configuration des domaines de basculement, reportez-vous au Chapitre 3,
Configurer le module complmentaire Red Hat High Availability avec Conga (avec Conga) o au
Chapitre 7, Configurer le module complmentaire Red Hat High Availability avec des outils de
ligne de commande (avec des utilitaires en ligne de commande).
Un service HA est un groupe de ressources de cluster configures en une entit cohrente fournissant
des services spcialiss aux clients. Un service HA est reprsent comme une arborescence de
ressources dans le fichier de configuration du cluster /etc/cluster/cluster.conf (dans chaque
nud du cluster). Dans le fichier de configuration du cluster, chaque arborescence de ressources est
une reprsentation XML spcifiant chaque ressource, ses attributs, et ses relations aux autres
ressources dans l'arborescence des ressources (parents, enfants et de mme parent).
Remarque
Comme un service HA est compos de ressources organises en une arborescence
hirarchique, on peut parfois faire rfrence un service en tant qu'arborescence de ressources
ou que groupe de ressources. Les deux termes sont synonymes de service HA.
la racine de chaque arborescence de ressources se trouve un type de ressources spcial une
ressource de service. Les autres types de ressources comprennent le reste d'un service, dterminant
ainsi ses caractristiques. Configurer un service HA revient crer une ressource de service, crer des
ressources de cluster subordonnes et les organiser en une entit cohrente conforme aux restrictions
hirarchiques du service.
Deux considrations majeures sont prendre en compte lors de la configuration d'un service HA :
Le type de ressources ncessaires la cration du service
Les relations entre les parents, les enfants et les enfants de mmes parents dans les ressources
Le type de ressources et la hirarchie de celles-ci dpendent du type de service que vous configurez.
Les types de ressources de clusters sont rpertoris dans l'Annexe B, Paramtres des ressources HA.
Des informations sur les relations entre les parents, les enfants, les enfants de mme parents et les
ressources sont dcrites dans l'Annexe C, Comportement des ressources HA.
32
Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)
Options de configuration Vrifie que les options (lments XML et attributs) sont valides.
Valeurs des options Vrifie que les options contiennent des donnes valides (limit).
Les exemples suivants montrent une configuration valide et des configurations invalides qui illustrent les
vrifications de validation :
Configuration valide Exemple 2.3, cluster.conf Exemple de configuration : Fichier valide
XML invalide Exemple 2.4, cluster.conf Exemple de configuration : XML invalide
Option invalide Exemple 2.5, cluster.conf Exemple de configuration : Option invalide
Valeur de l'option invalide Exemple 2.6, cluster.conf Exemple de configuration : Valeur de
l'option invalide
Exemple 2.3. cluster.conf Exemple de configuration : Fichier valide
33
Dans cet exemple, il manque une barre oblique la dernire ligne de la configuration (annote comme
"INVALID") il s'agit de <cluster> au lieu de </cluster>.
Dans cet exemple, la seconde ligne de la configuration (annote comme "INVALID") contient un
lment XML invalide il s'agit de loging au lieu de logging.
34
Chapitre 2. Avant de configurer le module complmentaire Red Hat High Availability (Haute D isponibilit)
<--------INVALID
Dans cet exemple, la quatrime ligne de la configuration (annote comme "INVALID") contient une
valeur invalide pour l'attribut XML nodeid dans la ligne clusternode de node01.exam ple.com . La valeur est une valeur ngative ("-1") au lieu d'une valeur positive ("1"). Pour
l'attribut nodeid, la valeur doit tre une valeur positive.
Note
Le service cm an ne dmarrera pas si NetworkManager est excut ou a t configur de
manire s'excuter avec la commande chkconfig.
35
Remarque
La configuration de qdiskd n'est pas requise moins que vous n'ayez des besoins spciaux
pour la sant des nuds. La configuration "all-but-one" (tous sauf un) est exemple de besoin
spcifique. Dans ce type de configuration, qdiskd est configur afin de fournir suffisamment de
votes de quorum pour maintenir le quorum mme si un seul nud travaille.
Important
En gnral, les heuristiques et autres paramtres qdiskd de votre dploiement dpendent de
l'environnement du site et des besoins spcifiques ncessits. Pour comprendre l'utilisation des
heuristiques et des autres paramtres qdiskd, reportez-vous la page man qdisk(5). Si vous
ncessitez de l'aide pour comprendre et utiliser qdiskd pour votre site, veuillez contacter un
reprsentant du support Red Hat autoris.
Si vous devez utiliser qdiskd, vous devriez prendre en compte les considrations suivantes :
Votes de nuds de clusters
Lors de l'utilisation du disque Quorum, chaque nud de cluster doit avoir un vote.
Valeur du dlai d'expiration de l'appartenance CMAN
La valeur du dlai d'expiration de l'appartenance CMAN (la dure sans rponse du nud
avant que CMAN considre le nud comme tant 'mort', donc n'tant plus membre) devrait tre
au moins deux fois plus lev que la valeur du dlai d'expiration de l'appartenance qdiskd.
La raison pour ceci est que le dmon du quorum doit pouvoir dtecter les nuds en chec par
lui-mme et celui-ci peut prendre bien plus longtemps pour ce faire que le CMAN. La valeur par
dfaut du dlai d'expiration de l'appartenance CMAN est de 10 secondes. D'autres conditions
spcifiques au site peuvent affecter la relation entre les valeurs des dlais d'expiration des
adhsions CMAN et qdiskd. Pour obtenir de l'aide avec l'ajustement de la valeur du dlai
d'expiration de l'appartenance CMAN, veuillez contacter un reprsentant du support Red Hat
autoris.
Cltures (Fencing)
Pour garantir une clture fiable lors de l'utilisation de qdiskd, utiliser le power fencing. Alors
que les autres types de fencing peuvent tre fiables avec les clusters qui ne sont pas
configurs avec qdiskd, ceux-ci ne sont pas fiables pour un cluster configur avec qdiskd.
Nombre maximum de nuds
Un cluster configur avec qdiskd prend en charge un maximum de 16 nuds. La raison pour
cette limite est lie l'volutivit, l'augmentation du compte des nuds augmente les conflits
d'E/S synchrones sur le priphrique du disque quorum.
Priphrique de disque quorum
Un priphrique de disque quorum doit tre un priphrique bloc partag avec accs
lecture/criture simultan par tous les nuds d'un cluster. La taille minimum du priphrique
bloc est de 10 mga-octets. Une matrice RAID SCSI multiports, un SAN RAID Fibre Channel,
une cible iSCSI configur RAID sont des exemples de priphriques blocs partags pouvant
tre utiliss par qdiskd. Vous pouvez crer un priphrique de disque quorum avec m kqdisk,
l'utilitaire du disque Quorum de clusters. Pour obtenir des informations sur l'utilisation de
l'utilitaire, reportez-vous la page man mkqdisk(8).
36
Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga
Remarque
Utiliser JBOD comme disque quorum n'est pas recommand. Un JBOD ne peut pas
fournir une performance fiable et ne pourrait ainsi ne pas permettre un nud d'crire
dessus assez rapidement. Si un nud n'est pas en mesure d'crire sur un priphrique
de disque quorum assez rapidement, le nud sera alors incorrectement expuls du
cluster.
Remarque
Les procdures de configuration des commutateurs rseau et des quipements rseau associs
varient selon le produit. Reportez-vous la documentation approprie du fournisseur ou
d'autres informations sur la configuration des commutateurs rseau et des quipements rseau
associs pour activer les adresses de multidiffusion et IGMP.
37
excut dans chaque nud de cluster pour pouvoir propager la configuration du cluster mis jour, que
ce soit via la commande cm an_tool version -r, via la commande ccs, ou via le serveur de
l'interface utilisateur luci. Vous pouvez dmarrer ricci en utilisant service ricci start ou en
l'autorisant s'excuter lors du dmarrage via chkconfig. Pour obtenir des informations sur
l'activation des ports IP pour ricci, reportez-vous la Section 2.3.1, Activation des ports IP sur des
nuds de clusters .
Dans Red Hat Enterprise Linux 6.1 et ses versions plus rcentes, l'utilisation de ricci requiert un mot
de passe la premire fois que vous propagez une configuration mise jour d'un cluster depuis
n'importe quel nud en particulier. Dfinissez le mot de passe de ricci aprs avoir install ricci
sur votre systme avec la commande passwd ricci pour l'utilisateur ricci.
Avertissement
Le service libvirt-guests devrait tre dsactiv sur tous les nuds qui excutent
rgm anager. Si une machine virtuelle dmarre automatiquement ( autostart ) ou reprend, ceci
peut rsulter en la machine virtuelle tant excute dans plusieurs emplacements, ce qui peut
corrompre les donnes de la machine virtuelle.
Pour obtenir des informations sur les attributs des ressources d'une machine virtuelle, reportez-vous au
T ableau B.24, Virtual Machine .
38
Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga
Note
Conga est l'interface utilisateur graphique pouvant tre utilise pour administrer le module
complmentaire Red Hat High Availability. Remarquez cependant que pour utiliser cette interface
efficacement, vous devez avoir une bonne comprhension des concepts sous-jacents.
L'apprentissage de la configuration des clusters en explorant les fonctionnalits disponibles
dans l'interface utilisateur n'est pas recommand, car ceci pourrait rsulter en un systme qui
n'est pas suffisamment robuste pour que tous les services puisse continuer s'excuter
lorsqu'un composant choue.
Ce chapitre est compos des sections suivantes :
Section 3.1, T ches de configuration
Section 3.2, Dmarrage de luci
Section 3.3, Contrler l'accs luci
Section 3.4, Crer un cluster
Section 3.5, Proprits globales du cluster
Section 3.6, Configurer des priphriques fence
Section 3.7, Configurer le fencing pour les membres du cluster
Section 3.8, Configurer un domaine de basculement
Section 3.9, Configurer les ressources globales du cluster
Section 3.10, Ajouter un service cluster un cluster
39
Remarque
T ypiquement, un ordinateur dans une cage de serveur ou dans un centre de donnes
hberge luci ; cependant, un ordinateur cluster peut aussi hberger luci.
2. Dmarrez luci l'aide de service luci start. Par exemple :
# service luci start
Starting luci: generating https SSL certificates...
done
[
OK
Note
partir de Red Hat Enterprise Linux 6.1, vous pouvez configurer certains aspects du
comportement de luci par le biais du fichier /etc/sysconfig/luci, y compris les
paramtres du port et de l'hte, comme le dcrit la Section 2.4, Configurer luci avec
/etc/sysconfig/luci . Les paramtres du port et de l'hte seront automatiquement
reflts dans l'URL affich lorsque le service luci est lanc.
3. Sur un navigateur web, placez l'URL du serveur luci dans la bote de l'adresse URL et cliquez sur
Aller (ou quivalent). La syntaxe de l'URL du serveur luci est
https://luci_server_hostname:luci_server_port. La valeur par dfaut de
luci_server_port est 8084 .
La premire fois que vous accderez luci, une invite spcifique au navigateur web concernant
le certificat SSL auto-sign (du serveur luci) s'affiche. Aprs confirmation de la bote (ou des
botes) de dialogue, votre navigateur web affichera la page de connexion de luci.
4. Mme si tout utilisateur en mesure de s'authentifier sur le systme qui hberge luci peut se
connecter luci, partir de la version 6.2 de Red Hat Enterprise Linux, seul l'utilisateur root du
systme qui excute luci pourra accder tous les composants luci, jusqu' ce qu'un
40
Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga
Note
luci possde dlai d'inactivit qui vous dconnecte aprs 15 minutes d'inactivit.
41
Pour dfinir ou modifier les permissions d'un utilisateur, slectionnez l'utilisateur dans le menu droulant
sous Permissions de l'utilisateur. Ceci vous permet de dfinir les permissions suivantes :
Adm inistrateur Luci
Offre l'utilisateur les mmes permissions que l'utilisateur root, avec des permissions
compltes sur tous les clusters et la possibilit de dfinir ou supprimer des permissions pour
tous les utilisateurs, l'exception de l'utilisateur root, dont les permissions ne peuvent pas tre
restreintes.
Crer des clusters
Permet l'utilisateur de crer des clusters, comme dcrit dans la Section 3.4, Crer un
cluster .
Im porter des clusters existants
Permet l'utilisateur d'ajouter un cluster existant l'interface luci, comme le dcrit la
Section 4.1, Ajouter un cluster existante l'interface luci .
Pour chaque cluster qui a t cr ou import sur luci, les permissions suivantes peuvent tre dfinies
pour l'utilisateur indiqu :
Voir ce cluster
Autorise l'utilisateur voir le cluster spcifi.
Changer la configuration du cluster
Permet l'utilisateur de modifier la configuration du cluster spcifi, l'exception de l'ajout et de
la suppression de nuds du cluster.
Activer, dsactiver, dplacer et m igrer des groupes de services
Permet l'utilisateur de grer les services de haute disponibilit ( High Availability ), comme
le dcrit la Section 4.5, Grer les services High-Availability .
Arrter, dm arrer et redm arrer des n uds de cluster
Permet l'utilisateur de grer les nuds individuels d'un cluster, comme le dcrit la Section 4.3,
Grer les nuds de clusters .
Ajouter et supprim er des n uds
Permet l'utilisateur d'ajouter et de supprimer des nuds d'un cluster, comme le dcrit la
Section 3.4, Crer un cluster .
Supprim er ce cluster de Luci
Permet l'utilisateur de supprimer un cluster de l'interface luci, comme le dcrit la Section 4.4,
Dmarrer, arrter, redmarrer et supprimer des clusters .
Cliquez sur Soum ettre pour que les permissions prennent effet, ou sur Rinitialiser pour
retourner aux valeurs initiales.
42
Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga
au cluster, la saisie d'un mot de passe ricci pour chaque nud et la soumission d'une requte pour
crer un cluster. Si les informations et les mots de passe des nuds sont corrects, Conga installera
automatiquement un logiciel dans les nuds du cluster (si les paquetages logiciels appropris ne sont
pas dj installs) et dmarre le cluster. Crez le cluster comme suit :
1. Cliquez sur Grer les clusters dans le menu sur le ct gauche de la page Homebase de luci.
L'cran Clusters apparat, comme dcrit dans la Figure 3.2, page de gestion de cluster luci .
2. Cliquez sur Crer. La bote de dialogue Crer un nouveau cluster, comme dcrit dans la
Figure 3.3, bote de dialogue luci de cration de cluster .
3. Saisissez les paramtres suivants dans la bote de dialogue Crer un nouveau cluster comme
ncessaire :
Dans la bote de texte Nom du cluster, saisissez un nom de cluster. Le nom du cluster ne
doit pas excder 15 caractres.
Si chaque nud du cluster possde le mme mot de passe ricci, vous pouvez cocher Use
43
the same password for all nodes (utiliser le mme mot de passe pour tous les nuds) afin
de remplir automatiquement le champ password (mot de passe) lorsque vous ajoutez des
nuds.
Saisissez le nom du nud pour un nud dans le cluster dans la colonne Node Name (nom
du nud) puis saisissez le mot de passe ricci du nud dans la colonne Password (mot de
passe).
Si votre systme est configur avec un rseau priv ddi au trafic des clusters, vous devriez
configurer luci de manire communiquer avec ricci sur une diffrente adresse de celle
rsolue par le nom du nud du cluster. Ceci peut tre accompli en saisissant cette adresse
comme le Ricci Hostname (nom d'hte Ricci).
Si vous utilisez un autre port pour l'agent ricci que le port par dfaut 11111, vous pouvez
modifier ce paramtre.
Cliquez sur Add Another Node (ajouter un autre nud) puis saisissez le nom du nud et le
mot de passe ricci pour chaque nud supplmentaire du cluster.
Si vous ne souhaitez pas mettre niveau les paquetages logiciels dj installs sur les
nuds lorsque vous crez le cluster, laissez l'option Use locally installed packages
(Utiliser les paquetages installs localement) slectionne. Si vous ne souhaitez pas mettre
niveau tous les paquetages logiciels du cluster, slectionnez l'option Download Packages
(T lcharger les paquetages).
Note
Que vous slectionniez l'option Use locally installed packages (Utiliser les
paquetages installs localement) ou l'option Download Packages (T lcharger les
paquetages), si des composants de base du cluster ne sont pas prsents (cm an,
rgm anager, m odcluster et leurs dpendances), il seront installs. S'ils ne peuvent
pas tre installs, la cration du nud chouera.
Slectionnez Reboot nodes before joining cluster (Redmarrer les nuds avant de
joindre le cluster) si ncessaire.
Slectionnez Enable shared storage support (activer le support du stockage partag) si
un stockage clusteris est requis ; ceci tlcharge les paquetages qui prennent en charge le
stockage clusteris et active LVM sur les clusters. Vous devriez slectionner ceci uniquement
lorsque vous avez accs au module complmentaire Resilient Storage (Stockage rsilient) ou
au module complmentaire Scalable File System (Systme de fichiers scalable).
4. Cliquez sur Crer un cluster. Cliquer sur Crer un cluster provoque les actions
suivantes :
a. Si vous avez slectionn Download Packages (T lcharger les paquetages), les
paquetages logiciels du cluster sont tlchargs sur les nuds.
b. Les logiciels du cluster sont installs sur les nuds (sinon, il est vrifi que les bons
paquetages logiciels sont installs).
c. Le fichier de configuration du cluster est mis jour et propag sur chaque nud dans le
cluster.
d. Les nuds ajouts rejoignent le cluster.
Un message indiquant que le cluster est en train d'tre cr est affich. Lorsque le cluster est
prt, l'cran affiche l'tat du cluster nouvellement cr, comme indiqu dans la Figure 3.4,
Affichage du nud du cluster . Remarquez que si ricci n'est pas en cours d'excution sur l'un
des nuds, la cration du cluster chouera.
44
Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga
5. Aprs avoir cliqu sur Crer un cluster pour crer le cluster, vous pouvez ajouter ou
supprimer des nuds du cluster en cliquant sur la fonction Ajouter ou Supprimer sur le menu
en haut de la page d'affichage des nuds du cluster. moins que vous ne tentiez de supprimer
un cluster entier, les nuds doivent tre arrts avant d'tre supprims. Pour obtenir des
informations sur la suppression d'un nud d'un cluster existant qui est actuellement en cours de
fonctionnement, voir Section 4.3.4, Supprimer un membre d'un cluster .
Note
La suppression d'un nud du cluster est une opration destructive qui est irrversible.
45
Remarque
Pour obtenir plus d'informations sur Post Join Delay et Post Fail Delay, reportez-vous la
page man fenced(8).
Remarque
L'ID du cluster est un identifiant unique que cm an gnre pour chaque cluster. Pour voir l'ID
du cluster, excutez la commande cm an_tool status sur un nud de cluster.
Multidiffusion UDP et spcifier l'adresse de multidiffusion manuellement
Si vous devez utiliser une adresse de multidiffusion spcifique, slectionnez cette option et
saisissez une adresse de multidiffusion dans la bote de texte Adresse de multidiffusion.
Si vous spcifiez une adresse de multidiffusion, vous devriez utiliser les sries 239.192.x.x (ou
FF15:: pour IPv6) que cm an utilise. L'utilisation d'une adresse de multidiffusion hors de cette plage
peut causer des rsultats imprvisibles. Par exemple, l'utilisation de 224.0.0.x, qui est "All hosts on
the network" (T ous les htes sur le rseau) pourrait ne pas tre rout correctement, ou mme ne
pas tre rout du tout par le matriel.
46
Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga
Si vous spcifiez ou modifiez une adresse de multidiffusion, vous devrez redmarrer le cluster pour
que celle-ci prenne effet. Pour obtenir des informations sur le dmarrage et l'arrt d'un cluster avec
Conga, reportez-vous la Section 4.4, Dmarrer, arrter, redmarrer et supprimer des clusters .
Note
Si vous spcifiez une adresse de multidiffusion, assurez-vous de bien vrifier la configuration
des routeurs par lesquels les paquets des clusters passent. Certains routeurs prennent
longtemps pour apprendre les adresses, affectant ainsi svrement la performance du
cluster.
Monodiffusion UDP (UDPU)
partir de Red Hat Enterprise Linux 6.2, les nuds dans une grappe peuvent communiquer entre
eux l'aide du mcanisme de transport de monodiffusion UDP. Il est recommand d'utiliser la
multidiffusion IP pour le rseau de grappes. La monodiffusion UDP est une alternative pouvant tre
utilise lorsque la multidiffusion IP est indisponible. La monodiffusion UDP n'est pas recommande
pour les dploiements GFS2.
Cliquez sur Appliquer. Lors de la modification du type de transport, un redmarrage du cluster est
ncessaire pour que les changements prennent effet.
3.5.4 . Configurer le protocole d'anneau redondant ( Redundant Ring )
partir de Red Hat Enterprise Linux 6.4, le module complmentaire Red Hat High Availability prend en
charge la configuration du protocole d'anneau redondant. Lors de l'utilisation du protocole d'anneau
redondant, un certain nombre de considrations sont prendre en compte, comme le dcrit la
Section 7.6, Configurer le protocole d'anneau redondant ( Redundant Ring ) .
Cliquer sur l'onglet Anneau redondant affiche la page Configuration du protocole d'anneau
redondant. Cette page affiche tous les nuds actuellement configurs pour le cluster. Si vous
configurez un systme pour qu'il utilise le protocole d'anneau redondant, vous devrez spcifier le Nom
alterne de chaque nud pour le second anneau.
La page Configuration du protocole d'anneau redondant vous permet de spcifier optionnellement
l'Adresse de multidiffusion de l'anneau alterne, le Port CMAN de l'anneau alterne et le T T L de
paquet de multidiffusion de l'anneau alterne (de l'anglais, Alternate Ring Multicast Packet T T L )
du second anneau.
Si vous spcifiez une adresse de multidiffusion pour le deuxime anneau, l'adresse de multidiffusion
alterne ou le port alterne doit tre diffrent de l'adresse de multidiffusion du premier anneau. Si vous
spcifiez un port alterne, les numros des ports du premier et du second anneau doivent tre diffrents
d'au moins deux car le systme utilise port et port-1pour effectuer des oprations. Si vous ne spcifiez
pas d'adresse de multidiffusion alterne, le systme utilisera automatiquement une adresse de
multidiffusion diffrente pour le second anneau.
3.5.5. Configuration du disque quorum
Cliquer sur l'onglet QDiskaffiche la page Configuration du disque quorum, qui fournit une interface
pour la configuration des paramtres du disque quorum si vous devez utiliser un disque quorum.
Important
Les paramtres et heuristiques du disque quorum dpendent de l'environnement du site et des
pr-requis spciaux ncessaires. Pour comprendre l'utilisation des paramtres et heuristiques
du disque quorum, reportez-vous la page man qdisk(5). Si vous avez besoin d'aide pour la
comprhension et l'utilisation du disque quorum, veuillez contacter un reprsentant autoris du
support Red Hat.
47
Le paramtre Ne pas utiliser un disque quorum est activ par dfaut. Si vous devez utiliser un
disque quorum, cliquez sur Utiliser un disque quorum, saisissez les paramtres du disque quorum,
cliquez sur Appliquer, puis redmarrez le cluster pour que les changements prennent effet.
Le T ableau 3.1, Paramtres du disque quorum dcrit les paramtres du disque quorum.
T ableau 3.1. Paramtres du disque quorum
Paramtre
Description
Spcifier un
priphrique
physique : par
tiquette de
priphrique
Heuristiques
Score minimum qu'un nud doit effectuer pour tre considr comme
vivant . Si oubli, ou si ajust sur 0, floor((n+1)/2), est utilis, o n
est la somme des scores heuristiques. La valeur Score total minimum ne
doit jamais excder la somme des scores heuristiques, sinon le disque
quorum ne pourra pas tre disponible.
Remarque
Cliquer sur Appliquer dans l'onglet Configuration QDisk propage les modifications apportes
au fichier de configuration (/etc/cluster/cluster.conf) dans chaque nud du cluster.
Cependant, pour que le disque quorum puisse oprer ou pour que toute modification apporte
aux paramtres du disque quorum puisse prendre effet, vous devez redmarrer le cluster
(reportez-vous la Section 4.4, Dmarrer, arrter, redmarrer et supprimer des clusters ) et
vous assurer que le dmon qdiskd est redmarr sur chaque nud.
48
Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga
Remarque
S'il s'agit d'une configuration initiale du cluster, aucun priphrique fence n'a t cr, ce qui
explique pourquoi aucun d'entre eux n'est affich.
La Figure 3.5, Page luci de la configuration des priphriques fence montre l'cran de configuration
des priphriques fence avant que tout priphrique fence ne soit cr.
49
50
Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga
Note
Les priphriques fence qui sont en cours d'utilisation ne peuvent pas tre supprims. Pour
supprimer un priphrique fence qu'un nud est en train d'utiliser, mettez tout d'abord la
configuration fence du nud jour pour tout nud utilisant le priphrique puis supprimez le
priphrique.
Pour supprimer un priphrique fence, suivez ces tapes :
1. partir de la page de configuration Priphriques fence, cochez la case gauche du (ou des)
priphrique(s) fence afin de slectionner les priphriques supprimer.
2. Cliquez sur Supprim er et attendez que la configuration soit mise jour. Un message apparat
indiquant quels priphriques sont en cours de suppression.
Lorsque la configuration a t mise jour, le priphrique fence supprim n'apparat plus dans
l'affichage.
51
6. Configurez une instance fence pour cette mthode en cliquant sur le bouton Ajouter une
instance fence qui apparat sous la mthode fence. Ceci affiche un menu droulant Ajouter
un priphrique fence (Instance) partir duquel vous pouvez slectionner un priphrique
fence que vous avez prcdemment configur, comme dcrit dans la Section 3.6.1, Crer un
priphrique fence .
7. Slectionnez un priphrique fence pour cette mthode. Si ce priphrique fence requiert que
vous configuriez des paramtres spcifiques au nud, l'affichage montrera les paramtres
configurer. Pour obtenir des informations sur les paramtres du fencing, reportez-vous
l'Annexe A, Paramtres des priphriques fence.
Note
Pour les mthodes fence qui ne sont pas bases sur l'alimentation (comme le fencing SAN
ou de stockage), Unfencing est slectionn par dfaut sur l'affichage des paramtres
spcifiques au(x) nud(s). Ceci assure que l'accs d'un nud cltur (fenced) au
stockage n'est pas r-activ jusqu' ce que le nud ne soit redmarr. Pour obtenir des
informations sur l'unfencing d'un nud, reportez-vous la page man fence_node(8).
8. Cliquez sur Soum ettre. Cela vous ramne l'cran spcifique aux nuds avec la mthode et
l'instance fence affiches.
3.7.2. Configurer un priphrique fence de sauvegarde
Vous pouvez dfinir de multiples mthodes fence pour un nud. Si le fencing choue avec la premire
mthode, le systme tentera de clturer le nud l'aide de la seconde mthode, puis par toute autre
mthode que vous aurez configure.
Utilisez la procdure suivante pour configurer un priphrique fence de sauvegarde pour un nud.
1. Utilisez la procdure fournie dans la Section 3.7.1, Configurer un priphrique fence unique pour
un nud pour configurer la mthode de fencing primaire pour un nud.
2. Sous l'affichage de la mthode primaire que vous avez dfini, cliquez sur Ajouter une
m thode fence.
3. Saisissez un nom pour la mthode de fencing de sauvegarde que vous avez configur pour ce
nud et cliquez sur Soum ettre. Ceci affiche l'cran spcifique aux nuds, qui montre la
mthode que vous avez ajoute en dessous de la mthode fence primaire.
4. Configurez une instance fence pour cette mthode en cliquant sur Ajouter une instance
fence. Ceci affiche un menu droulant partir duquel vous pouvez slectionner un priphrique
fence que vous aurez prcdemment configur, comme dcrit dans la Section 3.6.1, Crer un
priphrique fence .
5. Slectionnez un priphrique fence pour cette mthode. Si ce priphrique fence requiert que
vous configuriez des paramtres spcifiques au nud, l'affichage montrera les paramtres
configurer. Pour obtenir des informations sur les paramtres du fencing, reportez-vous
l'Annexe A, Paramtres des priphriques fence.
6. Cliquez sur Soum ettre. Cela vous ramne l'cran spcifique aux nuds avec la mthode et
l'instance fence affiches.
Vous pouvez continuer ajouter des mthodes de fencing comme ncessaire. Vous pouvez rarranger
l'ordre des mthodes fence qui seront utilises pour ce nud en cliquant sur Move Up (Haut) et Move
Down (Bas).
3.7.3. Configurer un nud avec une alimentation redondante
Si votre cluster est configur avec une alimentation redondante pour vos nuds, vous devez vous
assurer de configurer le fencing de manire ce que vos nuds s'teignent compltement lorsqu'ils
ont besoin d'tre clturs (fenced). Si vous configurez chaque source d'alimentation en tant que
mthode fence spare, chaque alimentation devra tre clture (fenced) sparment ; la seconde
52
Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga
53
54
Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga
Remarque
La caractristique failback est uniquement applicable si le basculement ordered est configur.
Remarque
Modifier la configuration d'un domaine de basculement n'a aucun effet sur les services en cours
d'excution.
Remarque
Les domaines de basculement ne sont pas requis pour les oprations.
Par dfaut, les domaines de basculement sont unrestricted et unordered.
Dans un cluster possdant plusieurs membres, l'utilisation d'un domaine de basculement restricted peut
minimiser le travail de paramtrage du cluster pour qu'il excute un service cluster (comme httpd), qui
requiert que vous paramtriez la configuration de manire identique sur tous les membres excutant le
service cluster. Au lieu de paramtrer le cluster entier afin qu'il excute le service cluster, il vous est
possible de paramtrer uniquement les membres dans le domaine de basculement restricted que vous
associerez au service cluster.
Remarque
Pour configurer un membre prfr, vous pouvez crer un domaine de basculement unrestricted
comprenant uniquement un membre du cluster. Faire ceci cause au service cluster de s'excuter
sur ce membre du cluster en premier (le membre prfr), mais permet au service cluster de
basculer sur tout autre membre.
Les sections suivantes dcrivent l'addition, la modification et la suppression d'un domaine de
basculement :
Section 3.8.1, Ajouter un domaine de basculement
Section 3.8.2, Modifier un domaine de basculement
Section 3.8.3, Supprimer un domaine de basculement
3.8.1. Ajouter un domaine de basculement
Pour ajouter un domaine de basculement, suivez les tapes de cette section.
1. partir de la page spcifique aux clusters, vous pouvez configurer des domaines de basculement
pour ce cluster en cliquant sur Domaines de basculement en haut de l'affichage des clusters.
Ceci affiche les domaines de basculement qui ont t configurs pour ce cluster.
2. Cliquez sur Ajouter. Cliquer sur Ajouter affichera la bote de dialogue Ajouter le dom aine
de basculem ent au cluster, comme dcrit dans la Figure 3.7, Bote de dialogue luci de la
configuration du domaine de basculement .
55
3. Dans la bote de dialogue Ajouter un dom aine de basculem ent au cluster, spcifiez
un nom de domaine de basculement dans la bote de texte Nom.
Note
Le nom doit tre suffisamment descriptif pour distinguer son but par rapport aux autres
noms utiliss dans votre cluster.
4. Pour activer le paramtrage de la priorit des basculements des membres dans le domaine de
basculement, cliquez sur la case cocher Prioritized (Prioriss). Lorsque Prioritized est coch,
vous pouvez paramtrer la valeur de priorit Priority (Priorit) pour chaque nud slectionn en
tant que membre du domaine de basculement.
5. Pour restreindre le basculement aux membres dans ce domaine de basculement, cliquez sur la
case cocher Restricted (Restreint). Lorsque Restricted est coch, les services assigns ce
domaine de basculement ne basculent que sur les nuds dans ce domaine de basculement.
6. Pour spcifier qu'un nud ne bascule pas dans ce domaine de basculement, cliquez sur la case
cocher No Failback (Pas de basculement). Lorsque No Failback est coch, si un service
bascule depuis un nud prfr, ce service ne basculera pas vers le nud d'origine une fois
que celui-ci est restaur.
7. Configurez les membres de ce domaine de basculement. Cliquez sur la case cocher Membre
de chaque nud devant tre un membre du domaine de basculement. Si Prioritized est coch,
paramtrez la priorit dans la bote de texte Priority pour chaque membre du domaine de
basculement.
8. Cliquez sur Crer. Ceci affiche la page Dom aines de basculem ent en affichant le domaine
de basculement nouvellement cr. Un message indique que le nouveau domaine est en cours de
cration. Ractualisez la page pour mettre jour l'tat.
3.8.2. Modifier un domaine de basculement
56
Chapitre 3. Configurer le module complmentaire Red Hat High Availability avec Conga
57
Remarque
Utilisez un nom descriptif qui distingue clairement le service des autres services dans le
cluster.
4. Cochez la case Dmarrer ce service automatiquement si vous souhaitez que ce service
dmarre automatiquement lorsqu'un cluster est lanc et fonctionne. Si la case n'est pas coche, le
service devra tre lanc manuellement chaque fois que le cluster sortira de l'tat arrt.
5. Cochez la case Run exclusive pour dfinir une stratgie avec laquelle le service ne s'excute
que sur des nuds sur lesquels aucun autre service ne s'excute.
6. Si vous avez configur des domaines de basculement pour le cluster, vous pouvez utiliser le
menu droulant du paramtre Domaine de basculement pour slectionner un domaine de
basculement pour ce service. Pour obtenir des informations sur la configuration de domaines de
basculement, voir la Section 3.8, Configurer un domaine de basculement .
7. Utilisez la bote droulante Politique de rcupration pour slectionner une politique de
rcupration pour le service. Les options pour le service sont Relocate (Dplacer), Restart
(Redmarrer), Restart-Disable (Redmarrer-dsactiver), ou Disable (Dsactiver).
Slectionner l'option Restart (redmarrer) indique que le systme devrait tenter de redmarrer le
service en chec avant de le dplacer. Slectionner l'option Relocate (dplacer) indique que le
systme devrait tenter de redmarrer le service dans un autre nud. Slectionner l'option
Disable (dsactiver) indique que le systme devrait dsactiver le groupe de ressources si l'un
des composants choue. Slectionner l'option Restart-Disable (redmarrer-dsactiver) indique
que le systme devrait tenter de redmarrer le service sa place s'il choue, mais si le
redmarrage choue, alors le service sera dsactiv au lieu d'tre dplac vers un autre hte
dans le cluster.
Si vous slectionnez Restart ou Restart-Disable en tant que politique de rcupration pour le
service, vous pourrez spcifier le nombre maximum d'checs de redmarrage avant le
dplacement ou la dsactivation du service. Vous pouvez aussi spcifier (en secondes) partir
de combien de temps il ne faudra plus effectuer de redmarrages.
8. Pour ajouter une ressource au service, cliquez sur Ajouter une ressource. Cliquer sur
Ajouter une ressource affiche la bote droulante de l'cran Ajouter une ressource
au service qui vous permet d'ajouter une ressource globale existante ou d'ajouter une nouvelle
ressource qui est uniquement disponible ce service.
Pour ajouter une ressource globale existante, cliquez sur le nom de la ressource existante
dans la bote droulante Ajouter une ressource au service. Ceci affiche la ressource
et ses paramtres sur la page Groupes de services pour le service que vous configurez.
Pour obtenir des informations sur l'ajout et sur la modification des ressources globales, voir la
Section 3.9, Configurer les ressources globales du cluster .
58
Chapitre 4. Grer le module complmentaire Red Hat High Availability avec Conga
Remarque
Si vous tes en train d'ajouter une ressource du service Samba, ajoutez-la directement au
service, et non pas en tant qu'enfant d'une autre ressource.
10. Lorsque vous aurez fini d'ajouter des ressources au service et des ressources enfant aux
ressources, cliquez sur Soum ettre. Cliquer sur Soum ettre vous ramne la page Groupes
de services, qui affiche le service ajout (et les autres services).
Remarque
Pour vrifier l'existence de la ressource du service IP utilise dans un service cluster, vous
pouvez utiliser la commande /sbin/ip addr show sur un nud de cluster (plutt que la
commande obsolte ifconfig). La sortie suivante montre la commande /sbin/ip addr
show excute sur un nud qui excute un service cluster :
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP> mtu 1356 qdisc pfifo_fast qlen 1000
link/ether 00:05:5d:9a:d8:91 brd ff:ff:ff:ff:ff:ff
inet 10.11.4.31/22 brd 10.11.7.255 scope global eth0
inet6 fe80::205:5dff:fe9a:d891/64 scope link
inet 10.11.4.240/22 scope global secondary eth0
valid_lft forever preferred_lft forever
59
1. partir de la bote de dialogue Groupes de services, cliquez sur le nom du service modifier.
Ceci affiche les paramtres et les ressources qui ont t configurs pour ce service.
2. Modifiez les paramtres de service.
3. Cliquez sur Subm it (Soumettre).
Pour supprimer un ou plusieurs service(s) existant(s), procdez aux tapes suivantes.
1. partir de la page luci Groupes de services, cliquez sur la case cocher pour supprimer tout
service.
2. Cliquez sur Delete (supprimer).
3. partir de Red Hat Enterprise Linux 6.3, avant que luci ne supprime un (ou plusieurs) service(s),
un message s'affiche vous demandant de confirmer si vous souhaitez bien supprimer le ou les
groupe(s) de services, ce qui arrte les ressources qui le ou qui les contiennent. Cliquez sur
Annuler pour fermer la bote de dialogue sans supprimer de services, ou sur Procder pour
supprimer le ou les service(s) slectionn(s).
60
Chapitre 4. Grer le module complmentaire Red Hat High Availability avec Conga
61
62
Chapitre 4. Grer le module complmentaire Red Hat High Availability avec Conga
Remarque
Pour permettre aux services excuts sur nud de basculer lorsque le nud est
supprim, ignorez l'tape suivante.
2. Dsactivez ou dplacez chaque service en cours d'excution sur le nud supprimer. Pour
obtenir des informations sur la dsactivation et le dplacement des services, voir la Section 4.5,
Grer les services High-Availability .
3. Slectionnez le ou les nud(s) supprimer.
63
4. Cliquez sur Supprimer. La page n uds indique que le nud est en cours de suppression.
Ractualisez la page pour voir le statut actuel.
Important
La suppression d'un nud de cluster
Important
La suppression d'un cluster est une opration destructive qui ne peut pas tre annule.
Restaurer un cluster aprs l'avoir supprim ncessite de recrer et redfinir le cluster depuis le
dbut.
1. Slectionnez tous les nuds dans le cluster en cliquant sur la case cocher ct de chaque
nud.
2. Slectionnez la fonction Supprimer du menu en haut de la page.
Si vous souhaitez supprimer un cluster de l'interface luci sans arrter le moindre service cluster ou
sans modifier l'appartenance du cluster, vous pouvez utiliser l'option Supprimer sur la page Grer les
64
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Note
Si le service que vous avez slectionn est un service vm , la bote droulante affichera
l'option m igrer au lieu de l'option dplacer.
Note
Vous pouvez aussi dmarrer, redmarrer, dsactiver ou supprimer un service individuel en
cliquant sur le nom du service sur la page Services. Ceci affiche la page de configuration du
service. En haut droite de la page de configuration du service se trouvent les mmes icnes
pour Dmarrer, Redmarrer, Dsactiver et Supprimer.
65
partir de Red Hat Enterprise Linux 6.2, vous pouvez utiliser la procdure suivante pour effectuer une
copie de sauvegarde de la base de donnes luci, qui est stocke dans le fichier
/var/lib/luci/data/luci.db. Il ne s'agit pas de la configuration du cluster, qui est stock dans le
fichier cluster.conf. Au contraire, ce fichier contient la liste des utilisateurs, des clusters et des
proprits lies que luci maintient. Par dfaut, la sauvegarde que cette procdure cre sera crite sur le
mme rpertoire que le fichier luci.db.
1. Excutez service luci stop.
2. Excutez service luci backup-db.
Optionnellement, vous pouvez spcifier un nom de fichier en tant que paramtre pour la
commande backup-db, qui crira la base de donnes luci sur ce fichier. Par exemple, pour
crire la base de donnes luci sur le fichier /root/luci.db.backup, vous pouvez excuter la
commande service luci backup-db /root/luci.db.backup. Remarquez cependant que
les fichiers de sauvegarde qui sont crits sur des emplacements autres que
/var/lib/luci/data/ (pour les sauvegardes dont les noms de fichiers sont spcifis lors de
l'utilisation de service luci backup-db) n'apparatront pas dans la sortie de la commande
list-backups.
3. Excutez service luci start.
Utilisez la procdure suivante pour restaurer une base de donnes luci.
1. Excutez service luci stop.
2. Excutez service luci list-backups et notez le nom du fichier restaurer.
3. Excutez service luci restore-db /var/lib/luci/data/lucibackupfile, o
lucibackupfile est le fichier de sauvegarde restaurer.
Par exemple, la commande suivante restaure les informations de configuration luci qui taient
stockes dans le fichier luci-backup20110923062526.db :
service luci restore-db /var/lib/luci/data/luci-backup20110923062526.db
2. Sur la machine luci2, assurez-vous que luci a t install et n'est pas en cours d'excution.
Installez le paquet s'il ne l'a pas dj t.
3. Excutez la squence de commandes suivante afin de vous assurer que les authentifications
sont effectues et pour restaurer la base de donnes luci de luci1 sur luci2.
66
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
[root@luci2
[root@luci2
[root@luci2
[root@luci2
[root@luci2
~]#
~]#
~]#
~]#
~]#
cp host.pem /var/lib/luci/certs/
chown luci: /var/lib/luci/certs/host.pem
/etc/init.d/luci restore-db ~/luci-backup20120504134051.db
shred -u ~/host.pem ~/luci-backup20120504134051.db
service luci start
67
Important
Assurez-vous que le dploiement du module complmentaire High Availability rpond bien vos
besoins et qu'il est pris en charge. Consultez un reprsentant Red Hat autoris afin de vrifier
votre configuration avant le dploiement. En outre, prvoyez suffisamment de temps pour une
priode de rodage de la configuration afin de tester les diffrents modes d'chec.
Important
Ce chapitre fait rfrence aux lments et attributs de cluster.conf communment utiliss.
Pour obtenir la liste et la description complte des lments et attributs cluster.conf,
reportez-vous au schma des clusters sur /usr/share/cluster/cluster.rng, et au
schma annot sur /usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l (par exemple,
/usr/share/doc/cm an-3.0.12/cluster_conf.htm l).
68
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Pour crer et modifier un fichier de configuration de cluster sur un systme local, utilisez l'option -f de
la commande ccs pour spcifier le nom du fichier de configuration lorsque vous effectuez une opration
de cluster. Vous pouvez nommer ce fichier comme bon vous semble.
ccs -f file [options]
Aprs avoir cr le fichier localement, vous pouvez l'envoyer un nud de cluster l'aide de l'option -setconf de la commande ccs. Sur une machine hte dans un cluster, le fichier envoy sera nomm
cluster.conf et sera plac dans le rpertoire /etc/cluster.
ccs -h host -f file --setconf
Pour obtenir des informations sur l'utilisation de l'option --setconf de la commande ccs, voir la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
5.1.2. Afficher la configuration actuelle du cluster
Si tout moment pendant la cration d'un fichier de configuration de cluster, vous souhaitez imprimer le
fichier actuel, veuillez utiliser la commande suivante, en spcifiant un nud dans le cluster en tant
qu'hte :
ccs -h host --getconf
Si vous crez le fichier de configuration de votre cluster sur un systme local, vous pouvez spcifier
l'option -f au lieu de l'option -h, comme dcrit dans la Section 5.1.1, Crer le fichier de configuration
du cluster sur un systme local .
5.1.3. Spcifier les mots de passe ricci avec la commande css
L'excution de commandes ccs qui distribuent des copies du fichier cluster.conf aux nuds d'un
cluster requiert que ricci soit install et excut sur les nuds du cluster, comme dcrit dans la
Section 2.13, Considrations pour ricci . L'utilisation de ricci requiert un mot de passe la premire
fois que vous aurez une interaction avec ricci, et ce, depuis n'importe quelle machine spcifique.
Si vous n'avez pas saisi de mot de passe pour une instance de ricci sur une machine en particulier
partir de la machine que vous utilisez, il vous sera demand ce mot de passe lorsque la commande ccs
le requerra. Alternativement, vous pouvez utiliser l'option -p pour spcifier un mot de passe ricci sur la
ligne de commande.
69
Lorsque vous propagez le fichier cluster.conf vers tous les nuds du cluster avec l'option --sync
de la commande ccs et que vous spcifiez un mot de passe ricci pour la commande, la commande ccs
utilisera ce mot de passe pour chaque nud du cluster. Si vous devez dfinir diffrents mots de passe
pour ricci sur des nuds individuels, vous pouvez utiliser l'option --setconf avec l'option -p pour
distribuer le fichier de configuration sur un nud la fois.
5.1.4 . Modifier les composants de la configuration du cluster
Utilisez la commande ccs pour configurer les composants du cluster et leurs attributs dans le fichier de
configuration du cluster. Aprs avoir ajout un composant de cluster au fichier dans le but de modifier
les attributs de ce composant, vous devrez supprimer le composant quvous avez dfini puis ajouter ce
composant nouveau, avec les attributs modifis. Des informations sur la manire d'effectuer cela avec
chaque composant sont fournies dans des sections individuelles de ce chapitre.
Les attributs du composant de cluster cm an fournissent une exception cette procdure pour modifier
les composants de clusters. Pour modifier ces attributs, excutez l'option --setcm an de la commande
ccs, en spcifiant les nouveaux attributs. Remarquez que spcifier cette option r-initialisera toutes les
valeurs que vous n'aurez pas explicitement spcifi comme tant des valeurs par dfaut, comme le
dcrit la Section 5.1.5, Commandes remplaant les paramtres prcdents .
5.1.5. Commandes remplaant les paramtres prcdents
Il existe plusieurs options de la commande ccs qui implmentent des smantiques de remplacement
lors de la dfinition de proprits. Cela signifie que vous pouvez excuter la commande ccs avec l'une
de ces options sans spcifier de paramtres et tous les paramtres seront r-initialiss leurs valeurs
par dfaut. Ces options sont comme suit :
--settotem
--setdlm
--setrm
--setcm an
--setm ulticast
--setaltm ulticast
--setfencedaem on
--setlogging
--setquorum d
Par exemple, pour rinitialiser toutes les proprits du dmon fence, vous pouvez excuter la
commande suivante :
# ccs -h hostname --setfencedaemon
Remarquez cependant que si vous utilisez l'une de ces commandes pour rinitialiser une proprit,
alors les autres proprits de la commande seront rinitialises leurs valeurs par dfaut. Par exemple,
vous pouvez utiliser la commande suivante pour dfinir la proprit post_fail_delay sur 5 :
# ccs -h hostname --setfencedaemon post_fail_delay=5
Si, aprs avoir excut cette commande, vous excutez la commande suivante pour rinitialiser la
proprit post_join_delay sur 10, la proprit post_fail_delay sera restaure sa valeur par
dfaut :
# ccs -h hostname --setfencedaemon post_join_delay=10
70
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Pour obtenir des informations supplmentaires sur la configuration de priphriques fence, reportezvous la Section 5.5, Configuration des priphriques fence .
5.1.6. Validation de la configuration
Lorsque vous utilisez la commande ccs pour crer et modifier le fichier de configuration du cluster, la
configuration est automatiquement valide selon le schma du cluster. partir de Red Hat Enterprise
Linux 6.3, la commande ccs valide la configuration selon le schma du cluster de
/usr/share/cluster/cluster.rng sur le nud que spcifierez avec l'option -h. Auparavant, la
commande ccs utilisait toujours le schma du cluster empaquet avec la commande ccs-mme,
/usr/share/ccs/cluster.rng sur le systme local. Lorsque vous utilisez l'option -f pour spcifier
le systme local, la commande ccs utilise toujours le schma du cluster
/usr/share/ccs/cluster.rng qui tait empaquet avec la commande ccs-mme sur ce systme.
71
Une fois que ricci a bien t install et configur sur chaque nud, lancez le service ricci sur chaque
nud :
# service ricci start
Starting ricci:
OK
Par exemple, la commande suivante cre un fichier de configuration sur node01.exam ple.com nomm m ycluster :
ccs -h node-01.example.com --createcluster mycluster
Par exemple, les trois commandes suivantes ajoutent les nuds node-01.exam ple.com ,
node-02.exam ple.com , et node-03.exam ple.com au fichier de configuration sur node01.exam ple.com :
ccs -h node-01.example.com --addnode node-01.example.com
ccs -h node-01.example.com --addnode node-02.example.com
ccs -h node-01.example.com --addnode node-03.example.com
Pour afficher une liste des nuds qui ont t configurs pour un cluster, excutez la commande
suivante :
ccs -h host --lsnodes
L'Exemple 5.1, Fichier cluster.conf aprs l'ajout de trois nuds affiche un fichier de
configuration cluster.conf une fois que vous avez cr le cluster m ycluster, celui-ci contient
les nuds node-01.exam ple.com , node-02.exam ple.com et node-03.exam ple.com .
72
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Lorsque vous ajoutez un nud au cluster, vous pouvez spcifier le nombre de votes auquel le
nud contribue afin de dterminer si le quorum est atteint. Pour ajuster le nombre de vote d'un
nud de cluster, veuillez utiliser la commande suivante :
ccs -h host --addnode host --votes votes
Lorsque vous ajoutez un nud, ccs assigne celui-ci un entier unique qui est utilis en tant
qu'identifiant de nud. Sivous souhaitez spcifier l'identifiant du nud manuellement lorsque
vous crez un nud, utilisez la commande suivante :
ccs -h host --addnode host --nodeid nodeid
Une fois que vous aurez termin de configurer tous les composants de votre cluster, vous devrez
synchroniser le fichier de configuration du cluster avec tous les nuds, comme le dcrit la Section 5.15,
Propager le fichier de configuration sur les nuds du cluster .
73
attend avant de fencer n noeud (un membre du domaine fence) une fois que celui-ci a chou.
L'attribut post-join_delay correspond au nombre de secondes que le dmon Fence (fenced)
attend avant de clturer un nud aprs que le nud a rejoint le domaine fence. La valeur par dfaut
de post_join_delay est 6. T ypiquement, le paramtre de dlai de post_join_delay se situe
entre 20 et 30 secondes, mais celui-ci peut varier en fonction de la performance du cluster et du
rseau.
Rinitialiser les valeurs des attributs post_fail_delay et post_join_delay avec l'option -setfencedaem on de la commande ccs. Remarquez cependant que l'excution de la commande ccs
--setfencedaem on remplace toutes les proprits du dmon fence existant ayant t explicitement
paramtres et restaurera leurs valeurs par dfaut.
Par exemple, pour configurer une valeur pour l'attribut post_fail_delay, excutez la commande
suivante. Cette commande remplacera les valeurs de toutes les autres proprits existantes du dmon
fence que vous aurez paramtr avec cette commande et restaurera leurs valeurs par dfaut.
ccs -h host --setfencedaemon post_fail_delay=value
Pour configurer une valeur pour l'attribut post_join_delay, excutez la commande suivante. Cette
commande remplacera les valeurs de toutes les autres proprits existantes du dmon fence que vous
aurez paramtr avec cette commande et restaurera leurs valeurs par dfaut.
ccs -h host --setfencedaemon post_join_delay=value
Pour configurer une valeur pour l'attribut post_join_delay et post_fail_delay, veuillez excuter
la commande suivante :
ccs -h host --setfencedaemon post_fail_delay=value post_join_delay=value
Note
Pour obtenir plus d'informations sur les attributs post_join_delay et post_fail_delay
ainsi que sur les proprits supplmentaires du dmon fence que vous pouvez modifier,
reportez-vous la page man fenced(8), au schma des clusters sur
/usr/share/cluster/cluster.rng et au schma annot sur /usr/share/doc/cm anX.Y.ZZ/cluster_conf.htm l.
Pour configurer un priphrique fence pour un cluster, excutez la commande suivante :
ccs -h host --addfencedev devicename [fencedeviceoptions]
Par exemple, pour configurer un priphrique fence APC dans le fichier de configuration sur le nud du
cluster node1 nomm m yfence avec l'adresse IP apc_ip_exam ple, l'identifiant de connexion
login_exam ple, et le mot de passe password_exam ple, excutez la commande suivante :
ccs -h node1 --addfencedev myfence agent=fence_apc ipaddr=apc_ip_example
login=login_example passwd=password_example
74
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example"
login="login_example" name="myfence" passwd="password_example"/>
</fencedevices>
Lors de la configuration de priphriques fence pour un cluster, vous trouverez utile de pouvoir afficher
une liste des priphriques disponibles pour votre cluster et les options qui leurs sont disponibles.
Vous trouverez tout aussi utile la prsence d'une liste des priphriques fence actuellement configurs
pour votre cluster. Pour obtenir des informations sur l'utilisation de la commande ccs pour imprimer une
liste des priphriques fence et options disponibles ou pour imprimer une liste des priphriques fence
actuellement configurs pour votre cluster, reportez-vous la Section 5.6, Rpertorier les
priphriques fence et les options de priphriques fence .
Pour supprimer un priphrique fence de la configuration de votre cluster, excutez la commande
suivante :
ccs -h host --rmfencedev fence_device_name
Par exemple, pour supprimer un priphrique fence que vous auriez nomm m yfence depuis le fichier
de configuration du cluster du nud de cluster node1, excutez la commande suivante :
ccs -h node1 --rmfencedev myfence
Si vous devez modifier les attributs d'un priphrique fence que vous avez dj configur, vous devrez
d'abord supprimer ce priphrique fence puis l'ajouter nouveau avec les attributs modifis.
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
Par exemple, la commande suivante rpertorie les priphriques fence disponibles sur le nud node1
du cluster, affichant un exemple de sortie.
75
Pour imprimer une liste des options que vous pouvez spcifier pour un type fence particulier, excutez
la commande suivante :
ccs -h host --lsfenceopts fence_type
Par exemple, la commande suivante rpertorie les options fence pour l'agent fence fence_wti.
76
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Pour imprimer une liste des priphriques fence actuellement configurs pour votre cluster, excutez la
commande suivante :
ccs -h host --lsfencedev
Par exemple, pour configurer une mthode fence nomme APC pour le nud node01.exam ple.com dans le fichier de configuration sur le nud du cluster node-
77
2. Ajoutez une instance fence la mthode. Vous devez spcifier le priphrique fence utiliser
pour le nud, le nud auquel s'applique cette instance, le nom de la mthode, et toute autre
option de cette mthode qui serait spcifique ce nud :
ccs -h host --addfenceinst fencedevicename node method [options]
Par exemple, pour configurer une instance fence dans le fichier de configuration sur le nud du
cluster node-01.exam ple.com qui utilise le port d'alimentation 1 de l'interrupteur APC sur le
priphrique fence nomm apc pour clore le nud du cluster node-01.exam ple.com l'aide
de la mthode nomme APC, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst apc node01.example.com APC port=1
Vous devrez ajouter une mthode fence pour chaque nud du cluster. Les commande suivantes
configurent une mthode fence pour chaque nud avec la mthode nomme APC. Le priphrique pour
la mthode fence spcifie apc comme nom de priphrique, qui est un priphrique prcdemment
configur avec l'option --addfencedev, comme le dcrit la Section 5.5, Configuration des
priphriques fence . Chaque nud est configur avec un numro de port d'alimentation de
l'interrupteur APC unique : le numro de port de node-01.exam ple.com est 1, le numro de port de
node-02.exam ple.com est 2, et le numro de port de node-03.exam ple.com est 3.
ccs
ccs
ccs
ccs
ccs
ccs
-h
-h
-h
-h
-h
-h
node01.example.com
node01.example.com
node01.example.com
node01.example.com
node01.example.com
node01.example.com
L'Exemple 5.2, cluster.conf aprs avoir ajout des mthodes fence bases sur l'alimentation
montrera un fichier de configuration cluster.conf une fois que vous aurez ajout ces mthodes et
instances de fencing chaque nud du cluster.
78
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Exemple 5.2. cluster.conf aprs avoir ajout des mthodes fence bases sur
l'alimentation
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
5.7.2. Configurer un priphrique fence unique bas sur stockage pour un nud
Lors de l'utilisation de mthodes fence sans alimentation (de l'anglais, non-power fencing methods .
Par exemple, le fencing de rseaux SAN ou de stockage) pour clturer un nud, vous devez configurer
unfencing pour le priphrique fence. Cela vous permet de vous assurer qu'un nud cltur ne sera
pas r-activ avant que le nud ne soit redmarr. Lorsque vous configurez unfencing pour un nud,
vous spcifiez un priphrique qui met en miroir le priphrique fence correspondant que vous avez
configur pour le nud avec l'addition notable de l'action explicite de on ou de enable.
Pour obtenir plus d'informations sur le processus pour unfence un nud, reportez-vous la page man
fence_node(8).
Utilisez la procdure suivante pour configurer un nud avec un priphrique fence unique bas sur
stockage qui utilise un priphrique fence nomm sanswitch1 utilisant l'agent de fencing
fence_sanbox2.
1. Ajoutez une mthode fence pour le nud, en fournissant un nom pour la mthode fence.
ccs -h host --addmethod method node
79
Par exemple, pour configurer une mthode fence nomme SAN pour le nud node01.exam ple.com dans le fichier de configuration du nud du cluster node01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --addmethod SAN
node01.example.com
2. Ajoutez une instance fence la mthode. Vous devez spcifier le priphrique fence utiliser
pour le nud, le nud auquel s'applique cette instance, le nom de la mthode, et toute autre
option de cette mthode qui serait spcifique ce nud :
ccs -h host --addfenceinst fencedevicename node method [options]
Par exemple, pour configurer une instance fence dans le fichier de configuration du nud du
cluster node-01.exam ple.com qui utilise le port d'alimentation 11 de l'interrupteur SAN sur le
priphrique fence nomm sanswitch1 afin qu'il clture le nud du cluster node01.exam ple.com l'aide de la mthode nomme SAN, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN
port=11
3. Pour configurer unfencing pour le priphrique fence bas sur stockage de ce nud, excutez la
commande suivante :
ccs -h host --addunfence fencedevicename node action=on|off
Vous devrez ajouter une mthode fence pour chaque nud dans le cluster. Les commandes suivantes
configurent une mthode fence pour chaque nud avec la mthode nomme SAN. Le priphrique de la
mthode fence spcifie sanswitch comme nom de priphrique, qui est un priphrique prcdemment
configur avec l'option --addfencedev, comme le dcrit la Section 5.5, Configuration des priphriques
fence . Chaque nud est configur avec un numro de port physique SAN unique : le numro de port
de node-01.exam ple.com est 11, le numro de port de node-02.exam ple.com est 12, et le
numro de port de node-03.exam ple.com est 13.
ccs -h node01.example.com
ccs -h node01.example.com
ccs -h node01.example.com
ccs -h node01.example.com
ccs -h node01.example.com
ccs -h node01.example.com
ccs -h node01.example.com
action=on
ccs -h node01.example.com
action=on
ccs -h node01.example.com
action=on
L'Exemple 5.3, cluster.conf aprs avoir ajout des mthodes fence bas sur stockage montre
un fichier de configuration cluster.conf aprs avoir ajout des mthodes de fencing, des instances
de fencing et l'unfencing chaque nud du cluster.
80
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Exemple 5.3. cluster.conf aprs avoir ajout des mthodes fence bas sur stockage
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
5.7.3. Configurer un priphrique fence de sauvegarde
Vous pouvez dfinir de multiples mthodes de fencing pour un nud. Si le fencing choue lors de
l'utilisation de la premire mthode, le systme tentera de clturer le nud l'aide de la seconde
mthode, puis par toute mthode supplmentaire configure. Pour configurer une mthode de fencing de
sauvegarde pour un nud, configurez deux mthodes pour un nud tout en configurant une instance
fence pour chaque mthode.
81
Note
L'ordre dans lequel le systme utilisera les mthodes de fencing que vous avez configur suit
l'ordre dans le fichier de configuration du cluster. La premire mthode configure avec la
commande ccs est la mthode de fencing primaire et la seconde mthode configure est la
mthode de fencing de sauvegarde. Pour changer l'ordre, vous pouvez supprimer la mthode de
fencing primaire du fichier de configuration, puis ajoutez cette mthode nouveau.
Remarquez qu' tout moment, il vous est possible d'imprimer une liste des mthodes et instances fence
actuellement configures pour un nud en excutant la commande suivante. Si vous ne spcifiez pas
de nud, cette commande rpertoriera les mthodes et instances fence actuellement configures pour
tous les nuds.
ccs -h host --lsfenceinst [node]
Utilisez la procdure suivante pour configurer un nud avec une mthode de fencing primaire qui utilise
un priphrique fence nomm apc qui utilise l'agent de fencing fence_apc et un priphrique de
fencing de sauvegarde utilisant un priphrique fence nomm sanswitch1 qui utilise l'agent de fencing
fence_sanbox2. Comme le priphrique sanswitch1 est un agent de fencing bas sur stockage,
vous devrez aussi configurer l'unfencing pour ce priphrique.
1. Ajouter une mthode fence primaire pour le nud, en fournissant un nom pour la mthode fence.
ccs -h host --addmethod method node
Par exemple, pour configurer une mthode fence nomme APC comme mthode primaire pour le
nud node-01.exam ple.com dans le fichier de configuration sur le nud du cluster node01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --addmethod APC node01.example.com
2. Ajoutez une instance fence pour la mthode primaire. Vous devez spcifier le priphrique fence
utiliser pour le nud, le nud auquel s'applique cette instance, le nom de la mthode et toutes
les options de cette mthode qui sont spcifiques ce nud :
ccs -h host --addfenceinst fencedevicename node method [options]
Par exemple, pour configurer une instance fence dans le fichier de configuration sur le nud du
cluster node-01.exam ple.com qui utilise le port d'alimentation 1 de l'interrupteur APC sur le
priphrique fence nomm apc pour clore le nud du cluster node-01.exam ple.com l'aide
de la mthode nomme APC, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst apc node01.example.com APC port=1
3. Ajoutez une mthode fence de sauvegarde pour ce nud, tout en fournissant un nom pour la
mthode fence.
ccs -h host --addmethod method node
Par exemple, pour configurer une mthode fence de sauvegarde nomme SAN pour le nud
node-01.exam ple.com dans le fichier de configuration sur le nud du cluster node01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --addmethod SAN
node01.example.com
4. Ajoutez une instance fence pour la mthode de sauvegarde. Vous devez spcifier le priphrique
82
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
fence utiliser pour le nud, le nud auquel s'applique cette instance, le nom de la mthode et
toutes les options de cette mthode qui sont spcifiques ce nud :
ccs -h host --addfenceinst fencedevicename node method [options]
Par exemple, pour configurer une instance fence dans le fichier de configuration du nud du
cluster node-01.exam ple.com qui utilise le port d'alimentation 11 de l'interrupteur SAN sur le
priphrique fence nomm sanswitch1 afin qu'il clture le nud du cluster node01.exam ple.com l'aide de la mthode nomme SAN, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN
port=11
5. Comme le priphrique sanswitch1 est un priphrique bas sur stockage, vous devez
configurer unfencing pour celui-ci.
ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11
action=on
Vous pouvez continuer ajouter des mthodes de fencing selon vos besoins.
Cette procdure configure un priphrique fence et un priphrique fence de sauvegarde pour un nud
dans le cluster. Vous devrez aussi configurer le fencing pour les autres nuds.
L'Exemple 5.4, cluster.conf aprs avoir ajout des mthodes fence de sauvegarde montre un
fichier de configuration cluster.conf aprs avoir ajout une mthode de fencing primaire bas sur
l'alimentation et une mthode de fencing de sauvegarde bas sur stockage chaque nud du cluster.
83
Exemple 5.4 . cluster.conf aprs avoir ajout des mthodes fence de sauvegarde
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
84
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Note
L'ordre dans lequel le systme utilisera les mthodes de fencing que vous avez configur suit
l'ordre dfini dans le fichier de configuration. La premire mthode configure est la mthode de
fencing primaire, la seconde mthode configure est la mthode de fencing de sauvegarde. Pour
modifier cet ordre, vous pouvez supprimer la mthode de fencing primaire du fichier de
configuration, puis ajoutez-la nouveau.
2. Ajoutez une mthode fence pour le nud, en fournissant un nom pour la mthode fence.
ccs -h host --addmethod method node
Par exemple, pour configurer une mthode nomme APC-dual pour le nud node01.exam ple.com dans le fichier de configuration du nud du cluster node01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --addmethod APC-dual node01.example.com
3. Ajoutez une instance fence pour la premire alimentation lectrique la mthode fence. Vous
devez spcifier le priphrique fence utiliser pour le nud, le nud auquel cette instance
s'applique, le nom de la mthode, et toutes les options de cette mthode qui sont spcifiques ce
nud. ce moment, configurez l'attribut action sur off.
ccs -h host --addfenceinst fencedevicename node method [options] action=off
Par exemple, pour configurer une instance fence dans le fichier de configuration du nud du
cluster node-01.exam ple.com , qui utilise le port d'alimentation 1 de l'interrupteur APC du
priphrique fence nomm apc1, pour clturer le nud du cluster node-01.exam ple.com , qui
utilise la mthode nomme APC-dual, et pour paramtrer l'attribut action sur off, excutez la
commande suivante :
85
4. Ajoutez une instance fence pour la seconde alimentation la mthode fence. Vous devez
spcifier le priphrique fence utiliser pour le nud, le nud auquel s'applique cette instance,
le nom de la mthode et toutes les options de cette mthode qui sont spcifiques ce nud. ce
moment, configurez aussi l'attribut action sur off pour cette instance :
ccs -h host --addfenceinst fencedevicename node method [options] action=off
Par exemple, pour configurer une seconde instance fence dans le fichier de configuration du
nud du cluster node-01.exam ple.com , qui utilise le port d'alimentation 1 de l'interrupteur
APC du priphrique fence nomm apc2, pour clturer le nud du cluster node01.exam ple.com , qui utilise la mme mthode que pour la premire instance nomme APCdual, et pour paramtrer l'attribut action sur off, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual
port=1 action=off
5. ce moment, ajoutez une autre instance fence pour la premire alimentation la mthode fence,
tout en configurant l'attribut action sur on. Vous devez spcifier le priphrique fence utiliser
pour le nud, le nud auquel s'applique cette instance, le nom de la mthode et toutes les
options de cette mthode qui sont spcifiques ce nud, puis spcifiez l'attribut action comme
tant on :
ccs -h host --addfenceinst fencedevicename node method [options] action=on
Par exemple, pour configurer une instance fence dans le fichier de configuration du nud du
cluster node-01.exam ple.com , qui utilise le port d'alimentation 1 de l'interrupteur APC du
priphrique fence nomm apc1, pour clturer le nud du cluster node-01.exam ple.com , qui
utilise la mthode nomme APC-dual, et pour paramtrer l'attribut action sur on, excutez la
commande suivante :
ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual
port=1 action=on
6. Ajoutez une autre instance fence pour la seconde alimentation la mthode fence, tout en
spcifiant l'attribut action de cette instance sur on. Vous devez spcifier le priphrique fence
utiliser pour le nud, le nud auquel s'applique cette instance, le nom de la mthode et toutes
les options de cette mthode qui sont spcifiques ce nud, ainsi que spcifier l'attribut action
sur on :
ccs -h host --addfenceinst fencedevicename node method [options] action=on
Par exemple, pour configurer une seconde instance fence dans le fichier de configuration du
nud du cluster node-01.exam ple.com , qui utilise le port d'alimentation 1 de l'interrupteur
APC du priphrique fence nomm apc2, pour clturer le nud du cluster node01.exam ple.com , qui utilise la mme mthode que pour la premire instance nomme APCdual, et pour paramtrer l'attribut action sur on, excutez la commande suivante :
ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual
port=1 action=on
L'Exemple 5.5, cluster.conf aprs avoir ajout le fencing double alimentation montre un fichier
de configuration cluster.conf aprs avoir ajout le fencing sur deux alimentations lectriques pour
chaque nud dans un cluster :
86
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
5.7.5. Supprimer les mthodes et instances fence
Pour supprimer une mthode fence de la configuration de votre cluster, excutez la commande
suivante :
ccs -h host --rmmethod method node
Par exemple, pour supprimer une mthode fence nomme APC que vous avez configur pour
node01.exam ple.com depuis le fichier de configuration sur le nud du cluster
87
Pour supprimer toutes les instances fence d'un priphrique fence d'une mthode fence, excutez la
commande suivante :
ccs -h host --rmfenceinst fencedevicename node method
Par exemple, pour supprimer toutes les instances du priphrique fence nomm apc1 de la mthode
nomme APC-dual configure pour node01.exam ple.com du fichier de configuration du cluster du
nud du cluster node01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --rmfenceinst apc1 node01.example.com APC-dual
Remarque
La caractristique failback est uniquement applicable si le basculement ordered est configur.
Note
Modifier la configuration d'un domaine de basculement n'a aucun effet sur les services en cours
d'excution.
88
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Remarque
Pour configurer un membre prfr, vous pouvez crer un domaine de basculement unrestricted
comprenant uniquement un membre du cluster. Faire ceci cause au service cluster de s'excuter
sur ce membre du cluster en premier (le membre prfr), mais permet au service cluster de
basculer sur tout autre membre.
Pour configurer un domaine de basculement, effectuez la procdure suivante :
1. Pour ajouter un domaine de basculement, excutez la commande suivante :
ccs -h host --addfailoverdomain name [restricted] [ordered] [nofailback]
Note
Le nom doit tre suffisamment descriptif pour distinguer son but par rapport aux autres
noms utiliss dans votre cluster.
Par exemple, la commande suivante configure un domaine de basculement nomm
exam ple_pri sur node-01.exam ple.com , qui est unrestricted, ordered, et permet le failback :
ccs -h node-01.example.com --addfailoverdomain example_pri ordered
Vous pouvez rpertorier tous les domaines de basculement et les nuds de domaines de basculement
configurs dans un cluster avec la commande suivante :
ccs -h host --lsfailoverdomain
89
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
Pour ajouter une ressource globale du cluster, excutez la commande suivante. Vous pouvez ajouter
une ressource locale un service en particulier lorsque vous configurez ce service, comme le dcrit la
Section 5.10, Ajouter un service cluster un cluster .
ccs -h host --addresource resourcetype [resource options]
Par exemple, la commande suivante ajoute une ressource de systme de fichier global au fichier de
configuration du cluster sur node01.exam ple.com . Le nom de la ressource est web_fs, le
priphrique du systme de fichier est /dev/sdd2, le point de montage du systme de fichiers est
/var/www, et le type de systme de fichiers est ext3.
ccs -h node01.example.com --addresource fs name=web_fs device=/dev/sdd2
mountpoint=/var/www fstype=ext3
Pour obtenir des informations sur les options et les types de ressources, voir l'Annexe B, Paramtres
des ressources HA.
Pour supprimer une ressource globale, excutez la commande suivante :
ccs -h host --rmresource resourcetype [resource options]
Si vous devez modifier les paramtres d'une ressource globale existante, vous pouvez supprimer la
ressource et la configurer nouveau.
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
90
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Note
Utilisez un nom descriptif qui distingue clairement le service des autres services dans le
cluster.
Lorsque vous ajoutez un service la configuration du cluster, vous devez configurer les attributs
suivants :
autostart Spcifie s'il faut dmarrer le service automatiquement lorsque le cluster
dmarre. Veuillez utiliser 1 pour activer et 0 pour dsactiver, le service est activ par
dfaut.
dom ain Spcifie un domaine de basculement (s'il est requis).
exclusive Spcifie une politique o le service s'excute uniquement sur des nuds sur
lesquels aucun autre service ne s'excute.
recovery Spcifie une stratgie de rcupration pour le service. Les options pour le
service sont relocate (dplacer), restart (redmarrer), disable (dsactiver), ou
restart-disable (redmarrer-dsactiver). La stratgie de rcupration restart
(redmarrer) indique que le systme devrait tenter de redmarrer le service en chec avant de
tenter de dplacer le service vers un autre nud. La stratgie relocate indique que le
systme devrait tenter de redmarrer le service sur un autre nud. La stratgie disable
(dsactiver) indique que le systme devrait dsactiver le groupe de ressources si un
composant choue. La stratgie restart-disable (redmarrer-dsactiver) devrait tenter de
redmarrer le service au mme endroit s'il choue, mais que si le redmarrage du service
choue, le service sera dsactiv au lieu d'tre dplac vers un autre hte dans le cluster.
Si vous slectionnez Restart ou Restart-Disable en tant que politique de rcupration pour
le service, vous pourrez spcifier le nombre maximum d'checs de redmarrage avant le
dplacement ou la dsactivation du service. Vous pouvez aussi spcifier (en secondes)
partir de combien de temps il ne faudra plus effectuer de redmarrages.
Par exemple, pour ajouter un service au fichier de configuration sur le nud du cluster node01.exam ple.com nomm exam ple_apache qui utilise le domaine de basculement
exam ple_pri, et possde la politique relocate, excutez la commande suivante :
ccs -h node-01.example.com --addservice example_apache domain=example_pri
recovery=relocate
Lors de la configuration de services pour un cluster, vous trouverez utile de pouvoir afficher une
liste des services disponibles pour votre cluster ainsi que les options qui leurs sont disponibles.
Pour obtenir des informations sur l'utilisation de la commande ccs pour imprimer une liste des
services et options disponibles, reportez-vous la Section 5.11, Rpertorier les services cluster
disponibles .
2. Ajoutez des ressources au service avec la commande suivante :
ccs -h host --addsubservice servicename subservice [service options]
Selon le type de ressources que vous souhaitez utiliser, remplissez le service avec des
resources globales ou spcifiques au service. Pour ajouter une ressource globale, utilisez l'option
--addsubservice de ccs. Par exemple, pour ajouter la ressource globale d'un systme de
fichiers nomme web_fs au service nomm exam ple_apache du fichier de configuration du
cluster sur node-01.exam ple.com , excutez la commande suivante :
ccs -h node01.example.com --addsubservice example_apache fs ref=web_fs
Pour ajouter une ressource spcifique au service, vous devez spcifier toutes les options du
service. Par exemple, si vous n'avez pas dfini web_fs en tant que service global au pralable,
vous pourriez l'ajouter en tant que ressource spcifique au service avec la commande suivante :
91
3. Pour ajouter un service enfant au service, vous pouvez aussi utiliser l'option --addsubservice
la commande ccs tout en spcifiant les options du service.
Si vous devez ajouter des services dans une structure arborescente de dpendances, utilisez le
caractre des deux-points (":") pour sparer les lments et des parenthses pour identifier les
sous-services du mme type. L'exemple suivant ajoute un troisime service nfsclient en tant
que sous-service d'un service nfsclient, qui lui-mme est un sous-service d'un service
nfsclient, qui est un sous-service du service nomm service_a :
ccs -h node01.example.com --addsubservice service_a
nfsclient[1]:nfsclient[2]:nfsclient
Note
Si vous tes en train d'ajouter une ressource du service Samba, ajoutez-la directement au
service, et non pas en tant qu'enfant d'une autre ressource.
Remarque
Pour vrifier l'existence de la ressource du service IP utilise dans un service cluster, vous
pouvez utiliser la commande /sbin/ip addr show sur un nud de cluster (plutt que la
commande obsolte ifconfig). La sortie suivante montre la commande /sbin/ip addr
show excute sur un nud qui excute un service cluster :
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP> mtu 1356 qdisc pfifo_fast qlen 1000
link/ether 00:05:5d:9a:d8:91 brd ff:ff:ff:ff:ff:ff
inet 10.11.4.31/22 brd 10.11.7.255 scope global eth0
inet6 fe80::205:5dff:fe9a:d891/64 scope link
inet 10.11.4.240/22 scope global secondary eth0
valid_lft forever preferred_lft forever
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
92
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
Vous pouvez aussi utiliser la commande ccs pour imprimer une liste des options pouvant tre
spcifies pour un type de service particulier.
Pour imprimer une liste des services cluster actuellement disponibles pour votre cluster, excutez la
commande suivante :
ccs -h host --lsserviceopts
Par exemple, la commande suivante rpertorie les services cluster disponibles sur le nud node1 du
cluster, affichant un exemple de sortie.
[root@ask-03 ~]# ccs -h node1 --lsserviceopts
service - Defines a service (resource group).
ASEHAagent - Sybase ASE Failover Instance
SAPDatabase - SAP database resource agent
SAPInstance - SAP instance resource agent
apache - Defines an Apache web server
clusterfs - Defines a cluster file system mount.
fs - Defines a file system mount.
ip - This is an IP address.
lvm - LVM Failover script
mysql - Defines a MySQL database server
named - Defines an instance of named server
netfs - Defines an NFS/CIFS file system mount.
nfsclient - Defines an NFS client.
nfsexport - This defines an NFS export.
nfsserver - This defines an NFS server resource.
openldap - Defines an Open LDAP server
oracledb - Oracle 10g Failover Instance
orainstance - Oracle 10g Failover Instance
oralistener - Oracle 10g Listener Instance
postgres-8 - Defines a PostgreSQL server
samba - Dynamic smbd/nmbd resource agent
script - LSB-compliant init script as a clustered resource.
tomcat-6 - Defines a Tomcat server
vm - Defines a Virtual Machine
action - Overrides resource action timings for a resource instance.
Pour imprimer une liste des options que vous pouvez spcifier pour un type de service particulier,
excutez la commande suivante :
ccs -h host --lsserviceopts service_type
Par exemple, la commande suivante rpertorie les options de service pour le service vm .
93
Note
L'attribut path dans le fichier de configuration du cluster est une spcification de chemin ou un
nom de rpertoire, pas un chemin vers un fichier individuel.
Si les dfinitions de machines virtuelles sont stockes sur un rpertoire partag nomm
/m nt/vm _defs, la commande suivante dfinira une machine virtuelle nomme guest1 :
# ccs -h node1.example.com --addvm guest1 path=/mnt/vm_defs
94
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
L'excution de cette commande ajoute la ligne suivante au nud de configuration dans le fichier
cluster.conf :
<vm name="guest1" path="/mnt/vm_defs"/>
Remarquez que cette commande rinitialise toutes les autres proprits que vous pouvez paramtrer
avec l'option --setquorum d avec leurs valeurs par dfaut, comme le dcrit la Section 5.1.5,
Commandes remplaant les paramtres prcdents .
Le T ableau 5.1, Options du disque quorum rsume la signification des options du disque quorum
que vous pourriez devoir paramtrer. Pour obtenir la liste complte des paramtres du disque quorum,
reportez-vous au schma du cluster sur /usr/share/cluster/cluster.rng et au schma annot
sur /usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l.
T ableau 5.1. Options du disque quorum
Paramtre
Description
interval
votes
tko
Nombre de cycles qu'un nud doit rater pour tre dclar comme tant
mort.
min_score
Score minimum qu'un nud doit effectuer pour tre considr comme
vivant . Si oubli, ou si ajust sur 0, floor((n+1)/2), est utilis, o n
est la somme des scores heuristiques. La valeur Minimum Score ne doit
jamais excder la somme des scores heuristiques, sinon le disque quorum
ne pourra pas tre disponible.
device
label
Utilisez la commande suivante pour configurer les heuristiques pour un disque quorum :
ccs -h host --addheuristic [heuristic options]
95
Le T ableau 5.2, Heuristiques du disque quorum rsume la signification des heuristiques du disque
quorum que vous pourriez devoir paramtrer.
T ableau 5.2. Heuristiques du disque quorum
Paramtre
Description
program
interval
score
tko
Pour afficher une liste des options du disque quorum et des heuristique configures sur un systme,
vous pouvez excuter la commande suivante :
ccs -h host --lsquorum
Pour supprimer une heuristique spcifie par une option d'heuristique, vous pouvez excuter la
commande suivante :
ccs -h host rmheuristic [heuristic options]
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
Remarque
La synchronisation et l'activation propage et active le fichier de configuration du cluster mis jour.
Cependant, pour que le disque quorum puisse oprer, vous devez redmarrer le cluster
(reportez-vous la Section 6.2, Dmarrer et arrter un cluster ), vous assurant ainsi que vous
avez bien redmarr le dmon qdiskd sur chaque nud.
96
Chapitre 5. Configurer le module complmentaire Red Hat High Availability avec la commande ccs
commande suivante :
ccs -h host --lsmisc
Vous pouvez obtenir la valeur de la version de la configuration actuelle sur un fichier de configuration de
cluster existant l'aide de la commande suivante :
ccs -h host --getversion
Note
L'ID du cluster est un identifiant unique que cm an gnre pour chaque cluster. Pour voir l'ID du
cluster, excutez la commande cm an_tool status sur un nud de cluster.
Vous pouvez manuellement spcifier une adresse de multidiffusion dans le fichier de configuration du
cluster avec la commande suivante :
ccs -h host --setmulticast multicastaddress
Remarquez que cette commande rinitialise toutes les autres proprits que vous pouvez paramtrer
avec l'option --setm ulticast avec leurs valeurs par dfaut, comme le dcrit la Section 5.1.5,
Commandes remplaant les paramtres prcdents .
Si vous spcifiez une adresse de multidiffusion, vous devriez utiliser les sries 239.192.x.x (ou FF15::
pour IPv6) utilises par cm an. L'utilisation d'une adresse de multidiffusion hors de cette plage peut
provoquer des rsultats imprvisibles. Par exemple, utiliser 224.0.0.x (qui quivaut "All hosts on the
network") peut ne pas tre achemin correctement, certains matriaux pourraient mme ne pas du tout
l'acheminer.
Si vous spcifiez ou modifiez une adresse de multidiffusion, vous devrez redmarrer le cluster pour que
97
celle-ci prenne effet. Pour obtenir des informations sur le dmarrage et l'arrt d'un cluster avec la
commande ccs, reportez-vous la Section 6.2, Dmarrer et arrter un cluster .
Note
Si vous spcifiez une adresse de multidiffusion, assurez-vous de bien vrifier la configuration
des routeurs par lesquels les paquets des clusters passent. Certains routeurs prennent
longtemps pour apprendre les adresses, affectant ainsi svrement la performance du cluster.
Pour supprimer une adresse de multidiffusion d'un fichier de configuration, utilisez l'option -setm ulticast de ccs mais ne spcifiez pas d'adresse de multidiffusion :
ccs -h host --setmulticast
Remarquez que cette commande rinitialise toutes les autres proprits que vous pouvez paramtrer
avec l'option --setcm an avec leurs valeurs par dfaut, comme le dcrit la Section 5.1.5, Commandes
remplaant les paramtres prcdents .
Lorsque vous utilisez la commande ccs --setcm an pour ajouter, supprimer, ou pour modifier l'option
two_node, vous devez redmarrer le cluster pour que ce changement prenne effet. Pour obtenir des
informations sur le dmarrage et l'arrt d'un cluster avec la commande ccs, reportez-vous la
Section 6.2, Dmarrer et arrter un cluster .
5.14 .4 . Journalisation
Vous pouvez activer le dbogage de tous les dmons dans un cluster ou activer la journalisation pour le
traitement de cluster spcifique.
Pour activer le dbogage de tous les dmons, excutez la commande suivante. Par dfaut, la
journalisation est dirige vers le fichier /var/log/cluster/dmon.log.
ccs -h host --setlogging [logging options]
Remarquez que cette commande rinitialise toutes les autres proprits que vous pouvez paramtrer
avec l'option --setlogging avec leurs valeurs par dfaut, comme le dcrit la Section 5.1.5,
Commandes remplaant les paramtres prcdents .
Pour activer le dbogage d'un processus individuel, excutez la commande suivante. La configuration de
la journalisation par dmon remplace les paramtres gnraux.
ccs -h host --addlogging [logging daemon options]
Par exemple, les commandes suivantes activent le dbogage des dmons corosync et fenced.
# ccs -h node1.example.com --addlogging name=corosync debug=on
# ccs -h node1.example.com --addlogging name=fenced debug=on
98
Chapitre 6. Grer le module complmentaire Red Hat High Availability avec ccs
Pour supprimer les paramtres de journalisation des dmons individuels, utilisez la commande suivante.
ccs -h host --rmlogging name=clusterprocess
Par exemple, la commande suivante supprime les paramtres de journalisation spcifiques au dmon
fenced
ccs -h host --rmlogging name=fenced
Pour la liste des dmons pour lesquels vous pouvez activer la journalisation ainsi que pour les options
de journalisation supplmentaires que vous pouvez configurer pour la journalisation globale ou par
dmon , veuillez vous reporter la page man cluster.conf(5).
Remarquez que lorsque vous aurez termin de configurer tous les composants de votre cluster, vous
devrez synchroniser le fichier de configuration du cluster tous les nuds, comme le dcrit la
Section 5.15, Propager le fichier de configuration sur les nuds du cluster .
5.14 .5. Configurer le protocole d'anneau redondant ( Redundant Ring )
partir de Red Hat Enterprise Linux 6.4, le module complmentaire Red Hat High Availability prend en
charge la configuration du protocole d'anneau redondant. Lors de l'utilisation du protocole d'anneau
redondant, un certain nombre de considrations sont prendre en compte, comme le dcrit la
Section 7.6, Configurer le protocole d'anneau redondant ( Redundant Ring ) .
Pour spcifier une seconde interface rseau utiliser pour le protocole d'anneau redondant, ajoutez un
nom alterne pour le nud en utilisant l'option --addalt de la commande ccs :
ccs -h host --addalt node_name alt_name
Par exemple, la commande suivante dfinit une adresse de multidiffusion de 239.192.99.88, le port 888
et un T T L de 3 pour le cluster dfini dans le fichier cluster.conf sur le nud clusternet-node1eth1 :
ccs -h clusternet-node1-eth1 --setaltmulticast 239.192.99.88 port=888 ttl=3
Pour supprimer une adresse de multidiffusion alterne, spcifiez l'option --setaltm ulticast de la
commande ccs, mais ne spcifiez pas d'adresse de multidiffusion. Remarquez que l'excution de cette
commande rinitialise toutes les autres proprits que vous pouvez dfinir avec l'option -setaltm ulticast avec leurs valeurs par dfaut, comme dcrit dans la Section 5.1.5, Commandes
99
Pour vrifier que tous les nuds spcifis dans le fichier de configuration du cluster hte possdent un
fichier de configuration identique, excutez la commande suivante :
ccs -h host --checkconf
Si vous avez cr ou modifi un fichier de configuration sur un nud local, utilisez la commande
suivante pour envoyer ce fichier sur un des nuds du cluster :
ccs -f file -h host --setconf
Pour vrifier que tous les nuds spcifis dans le fichier local possdent le mme fichier de
configuration de cluster, excutez la commande suivante :
ccs -f file --checkconf
100
Chapitre 7. Configurer le module complmentaire Red Hat High Availability avec des outils de ligne de commande
Lorsque vous arrtez les services cluster sur un nud, tout service excut sur ce nud basculera :
Pour compltement supprimer un nud de la configuration du cluster, utilisez l'option --rm node de la
commande ccs, comme dcrit dans la Section 5.4, Crer un cluster .
Pour faire en sorte qu'un nud rejoigne un cluster, excutez la commande suivante, celle-ci dmarre les
services cluster sur le nud spcifi avec l'option -h :
ccs -h host --start
Vous pouvez utiliser la commande ccs pour dmarrer un cluster qui n'est pas en cours d'excution
101
l'aide de la commande suivante, celle-ci lance les services cluster sur tous les nuds dans le cluster :
ccs -h host --startall
Si vous avez cr ou modifi un fichier de configuration sur un nud local, vous pouvez vrifier que
tous les nuds spcifis dans le fichier local possdent des fichiers de configuration du cluster
identiques l'aide de la commande suivante :
ccs -f file --checkconf
102
Important
Assurez-vous que le dploiement du module complmentaire High Availability rpond bien vos
besoins et qu'il est pris en charge. Consultez un reprsentant Red Hat autoris afin de vrifier
votre configuration avant le dploiement. En outre, prvoyez suffisamment de temps pour une
priode de rodage de la configuration afin de tester les diffrents modes d'chec.
Important
Ce chapitre fait rfrence aux lments et attributs de cluster.conf communment utiliss.
Pour obtenir la liste et la description complte des lments et attributs cluster.conf,
reportez-vous au schma des clusters sur /usr/share/cluster/cluster.rng, et au
schma annot sur /usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l (par exemple,
/usr/share/doc/cm an-3.0.12/cluster_conf.htm l).
Important
Certaines procdures dans ce chapitre appellent utiliser la commande cm an_tool version
-r pour propager une configuration de cluster travers un cluster. L'utilisation de cette
commande requiert que ricci soit en cours d'excution. L'utilisation de ricci requerra un mot de
passe la premire fois que vous aurez une interaction avec ricci, et ce depuis n'importe quelle
machine. Pour obtenir des informations sur le service ricci, reportez-vous la Section 2.13,
Considrations pour ricci .
103
Remarque
Les procdures dans ce chapitre peuvent inclure des commandes spcifiques pour certains
outils en ligne de commande rpertoris dans l'Annexe E, Rsum des outils de la ligne de
commande. Pour obtenir plus d'informations sur les commandes et les variables, reportez-vous
la page man de chaque outil de ligne de commande.
Important
Ceci n'est qu'une tape intermdiaire pour crer un fichier de configuration de cluster, le fichier
en rsultant n'est pas cltur et n'est pas considr comme une configuration prise en charge.
Les tapes suivantes dcrivent comment crer et configurer un squelette de fichier de configuration de
cluster. Finalement, le fichier de configuration de votre cluster variera selon le nombre de nuds, le type
de fencing, le type et le nombre de services HA et selon d'autres exigences spcifiques au site.
1. Sur n'importe quel nud du cluster, crez /etc/cluster/cluster.conf l'aide du modle de
l'exemple dans l'Exemple 7.1, Exemple de cluster.conf : configuration de base .
2. (Optional) Si vous configurez un cluster deux nuds, vous pouvez ajouter la ligne suivante
au fichier de configuration afin de permettre un nud unique de maintenir le quorum (si un
nud choue par exemple) :
<cm an two_node="1" expected_votes="1"/>
Lorsque vous ajoutez ou supprimez l'option two_node du fichier cluster.conf, vous devez
redmarrer le cluster pour que cette modification prenne effet lors de la mise jour de la
configuration. Pour des informations sur la mise jour d'une configuration de cluster, reportezvous la Section 8.4, Mettre jour une configuration . Pour un exemple de spcification de
l'option two_node, reportez-vous l'Exemple 7.2, Exemple de cluster.conf : configuration
deux nuds de base .\n\n\t\n
3. Spcifiez le nom du cluster ainsi que son numro de version de configuration l'aide des attributs
cluster : nam e et config_version (reportez-vous l'Exemple 7.1, Exemple de
104
7. Propagez le fichier de configuration sur /etc/cluster/ dans chaque nud du cluster. Par
exemple, vous pourriez propager le fichier vers d'autres nuds de cluster l'aide de la
commande scp.
Remarque
La propagation d'un fichier de configuration de cluster de cette manire est ncessaire la
premire fois qu'un cluster est cr. Une fois que le cluster est install et en cours
d'excution, le fichier de configuration du cluster peut tre propag l'aide de cm an_tool
version -r. Il est possible d'utiliser la commande scp pour propager un fichier de
configuration mis jour. Cependant, le logiciel du cluster doit tre arrt sur tous les
nuds pendant l'utilisation de la commande scp. En outre, vous devriez excuter
ccs_config_validate si vous propagez un fichier de configuration mis jour via la
commande scp.
Remarque
T andis que d'autres lments et attributs sont prsents dans l'exemple du fichier de
configuration (par exemple, fence et fencedevices), il n'est pas ncessaire de les
remplir maintenant. Des procdures expliques ultrieurement dans ce chapitre
fournissent des informations sur la spcification d'autres lments et attributs.
8. Dmarrez le cluster. Excutez la commande suivante sur chaque nud de cluster :
service cm an start
Par exemple :
[root@example-01 ~]# service cman start
Starting cluster:
Checking Network Manager...
Global setup...
Loading kernel modules...
Mounting configfs...
Starting cman...
Waiting for quorum...
Starting fenced...
Starting dlm_controld...
Starting gfs_controld...
Unfencing self...
Joining fence domain...
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
9. Sur n'importe quel nud de cluster, excutez cm an_tool nodes pour vrifier que les nuds
fonctionnent en tant que membres dans le cluster (dcrit comme M dans la colonne du statut
Sts ). Par exemple :
105
Name
node-01.example.com
node-02.example.com
node-03.example.com
10. Si le cluster est en cours d'excution, procdez Section 7.3, Configurer le fencing .
106
Remarquez que l'analyse de configuration (de l'anglais, configuration parser ) ne calcule pas X +
2000 automatiquement. Une valeur entire doit tre utilise plutt qu'une quation.
L'avantage offert par l'utilisation du dlai d'expiration optimis du consensus pour des clusters deux
nuds est que le temps pris par le basculement est rduit pour les cas deux nuds puisque le
consensus n'est pas une fonction du dlai d'expiration du token.
Remarquez que pour l'autodtection de deux nuds dans cm an, le nombre de neouds physiques est le
plus importants, et non la prsence de la directive two_node=1 dans le fichier cluster.conf.
107
108
De temps en temps, le fencing d'un nud requiert la dsactivation de deux chemins d'E/S ou de deux
ports d'alimentation. Ceci est effectu en spcifiant deux priphriques ou plus dans la mthode fence.
fenced excute l'agent fence une fois par ligne de priphrique fence, chaque ligne doit fonctionner
pour que le fencing soit considr comme russi.
Des configurations plus complexes sont affiches dans la section intitule Exemples de configurations
du fencing .
Vous pouvez trouver plus d'informations sur la configuration de priphriques fence spcifiques sur la
page man de l'agent des priphriques fence (par exemple, la page man fence_apc). En outre, vous
pourrez trouver des informations supplmentaires sur les paramtres du fencing dans l'Annexe A,
Paramtres des priphriques fence, sur les agents fence dans /usr/sbin/, sur le schma du cluster
dans /usr/share/cluster/cluster.rng et sur le schma annot sur /usr/share/doc/cm anX.Y.ZZ/cluster_conf.htm l (par exemple, /usr/share/doc/cm an3.0.12/cluster_conf.htm l).
Remarque
Les exemples dans cette section ne sont pas exhaustifs, il peut y avoir d'autres manires de
configurer le fencing en fonction de vos besoins.
109
110
Dans cet exemple, une mthode fence (m ethod) a t ajoute chaque nud. Le nom de la
mthode fence (nam e) de chaque nud est APC. Le priphrique (device) pour la mthode fence
dans chaque nud spcifie le nom (nam e) comme apc et un unique numro de port d'alimentation
de l'interrupteur APC (port) pour chaque nud. Par exemple, le numro de port de node01.example.com est 1 (port="1"). Le nom de priphrique de chaque nud (device
nam e="apc") pointe vers le priphrique fence au nom (nam e) apc sur cette ligne de l'lment
fencedevices : fencedevice agent="fence_apc" ipaddr="apc_ip_exam ple"
login="login_exam ple" nam e="apc" passwd="password_exam ple".
111
112
113
Lors de l'utilisation d'interrupteurs d'alimentation pour clturer des nuds avec des alimentations
duelles, les agents doivent fermer les deux ports d'alimentation avant de restaurer l'alimentation sur
l'un ou l'autre. Le comportement off-on par dfaut de l'agent pourrait faire que l'alimentation n'est
jamais compltement dsactive sur le nud.
114
Unrestricted Ceci vous permet de spcifier qu'un sous-ensemble de membres est prfr, mais
qu'un service cluster assign ce domaine peut s'excuter sur n'importe quel membre disponible.
Restricted Ceci vous permet de restreindre les membres pouvant excuter un service cluster en
particulier. Si aucun des membres dans un domaine de basculement restricted n'est disponible, le
service cluster ne pourra pas tre lanc (manuellement ou par le logiciel du cluster).
Unordered Lorsqu'un service cluster est assign un domaine de basculement unordered, le
membre sur lequel le service cluster est excut est choisi parmi les membres disponibles du
domaine de basculement sans ordre de priorit.
Ordered Ceci vous permet de spcifier un ordre de prfrence parmi les membres d'un domaine
de basculement. Les domaines de basculement ordered slectionnent le nud avec le numro de
priorit le plus bas en premier. Autrement dit, le nud dans un domaine de basculement avec un
numro de priorit de "1" spcifie la priorit la plus haute, il est ainsi le nud prfr dans le
domaine de basculement. Aprs ce nud, le nud prfr suivant sera le nud avec le numro de
priorit le plus haut qui suit, et ainsi de suite.
Failback Ceci vous permet de spcifier si un service dans le domaine de basculement devrait tre
restaur sur le nud sur lequel il tait initialement excut avant que ce nud tombe en panne. La
configuration de cette caractristique est utile dans des circonstances o un nud tombe en panne
de manire rptitive et fait partie d'un domaine de basculement ordered. Dans ces circonstances, si
un nud est le nud prfr dans un domaine de basculement, il est possible qu'un service tombe
en panne puis se restaure de manire rptitive entre le nud prfr et un autre nud, affectant
svrement la performance.
Remarque
La caractristique failback est uniquement applicable si le basculement ordered est configur.
Remarque
Modifier la configuration d'un domaine de basculement n'a aucun effet sur les services en cours
d'excution.
Remarque
Les domaines de basculement ne sont pas requis pour les oprations.
Par dfaut, les domaines de basculement sont unrestricted et unordered.
Dans un cluster possdant plusieurs membres, l'utilisation d'un domaine de basculement restricted peut
minimiser le travail de paramtrage du cluster pour qu'il excute un service cluster (comme httpd), qui
requiert que vous paramtriez la configuration de manire identique sur tous les membres excutant le
service cluster. Au lieu de paramtrer le cluster entier afin qu'il excute le service cluster, il vous est
possible de paramtrer uniquement les membres dans le domaine de basculement restricted que vous
associerez au service cluster.
Remarque
Pour configurer un membre prfr, vous pouvez crer un domaine de basculement unrestricted
comprenant uniquement un membre du cluster. Faire ceci cause au service cluster de s'excuter
sur ce membre du cluster en premier (le membre prfr), mais permet au service cluster de
basculer sur tout autre membre.
115
<failoverdomains>
<failoverdomain name=""
<failoverdomainnode
<failoverdomainnode
<failoverdomainnode
</failoverdomain>
</failoverdomains>
Remarque
Le nombre d'attributs failoverdom ainnode dpend du nombre de nuds dans le
domaine de basculement. La section squelette failoverdom ain dans le texte prcdent
affiche trois lments failoverdom ainnode (sans aucun nom de nud spcifi),
signifiant ainsi qu'il y a trois nuds dans le domaine de basculement.
3. Dans la section failoverdom ain, fournissez les valeurs des lments et attributs. Pour des
descriptions des lments et attributs, reportez-vous la section failoverdomain du schma de
clusters annot. Le schma de clusters annot est disponible sur /usr/share/doc/cm anX.Y.ZZ/cluster_conf.htm l (par exemple, /usr/share/doc/cm an3.0.12/cluster_conf.htm l) dans n'importe quel nud de cluster. Pour voir un exemple de
section failoverdom ains, reportez-vous l'Exemple 7.8, Domaine de basculement ajout
cluster.conf .
4. Mettez jour l'attribut config_version en incrmentant sa valeur (par exemple, en la modifiant
de config_version="2" config_version="3">).
5. Enregistrez /etc/cluster/cluster.conf.
6. (Optional) Validez le fichier sur le schma du cluster (cluster.rng) en excutant la
commande ccs_config_validate. Par exemple :
[root@example-01 ~]# ccs_config_validate
Configuration validates
116
La section failoverdom ains contient une section failoverdom ain pour chaque domaine de
basculement dans le cluster. Cet exemple possde un domaine de basculement. Sur la ligne
failoverdom ain, le nom (nam e) est spcifi en tant que exam ple_pri. En outre, il ne spcifie
aucune restauration failback (failback="0"), il spcifie que le basculement est ordered
(ordered="1") et que le domaine de basculement est unrestricted (restricted="0").
117
Important
Il peut y avoir un grand ventail de configurations possible avec les ressources et services High
Availability. Pour une meilleure comprhension des paramtres et du comportement des
ressources, reportez-vous l'Annexe B, Paramtres des ressources HA et l'Annexe C,
Comportement des ressources HA. Pour une performance optimale et pour vous assurer que
votre configuration peut tre prise en charge, contactez un reprsentant approuv du support
Red Hat.
<rm>
<resources>
</resources>
</rm>
3. Remplissez-la avec les ressources correspondantes aux services que vous souhaitez crer. Par
exemple, voici des ressources utiliser dans le service Apache. Celles-ci sont composes d'une
ressource de systme de fichiers (fs), d'une ressource IP (ip) et d'une ressource Apache
(apache).
<rm>
<resources>
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www"
fstype="ext3"/>
<ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server"
server_root="/etc/httpd" shutdown_wait="0"/>
</resources>
</rm>
L'Exemple 7.9, Fichier cluster.conf avec des ressources ajoutes montre un exemple du
fichier cluster.conf avec la section resources ajoute.
4. Mettez jour l'attribut config_version en incrmentant sa valeur (par exemple, en modifiant
config_version="2" en config_version="3").
5. Enregistrez /etc/cluster/cluster.conf.
118
119
120
<rm>
<service autostart="1" domain="" exclusive="0" name=""
recovery="restart">
</service>
</rm>
<rm>
<resources>
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www"
fstype="ext3"/>
<ip address="127.143.131.100" monitor_link="yes"
sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server"
server_root="/etc/httpd" shutdown_wait="0"/>
</resources>
<service autostart="1" domain="example_pri" exclusive="0"
name="example_apache" recovery="relocate">
<fs ref="web_fs"/>
<ip ref="127.143.131.100"/>
<apache ref="example_server"/>
</service>
</rm>
Par exemple, voici un service Apache qui utilise des ressources spcifiques au service :
<rm>
<service autostart="0" domain="example_pri" exclusive="0"
name="example_apache2" recovery="relocate">
<fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www2"
fstype="ext3"/>
<ip address="127.143.131.101" monitor_link="yes"
sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server2"
server_root="/etc/httpd" shutdown_wait="0"/>
</service>
</rm>
L'Exemple 7.10, cluster.conf avec services ajouts : l'un utilisant des ressources globales
et l'autre utilisant des ressources spcifiques au service montre un exemple de fichier
cluster.conf avec deux services :
121
122
Exemple 7.10. cluster.conf avec services ajouts : l'un utilisant des ressources
globales et l'autre utilisant des ressources spcifiques au service
123
124
La section altnam e dans le bloc clusternode n'est pas dpendant de sa position. Elle peut se
trouver avant ou aprs la section fence. Ne spcifiez pas plus d'un composant altnam e pour un
nud de cluster ou le systme chouera au dmarrage.
Optionnellement, vouspouvez spcifier une adresse de multidiffusion, un port et un T T L pour le second
125
<cman>
<multicast addr="239.192.99.73" port="666" ttl="2"/>
<altmulticast addr="239.192.99.88" port="888" ttl="3"/>
</cman>
Pour activer le dbogage des processus individuels, ajoutez les lignes suivantes au fichier
/etc/cluster/cluster.conf. La configuration de la journalisation par dmon remplace les
paramtres gnraux.
Pour la liste des dmons pour lesquels vous pouvez activer la journalisation ainsi que pour les options
de journalisation supplmentaires que vous pouvez configurer pour la journalisation globale ou par
dmon , veuillez vous reporter la page man cluster.conf(5).
126
Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
2. Excutez service clvm d start si CLVM est utilis pour crer des volumes clusteriss. Par
exemple :
[root@example-01 ~]# service clvmd start
Activating VGs:
OK
3. Excutez service gfs2 start si vous utilisez Red Hat GFS2. Par exemple :
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA):
Mounting GFS2 filesystem (/mnt/gfsB):
[
[
OK
OK
]
]
4. Excutez service rgm anager start si vous utilisez des services HA (haute disponibilit, de
l'anglais high-availability ). Par exemple :
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager:
OK
5. Sur n'importe quel nud de cluster, excutez cm an_tool nodes pour vrifier que les nuds
fonctionnent en tant que membres dans le cluster (dcrit comme M dans la colonne du statut
Sts ). Par exemple :
[root@example-01 ~]# cman_tool nodes
Node Sts
Inc
Joined
1
M
548
2010-09-28 10:52:21
2
M
548
2010-09-28 10:52:21
3
M
544
2010-09-28 10:52:21
Name
node-01.example.com
node-02.example.com
node-03.example.com
6. Sur tout nud, vrifiez que les services HA fonctionnent bien comme prvu l'aide de l'utilitaire
clustat. En outre, clustat affiche le statut des nuds du cluster. Par exemple :
127
[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010
Member Status: Quorate
Member Name
------ ---node-03.example.com
node-02.example.com
node-01.example.com
Service Name
------- ---service:example_apache
service:example_apache2
ID
Status
---- -----3 Online, rgmanager
2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)
State
----started
disabled
7. Si le cluster fonctionne comme prvu, alors la cration du fichier de configuration est termine.
Vous pouvez grer le cluster avec les outils de ligne de commande dcrits dans le Chapitre 8,
Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande.
128
Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande
Important
Assurez-vous que le dploiement du module complmentaire Red Hat High Availability
correspond bien vos besoins et peut tre pris en charge. Consultez un reprsentant autoris
de Red Hat pour vrifier votre configuration avant de la dployer. En outre, prvoyez
suffisamment de temps pour une priode de rodage de la configuration afin de tester les
diffrents modes d'chec.
Important
Ce chapitre fait rfrence aux lments et attributs de cluster.conf communment utiliss.
Pour obtenir la liste et la description complte des lments et attributs cluster.conf,
reportez-vous au schma des clusters sur /usr/share/cluster/cluster.rng, et au
schma annot sur /usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l (par exemple,
/usr/share/doc/cm an-3.0.12/cluster_conf.htm l).
Important
Certaines procdures dans ce chapitre appellent utiliser la commande cm an_tool version
-r pour propager une configuration de cluster travers un cluster. L'utilisation de cette
commande requiert que ricci soit en cours d'excution.
Remarque
Les procdures dans ce chapitre peuvent inclure des commandes spcifiques pour certains
outils en ligne de commande rpertoris dans l'Annexe E, Rsum des outils de la ligne de
commande. Pour obtenir plus d'informations sur les commandes et les variables, reportez-vous
la page man de chaque outil de ligne de commande.
129
1. service cm an start
2. service clvm d start, si CLVM a t utilis pour crer des volumes clusteriss
3. service gfs2 start, si vous utilisez Red Hat GFS2
4. service rgm anager start, si vous utilisez les services high-availability (HA) (rgm anager).
Par exemple :
[root@example-01 ~]# service cman start
Starting cluster:
Checking Network Manager...
[ OK ]
Global setup...
[ OK ]
Loading kernel modules...
[ OK ]
Mounting configfs...
[ OK ]
Starting cman...
[ OK ]
Waiting for quorum...
[ OK ]
Starting fenced...
[ OK ]
Starting dlm_controld...
[ OK ]
Starting gfs_controld...
[ OK ]
Unfencing self...
[ OK ]
Joining fence domain...
[ OK ]
[root@example-01 ~]# service clvmd start
Starting clvmd:
[ OK ]
Activating VG(s):
2 logical volume(s) in volume group "vg_example" now active
[ OK ]
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA):
[ OK ]
Mounting GFS2 filesystem (/mnt/gfsB):
[ OK ]
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager:
[ OK ]
[root@example-01 ~]#
130
Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande
[
[
[
OK
OK
OK
[
[
OK
OK
]
]
]
]
]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
Remarque
Arrter un logiciel de cluster sur un nud cause aux services HA de basculer sur un autre
nud. Comme alternative, prenez en considration la possibilit de dplacer ou de migrer les
services HA vers un autre nud avant d'arrter le logiciel du cluster. Pour obtenir des
informations sur la gestion des services HA, reportez-vous la Section 8.3, Grer les services
High-Availability .
Important
Si la suppression d'un nud du cluster cause une transition de plus de deux nuds deux
nuds, vous devrez redmarrer le logiciel du cluster sur chaque nud aprs avoir mis jour le
fichier de configuration du cluster.
Pour supprimer un nud d'un cluster, procdez aux tapes suivantes :
1. Sur n'importe quel nud, utilisez l'utilitaire clusvcadm pour dplacer, migrer, ou arrter chaque
service HA en cours de suppression du cluster qui est excut sur le nud. Pour obtenir plus
d'informations sur l'utilisation de clusvcadm , reportez-vous la Section 8.3, Grer les services
High-Availability .
2. Sur le nud supprimer du cluster, arrtez le logiciel du cluster selon la Section 8.1.2, Arrter
un logiciel de cluster . Par exemple :
131
[
[
[
OK
OK
OK
[
[
OK
OK
]
]
]
]
]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
132
Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande
[
[
[
OK
OK
OK
[
[
OK
OK
]
]
]
]
]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
b. Sur chaque nud, dmarrez le logiciel du cluster selon la Section 8.1.1, Dmarrer un
logiciel de cluster . Par exemple :
[root@example-01 ~]# service cman start
Starting cluster:
Checking Network Manager...
[ OK ]
Global setup...
[ OK ]
Loading kernel modules...
[ OK ]
Mounting configfs...
[ OK ]
Starting cman...
[ OK ]
Waiting for quorum...
[ OK ]
Starting fenced...
[ OK ]
Starting dlm_controld...
[ OK ]
Starting gfs_controld...
[ OK ]
Unfencing self...
[ OK ]
Joining fence domain...
[ OK ]
[root@example-01 ~]# service clvmd start
Starting clvmd:
[ OK ]
Activating VG(s):
2 logical volume(s) in volume group "vg_example" now
active
[ OK ]
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA):
[ OK ]
Mounting GFS2 filesystem (/mnt/gfsB):
[ OK ]
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager:
[ OK ]
[root@example-01 ~]#
c. Sur n'importe quel nud de cluster, excutez cm an_tool nodes pour vrifier que les
nuds fonctionnent en tant que membres dans le cluster (dcrit comme M dans la
colonne du statut Sts ). Par exemple :
[root@example-01 ~]# cman_tool nodes
Node Sts
Inc
Joined
1
M
548
2010-09-28 10:52:21
2
M
548
2010-09-28 10:52:21
Name
node-01.example.com
node-02.example.com
d. Sur tout nud, vrifiez que les services HA fonctionnent bien comme prvu l'aide de
l'utilitaire clustat. En outre, clustat affiche le statut des nuds du cluster. Par exemple :
133
[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010
Member Status: Quorate
Member Name
------ ---node-02.example.com
node-01.example.com
Service Name
------- ---service:example_apache
service:example_apache2
ID
Status
---- -----2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)
State
----started
disabled
134
Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande
[
[
[
OK
OK
OK
[
[
OK
OK
]
]
]
]
]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
b. Sur chaque nud, dmarrez le logiciel du cluster selon la Section 8.1.1, Dmarrer un
logiciel de cluster . Par exemple :
[root@example-01 ~]# service cman start
Starting cluster:
Checking Network Manager...
[ OK ]
Global setup...
[ OK ]
Loading kernel modules...
[ OK ]
Mounting configfs...
[ OK ]
Starting cman...
[ OK ]
Waiting for quorum...
[ OK ]
Starting fenced...
[ OK ]
Starting dlm_controld...
[ OK ]
Starting gfs_controld...
[ OK ]
Unfencing self...
[ OK ]
Joining fence domain...
[ OK ]
[root@example-01 ~]# service clvmd start
Starting clvmd:
[ OK ]
Activating VG(s):
2 logical volume(s) in volume group "vg_example" now
active
[ OK ]
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA):
[ OK ]
Mounting GFS2 filesystem (/mnt/gfsB):
[ OK ]
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager:
[ OK ]
[root@example-01 ~]#
9. Sur chaque nud ajouter au cluster, dmarrez le logiciel du cluster selon la Section 8.1.1,
Dmarrer un logiciel de cluster . Par exemple :
135
OK
10. Sur n'importe quel nud et l'aide de l'utilitaire clustat, vrifiez que chaque nud ajout est
en cours d'excution et fait partie du cluster. Par exemple :
[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010
Member Status: Quorate
Member Name
------ ---node-03.example.com
node-02.example.com
node-01.example.com
Service Name
------- ---service:example_apache
service:example_apache2
ID
Status
---- -----3 Online, rgmanager
2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)
State
----started
disabled
Pour obtenir des informations sur l'utilisation de clustat, reportez-vous la Section 8.3, Grer
les services High-Availability .
En outre, vous pouvez utiliser cm an_tool status pour vrifier les votes de nuds, le compte
des nuds, et le compte quorum. Par exemple :
136
Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande
11. Sur n'importe quel nud, vous pouvez vous servir de l'utilitaire clusvcadm pour migrer ou
dplacer un service en cours d'excution sur le nouveau nud du cluster. Vous pouvez aussi
activer tout service dsactiv. Pour obtenir des informations sur l'utilisation de clusvcadm ,
reportez-vous la Section 8.3, Grer les services High-Availability .
8.2.3. Exemples de configurations deux nuds et trois nuds
Reportez-vous aux exemples suivants pour des comparaisons entre les configurations deux nuds
et les configurations trois nuds.
137
138
Chapitre 8. Grer le module complmentaire Red Hat High Availability avec des outils de ligne de commande
139
14 0
Cluster User Service Administration Utility, clusvcadm . clustat affiche l'tat d'un cluster et
clusvcadm fournit possibilit de grer les services high-availability.
Cette section fournit des informations de base sur la gestion des services HA l'aide des commandes
clustat et clusvcadm . Celle-ci comporte les sous-sections suivantes :
Section 8.3.1, Afficher l'tat du service HA avec clustat
Section 8.3.2, Grer les services HA avec clusvcadm
8.3.1. Afficher l'tat du service HA avec clustat
clustat affiche l'tat global du cluster. Il est ainsi possible de voir les informations sur l'adhsion, le
quorum, l'tat de tous les services high-availability (haute disponibilit), clustat indique aussi le nud
sur lequel la commande clustat est excute (Local). Le T ableau 8.1, tat des services dcrit les
tats dans lesquels les services peuvent se trouver, ceux-ci s'affichent lors de l'excution de clustat.
L'Exemple 8.3, cran clustat montre un exemple de l'cran de clustat. Pour obtenir de plus
amples informations sur l'excution de la commande clustat, reportez-vous la page man clustat.
T ableau 8.1. tat des services
tat des services
Description
Started
Recovering
Disabled
Stopped
Dans l'tat arrt, le service sera valu pour dmarrer aprs le service
suivant ou la transition de nud. Ceci est un tat temporaire. Vous pouvez
activer ou dsactiver le service de cet tat.
Failed
Le service est prsum mort. Un service est plac dans cet tat lorsque
l'opration stop d'une ressource choue. Une fois que le service se trouve
dans cet tat, vous devez vrifier qu'aucune ressource n'est alloue (par
exemple, des systmes de fichiers monts) avant d'effectuer une requte
disable. La seule opration pouvant s'effectuer lorsqu'un service est
entr dans cet tat est disable..
Uninitialized
ID
Status
---- -----3 Online, rgmanager
2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)
State
----started
disabled
14 1
14 2
Description
Syntaxe de la commande
Enable
Disable
Relocate
Stop
Freeze
Unfreeze
14 3
Restart
Important
Pour l'opration migrate, vous
devez spcifier un nud-cible
l'aide de l'option -m <m em ber>.
Important
Ne pas suivre ces directives peut faire que les ressources soient alloues sur plusieurs htes :
Vous ne devriez pas arrter toutes les instances de rgmanager lorsqu'un service est gel,
moins que vous ne planifiez de redmarrer les htes avant de relancer rgmanager.
Vous ne devriez pas dgeler un service avant que le propritaire du service ne rejoigne le
cluster et qu'il ne redmarre rgmanager.
14 4
tapes suivantes :
1. Sur tout nud dans le cluster, modifiez le fichier /etc/cluster/cluster.conf.
2. Mettez jour l'attribut config_version en incrmentant sa valeur (par exemple, en la modifiant
de config_version="2" config_version="3">).
3. Enregistrez /etc/cluster/cluster.conf.
4. Excutez la commande cm an_tool version -r pour propager la configuration au reste des
nuds du cluster. Il est ncessaire que ricci soit en cours d'excution dans chaque nud de
cluster afin de pouvoir propager les informations mises jour de la configuration du cluster.
5. Vrifiez que le fichier de configuration mis jour a t propag.
6. Vous pouvez ignorer cette tape (redmarrer le logiciel du cluster) si vous avez uniquement
effectu les changements de configuration suivants :
Supprimer un nud de la configuration du cluster Sauf si le dcompte des nuds passe
de plus de deux nuds deux nuds. Pour obtenir des informations sur la suppression d'un
nud d'un cluster et sur la transition de plus de deux nuds deux nuds, reportez-vous
la Section 8.2, Ajouter ou supprimer un nud .
Ajouter un nud la configuration du cluster Sauf si le dcompte des nuds passe de
deux nuds plus de deux nuds. Pour obtenir des informations sur l'ajout d'un nud un
cluster et sur la transition de deux nuds plus de deux nuds, reportez-vous la
Section 8.2.2, Ajouter un nud un cluster .
Modifier la manire dont les dmons journalisent les informations.
Ajout, modification, ou suppression d'un service HA ou de la maintenance VM.
Ajout, modification, ou suppression de la maintenance des ressources.
Ajout, modification, ou suppression de la maintenance du domaine de basculement.
Sinon, vous devrez redmarrer le logiciel du cluster comme suit :
a. Sur chaque nud, arrtez le logiciel du cluster selon la Section 8.1.2, Arrter un logiciel
de cluster . Par exemple :
[root@example-01 ~]# service rgmanager stop
Stopping Cluster Service Manager:
[root@example-01 ~]# service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA):
Unmounting GFS2 filesystem (/mnt/gfsB):
[root@example-01 ~]# service clvmd stop
Signaling clvmd to exit
clvmd terminated
[root@example-01 ~]# service cman stop
Stopping cluster:
Leaving fence domain...
Stopping gfs_controld...
Stopping dlm_controld...
Stopping fenced...
Stopping cman...
Waiting for corosync to shutdown:
Unloading kernel modules...
Unmounting configfs...
[root@example-01 ~]#
[
[
[
OK
OK
OK
[
[
OK
OK
]
]
]
]
]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
b. Sur chaque nud, dmarrez le logiciel du cluster selon la Section 8.1.1, Dmarrer un
logiciel de cluster . Par exemple :
14 5
Name
node-01.example.com
node-02.example.com
node-03.example.com
8. Sur tout nud, vrifiez que les services HA fonctionnent bien comme prvu l'aide de l'utilitaire
clustat. En outre, clustat affiche le statut des nuds du cluster. Par exemple :
[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010
Member Status: Quorate
Member Name
------ ---node-03.example.com
node-02.example.com
node-01.example.com
Service Name
------- ---service:example_apache
service:example_apache2
ID
Status
---- -----3 Online, rgmanager
2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)
State
----started
disabled
9. Si le cluster s'excute comme prvu, vous avez termin de mettre jour la configuration.
8.4 .2. Mettre jour une configuration l'aide de scp
Pour mettre jour la configuration l'aide de la commande scp, procdez aux tapes suivantes :
1. Sur chaque nud, arrtez le logiciel du cluster selon la Section 8.1.2, Arrter un logiciel de
14 6
1. Sur chaque nud, arrtez le logiciel du cluster selon la Section 8.1.2, Arrter un logiciel de
cluster . Par exemple :
[root@example-01 ~]# service rgmanager stop
Stopping Cluster Service Manager:
[root@example-01 ~]# service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA):
Unmounting GFS2 filesystem (/mnt/gfsB):
[root@example-01 ~]# service clvmd stop
Signaling clvmd to exit
clvmd terminated
[root@example-01 ~]# service cman stop
Stopping cluster:
Leaving fence domain...
Stopping gfs_controld...
Stopping dlm_controld...
Stopping fenced...
Stopping cman...
Waiting for corosync to shutdown:
Unloading kernel modules...
Unmounting configfs...
[root@example-01 ~]#
[
[
[
OK
OK
OK
[
[
]
]
]
OK
OK
]
]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
[ OK ]
6. Si le fichier mis jour est valide, utilisez la commande scp pour le propager sur /etc/cluster/
dans chaque nud du cluster.:
7. Vrifiez que le fichier de configuration mis jour a t propag.
8. Sur chaque nud, dmarrez le logiciel du cluster selon la Section 8.1.1, Dmarrer un logiciel de
cluster . Par exemple :
14 7
9. Sur n'importe quel nud de cluster, excutez cm an_tool nodes pour vrifier que les nuds
fonctionnent en tant que membres dans le cluster (dcrit comme M dans la colonne du statut
Sts ). Par exemple :
[root@example-01 ~]# cman_tool nodes
Node Sts
Inc
Joined
1
M
548
2010-09-28 10:52:21
2
M
548
2010-09-28 10:52:21
3
M
544
2010-09-28 10:52:21
Name
node-01.example.com
node-02.example.com
node-03.example.com
10. Sur tout nud, vrifiez que les services HA fonctionnent bien comme prvu l'aide de l'utilitaire
clustat. En outre, clustat affiche le statut des nuds du cluster. Par exemple :
[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010
Member Status: Quorate
Member Name
------ ---node-03.example.com
node-02.example.com
node-01.example.com
Service Name
------- ---service:example_apache
service:example_apache2
ID
Status
---- -----3 Online, rgmanager
2 Online, rgmanager
1 Online, Local, rgmanager
Owner (Last)
----- -----node-01.example.com
(none)
State
----started
disabled
11. Si le cluster s'excute comme prvu, vous avez termin de mettre jour la configuration.
14 8
14 9
Pour obtenir des informations sur la commande ccs, voir le Chapitre 5, Configurer le module
complmentaire Red Hat High Availability avec la commande ccs et le Chapitre 6, Grer le module
complmentaire Red Hat High Availability avec ccs.
Assurez-vous de bien avoir configur chkconfig on pour les services clusters dans le nud qui
tente de rejoindre le cluster.
Assurez-vous qu'aucune rgle de pare-feu ne bloque les communications entre le nud et les
150
Assurez-vous qu'aucune rgle de pare-feu ne bloque les communications entre le nud et les
autres nuds dans le cluster.
22482
22483
0.0
0.0
0.5
0.2
23544
78372
5136 ?
2060 ?
S<Ls Dec01
S<l Dec01
0:00 rgmanager
0:47 rgmanager
Dans l'exemple suivant, le programme pidof est utilis pour dterminer automatiquement le numro
PID le plus lev, qui est le PID correct pour crer le core (cur). La commande complte capture le
core de l'application du processus 22483, qui possde le PID le plus lev.
$ gcore -o /tmp/rgmanager-$(date '+%F_%s').core $(pidof -s rgmanager)
151
Remarque
Si les services du cluster sont excuts sur ce nud de cluster, alors les services excuts
pourraient se retrouver en mauvais tat.
Le fichier core sera crit lorsqu'il est gnr par l'chec du processus rgm anager
ls /core*
Dplacez ou supprimez tous les anciens fichiers core sous le rpertoire / avant de redmarrer
rgm anager pour capturer le core de l'application. Le nud du cluster qui a expriment l'chec de
rgm anager devra tre redmarr ou cltur ( fenced ) une fois que le core est captur afin
d'tre sr que le processus de surveillance n'tait pas en cours d'excution.
9.4 .3. Enregistrement d'une session de backtrace gdb
Une fois que vous avez captur le fichier core , vous pouvez voir son contenu en utilisant gdb, le
dbogueur GNU. Pour enregistrer une session script de gdb sur le fichier core du systme affect,
veuillez excuter ce qui suit :
$ script /tmp/gdb-rgmanager.txt
$ gdb /usr/sbin/rgmanager /tmp/rgmanager-.core.
Ceci lancera une session gdb, tandis que script l'enregistrera sur le fichier texte correspondant.
Lorsque vous tes dans une session gdb, excutez les commandes suivantes :
(gdb) thread apply all bt full
(gdb) quit
Pressez sur ctrl-D pour arrter la session script et l'enregistrer sur le fichier texte.
152
Chapitre 10. Configuration SNMP avec le module complmentaire Red Hat High Availability
Note
Vous pouvez clturer un nud manuellement avec la commande fence_node ou avec Conga.
Pour obtenir des informations, voir la page man fence_node et la Section 4.3.2, Causer un
nud de joindre ou quitter un cluster .
Pour obtenir plus d'informations sur la commande rg_test, voir la Section C.5, Dbogage et
testage des services et de l'ordre des ressources .
Si la configuration est valide, augmentez alors la journalisation du gestionnaire du groupe de
ressource puis lisez les journaux des messages pour dterminer ce qui cause l'chec du dmarrage
du service. Vous pouvez augmenter le niveau de journalisation en ajoutant le paramtre
loglevel="7" au marqueur rm dans le fichier cluster.conf. Vous remarquerez alors une
augmentation de la verbosit dans les journaux des messages concernant le dmarrage, l'arrt et la
migration des services clusteriss.
153
154
Chapitre 10. Configuration SNMP avec le module complmentaire Red Hat High Availability
155
2. Pour spcifier l'hte vers lequel les notifications des interruptions SNMP devraient tre envoyes,
ajoutez la ligne suivante au fichier /etc/snm p/snm pd.conf :
trap2sink host
Pour obtenir des informations sur la gestion des notifications, voir la page man snm pd.conf.
3. Assurez-vous que le dmon snm pd est bien activ et en cours d'excution en excutant les
commandes suivantes :
# chkconfig snmpd on
# service snmpd start
4. Si le dmon m essagebus n'est pas dj activ et en cours d'excution, excutez les commandes
suivantes :
# chkconfig messagebus on
# service messagebus start
5. Assurez-vous que le dmon foghorn est bien activ et en cours d'excution en excutant les
commandes suivantes :
# chkconfig foghorn on
# service foghorn start
6. Excutez la commande suivante pour configurer votre systme de manire ce que COROSYNC-
156
MIB gnre des interruptions SNMP et pour vous assurer que le dmon corosync-notifyd
est bien activ et en cours d'excution :
# echo "OPTIONS=\"-d\" " > /etc/sysconfig/corosync-notifyd
# chkconfig corosync-notifyd on
# service corosync-notifyd start
Aprs avoir configur chaquen nud dans le cluster pour SNMP et vous tre assur que les services
ncessaires sont en cours d'excution, des signaux D-bus seront reus par le service foghorn et
traduits en interruptions SNMPv2. Ces interruptions sont ensuite passes l'hte que vous avez dfini
avec l'entre trapsink pour recevoir les interruptions SNMPv2.
3. Sur l'hte externe qui recevra les interruptions, assurez-vous que le dmon snm ptrapd est
activ et en cours d'excution en saisissant les commandes suivantes :
# chkconfig snmptrapd on
# service snmptrapd start
Pour obtenir plus d'informations sur le traitement des notifications SNMP, voir la page man
snm ptrapd.conf.
157
Cette interruption se produit lorsque l'tat d'un service cluster change. La notification inclut les
champs suivants :
rgm anagerServiceNam e - nom du service, qui inclut le type de service (par exemple,
service:foo ou vm :foo).
rgm anagerServiceState - tat du service. Ceci exclut les tats transitionnels tels que
starting (dmarrage) et stopping (arrt) pour rduire l'encombrement dans les interruptions.
rgm anagerServiceFlags - indicateurs de service. Actuellement, deux indicateurs sont pris
en charge : frozen, indiquant un service qui a t gel l'aide de clusvcadm -Z et partial,
indiquant un service dans lequel une ressource en chec a t marque comme non-critique
pour que celle-ci puisse chouer et que ses composants puissent tre redmarrs sans que le
service entier ne soit affect.
rgm anagerServiceCurrentOwner - propritaire du service. Si le service n'est pas en cours
d'excution, celui-ci affichera (none) (aucun).
rgm anagerServicePreviousOwner - dernier propritaire du service, s'il est connu. S'il n'est
pas connu, celui-ci peut afficher (none) (aucun).
Le dmon corosync-nodifyd gnre les interruptions suivantes :
corosyncNoticesNodeStatus
Cette interruption se produit lorsqu'un nud rejoint ou quitte le cluster. La notification inclut les
champs suivants :
corosyncObjectsNodeNam e - nom du nud
corosyncObjectsNodeID - id du nud
corosyncObjectsNodeAddress - adresse IP du nud
corosyncObjectsNodeStatus - tat du nud (joined ou left)
corosyncNoticesQuorum Status
Cette interruption se produit lorsque l'tat du quorum change. La notification inclut les champs
suivants :
corosyncObjectsNodeNam e - nom du nud
corosyncObjectsNodeID - id du nud
corosyncObjectsQuorum Status - nouvel tat du quorum (quorate ou NOT quorate)
corosyncNoticesAppStatus
Cette interruption se produit lorsqu'une application client se connecte ou se dconnecte de
Corosync.
corosyncObjectsNodeNam e - nom du nud
corosyncObjectsNodeID - id du nud
corosyncObjectsAppNam e - nom de l'application
corosyncObjectsAppStatus - nouvel tat de l'application (connected ou disconnected)
158
Note
Red Hat Enterprise Linux 6 prend en charge un maximum de quatre nuds excutant Samba
clusteris.
Ce chapitre dcrit la procdure pour configurer CT DB en configurant un exemple de systme. Pour
obtenir des informations sur la configuration des systmes de fichier GFS2, reportez-vous Global File
System 2. Pour obtenir des informations sur la configuration de volumes logiques, reportez-vous
Administration LVM.
159
Pour crer un systme de fichiers GFS2 sur un volume logique, excutez la commande m kfs.gfs2.
Excutez cette commande sur un nud du cluster uniquement.
Pour crer le systme de fichiers devant hberger le partage Samba sur le volume logique
/dev/csm b_vg/csm b_lv, veuillez excuter la commande suivante :
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:gfs2 /dev/csmb_vg/csmb_lv
Dans cet exemple, le systme de fichiers /dev/csm b_vg/csm b_lv sera mont sur l'emplacement
/m nt/gfs2 sur tous les nuds. Ce point de montage doit correspondre la valeur que vous spcifiez
comme tant l'emplacement du rpertoire share (rpertoire de partage) avec l'option path = dans le
fichier /etc/sam ba/sm b.conf, comme le dcrit la Section 11.5, Configuration de Samba .
Pour crer le systme de fichiers devant hberger les informations d'tat de CT DB sur le volume
logique /dev/csm b_vg/ctdb_lv, veuillez excuter la commande suivante :
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:ctdb_state
/dev/csmb_vg/ctdb_lv
Remarquez que cette commande spcifie un nom de tableau de verrouillage diffrent de celui dans
l'exemple qui cre le systme de fichier sur /dev/csm b_vg/csm b_lv. Ceci permet de distinguer les
noms des tableaux de verrouillage des diffrents priphriques utiliss pour les systmes de fichiers.
160
Dans cet exemple, le systme de fichiers /dev/csm b_vg/ctdb_lv sera mont sur l'emplacement
/m nt/ctdb sur tous les nuds. Ce point de montage doit correspondre la valeur que vous spcifiez
comme tant l'emplacement du fichier .ctdb.lock avec l'option CT DB_RECOVERY_LOCK dans le fichier
/etc/sysconfig/ctdb, comme le dcrit la Section 11.4, Configuration de CT DB .
Dans cet exemple, il n'y a qu'une seule interface/adresse IP sur chaque nud utilis pour les
communications cluster/CT DB et pour servir les clients. Cependant, il est fortement
recommand que chaque nud de cluster possde deux interfaces rseau, ainsi un ensemble
161
d'interfaces pourra tre ddi aux communications cluster/CT DB et un autre ensemble pourra
tre ddi l'accs public du client. Veuillez utiliser les adresses IP correctes du rseau du
cluster et vous assurer que les nom d'htes/adresses IP utiliss dans le fichier
cluster.conf sont bien les mmes. De la mme manire, veuillez utiliser les interfaces
correctes du rseau public pour l'accs client dans le fichier public_addresses.
Il est critique que le fichier /etc/ctdb/nodes soit identique sur tous les nuds car l'ordre
est important et CT DB chouera si diffrentes informations se trouvent sur diffrents nuds.
CT DB_PUBLIC_ADDRESSES
Spcifie l'emplacement du fichier qui rpertorie les adresses IP pouvant tre utilises pour
accder aux partages Samba exports par ce cluster. Ce sont les adresses IP que vous
devriez configurer dans DNS pour le nom du serveur Samba clusteris et les adresses
auxquelles les clients CIFS se connecteront. Configurez le nom du serveur Samba clusteris
comme tant un enregistrement DNS de type A avec de multiples adresses IP et laissez le DNS
Round-Robin distribuer les clients travers les nuds du cluster.
Pour cet exemple, nous avons configur une entre DNS Round-Robin csm b-server avec
toutes les adresses rpertories dans le fichier /etc/ctdb/public_addresses. Le DNS
distribuera les clients utilisant cette entre sur le cluster l'aide de la technique du DNS
Round-Robin.
Le contenu du fichier /etc/ctdb/public_addresses sur chaque nud est comme suit :
192.168.1.201/0 eth0
192.168.1.202/0 eth0
192.168.1.203/0 eth0
Cet exemple utilise trois adresses qui sont actuellement inutilises sur le rseau. Dans votre
propre configuration, choisissez les adresses pouvant tre accdes par les clients voulus.
Alternativement, cet exemple affiche le contenu des fichiers /etc/ctdb/public_addresses
dans un cluster dans lequel se trouvent trois nuds, mais un total de quatre adresses
publiques. Dans cet exemple, l'adresse IP 198.162.2.1 peut tre hberge par le nud 0 ou le
nud 1 et sera disponible aux clients aussi longtemps que l'un de ces nuds sera disponible.
Cette adresse publique sera indisponible aux clients uniquement si les nuds 0 et 1 chouent.
T outes les autres adresses publiques peuvent uniquement tre servies par un seul nud
respectivement et seront donc seulement disponibles si le nud respectif est aussi disponible.
Le fichier /etc/ctdb/public_addresses sur le nud 0 inclut le contenu suivant :
198.162.1.1/24 eth0
198.162.2.1/24 eth1
CT DB_RECOVERY_LOCK
Spcifie un fichier verrou que CT DB utilise de manire interne pour la rcupration. Ce fichier
doit tre sur un stockage partag afin que tous les nuds du cluster puissent y accder.
L'exemple de cette section utilise le systme de fichiers GFS2 qui sera mont sur /m nt/ctdb
162
sur tous les nuds. Ceci est diffrent du systme de fichiers GFS2 qui hbergera le partage
Samba devant tre export. Ce fichier verrou de rcupration est utilis afin de prvenir les
scnarios de type split-brain . Dans les versions plus rcentes de CT DB ( partir de la
version 1.0.112), la spcification de ce fichier est optionnelle partir du moment o celle-ci est
remplace par un autre mcanisme de prvention de split-brain .
CT DB_MANAGES_SAMBA
Lorsqu'activ, en paramtrant sur yes, cette valeur spcifie que CT DB est autoris dmarrer
et arrter le service Samba comme ncessaire, afin de fournir un basculement ou une migration
du service.
Lorsque CT DB_MANAGES_SAMBA est activ, vous devriez dsactiver le dmarrage automatique
init des dmons sm b et nm b en excutant les commandes suivantes :
[root@clusmb-01 ~]# chkconfig snb off
[root@clusmb-01 ~]# chkconfig nmb off
CT DB_MANAGES_WINBIND
Lorsqu'activ, en paramtrant sur yes, cette valeur spcifie que CT DB est autoris dmarrer
et arrter le dmon winbind comme requis. Celui-ci devrait tre activ lorsque CT DB est
utilis dans un domaine Windows ou en mode de scurit de rpertoire actif.
Lorsque CT DB_MANAGES_WINBIND est activ, vous devriez dsactiver le dmarrage
automatique init du dmon winbind en excutant la commande suivante :
[root@clusmb-01 ~]# chkconfig windinbd off
Cet exemple exporte un partage avec le nom csm b, se trouvant sur /m nt/gfs2/share. Ceci est
diffrent du systme de fichiers partag GFS2 sur /m nt/ctdb/.ctdb.lock que nous avons spcifi
comme tant le paramtre CT DB_RECOVERY_LOCK dans le fichier de configuration CT DB sur
/etc/sysconfig/ctdb.
Dans cet exemple, nous crerons le rpertoire share sur /m nt/gfs2 lorsque nous le monterons pour
la premire fois. L'entre clustering = yes ordonne Samba d'utiliser CT DB. L'entre netbios
nam e = csm b-server paramtre explicitement tous les nuds de manire ce qu'ils aient un nom
NetBIOS commun. Le paramtre ea support est requis si vous planifiez d'utiliser des attributs
tendus.
Le fichier de configuration sm b.conf doit tre identique sur tous les nuds du cluster.
163
Samba propose aussi une configuration base sur le registre avec la commande net conf pour que la
configuration reste automatiquement synchronise entre les diffrents membres du cluster sans avoir
copier manuellement les fichiers de configuration des nuds du cluster. Pour obtenir des informations
sur la commande net conf, veuillez vous reporter la page man net(8).
CT DB peut prendre quelques minutes pour lancer Samba, exporter les partages et se stabiliser.
Excuter ctdb status affiche le statut de CT DB, comme l'exemple suivant le montre :
[root@clusmb-01 ~]# ctdb status
Number of nodes:3
pnn:0 192.168.1.151
OK (THIS NODE)
pnn:1 192.168.1.152
OK
pnn:2 192.168.1.153
OK
Generation:1410259202
Size:3
hash:0 lmaster:0
hash:1 lmaster:1
hash:2 lmaster:2
Recovery mode:NORMAL (0)
Recovery master:0
Lorsque tous les nuds sont Ok , vous pourrez utiliser le serveur Samba clusteris en toute
scurit, comme le dcrit la Section 11.7, Utiliser le serveur Samba clusteris .
ou
[user@clusmb-01 ~]$ smbclient //csmb-server/csmb
164
Remarque
Le paramtre Name pour un priphrique fence spcifie un nom arbitraire pour le priphrique
qui sera utilis par le module complmentaire Red Hat High Availability. Il ne s'agit pas de la
mme chose que le nom DNS du priphrique.
Remarque
Certains priphriques fence possdent un paramtre optionnel Password Script. Le paramtre
Password Script vous permet de spcifier qu'un mot de passe de priphrique fence soit
fournit par un script plutt que par le paramtre Password. L'utilisation du paramtre Password
Script supplante le paramtre Password, permettant aux mots de passe de ne pas tre visibles
dans le fichier de configuration du cluster (/etc/cluster/cluster.conf).
T ableau A.1, Rsum des priphriques fence rpertorie les priphriques fence, les agents des
priphriques fence associs aux priphriques fence, et fournit une rfrence au tableau documentant
les paramtres des priphriques fence.
165
Agent fence
Rfrences aux
descriptions des
paramtres
Interrupteur
d'alimentation
APC
(telnet/SSH)
fence_apc
Interrupteur
Brocade Fabric
fence_brocade
MDS Cisco
fence_cisco_mds
UCS Cisco
fence_cisco_ucs
DRAC 5 de
Dell
fence_drac5
Commutateur
d'alimentation
rseau Eaton
Eaton
Network Power
Switch
(Interface
SNMP)
fence_eaton_snmp
Contrleur
SAN Egenera
fence_egenera
ePowerSwitch
fence_eps
T ableau A.10,
ePowerSwitch
Fence virt
fence_virt
RSB Fujitsu
Siemens
(Remoteview
Service Board)
fence_rsb
HP
BladeSystem
fence_hpblade
T ableau A.13, HP
BladeSystem (Red Hat
Enterprise Linux 6.4 et versions
suprieures)
HP iLO/iLO2
(Integrated
Lights Out)
fence_ilo
HP iLO
(Integrated
Lights Out) MP
fence_ilo_mp
IBM
BladeCenter
fence_bladecenter
IBM
BladeCenter
SNMP
fence_ibmblade
IBM iPDU
fence_ipdu
IF MIB
fence_ifmib
Modular Intel
fence_intelmodular
IPMI (Interface
fence_ipmilan
166
de gestion de
plateforme
intelligente, en
anglais
Intelligent
Platform
Management
Interface )
LAN
de gestion de plateforme
intelligente, en anglais
Intelligent Platform
Management Interface ) LAN
API REST
RHEV-M
fence_rhevm
Fencing SCSI
fence_scsi
Fencing
VMware
(Interface
SOAP)
fence_vmware_soap
Interrupteur
d'alimentation
WT I
fence_wti
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port IP
(optionnel)
ipport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Dlai de
l'alimentation
power_wait
Port
port
Le port.
Interrupteur
(optionnel)
switch
Utiliser SSH
secure
Chemin vers le
fichier
d'identit SSH
identity_fi
le
167
Le T ableau A.3, Interrupteur d'alimentation sur SNMP rpertorie les paramtres de priphrique
fence utiliss par fence_apc_snm p, qui est l'agent fence pour APC qui se connecte au priphrique
SNP via le protocole SNMP.
T ableau A.3. Interrupteur d'alimentation sur SNMP
Champ luci
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
UDP/T CP port
udpport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Version de
SNMP
snm p_versio
n
Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.
Communaut
SNMP
com m unity
Niveau de
scurit SNMP
snm p_sec_le
vel
Protocole
d'authentificati
on SNMP
snm p_auth_p
rot
Protocole de
confidentialit
SNMP
snm p_priv_p
rot
Mot de passe
du protocole
de
confidentialit
SNMP
snm p_priv_p
asswd
Script du
protocole de
confidentialit
SNMP
snm p_priv_p
asswd_scrip
t
Dlai de
l'alimentation
power_wait
Numro (de la
prise) du port
port
Le port.
Le T ableau A.4, Interrupteur Brocade Fabric rpertorie les paramtres de priphrique fence utiliss
par fence_brocade, l'agent fence des interrupteurs Brocade FC.
168
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Port
port
Le T ableau A.5, MDS Cisco rpertorie les paramtres du priphrique fence utiliss par
fence_cisco_m ds, l'agent fence pour Cisco MDS.
169
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
UDP/T CP port
udpport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Numro (de la
prise) du port
port
Le port.
Version de
SNMP
snm p_versio
n
Communaut
SNMP
com m unity
Niveau de
scurit SNMP
snm p_sec_le
vel
Protocole
d'authentificati
on SNMP
snm p_auth_p
rot
Protocole de
confidentialit
SNMP
snm p_priv_p
rot
Mot de passe
du protocole
de
confidentialit
SNMP
snm p_priv_p
asswd
Script du
protocole de
confidentialit
SNMP
snm p_priv_p
asswd_scrip
t
Dlai de
l'alimentation
power_wait
Le T ableau A.6, UCS Cisco rpertorie les paramtres du priphrique fence utiliss par
fence_cisco_ucs, l'agent fence pour Cisco UCS.
170
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
IP port
(optional)
ipport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Utiliser SSH
ssl
Sousorganisation
suborg
Numro (de la
prise) du port
port
Dlai de
l'alimentation
power_wait
Le T ableau A.7, DRAC 5 de Dell rpertorie les paramtres du priphrique fence utiliss par
fence_drac5, fence_cisco_ucs, l'agent fence pour Dell DRAC 5.
171
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port IP
(optionnel)
ipport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Utiliser SSH
secure
Chemin vers le
fichier
d'identit SSH
identity_fi
le
Nom du
module
m odule_nam
e
Forcer l'invite
de commande
cm d_prom pt
Dlai de
l'alimentation
power_wait
T ableau A.8, Contrleur d'alimentation rseau Eaton (Interface SNMP) (Red Hat Enterprise Linux 6.4 et
versions suprieures) rpertorie les paramtres de priphrique rseau utiliss par
fence_eaton_snm p, l'agent fence du commutateur d'alimentation rseau Eaton sur SNMP.
172
T ableau A.8. Contrleur d'alimentation rseau Eaton (Interface SNMP) (Red Hat Enterprise
Linux 6.4 et versions suprieures)
Champ luci
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port UDP/T CP
(optionnel)
udpport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Version de
SNMP
snm p_versio
n
Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.
Communaut
SNMP
com m unity
Niveau de
scurit SNMP
snm p_sec_le
vel
Protocole
d'authentificati
on SNMP
snm p_auth_p
rot
Protocole de
confidentialit
SNMP
snm p_priv_p
rot
Mot de passe
du protocole
de
confidentialit
SNMP
snm p_priv_p
asswd
Script du
protocole de
confidentialit
SNMP
snm p_priv_p
asswd_scrip
t
Attente
dmarrage
(secondes)
power_wait
Numro (de la
prise) du port
port
Le T ableau A.9, Contrleur SAN Egenera rpertorie les paramtres du priphrique fence utiliss
par fence_egenera, l'agent fence pour Egenera BladeFrame.
173
Attribut
cluster.con
f
Description
Nom
nam e
CServer
cserver
ESH Path
(optional)
esh
Nom
d'utilisateur :
user
lpan
lpan
pserver
pserver
Le T ableau A.10, ePowerSwitch rpertorie les paramtres du priphrique fence utiliss par
fence_eps, l'agent fence pour ePowerSwitch.
T ableau A.10. ePowerSwitch
Champ luci
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Nom de la
page cache
hidden_page
Numro (de la
prise) du port
port
Le T ableau A.11, Fence virt rpertorie les paramtres du priphrique fence utiliss par
fence_virt, l'agent fence pour un priphrique fence Fence virt .
174
Attribut
cluster.con
f
Description
Nom
nam e
Priphrique
srie
serial_devi
ce
Paramtres de
srie
serial_para
ms
Adresse IP du
canal VM
channel_add
ress
Port ou
domaine
(dprci)
port
ipport
Port du canal. La valeur par dfaut est 1229, qui est la valeur
utilise lors de la configuration de ce priphrique fence avec luci.
Le T ableau A.12, RSB Fujitsu Siemens (Remoteview Service Board) rpertorie les paramtres du
priphrique fence utiliss par fence_rsb, l'agent fence pour le RSB Fujitsu-Siemens.
T ableau A.12. RSB Fujitsu Siemens (Remoteview Service Board)
Champ luci
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Port T CP
ipport
T ableau A.13, HP BladeSystem (Red Hat Enterprise Linux 6.4 et versions suprieures) rpertorie les
paramtres du priphrique fence utiliss par fence_hpblade, l'agent fence de HP BladeSystem.
175
T ableau A.13. HP BladeSystem (Red Hat Enterprise Linux 6.4 et versions suprieures)
Champ luci
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port IP
(optionnel)
ipport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Forcer l'invite
de commande
cm d_prom pt
Le port
manquant
retourne OFF
au lieu d'un
chec
m issing_as_
off
Attente
dmarrage
(secondes)
power_wait
Utiliser SSH
secure
Chemin vers le
fichier
d'identit SSH
identity_fi
le
Le T ableau A.14, HP iLO/iLO2 (Integrated Lights Out) rpertorie les paramtres du priphrique
fence utiliss par fence_ilo, l'agent fence pour les priphriques HP iLO.
176
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port IP
(optionnel)
ipport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Dlai de
l'alimentation
power_wait
Le T ableau A.15, HP iLO (Integrated Lights Out) MP rpertorie les paramtres du priphrique fence
utiliss par fence_ilo_m p, l'agent fence pour les priphriques HP iLO MP.
T ableau A.15. HP iLO (Integrated Lights Out) MP
Champ luci
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port IP
(optionnel)
ipport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Utiliser SSH
secure
Chemin vers le
fichier
d'identit SSH
identity_fi
le
Forcer l'invite
de commande
cm d_prom pt
Dlai de
l'alimentation
power_wait
Le T ableau A.16, IBM BladeCenter rpertorie les paramtres du priphrique fence utiliss par
fence_bladecenter, l'agent fence pour IBM BladeCenter.
177
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
IP port
(optional)
ipport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Dlai de
l'alimentation
power_wait
Utiliser SSH
secure
Chemin vers le
fichier
d'identit SSH
identity_fi
le
Le T ableau A.17, IBM BladeCenter SNMP rpertorie les paramtres du priphrique fence utiliss
par fence_ibm blade, l'agent fence pour IBM BladeCenter sur SNMP.
178
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port UDP/T CP
(optionnel)
udpport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Version de
SNMP
snm p_versio
n
Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.
Communaut
SNMP
com m unity
Niveau de
scurit SNMP
snm p_sec_le
vel
Protocole
d'authentificati
on SNMP
snm p_auth_p
rot
Protocole de
confidentialit
SNMP
snm p_priv_p
rot
Mot de passe
du protocole
de
confidentialit
SNMP
snm p_priv_p
asswd
Script du
protocole de
confidentialit
SNMP
snm p_priv_p
asswd_scrip
t
Dlai de
l'alimentation
power_wait
Port
port
T ableau A.18, IBM iPDU (Red Hat Enterprise Linux 6.4 et versions suprieures) rpertorie les
paramtres du priphrique fence utiliss par fence_ipdu, l'agent fence pour iPDU sur priphriques
SNMP.
179
T ableau A.18. IBM iPDU (Red Hat Enterprise Linux 6.4 et versions suprieures)
Champ luci
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port UDP/T CP
udpport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Version de
SNMP
snm p_versio
n
Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.
Communaut
SNMP
com m unity
Niveau de
scurit SNMP
snm p_sec_le
vel
Protocole
d'authentificati
on SNMP
snm p_auth_p
rot
Protocole de
confidentialit
SNMP
snm p_priv_p
rot
Mot de passe
du protocole
de
confidentialit
SNMP
snm p_priv_p
asswd
Script du
protocole de
confidentialit
SNMP
snm p_priv_p
asswd_scrip
t
Dlai de
l'alimentation
power_wait
Port
port
Le port.
Le T ableau A.19, IF MIB rpertorie les paramtres du priphrique fence utiliss par fence_ifm ib,
l'agent fence pour les priphriques IF-MIB.
180
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port UDP/T CP
(optionnel)
udpport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Version de
SNMP
snm p_versio
n
Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.
Communaut
SNMP
com m unity
Niveau de
scurit SNMP
snm p_sec_le
vel
Protocole
d'authentificati
on SNMP
snm p_auth_p
rot
Protocole de
confidentialit
SNMP
snm p_priv_p
rot
Mot de passe
du protocole
de
confidentialit
SNMP
snm p_priv_p
asswd
Script du
protocole de
confidentialit
SNMP
snm p_priv_p
asswd_scrip
t
Dlai de
l'alimentation
power_wait
Port
port
Le T ableau A.20, Modular Intel rpertorie les paramtres du priphrique fence utiliss par
fence_intelm odular, l'agent fence pour Intel Modular.
181
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Version de
SNMP
snm p_versio
n
Version SNMP utiliser (1, 2c, 3), la valeur par dfaut est 1.
Communaut
SNMP
com m unity
Niveau de
scurit SNMP
snm p_sec_le
vel
Protocole
d'authentificati
on SNMP
snm p_auth_p
rot
Protocole de
confidentialit
SNMP
snm p_priv_p
rot
Mot de passe
du protocole
de
confidentialit
SNMP
snm p_priv_p
asswd
Script du
protocole de
confidentialit
SNMP
snm p_priv_p
asswd_scrip
t
Dlai de
l'alimentation
power_wait
Port
port
Le T ableau A.21, IPMI (Interface de gestion de plateforme intelligente, en anglais Intelligent Platform
Management Interface ) LAN rpertorie les paramtres de priphriques fence utiliss par
fence_ipm ilan, l'agent fence pour IPMI sur LAN.
182
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
T ype
d'authentificati
on
auth
Utiliser
Lanplus
lanplus
Ciphersuite to
use
cipher
Niveau de
privilges
privlvl
Le T ableau A.22, RHEV-M REST API (RHEL 6.2 et versions plus rcentes avec RHEV 3.0 et versions
plus rcentes) rpertorie les paramtres du priphrique fence utiliss par fence_rhevm , l'agent
fence pour RHEV-M REST API.
T ableau A.22. RHEV-M REST API (RHEL 6.2 et versions plus rcentes avec RHEV 3.0 et
versions plus rcentes)
Champ luci
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port IP
(optionnel)
ipport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Utiliser SSH
ssl
Dlai de
l'alimentation
power_wait
Port
port
183
Le T ableau A.23, Fencing SCSI rpertorie les paramtres du priphrique fence utiliss par
fence_scsi, l'agent fence pour les rservations persistantes SCSI.
Remarque
L'utilisation des rservations persistantes SCSI en tant que mthode fence est prise en charge
avec les limitations suivantes :
Lors de l'utilisation du fencing SCSI, tous les nuds dans le cluster doivent s'enregistrer avec
les mmes priphriques afin que chaque nud puisse supprimer la cl d'enregistrement
d'un autre nud de tous les priphriques auprs desquels elle est enregistre.
Les priphriques utiliss pour les volumes de clusters devraient tre un LUN complet et non
des partitions. Les rservations persistantes SCSI fonctionnent sur un LUN entier, ce qui
signifie que l'accs est contrl sur chaque LUN, pas sur les partitions individuelles.
Attribut
cluster.con
f
Description
Nom
nam e
Node name
Cl pour
l'action actuelle
Le T ableau A.24, Fencing VMware (interface SOAP) (Red Hat Enterprise Linux 6.2 et versions plus
rcentes) rpertorie les paramtres du priphrique fence utiliss par fence_vm ware_soap, l'agent
fence pour VMWare sur SOAP API.
184
T ableau A.24 . Fencing VMware (interface SOAP) (Red Hat Enterprise Linux 6.2 et versions
plus rcentes)
Champ luci
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port IP
(optionnel)
ipport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Sparateur
separator
Dlai de
l'alimentation
power_wait
Nom de la VM
port
UUID de la VM
uuid
Utiliser SSH
ssl
185
Attribut
cluster.con
f
Description
Nom
nam e
Adresse IP ou
nom d'hte
ipaddr
Port IP
(optionnel)
ipport
Connexion
login
Mot de passe
passwd
Script de mot
de passe
(optionnel)
passwd_scri
pt
Port
port
Force
command
prompt
cm d_prom pt
Dlai de
l'alimentation
power_wait
Utiliser SSH
secure
Chemin vers le
fichier
d'identit SSH
identity_fi
le
186
187
Agent de ressources
Apache
apache.sh
Instance Condor
condor.sh
Systme de fichiers
fs.sh
Systme de fichiers
GFS2
clusterfs.sh
Adresse IP
ip.sh
LVM HA
lvm.sh
MySQL
mysql.sh
Client NFS
nfsclient.sh
Export NFS
nfsexport.sh
Serveur NFS
nfsserver.sh
Montage NFS/CIFS
netfs.sh
Open LDAP
openldap.sh
Instance de
basculement Oracle
10g/11g
oracledb.sh
Instance de
basculement Oracle
10g
orainstance.sh
oralistener.sh
PostgreSQL 8
postgres-8.sh
SAP Database
SAPDatabase
SAP Instance
SAPInstance
Samba
samba.sh
Script
script.sh
Sybase ASE
ASEHAagent.sh
T omcat 6
tomcat-6.sh
Virtual Machine
vm.sh
188
Attribut de
cluster.con
f
Description
Nom
nam e
Serveur root
server_root
Fichier de
configuration
config_file
Options httpd
httpd_optio
ns
Attente
fermeture (en
secondes)
shutdown_wa
it
Champ luci
Attribut de cluster.conf
Nom
d'instance
nam e
T ype de soussystme
Condor
type
189
Attribut de
cluster.con
f
Description
Nom
nam e
T ype de
systme de
fichiers
fstype
Point de
montage
m ountpoint
Device
(priphrique),
FS Label
(tiquette FS),
ou UUID
device
Options de
montage
options
ID du systme
de fichiers
(optionnel)
fsid
Remarque
ID du systme de fichiers est uniquement utilis par
les services NFS.
Lors de la cration d'une nouvelle ressource de systme de
fichiers, vous pouvez laisser ce champ vide. Laisser ce champ
vide fait que l'ID du systme de fichiers sera assign
automatiquement aprs avoir committ le paramtre pendant la
configuration. Si vous devez assigner un ID de systme de fichiers
excplicitement, spcifiez-le dans ce champ.
Forcer le
dmontage
force_unm ou
nt
Forcer fsck
force_fsck
Activez le
dmon NFS et
la solution de
contournement
lockd (Red Hat
Enterprise
Linux 6.4 et
versions
suprieures)
nfsrestart
Utiliser les
vrifications
rapides de
statut
quick_statu
s
Redmarrer le
nud hte si
le dmontage
self_fence
190
le dmontage
choue
191
Attribut de
cluster.con
f
Description
Nom
nam e
Point de
montage
m ountpoint
Device
(priphrique),
FS Label
(tiquette FS),
ou UUID
device
T ype de
systme de
fichiers
fstype
Options de
montage
options
Options de montage.
ID du systme
de fichiers
(optionnel)
fsid
Remarque
ID du systme de fichiers est uniquement utilis par
les services NFS.
Lors de la cration d'une nouvelle ressource GFS2, vous pouvez
laisser ce champ vide. Laisser ce champ vide fera que l'ID du
systme de fichiers sera assign automatiquement aprs avoir
committ le paramtre pendant la configuration. Si vous devez
assigner un ID de systme de fichiers explicitement, spcifiez-le
dans ce champ.
Forcer le
dmontage
force_unm ou
nt
Activez le
dmon NFS et
la solution de
contournement
lockd (Red Hat
Enterprise
Linux 6.4 et
versions
suprieures)
nfsrestart
Redmarrer le
nud hte si
le dmontage
choue
self_fence
192
Attribut de
cluster.con
f
Description
IP Address
(adresse IP),
Netmask Bits
(bits de
masque
rseau)
address
Monitor Link
m onitor_lin
k
Dsactiver les
mises jour
des routes
statiques
disable_rdi
sc
Nombre de
secondes de
veille aprs la
suppression
d'une adresse
IP
sleeptim e
Attribut de
cluster.con
f
Description
Nom
nam e
Nom du
groupe de
volumes
vg_nam e
Nom du
volume logique
(optionnel)
lv_nam e
Fencing du
nud s'il est
incapable de
nettoyer les
balises LVM
self_fence
193
Attribut de
cluster.con
f
Description
Nom
nam e
Fichier de
configuration
config_file
Listen Address
listen_addr
ess
Options
mysqld
m ysqld_opti
ons
Attente
dmarrage (en
secondes)
startup_wai
t
Attente
fermeture (en
secondes)
shutdown_wa
it
Attribut de
cluster.con
f
Description
Nom
nam e
Nom d'hte,
caractre
gnrique, ou
netgroup de la
cible
target
Autoriser la
rcupration
de ce client
NFS
allow_recov
er
Autorise la rcupration.
Options
options
Dfinit une liste d'options pour ce client par exemple, des droits
d'accs client supplmentaires. Pour plus d'informations, reportezvous aux Options gnrales de la page man exports (5).
194
Attribut de
cluster.con
f
Description
Nom
nam e
Astuce
Nom de la ressource NFS Export, afin qu'elle soit clairement
distinguable des autres ressources NFS.
Attribut de
cluster.con
f
Description
Nom
nam e
195
Attribut de
cluster.con
f
Description
Nom
nam e
Remarque
Cette ressource est requise lorsqu'un service cluster est
configur de manire tre un client NFS.
Point de
montage
m ountpoint
Hte
host
Nom du
rpertoire NFS
Export ou nom
du partage
CIFS
export
T ype de
systme de
fichiers
fstype
Forcer le
dmontage
force_unm ou
nt
Ne pas
dmonter le
systme de
fichiers
pendant une
opration
d'arrt ou de
dplacement.
no_unm ount
Options
options
196
Attribut de
cluster.con
f
Description
Nom
nam e
Fichier de
configuration
config_file
url_list
Options
slapd
slapd_optio
ns
Attente
fermeture (en
secondes)
shutdown_wa
it
Attribut de
cluster.con
f
Description
Nom
d'instance
(SID) de
l'instance
Oracle
nam e
Nom d'instance.
Nom
d'utilisateur
Oracle
user
Rpertoire de
base de
l'application
Oracle
hom e
T ype
d'installation
Oracle
type
Nom d'hte
virtuel
(optionnel)
vhost
197
Attribut de
cluster.con
f
Description
Nom
d'instance
(SID) de
l'instance
Oracle
nam e
Nom d'instance.
Nom
d'utilisateur
Oracle
user
Rpertoire de
base de
l'application
Oracle
hom e
Liste des
listeners
Oracle
(optionnels,
spars par
des espaces)
listeners
Chemin vers le
fichier verrou
(optionnel)
lockfile
Attribut de
cluster.con
f
Description
Nom du
listener
nam e
Nom du listener.
Nom
d'utilisateur
Oracle
user
Rpertoire de
base de
l'application
Oracle
hom e
198
Attribut de
cluster.con
f
Description
Nom
nam e
Fichier de
configuration
config_file
Postmaster
User
postm aster_
user
Options
Postmaster
postm aster_
options
Attente
fermeture (en
secondes)
shutdown_wa
it
199
Attribut de
cluster.con
f
Description
Nom de base
de donnes
SAP
SID
Rpertoire
excutable
SAP
DIR_EXECUT A
BLE
T ype de base
de donnes
DBT YPE
Nom du
listener Oracle
NET SERVICEN
AME
La pile ABAP
n'est pas
installe, seule
la pile Java est
installe
DBJ2EE_ONLY
Surveillance du
niveau des
applications
Rcupration
du dmarrage
automatique
( Automatic
Startup
Recovery )
Chemin vers
Java SDK
JAVE_HOME
Nom du fichier
du pilote JDBC
DB_JARS
Chemin vers
un script prdmarrage
PRE_ST ART _U
SEREXIT
Chemin vers
un script postdmarrage
Chemin vers
un script prarrt
PRE_ST OP_US
EREXIT
Chemin vers
un script postarrt
Rpertoire
Bootstrap
de l'instance
J2EE
DIR_BOOT ST
RAP
Chemin du
stockage de
scurit J2EE
DIR_SECST OR
E
200
Attribut de
cluster.con
f
Description
Nom
d'instance SAP
InstanceNam
e
Rpertoire
excutable
SAP
DIR_EXECUT A
BLE
Rpertoire
contenant le
profil ST ART
SAP.
DIR_PROFILE
Nom du profil
ST ART SAP
Nombre de
secondes
d'attente avant
la vrification
du statut du
dmarrage
ST ART _WAIT T
IME
Activer la
rcupration
du dmarrage
automatique
( Automatic
Startup
Recovery )
Chemin vers
un script prdmarrage
PRE_ST ART _U
SEREXIT
Chemin vers
un script postdmarrage
Chemin vers
un script prarrt
PRE_ST OP_US
EREXIT
Chemin vers
un script postarrt
Remarque
Concernant le T ableau B.20, Serveur Samba , lors de la cration ou de la modification d'un
service cluster, connectez une ressource du service Samba directement au service, et non une
ressource faisant partie d'un service.
201
Attribut de
cluster.con
f
Description
Nom
nam e
Fichier de
configuration
config_file
Autres options
en ligne de
commande de
smbd
sm bd_option
s
Autres options
en ligne de
commande de
nmbd
nm bd_option
s
Attente
fermeture (en
secondes)
shutdown_wa
it
Attribut de
cluster.con
f
Description
Nom
nam e
Chemin
complet vers le
fichier script
file
202
Attribut de
cluster.con
f
Description
Nom
d'instance
nam e
Nom du
serveur ASE
server_nam e
Rpertoire de
base SYBASE
sybase_hom e
Fichier de
connexion
login_file
Fichier des
interfaces
interfaces_
file
Nom du
rpertoire
SYBASE_ASE
sybase_ase
Nom du
rpertoire
SYBASE_OCS
sybase_ocs
Utilisateur
Sybase
sybase_user
Attente
dmarrage (en
secondes)
start_tim eo
ut
Attente
fermeture (en
secondes)
shutdown_ti
m eout
Dlai
d'expiration
Deep Probe
deep_probe_
tim eout
Attribut de
cluster.con
f
Description
Nom
nam e
Fichier de
configuration
config_file
Attente
fermeture (en
secondes)
shutdown_wa
it
203
Important
Concernant le T ableau B.24, Virtual Machine , lorsque vous configurez votre cluster avec les
ressources d'une machine virtuelle, vous devriez utiliser les outils rgm anager pour dmarrer et
arrter les machines virtuelles. L'utilisation de virsh pour dmarrer une machine peut entraner
l'excution de la machine virtuelle dans plusieurs emplacements, ce qui peut provoquer une
corruption de donnes dans celle-ci. Pour obtenir des informations sur la configuration de votre
systme pour rduire la possibilit qu'un administrateur effectue un double-dmarrage
accidentel en utilisant les outils du cluster et des outils non-clusteriss, reportez-vous la
Section 2.14, Configurer des machines virtuelles dans un environnement clusteris .
Note
Les ressources de machines virtuelles sont configures diffremment des autres ressources de
cluster. Pour configurer une machine virtuelle avec luci, veuillez ajouter un groupe de services au
cluster, puis ajoutez une ressource au service, en slectionnant Virtual Machine en tant que
type de ressource virtuelle et en saisissant les paramtres des ressource de la machine virtuelle.
Pour obtenir des informations sur la configuration d'une machine virtuelle avec la commande ccs,
reportez-vous la Section 5.12, Ressources de machine virtuelle .
204
Attribut de
cluster.con
f
Description
Nom du
service
nam e
Dmarrer ce
service
automatiqueme
nt
autostart
Excuter de
manire
exclusive
exclusive
Domaine de
basculement
dom ain
Stratgie de
rcupration
recovery
Options de
redmarrage
m ax_restart
s,
restart_exp
ire_tim e
T ype de
migration
m igrate
Mappage de
migration
m igration_
m apping
205
status_prog
ram
Chemin
d'accs xmlfile
utilis pour
crer la VM
xm lfile
Chemin
d'accs du
fichier de
configuration
de la VM
path
Spcification du chemin d'accs dlimite par le caractre deuxpoints (:) indiquant que l'agent des ressources de la machine
virtuelle (vm .sh) recherche le fichier de configuration de la
machine virtuelle. Par exemple :
/m nt/guests/config:/etc/libvirt/qem u.
Important
Le chemin d'accs ne doit jamais directement pointer vers
le fichier de configuration d'une machine virtuelle.
Chemin
d'accs du
rpertoire VM
snapshot
snapshot
URI de
l'hyperviseur
hypervisor_
uri
URI de la
migration
m igration_u
ri
Donnes du
tunnel sur ssh
pendant la
migration
tunnelled
206
Remarque
Pour bien comprendre les informations prsentes dans cet annexe, vous devrez possder une
comprhension dtaille des agents de ressources et du fichier de configuration du cluster,
/etc/cluster/cluster.conf.
Un service HA est un groupe de ressources de cluster configures en une entit cohrente fournissant
des services spcialiss aux clients. Un service HA est reprsent comme une arborescence de
ressources dans le fichier de configuration du cluster /etc/cluster/cluster.conf (dans chaque
nud du cluster). Dans le fichier de configuration du lcuster, chaque arborescence de ressources est
une reprsentation XML spcifiant chaque ressource, ses attributs, et ses relations aux autres
ressources dans l'arborescence des ressources (parents, enfants et de mme parent).
Remarque
Comme un service HA est compos de ressources organises en une arborescence
hirarchique, on peut parfois faire rfrence un service en tant qu'arborescence de ressources
ou que groupe de ressources. Les deux termes sont synonymes de service HA.
la racine de chaque arborescence de ressources se trouve un type de ressources spcial une
ressource de service. Les autres types de ressources comprennent le reste d'un service, dterminant
ainsi ses caractristiques. Configurer un service HA revient crer une ressource de service, crer des
ressources de cluster subordines et les organiser en une entit cohrente conforme aux restrictions
hirarchiques du service.
Cet annexe est compos des sections suivantes :
Section C.1, Relations entre parents, enfants, et enfants de mmes parents parmi les ressources
Section C.2, Ordre de dmarrage des relations de mme parent et ordre des enfants de
ressources
Section C.3, Hritage, le bloc <ressources>, et la rutilisation des ressources
Section C.4, Rcupration de dfaillance et sous-arbres indpendants
Section C.5, Dbogage et testage des services et de l'ordre des ressources
Remarque
Les sections qui suivent les exemples prsents du fichier de configuration du cluster
/etc/cluster/cluster.conf, sont des fins d'illustration uniquement.
207
ressources d'un service sont excutes sur le mme nud. Du point de vue de rgm anager, un
service cluster est une entit qui peut tre dmarre, arrte, ou dplace. Cependant, l'intrieur d'un
service clusterm la hirarchie des ressources dtermine l'ordredans lequel chaque ressource est
dmarre puis arrte. Les niveaux de hirarchie sont : parent, enfant, et de mme parent.
Exemple C.1, Hirarchie des ressources du service foo affiche un exemple d'arborescence de
ressources du service foo. Dans l'exemple, les relations entre les ressources sont comme suit :
fs:m yfs (<fs name="myfs" ...>) et ip:10.1.1.2 (<ip address="10.1.1.2 .../>) sont de mme
parent.
fs:m yfs (<fs name="myfs" ...>) is the parent of script:script_child (<script
name="script_child"/>).
script:script_child (<script name="script_child"/>) est l'enfant de fs:m yfs (<fs
name="myfs" ...>).
Exemple C.1. Hirarchie des ressources du service foo
<service name="foo" ...>
<fs name="myfs" ...>
<script name="script_child"/>
</fs>
<ip address="10.1.1.2" .../>
</service>
Les rgles suivantes s'appliquent aux relations parents/enfants dans une arborescence de
ressources :
Les parents sont dmarrs avant les enfants.
Les enfants doivent tous s'arrter correctement avant qu'un parent puisse tre arrt.
Pour qu'une ressource soit considre comme tant en bonne sant, tous ses enfants doivent tre
en bonne sant.
Remarque
La ressource Service est la seule ressource implmentant un ordre de type de ressource enfant
dfini.
Pour obtenir plus d'informations sur l'ordre de dmarrage et d'arrt des ressources enfants types,
208
Pour obtenir plus d'informations sur l'ordre de dmarrage et d'arrt des ressources enfants types,
reportez-vous la Section C.2.1, Ordre de dmarrage et d'arrt des ressources enfant types . Pour
obtenir plus d'information sur l'ordre de dmarrage et d'arrt des ressources enfants non-types,
reportez-vous la Section C.2.2, Ordre de dmarrage et d'arrt de ressources enfant non-types .
C.2.1. Ordre de dmarrage et d'arrt des ressources enfant types
Pour une ressource enfant type, l'attribut du type de la ressource enfant dfinit l'ordre de dmarrage et
d'arrt de chaque type de ressource avec un numro pouvant aller de 1 100 ; une valeur pour le
dmarrage et une valeur pour l'arrt. Plus le numro est bas, plus le type de ressource dmarrera ou
s'arrtera tt. Par exemple, le T ableau C.1, Ordre de dmarrage et d'arrt des ressources enfants
affiche les valeurs de dmarrage et d'arrt pour chaque type de ressource ; l'Exemple C.2, Valeurs de
dmarrage et d'arrt de la ressource : extraites de l'agent de la ressource Service service.sh
affiche les valeurs de dmarrage et d'arrt telles qu'elles apparaissent sur l'agent de la ressource
Service service.sh. Pour la ressource Service, tous les enfants LVM sont dmarrs en premier, suivis
par tous les enfant systmes de fichiers, suivis par tous les enfants scripts, et ainsi de suite.
T ableau C.1. Ordre de dmarrage et d'arrt des ressources enfants
Ressource
T ype d'enfant
Valeur de l'ordre de
dmarrage
Valeur de l'ordre
d'arrt
LVM
lvm
Systme de fichiers
fs
Systme de fichiers
GFS2
clusterfs
Montage NFS
netfs
Export NFS
nfsexport
Client NFS
nfsclient
IP Address
ip
Samba
smb
Script
script
Le classement dans un type de ressource est prserv lorsqu'il est ferm dans le fichier de
configuration du cluster /etc/cluster/cluster.conf. Par exemple, prenez en considration l'ordre
de dmarrage et d'arrt des ressources enfants types dans l'Exemple C.3, Classement dans un type
de ressource .
209
210
211
212
Exemple C.5. Paramtrage du service NFS pour une rutilisation des ressources et un
hritage
<resources>
<nfsclient name="bob" target="bob.example.com"
options="rw,no_root_squash"/>
<nfsclient name="jim" target="jim.example.com"
options="rw,no_root_squash"/>
<nfsexport name="exports"/>
</resources>
<service name="foo">
<fs name="1" mountpoint="/mnt/foo" device="/dev/sdb1" fsid="12344">
<nfsexport ref="exports"> <!-- nfsexport's path and fsid attributes
are inherited from the mountpoint &
fsid attribute of the parent fs
resource -->
<nfsclient ref="bob"/> <!-- nfsclient's path is inherited from
the
mountpoint and the fsid is added to
the
options string during export -->
<nfsclient ref="jim"/>
</nfsexport>
</fs>
<fs name="2" mountpoint="/mnt/bar" device="/dev/sdb2" fsid="12345">
<nfsexport ref="exports">
<nfsclient ref="bob"/> <!-- Because all of the critical data
for this
resource is either defined in the
resources block or inherited, we
can
reference it again! -->
<nfsclient ref="jim"/>
</nfsexport>
</fs>
<ip address="10.2.13.20"/>
</service>
Si le service tait plat (c'est--dire sans relations de type parent/enfant), il devrait alors tre configur
comme suit :
Le service ncessiterait quatre ressources nfsclient une par fichier (soit un total de deux pour les
systmes de fichiers), et une par machine-cible (soit un total de deux pour les machines-cibles).
Le service devrait spcifier le chemin d'exportation et l'ID du systme de fichiers chaque nfsclient,
ce qui induit la possibilit d'erreurs dans la configuration.
Cependant, dans l'Exemple C.5, Paramtrage du service NFS pour une rutilisation des ressources et
un hritage , les ressources client NFS nfsclient:bob et nfsclient:jim ne sont dfinies qu'une seule fois.
De mme, la ressource d'exportation NFS nfsexport:exports n'est dfinie qu'une seule fois. T ous les
attributs ncessits par les ressources sont hrits de ressources parentes. Comme les attributs
hrits sont dynamiques (et ne rentrent pas en conflit les uns avec les autres), il est possible de
rutiliser ces ressources c'est pourquoi ils sont dfinit dans le bloc des ressources, mme si ce n'est
pas pratique pour la configuration de certaines ressources se trouvant dans de multiples
emplacements. Par exemple, la configuration d'une ressource de systme de fichiers dans de multiples
emplacements peut rsulter en le montage d'un systme de fichiers sur deux nuds, et ainsi provoquer
des problmes.
213
Dans certaines circonstances, si le composant d'un service choue, vous devriez dsactiver ce
composant uniquement, sans dsactiver le service entier afin d'viter que d'autres services utilisant
d'autres composants de ce service soient affects. partir de Red Hat Enterprise Linux 6.1, ceci peut
tre accompli en utilisant l'attribut __independent_subtree="2", qui dsigne le sous-arbre
indpendant comme tant non-critique.
Note
Vous pouvez utiliser l'indicateur non-critique sur les ressources rfrence unique uniquement.
L'indicateur non-critique fonctionne avec toutes les ressources tous les niveaux de
l'arborescence des ressources, mais ne devrait pas tre utilis au niveau le plus haut lors de la
dfinition des services ou des machines virtuelles.
partir de la version 6.1 de Red Hat Enterprise Linux, vous pouvez dfinir maximum restart et les
expirations restart sur une base par nud dans l'arborescence des ressources des sous-arbres
214
expirations restart sur une base par nud dans l'arborescence des ressources des sous-arbres
indpendants. Pour dfinir ces limites, vous pouvez utiliser les attributs suivants :
__m ax_restarts configure le nombre maximum de redmarrages tolrs avant d'abandonner.
__restart_expire_tim e configure le temps, en secondes, partir duquel un redmarrage n'est
plus tent.
215
Syntaxe
Afficher les
rgles des
ressources
que
rg_test
comprend.
rg_test rules
T ester une
configuratio
n (et
/usr/share/c
luster) pour
des erreurs
ou des
agents de
ressources
redondants.
Afficher
l'ordre de
dmarrage
et d'arrt
d'un
service.
Dmarrer
ou arrter
un service
de manire
explicite.
Important
Effectuez cela sur un seul nud, et dsactivez le service dans rgmanager en
premier chaque fois.
Dmarrer un service :
rg_test test /etc/cluster/cluster.conf start service servicename
Arrter un service :
rg_test test /etc/cluster/cluster.conf stop service servicename
Calculer et
afficher le
delta de
l'arboresce
nce des
ressources
entre deux
fichiers
cluster.conf.
216
rg_test delta
cluster.conf file 1
cluster.conf file 2
Par exemple :
rg_test delta /etc/cluster/cluster.conf.bak
/etc/cluster/cluster.conf
Note
Pour mieux comprendre les informations prsentes dans cet annexe, vous aurez besoin d'une
bonne comprhension des agents de ressources et du fichier de configuration du cluster,
/etc/cluster/cluster.conf. Pour obtenir la liste et la description complte des lments et
attributs cluster.conf, reportez-vous au schma des clusters sur
/usr/share/cluster/cluster.rng, et au schma annot sur /usr/share/doc/cm anX.Y.ZZ/cluster_conf.htm l (par exemple, /usr/share/doc/cm an3.0.12/cluster_conf.htm l).
Certains agents fournissent de multiples profondeurs de vrification. Par exemple, une vrification
de statut de systme de fichiers normal (profondeur 0) vrifie si le systme de fichiers est mont sur le
bon emplacement. Une vrification plus intensive aura une profondeur de 10, et vrifiera si vous pouvez
lire un fichier depuis le systme de fichiers. Une vrification de profondeur 20 vrifiera si vous pouvez
crire sur le systme de fichiers. Dans l'exemple donn ici, la profondeur est dfinie sur * , indiquant
ainsi que ces valeurs devraient tre utilises pour toutes les profondeurs. Le rsultat est que le
systme de fichiers test est vrifi la plus grande profondeur offerte par l'agent de ressources (dans
ce cas, 20) toutes les 10 secondes.
217
souhaitez, activer l'application de dlais sur chaque ressource dans un service de manire individuelle
en ajoutant __enforce_tim eouts="1" la rfrence dans le fichier cluster.conf.
L'exemple suivant affiche un service de cluster ayant t configur avec l'attribut
__enforce_tim eouts dfinit pour la ressource netfs. Avec cet attribut dfini, si plus de 30
secondes sont ncessaires pour dmonter le systme de fichiers NFS pendant un processus de
rcupration, l'opration expirera, mettant par la mme occasion le service en tat d'chec.
</screen>
<rm>
<failoverdomains/>
<resources>
<netfs export="/nfstest" force_unmount="1" fstype="nfs" host="10.65.48.65"
mountpoint="/data/nfstest" name="nfstest_data" options="rw,sync,soft"/>
</resources>
<service autostart="1" exclusive="0" name="nfs_client_test" recovery="relocate">
<netfs ref="nfstest_data" __enforce_timeouts="1"/>
</service>
</rm>
218
219
Utilis avec
But
ccs_config_dum p Outil de
vidage de configuration de
cluster
Infrastructure du
cluster
ccs_config_validate
Outil de validation de la
configuration du cluster
Infrastructure du
cluster
ccs_config_validate valide
cluster.conf sur le schma,
cluster.rng (qui se trouve dans
/usr/share/cluster/cluster.rng)
sur chaque nud. Pour plus
d'informations sur cet outil, reportez-vous
la page man ccs_config_validate(8).
Composants de
gestion du service
High-availability
clusvcadm Utilitaire
d'administration du service
utilisateur du cluster
Composants de
gestion du service
High-availability
Infrastructure du
cluster
Infrastructure du
cluster
220
221
La seconde mthode utilise le verrouillage de machine locale et des balises LVM. Cette mthode
prsente l'avantage de ne pas ncessiter de paquetages de cluster LVM ; elle requiert cependant
des tapes supplmentaires lors de son installation et n'empchera pas un administrateur de
supprimer par erreur un volume logique d'un nud du cluster lorsqu'il n'est pas actif. La procdure
pour configurer HA-LVM l'aide de cette mthode est dcrite dans la Section F.2, Configurer le
basculement HA-LVM avec le T agging (tiquetage) .
Pour obtenir des informations sur la cration de volumes logiques LVM, reportez-vous au
document Administration LVM.
3. Modifiez le fichier /etc/cluster/cluster.conf afin d'inclure le nouveau volume logique cr
en tant que ressource dans l'un de vos services. Alternativement, vous pouvez utiliser Conga ou
la commande ccs pour configurer LVM et les ressources du systme de fichiers du cluster. Cidessous figure une section exemple du gestionnaire de ressources du fichier
/etc/cluster/cluster.conf, qui configure un volume logique CLVM en tant que ressource
de cluster :
222
<rm>
<failoverdomains>
<failoverdomain name="FD" ordered="1" restricted="0">
<failoverdomainnode name="neo-01" priority="1"/>
<failoverdomainnode name="neo-02" priority="2"/>
</failoverdomain>
</failoverdomains>
<resources>
<lvm name="lvm" vg_name="shared_vg" lv_name="ha-lv"/>
<fs name="FS" device="/dev/shared_vg/ha-lv" force_fsck="0"
force_unmount="1" fsid="64050" fstype="ext4" mountpoint="/mnt" options=""
self_fence="0"/>
</resources>
<service autostart="1" domain="FD" name="serv" recovery="relocate">
<lvm ref="lvm"/>
<fs ref="FS"/>
</service>
</rm>
Pour obtenir des informations sur la cration de volumes logiques LVM, reportez-vous au
document Administration LVM.
3. Modifiez le fichier /etc/cluster/cluster.conf afin d'inclure le nouveau volume logique cr
en tant que ressource dans l'un de vos services. Alternativement, vous pouvez utiliser Conga ou
la commande ccs pour configurer LVM et les ressources du systme de fichiers du cluster. Cidessous figure une section exemple du gestionnaire de ressources du fichier
/etc/cluster/cluster.conf, qui configure un volume logique CLVM en tant que ressource
de cluster :
223
<rm>
<failoverdomains>
<failoverdomain name="FD" ordered="1" restricted="0">
<failoverdomainnode name="neo-01" priority="1"/>
<failoverdomainnode name="neo-02" priority="2"/>
</failoverdomain>
</failoverdomains>
<resources>
<lvm name="lvm" vg_name="shared_vg" lv_name="ha_lv"/>
<fs name="FS" device="/dev/shared_vg/ha_lv" force_fsck="0"
force_unmount="1" fsid="64050" fstype="ext4" mountpoint="/mnt" options=""
self_fence="0"/>
</resources>
<service autostart="1" domain="FD" name="serv" recovery="relocate">
<lvm ref="lvm"/>
<fs ref="FS"/>
</service>
</rm>
Note
Si de multiples volumes logiques se trouvent dans le groupe de volumes, alors le nom du
volume logique (lv_nam e) dans la ressource lvm doit tre laiss vide ou non-spcifi.
Veuillez aussi remarquer que dans une configuration HA-LVM, un groupe de volumes peut
uniquement tre utilis par un seul service.
4. Modifiez le champ volum e_list dans le fichier /etc/lvm /lvm .conf. Veuillez inclure le nom
de votre groupe de volumes root et votre nom d'hte comme rpertori dans le fichier
/etc/cluster/cluster.conf et prcd du caractre @ . Le nom d'hte inclure ici est la
machine sur laquelle vous modifiez le fichier lvm .conf, et non un nom d'hte distant. Remarquez
que cette chane DOIT correspondre au nom du nud spcifi dans le fichier cluster.conf.
Ci-dessous figure un exemple d'entre du fichier /etc/lvm /lvm .conf :
volume_list = [ "VolGroup00", "@neo-01" ]
Cette balise sera utilise pour activer les VG (groupes de volumes) ou LV (volumes logiques)
partags. N'INCLUEZ PAS les noms des groupes de volumes devant tre partags l'aide de
HA-LVM.
5. Mettez jour le priphrique initrd sur tous les nuds de votre cluster :
# dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
6. Redmarrez tous les nuds afin de vous assurer que le priphrique initrd correct est en
cours d'utilisation.
224
Steven Levine
Version 5.0-23
Wed Jan 30 2013
Rsout : 901641
Corrige et clarifie les rgles iptables.
Steven Levine
Version 5.0-22
T ue Jan 29 2013
Rsout : 788636
Documente la configuration RRP travers la commande ccs.
Steven Levine
Rsout : 789010
Documente la configuration RRP dans le fichier cluster.conf.
Version 5.0-20
Fri Jan 18 2013
Steven Levine
Rsout : 894097
Supprime les conseils pour vous assurer que vous n'utilisez pas le balisage VLAN.
Rsout : 845365
Indique que les modes de liaisons 0 et 2 sont maintenant pris en charge.
Version 5.0-19
T hu Jan 17 2013
Rsout : 896234
Clarifie la terminologie des rfrences aux nuds de clusters.
Steven Levine
Version 5.0-16
Mon Nov 26 2012
Version pour la distribution 6.4 Bta
Steven Levine
Version 5.0-15
Wed Nov 20 2012
Steven Levine
Rsout : 838988
Documente l'attribut nfsrestart pour les agents de ressources de systmes de fichiers.
Rsout : 843169
Documente l'agent fence IBM iPDU.
Rsout : 846121
Documente l'agent fence du contrleur d'alimentation rseau Eaton (Interface SNMP).
Rsout : 856834
Documente l'agent fence HP Bladesystem.
Rsout : 865313
Documente l'agent de ressources du serveur NFS.
Rsout : 862281
Clarifie quelles commandes ccs remplacent les paramtres prcdents.
225
Rsout : 846205
Documente le filtrage du composant igm p du pare-feu iptables.
Rsout : 857172
Documente la capacit de supprimer des utilisateurs de luci.
Rsout : 857165
Documente le niveau de privilges de l'agent fence IPMI.
Rsout : 840912
Clarifie le problme du formatage avec le tableau des paramtres de ressources.
Rsout : 849240, 870292
Clarifie la procdure d'installation.
Rsout : 871165
Clarifie la description du paramtres d'adresse IP dans la description de l'agent de ressources de
l'adresse IP.
Rsout : 845333, 869039, 856681
Corrige des erreurs de typographie mineures et clarifie des ambigu ts techniques mineures.
Version 5.0-12
T hu Nov 1 2012
Ajout d'agents fence maintenant pris en charge.
Steven Levine
Version 5.0-7
T hu Oct 25 2012
Ajout d'une section sur les smantiques de remplacement.
Steven Levine
Version 5.0-6
T ue Oct 23 2012
Correction de la valeur par dfaut de Post Join Delay .
Steven Levine
Version 5.0-4
T ue Oct 16 2012
Ajout de la description de la ressource du serveur NFS.
Steven Levine
Version 5.0-2
T hu Oct 11 2012
Mises jour des descriptions de Conga.
Steven Levine
Version 5.0-1
Mon Oct 8 2012
Clarifications des smantiques de ccs
Steven Levine
Version 4 .0-5
Fri Jun 15 2012
Version pour la distribution GA 6.3
Steven Levine
Version 4 .0-4
T ue Jun 12 2012
Steven Levine
Rsout : 830148
Assure la consistance des exemples de numros de port pour Luci.
Version 4 .0-3
T ue May 21 2012
Steven Levine
Rsout : 696897
Ajoute des informations de paramtres cluster.conf aux tableaux de paramtres et de ressources de
priphriques fence.
Rsout : 811643
226
Index
Ajoute la procdure pour restaurer une base de donnes luci sur une machine spare.
Version 4 .0-2
Wed Apr 25 2012
Steven Levine
Rsout : 815619
Supprime l'avertissement sur l'utilisation de UDP Unicast (monodiffusion UDP) avec les systmes de
fichiers GFS2.
Version 4 .0-1
Fri Mar 30 2012
Steven Levine
Rsout : 771447, 800069, 800061
Mise jour de la documentation de luci pour qu'elle soit consistante avec la version 6.3 de Red Hat
Enterprise Linux.
Rsout : 712393
Ajoute des informations sur la capture d'un cur d'application pour RGManager.
Rsout : 800074
Documente l'agent de ressources condor.
Rsout : 757904
Documente la copie de sauvegarde et la restauration de la configuration de luci.
Rsout : 772374
Ajotue une section sur la gestion des machines virtuelles dans un cluster.
Rsout : 712378
Ajoute la documentation sur la configuration HA-LVM.
Rsout : 712400
Documente les options de dbogage.
Rsout : 751156
Documente le nouveau paramtre fence_ipm ilan.
Rsout : 721373
Documente les changements de configuration qui ncessitent un redmarrage du cluster.
Version 3.0-5
T hu Dec 1 2011
Steven Levine
Publication pour disponibilit gnrale de Red Hat Enterprise Linux 6.2
Rsout : 755849
Corrige l'exemple du paramtre monitor_link.
Version 3.0-4
Mon Nov 7 2011
Steven Levine
Rsout : 749857
Ajoute la documentation pour le priphrique fence RHEV-M REST API.
Version 3.0-3
Fri Oct 21 2011
Steven Levine
Rsout : #747181, #747182, #747184, #747185, #747186, #747187, #747188, #747189, #747190,
#747192
Corrige les erreurs typographiques et ambigu ts trouves pendant la rvision QE de la documentation
de Red Hat Enterprise Linux 6.2.
Version 3.0-2
Rsout : #743757
Steven Levine
227
Corrige la rfrence au mode de liaison pris en charge dans la section troubleshooting (rsolution de
problmes).
Version 3.0-1
Wed Sep 28 2011
Rvision initiale de Red Hat Enterprise Linux version 6.2 Beta
Steven Levine
Rsout : #739613
Documente la prise en charge des nouvelles options ccs pour afficher les priphriques fence et les
services disponibles.
Rsout : #707740
Documente les mises jour de l'interface Conga et la prise en charge de la dfinition des permissions
utilisateur pour administrer Conga.
Rsout : #731856
Documente le support de la configuration de luci par le biais du fichier /etc/sysconfig/luci.
Rsout : #736134
Documente la prise en charge du transport UDPU.
Rsout : #736143
Documente la prise en charge de Samba clusteris.
Rsout : #617634
Documente comment configurer l'unique adresse IP sur laquelle luci est servi.
Rsout : #713259
Documente la prise en charge de l'agent fence_vm ware_soap.
Rsout : #721009
Fournit un lien vers l'article Support Essentials (les essentiels du support)
Rsout : #717006
Fournit des informations sur l'autorisation du trafic de multidiffusion via le pare-feu iptables.
Rsout : #717008
Fournit des informations sur la vrification de statut de service cluster et sur le dlai de basculement.
Rsout : #711868
Clarifie la description d'autostart.
Rsout : #728337
Documente la procdure pour ajouter des ressources vm avec la commande ccs.
Rsout : #725315, #733011, #733074, #733689
Correction d'erreurs typographiques mineures.
Version 2.0-1
T hu May 19 2011
Rvision initiale de Red Hat Enterprise Linux 6.1
Rsout : #671250
Documente la prise en charge des interruptions SNMP.
Rsout : #659753
228
Steven Levine
Index
Paul Kennedy
Index
A
ACPI
- configuration, Configurer l'ACPI pour une utilisation avec des priphriques fence intgrs
administration de cluster
229
230
Index
adresses de multidiffusion
- considrations pour une utilisation avec des commutateurs rseau et des adresses de
multidiffusion, Adresses de multidiffusion
agent fence
- Commutateur d'alimentation rseau Eaton, Paramtres des priphriques fence
- fence_apc, Paramtres des priphriques fence
- fence_apc_snmp, Paramtres des priphriques fence
- fence_bladecenter, Paramtres des priphriques fence
- fence_brocade, Paramtres des priphriques fence
- fence_cisco_mds, Paramtres des priphriques fence
- fence_cisco_ucs, Paramtres des priphriques fence
- fence_drac5, Paramtres des priphriques fence
- fence_eaton_snmp, Paramtres des priphriques fence
- fence_egenera, Paramtres des priphriques fence
- fence_eps, Paramtres des priphriques fence
- fence_hpblade, Paramtres des priphriques fence
- fence_ibmblade, Paramtres des priphriques fence
- fence_ifmib, Paramtres des priphriques fence
- fence_ilo, Paramtres des priphriques fence
- fence_ilo_mp, Paramtres des priphriques fence
- fence_intelmodular, Paramtres des priphriques fence
- fence_ipdu, Paramtres des priphriques fence
- fence_ipmilan, Paramtres des priphriques fence
- fence_rhevm, Paramtres des priphriques fence
- fence_rsb, Paramtres des priphriques fence
- fence_scsi, Paramtres des priphriques fence
- fence_virt, Paramtres des priphriques fence
- fence_vmware_soap, Paramtres des priphriques fence
- fence_wti, Paramtres des priphriques fence
231
B
balise totem
- valeur du consensus, La valeur du consensus pour totem dans un cluster deux nuds
C
cluster
- administration, Avant de configurer le module complmentaire Red Hat High Availability
(Haute Disponibilit), Grer le module complmentaire Red Hat High Availability avec
Conga, Grer le module complmentaire Red Hat High Availability avec ccs, Grer le
module complmentaire Red Hat High Availability avec des outils de ligne de commande
- dmarrer, arrter, redmarrer, Dmarrer et arrter le logiciel du cluster
- diagnostiquer et corriger des problmes, Diagnostiquer et corriger des problmes dans
un cluster, Diagnostiquer et corriger des problmes dans un cluster
D
disque quorum
- considrations pour utiliser, Considrations pour utiliser le disque Quorum
F
232
Index
G
gnrales
- considrations pour l'administration des clusters, Considrations pour une configuration
gnrale
I
Interrupteur Brocade Fabric de priphrique fence, Paramtres des priphriques fence
Interrupteur d'alimentation APC sur priphrique fence SNMP, Paramtres des
priphriques fence
Interrupteur d'alimentation APC sur priphrique fence telnet/SSH, Paramtres des
priphriques fence
introduction, Introduction, Vrification des ressources de service de cluster et dlai de
basculement
- autres documents Red Hat Enterprise Linux, Introduction
iptables
- configuration, Activation des ports IP
L
logiciel du cluster
- configuration, Configurer le module complmentaire Red Hat High Availability avec Conga,
Configurer le module complmentaire Red Hat High Availability avec la commande ccs,
Configurer le module complmentaire Red Hat High Availability avec des outils de ligne de
commande
M
machines virtuelles, dans un cluster, Configurer des machines virtuelles dans un
environnement clusteris
matriel
233
N
NetworkManager
- dsactiver pour une utilisation avec clusters, Considrations pour NetworkManager
O
outils, ligne de commande, Rsum des outils de la ligne de commande
P
paramtres, priphrique fence, Paramtres des priphriques fence
paramtres, ressources HA, Paramtres des ressources HA
priphrique fence
- Cisco MDS, Paramtres des priphriques fence
- Cisco UCS, Paramtres des priphriques fence
- Contrleur SAN Egenera, Paramtres des priphriques fence
- Dell DRAC 5, Paramtres des priphriques fence
- ePowerSwitch, Paramtres des priphriques fence
- Fence virt, Paramtres des priphriques fence
- fencing SCSI, Paramtres des priphriques fence
- HP BladeSystem, Paramtres des priphriques fence
- HP iLO MP, Paramtres des priphriques fence
- HP iLO/iLO2, Paramtres des priphriques fence
- IBM BladeCenter, Paramtres des priphriques fence
- IBM BladeCenter SNMP, Paramtres des priphriques fence
- IBM iPDU, Paramtres des priphriques fence
- IF MIB, Paramtres des priphriques fence
- Intel Modular, Paramtres des priphriques fence
- Interrupteur Brocade fabric, Paramtres des priphriques fence
- Interrupteur d'alimentation APC sur SNMP, Paramtres des priphriques fence
- Interrupteur d'alimentation APC sur telnet/SSH, Paramtres des priphriques fence
- interrupteur d'alimentation WT I, Paramtres des priphriques fence
- IPMI LAN, Paramtres des priphriques fence
- RHEV-M REST API, Paramtres des priphriques fence
- RSB (Remoteview Service Board) Fujitsu Siemens, Paramtres des priphriques fence
- VMware (interface SOAP), Paramtres des priphriques fence
234
Index
ports IP
- activation, Activation des ports IP
Q
qdisk
- considrations pour utiliser, Considrations pour utiliser le disque Quorum
R
relations
- ressource du cluster, Relations entre parents, enfants, et enfants de mmes parents
parmi les ressources
ricci
- considrations pour l'administration de clusters, Considrations pour ricci
S
SELinux
- configurer, Module complmentaire Red Hat High Availability et SELinux
235
T
tableaux
- priphriques fence, paramtres, Paramtres des priphriques fence
- ressources HA, paramtres, Paramtres des ressources HA
types
- ressources du cluster, Considrations pour la configuration des services HA
V
valeur du consensus, La valeur du consensus pour totem dans un cluster deux nuds
validation
- configuration du cluster, Validation de la configuration
vue d'ensemble
- fonctionnalits, nouvelles et modifies, Nouvelles fonctionnalits et fonctionnalits
modifies
236