Академический Документы
Профессиональный Документы
Культура Документы
Red Hat Enterprise Linux 5 Viso Geral do Cluster Suite Red Hat Cluster Suite para o Red Hat Enterprise Linux 5 Edio 3
Copyright 2009 Red Hat, Inc. The text of and illustrations in this document are licensed by Red Hat under a Creative Commons AttributionShare Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version. Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law. Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, MetaMatrix, Fedora, the Infinity Logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries. Linux is the registered trademark of Linus Torvalds in the United States and other countries. Java is a registered trademark of Oracle and/or its affiliates. XFS is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries. All other trademarks are the property of their respective owners. 1801 Varsity Drive Raleigh, NC 27606-2072 USA Phone: +1 919 754 3700 Phone: 888 733 4281 Fax: +1 919 754 3701
Viso Geral do Red Hat Cluster Suite fornece uma viso geral sobre o Red Hat Cluster Suite para o Red Hat Enterprise Linux 5.
Introduo v 1. Convenes de Documentos .......................................................................................... vi 1.1. Convenes Tipogrficas ..................................................................................... vi 1.2. Convenes de Pull-Quote ................................................................................. vii 1.3. Notas e Avisos ................................................................................................... viii 2. Feedback ....................................................................................................................... ix 1. Red Hat Cluster Suite Viso geral 1 1.1. Clusters Bsicos .......................................................................................................... 1 1.2. Red Hat Cluster Suite Introduction ................................................................................ 2 1.3. Cluster Infrastructure .................................................................................................... 4 1.3.1. Gerenciamento de cluster .................................................................................. 4 1.3.2. Gerenciamento de bloqueio ............................................................................... 5 1.3.3. Fencing ............................................................................................................. 5 1.3.4. Sistema de Configurao de Cluster ................................................................... 9 1.4. Gerenciamento de Servio de Alta Disponibilidade ....................................................... 11 1.5. Red Hat GFS ............................................................................................................. 14 1.5.1. Desempenho Superior e Escalabilidade ............................................................ 16 1.5.2. Desempenho, Escalabilidade e Preo Moderado ............................................... 16 1.5.3. Economia e desempenho ................................................................................. 17 1.6. Gerenciador de Volume Lgico de Cluster ................................................................... 18 1.7. Dispositivo de Bloqueio da Rede Global ...................................................................... 22 1.8. Servidor Virtual Linux ................................................................................................. 23 1.8.1. Two-Tier LVS Topology .................................................................................... 25 1.8.2. Three-Tier LVS Topology .................................................................................. 28 1.8.3. Mtodos Encaminhados ................................................................................... 29 1.8.4. Marcas de Firewall e Persistncia .................................................................... 31 1.9. Ferramentas de Administrao de Cluster ................................................................... 32 1.9.1. Conga ............................................................................................................. 32 1.9.2. GUI Administrao de Cluster .......................................................................... 35 1.9.3. Ferramentas de Administrao de Linha de Comando ....................................... 38 1.10. GUI Administrador de Servio Virtual Linux ................................................................ 39 1.10.1. CONTROL/MONITORING .............................................................................. 40 1.10.2. GLOBAL SETTINGS ..................................................................................... 41 1.10.3. REDUNDANCY ............................................................................................. 43 1.10.4. VIRTUAL SERVERS ...................................................................................... 44 2. Sumrio do Componente do Red Hat Cluster Suite 2.1. Componentes de Cluster ............................................................................................ 2.2. Pginas Man ............................................................................................................ 2.3. Hardware ( disco rgido ) compatvel .......................................................................... A. Histrico de Reviso ndice Remissivo 51 51 56 59 61 63
iii
iv
Introduo
Este documento fornece uma viso geral de alto nvel do Red Hat Cluster Suite para a Red Hat Enterprise Linux 5, e organizado como segue a seguir: Captulo 1, Red Hat Cluster Suite Viso geral Captulo 2, Sumrio do Componente do Red Hat Cluster Suite Embora a informao neste documento seja apenas uma viso geral, voc dever ter um conhecimento vantajoso da Red Hat Enterprise Linux e entender os conceitos de servidores da computao, para a obteno de uma boa compreenso sobre esta informao. Para maiores informaes em como se utilizar a Red Hat Enterprise Linux, por favor refira-se aos seguintes recursos: Red Hat Enterprise Linux Guia de instalao Fornece informao sobre a instalao da Red Hat Enterprise Linux 5. Red Hat Enterprise Linux Guia de implantao Fornece informao sobre a implantao, configurao e administrao da Red Hat Enterprise Linux 5. Para maiores informaes sobre o Red Hat Cluster Suite para a Red Hat Enterprise Linux 5, por favor refira-se aos seguintes dados: Configurando e Gerenciando o Red Hat Cluster Fornece informao sobre instalao, configurao e gerenciamento dos componentes do Red Hat Cluster. LVM Administrator's Guide: Configuration and Administration Provides a description of the Logical Volume Manager (LVM), including information on running LVM in a clustered environment. Sistema de Arquivo Global: Configurao e Administrao Fornece informao sobre instalao, configurao e manuteno do Red Hat GSF - Red Hat Global File System ( Sistema de Arquivo Global Red Hat ). Sistema de Arquivo Global 2: Configurao e Administrao Fornece informao sobre instalao, configurao e manuteno do Red Hat GFS2 (Red Hat Global File System 2 - Sistema de Arquivo Global 2 da Red Hat ). Usando o Disparador Mapper de Caminhos Diversos Fornece informao sobre o uso do Disparador Mapper de Caminhos Diversos da Red Hat Enterprise Linux 5. Usando GNBD com o Sistema de Arquivo Global Fornece uma viso geral de como se utilizar o Global Network Block Device ( GNBD, Dispositivo de Bloqueio da Rede Global ), com o Red Hat GFS. Administrao do Servidor Virtual Linux Fornece informao na configurao de sistemas de alta execuo e servios com o Linux Virtual Server ( LVS, Servidor Virtual Linux ). Notas da Verso do Red Hat Cluster Suite Fornece informao sobre a atual verso do Red Hat Cluster Suite. A documentao do Red Hat Cluster Suite e outros documentos da Red Hat esto disponveis nas verses HTML, PDF, e RPM na Red Hat Enterprise Linux. A documentao em CD e on-line pode ser encontrada no http://www.redhat.com/docs/.
Introduo
1. Convenes de Documentos
Este manual usa diversas convenes para destacar certas palavras e frases e chamar a ateno para informaes especficas. Em PDF e edies de texto, este manual usa tipos de letras retiradas do conjunto de Fontes 1 Liberation Fonts . O conjunto de Fontes Liberation Fonts, tambm usado em formato HTML, caso o conjunto esteja instalado em seu sistema. Caso ainda no esteja, como forma alternativa, esto disponveis tipos de letras equivalentes. Nota: O Red Hat Enterprise Linux 5 e verses mais recentes do mesmo, incluem o conjunto Liberation Fonts por padro.
https://fedorahosted.org/liberation-fonts/
vi
Convenes de Pull-Quote
Escolha Sistema Preferncias Mouse a partir da barra de menu para obter Preferncias de Mouse. Na aba Botes, clique na caixa de seleo Mouse para mo esquerda e clique em Fechar para mudar o boto do mouse anterior da esquerda para a direita (deixando-o assim, mais adequado para o uso do canhoto). Para inserir um caractere especial em um arquivo gedit, escolha Aplicativos Acessrios Mapa de Caracteresa partir da barra de menu principal. Depois, escolha a opoPesquisar Encontrara partir da barra de menu Mapa de Caracteres , digite o nome do caractere no campo Pesquisar e clique em Prximo. O caractere que voc buscou estar em destaque na Tabela de Caracteres. Clique novamente nestes caracteres realados para coloc-los no campo Texto para cpia e depois clique em Copiar. Agora mude novamente para seu documento e escolha Editar Colar a partir da barra de menu do gedit. O texto acima inclui nomes de aplicativos, nomes de menu e itens de todo o sistema, nomes de menu especficos do aplicativo, e botes e textos encontrados na Interface Grfica GUI, todos apresentados em Negrito Proporcional (Proportional Bold) e todos diferenciados de acordo com o contexto. Itlico em Negrito de Espao nico (Mono-spaced Bold Italic) ouItlico em Negrito Proporcional (Proportional Bold Italic) Sendo o Negrito Espao nico (Mono-spaced Bold) ou Negrito Proporcional (Proportional Bold), os itlicos extras indicam textos substituveis ou variveis. O Itlico denota o texto que voc no inseriu literalmente ou textos exibidos que mudam dependendo das circunstncias. Por exemplo: Para conectar-se uma mquina remota usando o ssh, digite ssh nome do usurio@domain.name na janela de comandos. Por exemplo, considre que a mquina remota seja example.com e seu nome de usurio nesta mquina seja john, digite ssh john@example.com. O comando mount -o remount file-system remonta o sistema de arquivo nomeado. Por exemplo, para remontar o sistema de arquivo /home, o comando mount -o remount /home. Para ver a verso de um pacote instalado, use o comando rpm -q package. Ele retornar um resultado como este: package-version-release. Observe as palavras em negrito e itlicas acima nome de usurio, nome do domnio, sistema de arquivo, pacote, verso e lanamento. Cada palavra um espao reservado, tanto para o texto que voc inseriu ao emitir um comando ou para o texto exibido pelo sistema. Alm de uso padro para apresentar o ttulo de um trabalho, os itlicos denotam a primeira vez que um termo novo e importante usado. Por exemplo: O Publican um sistema de publicao do DocBook.
vii
Introduo
books books_tests
Desktop Desktop1
documentation downloads
drafts images
mss notes
photos scripts
stuff svgs
svn
As listas de cdigo fonte tambm so configuradas em Romano de Espao nico (Monospaced Roman), porm so apresentadas e realadas como a seguir:
package org.jboss.book.jca.ex1; import javax.naming.InitialContext; public class ExClient { public static void main(String args[]) throws Exception { InitialContext iniCtx = new InitialContext(); Object ref = iniCtx.lookup("EchoBean"); EchoHome home = (EchoHome) ref; Echo echo = home.create(); System.out.println("Created Echo"); System.out.println("Echo.echo('Hello') = " + echo.echo("Hello")); } }
Nota
Uma nota uma dica ou smbolo, ou ainda uma opo alternativa para a tarefa em questo. Se voc ignorar uma nota, provavelmente no resultar em ms consequncias, porm poder deixar passar uma dica importante que tornar sua vida mais fcil.
Importante
Important boxes detail things that are easily missed: configuration changes that only apply to the current session, or services that need restarting before an update will apply. Ignoring a box labeled 'Important' won't cause data loss but may cause irritation and frustration.
Aviso
Um Aviso no deve ser ignorado. Se voc ignorar avisos, muito provavelmente perder dados.
viii
Feedback
2. Feedback
Caso voc localize um erro, ou se voc encontrou uma maneira de tornar este documento melhor, ns gostaramos muito de ouvir a sua opinio. Por favor submeta a informao em Bugzilla (http:// 2 bugzilla.redhat. com/bugzilla/ ) contra o componente Documentation-cluster. Be sure to mention the document's identifier:
Cluster_Suite_Overview(EN)-5 (2008-12-11T15:49)
By mentioning this document's identifier, we know exactly which version of the guide you have. Em caso de sugestes para o aperfeioamento deste documento, por favor seja o mais claro possvel. E, caso voc encontre um erro, por favor insera o nmero de seo e algumas informaes do texto para que possamos localiz-lo facilmente.
http://bugzilla.redhat.com/bugzilla/
ix
clientes de fora do cluster. ( Clusters de alta disponibilidade so s vezes referidos como clusters de falhas. ) O Red Hat Cluster Suite fornece cluster de alta disponibilidade atravs deste componente Gerenciador de Servio de Alta Disponibilidade. Os clusters de balanceamento de carga despacham as solicitaes de servio da rede de acordo com os ns de cluster mltiplos, para o balano da solicitao de carga entre os ns de cluster. O balanceamento de carga fornece escalabilidade de custo efetivo, pois voc pode igualar o nmero de ns de acordo com os requerimentos de carga. Se um n em um cluster de balanceamento de carga se tornar inoperante, o software de balanceamento de carga detectar a falha e redirecionar as solicitaes a outros ns de cluster. As falhas de ns, em um cluster de balanceamento de carga, no so visveis para clientes de fora do cluster. O Red Hat Cluster Suite fornece o balanceamento de carga atravs do LVS ( Linux Virtual Server ). Os clusters de alto desempenho usam ns de cluster para atuar em avaliaes simultneas. Um cluster de alto desempenho fornece aplicativos para trabalhar em paralelo, portanto eleva a categoria de desempenho dos aplicativos. ( Clusters de alto desempenho so tambm referncia para os clusters computacionais ou computao em grade. )
Lembrete
Os tipos de cluster resumidos, num texto precedido, refletem em configuraes bsicas; onde suas necessidades podem requerer uma combinao dos clusters descritos.
Red Hat GFS ( Global File System ) Sistema de Arquivo Global Fornece um sistema de arquivo de cluster para uso com o Red Hat Cluster Suite. O GFS permite que os ns mltiplos compartilharem o armazenamento, num nvel de bloqueio, como se o armazenamento fosse conectado localmente com cada n de cluster. Cluster Logical Volume Manager (CLVM) Gerenciador de Volume Lgico de Cluster Fornece o gerenciamento do volume de armazenamento de cluster.
Nota
When you create or modify a CLVM volume for a clustered environment, you must ensure that you are running the clvmd daemon. For further information, refer to Seo 1.6, Gerenciador de Volume Lgico de Cluster. Global Network Block Device (GNBD) Dispositivo de Bloqueio da Rede Global Um componente auxiliar do GFS que exporta o armazenamento de nvel de bloqueio para Ethernet. Esta uma maneira econmica de se fazer disponvel o armazenamento de nvel de bloqueio no Red Hat GFS. For a lower level summary of Red Hat Cluster Suite components and optional software, refer to Captulo 2, Sumrio do Componente do Red Hat Cluster Suite.
Lembrete
Figura 1.1, Red Hat Cluster Suite Introduction includes GFS, CLVM, and GNBD, which are components that are part of an optional package and not part of Red Hat Cluster Suite.
Lembrete
Pelo padro, cada n tem um voto de qurum. Opcionalmente, voc pode configurar cada n para a obteno de mais de um voto. O CMAN controla a associao monitorando as mensagens de um outro cluster de n. Quando a associao de cluster sofrer alterao, o gerenciador de cluster notificar os outros componentes de infraestrutura, dos quais executaro a ao apropriada. Por exemplo, se um n A junta-se s montagens de um sistema de arquivo GFS, onde o n B e C j estiverem montados, um relatrio
Gerenciamento de bloqueio
adicional e um gerenciamento de bloqueio sero requeridos pelo n A, para o uso do sistema de arquivo GFS. Caso um n de cluster no transmitir a mensagem com uma quantia de tempo prescrita, o gerenciador de cluster remover o n do cluster e se comunicar com outro cluster.
1.3.3. Fencing
Fencing is the disconnection of a node from the cluster's shared storage. Fencing cuts off I/O from shared storage, thus ensuring data integrity. The cluster infrastructure performs fencing through the fence daemon, fenced. Quando o CMAN determinar que o n falhou, ele se comunicar com outros documentos de infraestrutura de cluster para informar que o n falhou. Fenced, quando for notificada a falha, o fence atua no n falhado. Os outros componentes de infra-estrutura de cluster determinam quais aes a serem tomadas eles atuam em qualquer recuperao que necessita ser feita. Por exemplo, quando um n de falha for notificado pelo DLM e GFS, a atividade ser suspensa at eles detectarem que o fenced tenha completado o fencing no n de falha. O DLM e GFS executam a recuperao, sob confirmao de que o n sofreu fencing. O DLM libera bloqueios de n de falhas, enquanto que o GFS recupera o relatrio de um n de falha. O programa fencing determina a partir do arquivo de configurao de cluster qual mtodo fencing a ser usado. Existem dois elementos chaves num arquivo de configurao de cluster dos quais definem
o mtodo fencing: o agente fencing e o dispositivo fencing. O programa fencing efetua uma chamada para um agente fencing especificado num arquivo de configurao de cluster. O agente fencing, por outro lado, limita o n por meio de um dispositivo fencing. Quando o fencing for completado, o programa fencing notificar o gerenciador de cluster. O Red Hat Cluster Suite fornece uma variedade de mtodos fencing: Fora fencing Um mtodo fencing que usa uma fora controladora para desligar um n inoperante. Alternador fencing de Canal de Fibra Um mtodo fencing do qual desativa a porta do Canal de Fibra que conecta o armazenamento a um n inoperante. GNBD fencing A fencing method that disables an inoperable node's access to a GNBD server. Outros fencing Diversos mtodos fencing que desativam o I/O ou fora de um n inoperante, incluindo bladecentres IBM, PAP, DRAC/MC, HP ILO, IPMI, IBM RSA II, e outros. Figura 1.3, Power Fencing Example shows an example of power fencing. In the example, the fencing program in node A causes the power controller to power off node D. Figura 1.4, Fibre Channel Switch Fencing Example shows an example of Fibre Channel switch fencing. In the example, the fencing program in node A causes the Fibre Channel switch to disable the port for node D, disconnecting node D from storage.
Fencing
Figura 1.4. Fibre Channel Switch Fencing Example Especifica que um mtodo fencing consiste na edio de um arquivo de configurao de cluster para determinar o nome do mtodo fencing, o agente fencing, e dispositivo fencing para cada n num cluster. The way in which a fencing method is specified depends on if a node has either dual power supplies or multiple paths to storage. If a node has dual power supplies, then the fencing method for the node must specify at least two fencing devices one fencing device for each power supply (refer to Figura 1.5, Fencing a Node with Dual Power Supplies). Similarly, if a node has multiple paths to Fibre Channel storage, then the fencing method for the node must specify one fencing device for each path to Fibre Channel storage. For example, if a node has two paths to Fibre Channel storage, the fencing method should specify two fencing devices one for each path to Fibre Channel storage (refer to Figura 1.6, Fencing a Node with Dual Fibre Channel Connections).
Figura 1.6. Fencing a Node with Dual Fibre Channel Connections Voc pode configurar um n com um mtodo fencing ou mltiplos mtodos fencing. Quando voc configurar um n num mtodo fencing, este ser o nico mtodo disponvel para fencing aquele n. Quando voc configurar um n para mltiplos mtodos fencing, os mtodos fencing se apresentam como um efeito cascata de um mtodo fencing a outro, de acordo com os mtodos fencing especificados num arquivo de configurao de cluster. Se o n falhar, este ser fenced usando-se o primeiro mtodo especificado num arquivo de configurao de cluster para aquele n. Caso o primeiro mtodo fencing no seja bem sucedido, o prximo mtodo fencing especificado para o n ser usado. Se nenhum dos mtodos fencing forem bem sucedidos, ento o fencing iniciar novamente o primeiro mtodo fencing especificado, e continuar laado atravs de mtodos fencing, de maneira especificada no arquivo de configurao de cluster at o n ser fenced.
cluster system administrator updates the configuration file in Node A, CCS propagates the update from Node A to the other nodes in the cluster (refer to Figura 1.7, CCS Overview).
Figura 1.7. CCS Overview Other cluster components (for example, CMAN) access configuration information from the configuration file through CCS (refer to Figura 1.7, CCS Overview).
10
Figura 1.8. Accessing Configuration Information O arquivo de configurao de cluster ( /etc/cluster/cluster.conf ) um arquivo XML que descreve as seguintes caractersticas de cluster: O nome do cluster Exibe o nome do cluster, o nvel de reviso do arquivo de configurao de cluster, e propriedades bsicas de tempo de fence usadas quando um n une-se a um cluster, ou limitado por um cluster. Cluster Exibe cada n de um cluster, especificando o nome do n, a Id do n, o nmero de votos do qurum, e o mtodo fencing para aquele n. Dispositivo de fence Exibe os dispositivos de fence num cluster. Os parmetros variam de acordo com o tipo de dispositivo de fence. Por exemplo, para um controlador de energia usado como um dispositivo de fence, a configurao de cluster define o nome do controlador de energia, seu endereo IP, logon e senha. Recursos Gerenciados Exibe os recursos requeridos para criao de servios de cluster. Os recursos gerenciados englobam a definio de domnios de falha, recursos ( por exemplo um endereo IP ) e servios. Com isto, os recursos gerenciados definem os servios de cluster e comportamento de falha dos servios cluster.
11
a falha fria para aplicaes off-the-shelf ( fora da prateleira ). Em um cluster Red Hat, a aplicao configurada com outros recursos para formar um servio de cluster de alta disponibilidade. Um servio de cluster de alta disponibilidade pode falhar de um para outro n de cluster sem nenhuma interrupo aparente para clientes de cluster. A falha do servio de cluster pode ocorrer caso um n de cluster falhar, ou se um administrador de sistema de cluster mover o servio de cluster de um para outro n de cluster. ( por exemplo, para uma interrupo planejada de um n de cluster ). Para criar um servio de alta disponibilidade, voc deve configur-lo no arquivo de configurao de cluster. O servio de cluster compreende os recursos de cluster. Os recursos de cluster so obstculos construdos que voc pode criar e gerenciar num arquivo de configurao de cluster por exemplo, um endereo IP, um script de inicializao de aplicao, ou um Red Hat GFS de partio dividido. You can associate a cluster service with a failover domain. A failover domain is a subset of cluster nodes that are eligible to run a particular cluster service (refer to Figura 1.9, Domnios de Falha).
Lembrete
Os domnios de falha no so requeridos para a operao.
Um servio de cluster pode executar apenas um n de cluster, de cada vez, para manter a integridade de dados. Voc pode especificar a prioridade da falha num domnio de falha. A especificao da prioridade da falha consiste em designar o nvel de prioridade para cada n, num domnio de falha. O nvel de prioridade determina a ordem de falha especificando o n em que o servio de cluster deve falhar. Caso voc no especifique a prioridade de falha, um servio de cluster poder falhar em qualquer n de seu domnio de falha. Alm disso, voc pode especificar se um servio de cluster restrito para atuar nos ns de seu domnio de falha associado. ( Quando associado a um domnio de falha sem restrio, o servio cluster pode iniciar qualquer n de cluster, num evento onde o membro do domnio de falha no disponvel. ) In Figura 1.9, Domnios de Falha, Failover Domain 1 is configured to restrict failover within that domain; therefore, Cluster Service X can only fail over between Node A and Node B. Failover Domain 2 is also configured to restrict failover with its domain; additionally, it is configured for failover priority. Failover Domain 2 priority is configured with Node C as priority 1, Node B as priority 2, and Node D as priority 3. If Node C fails, Cluster Service Y fails over to Node B next. If it cannot fail over to Node B, it tries failing over to Node D. Failover Domain 3 is configured with no priority and no restrictions. If the node that Cluster Service Z is running on fails, Cluster Service Z tries failing over to one of the nodes in Failover Domain 3. However, if none of those nodes is available, Cluster Service Z can fail over to any node in the cluster.
12
Figura 1.9. Domnios de Falha Figura 1.10, Web Server Cluster Service Example shows an example of a high-availability cluster service that is a web server named "content-webserver". It is running in cluster node B and is in a failover domain that consists of nodes A, B, and D. In addition, the failover domain is configured with a failover priority to fail over to node D before node A and to restrict failover to nodes only in that failover domain. The cluster service comprises these cluster resources: Recurso do endereo IP endereo IP 10.10.10.201. An application resource named "httpd-content" a web server application init script /etc/ init.d/httpd (specifying httpd). A file system resource Red Hat GFS named "gfs-content-webserver".
13
Figura 1.10. Web Server Cluster Service Example Os clientes podem acessar o servio de cluster atravs do endereo IP 10.10.10.201, capacitando a interao com o aplicativo do servidor da web, httpd-content. O aplicativo httpd-content usa o sistema de arquivo gfs-content-webserver. Caso o n B falhasse, o servio de cluster content-webserver falharia o n D. Se o n D no estivesse disponvel e tambm falhasse, o servio falharia o n A. A falha poderia aparecer sem nenhuma interrupo aparente para os clientes de cluster. O cliente de cluster poderia ser acessvel de um outro n de cluster por meio do mesmo endereo, pois este foi falhado anteriormente.
14
Utilizando o Red Hat GFS, voc pode atingir o tempo de funcionamento do aplicativo mximo atravs dos seguintes benefcios: Simplificar a sua infraestrutura de dados Instalar e patch as aplicaes de uma nica vez para todo o cluster. Eliminar a necessidade de cpias redundantes dos dados de aplicao ( duplicao ). Permitir o acesso ler/escrever coexistente para dados de diversos clientes. Simplificar o backup e recuperao de desastre ( apenas um sistema de arquivo para backup ou recuperao ). Aumentar o uso de recursos de armazenamento; diminuindo os custos de administrao do armazenamento. Gerenciar o armazenamento como um todo, ao contrrio de apenas por partio. Diminuir, de uma maneira geral, as necessidades do armazenamento eliminando as replicaes de dados. Escalar o cluster sem interrupo adicionando servidores ou armazenamento no fly. A partio de armazenamento atravs de tcnicas complicadas no existente. Adicionar servidores para o cluster num fly, montando-os ao sistema de arquivo comum. Os ns que executam o Red Hat GFS so configurados e gerenciados com o Red Hat Cluster Suite de configurao e gerenciamento de ferramentas. O gerenciamento de volume administrado atravs do CLVM ( Cluster Logical Volume Manager - Gerenciador de Volume Lgico de Cluster ). O Red Hat GFS fornece os dados divididos no meio de ns em um cluster Red Hat. O GFS fornece uma nica viso consistente de espao do nome do sistema de arquivo, atravs dos ns GFS num Red Hat cluster. O GFS permite os aplicativos instalarem e executarem, sem possuir muito conhecimento da infraestrutura de armazenamento subjacente. Alm disso, o GFS fornece caractersticas que so tipicamente requeridas em ambientes empresariais, como cotas, jornais mltiplos e suporte de vrios caminhos. O GFS fornece um mtodo verstil de armazenamento de rede de acordo com o desempenho, a escalabilidade, e necessidade econmica de seu ambiente de armazenamento. Este captulo fornece algumas informaes bsicas abreviadas de fundo, para melhor entendimento do GFS. You can deploy GFS in a variety of configurations to suit your needs for performance, scalability, and economy. For superior performance and scalability, you can deploy GFS in a cluster that is connected directly to a SAN. For more economical needs, you can deploy GFS in a cluster that is connected to a LAN with servers that use GNBD (Global Network Block Device) or to iSCSI (Internet Small Computer System Interface) devices. (For more information about GNBD, refer to Seo 1.7, Dispositivo de Bloqueio da Rede Global.) As seguintes sees fornecem exemplos de como o GFS pode ser desdobrado para satisfazer sua necessidade de desempenho, escalabilidade e economia: Seo 1.5.1, Desempenho Superior e Escalabilidade Seo 1.5.2, Desempenho, Escalabilidade e Preo Moderado
15
Lembrete
Os exemplos de desenvolvimento do GFS refletem em configuraes bsicas; suas necessidades talvez solicitem uma combinao de configuraes apresentadas nos exemplos.
16
Economia e desempenho
17
Lembrete
Armazenamento compartilhado para uso no Red Hat Cluster Suite, requer que voc esteja executando o daemon do gerenciador do volume lgico do cluster (clvmd) ou os agentes do Gerenciamento de Volume Lgico de Alta Disponibilidade (HALVM). Se voc no conseguir usar o daemon do clvmd ou o HA-LVM por motivos operacionais ou porque voc no possui os direitos corretos, no use o singleinstance LVM no disco compartilhado, pois isto pode danificar os dados. Caso tenha qualquer dvida, entre em contato com o representante de servios da Red Hat.
Lembrete
O uso do CLVM requer pequenas mudanas de acordo com o /etc/lvm/ lvm.conf para bloqueamento de um cluster amplo.
18
Figura 1.14. CLVM Overview You can configure CLVM using the same commands as LVM2, using the LVM graphical user interface (refer to Figura 1.15, LVM Graphical User Interface), or using the storage configuration function of the Conga cluster configuration graphical user interface (refer to Figura 1.16, Conga LVM Graphical User Interface) . Figura 1.17, Creating Logical Volumes shows the basic concept of creating logical volumes from Linux partitions and shows the commands used to create logical volumes.
19
20
21
22
23
Figura 1.19. Components of a Running LVS Cluster O pulse daemon atua nos roteadores LVS ativos e passivos. Em um roteador LVS de backup, o pulse envia um heartbeat para a interface pblica de um roteador ativo para garantir que o roteador LVS esteja funcionando propriamente. Num roteador LVS ativo, o pulse inicia o lvs daemon e responde ao heartbeat as perguntas do roteador LVS de backup. Um vez iniciado, o lvs daemon chama a utilidade ipvsadm para configurar e manter o IPVS ( Servidor Virtual IP ) de tabela ampla no kernel, e inicia um processo nanny para cada servidor virtual configurado em cada servidor real. Cada processo nanny verifica o estado de um servio configurado em um servidor real, e informa o daemon lvs, caso o servio daquele servidor real possuir mal funcionamento. Se o mal funcionamento for detectado, o daemon lvs induz o ipvsadm a remover aquele servidor real de uma tabela ampla IPVS. Caso um roteador LVS de backup no receber uma resposta de um roteador LVS, ele iniciar a falha chamando o send_arp para reinstalar todos os endereos IP virtuais nos endereos de hardware NIC ( endereos MAC ) de roteador LVS de backup. Isto enviar um comando para o roteador LVS ativo por meio das interfaces da rede pblica e privada, desativando o daemon lvs num roteador LVS ativo e iniciando o daemon lvs, no roteador LVS de backup, para aceitao das solicitaes de servidores virtuais configurados. No caso de um usurio de fora estar acessando um servio anfitrio ( como um website ou aplicao de banco de dados ), o LVS se apresenta como um servidor. No entanto, o usurio estar acessando os servidores reais por trs dos roteadores LVS.
24
Devido ao LVS no possuir o componente construdo para compartilhamento dos dados entre os servidores reais, voc ter duas opes bsicas: Sincronizar os dados atravs de servidores reais. Adicionar a terceira camada da topologia para acesso de dados compartilhados. A primeira opo preferida pelos servidores que no permitem um nmero grande de usurios para carregar ou mudar os dados em servidores reais. Se um servidor real permitir um nmero grande de usurios modificar os dados, como um website de e-comrcio, prefervel a adio da terceira camada. Existem diversas maneiras de sincronizar dados de servidores reais. Por exemplo, voc pode utilizar os scripts shell para enviar simultaneamente as pginas atualizadas da web de usurios reais. Alm disso, voc pode usar programas como o rsync para replicar a mudana de dados atravs de todos os ns em um intervalo definido. No entanto, a sincronizao de dados no funciona de maneira otimista para os ambientes onde os usurios freqentemente fazem o carregamento do arquivo ou tm problemas em transaes de datadados, usando o script ou o comando rsync. Portanto, para os servidores reais com um alto nmero de carregamento, transaes de datadados, ou trfico similar, a topologia de trs camadas a mais apropriada para a sincronizao de dados.
25
Figura 1.20. Two-Tier LVS Topology O servio solicita que a chegada no roteador LVS seja endereada a um endereo IP virtual ou VIP. Este um endereo roteado publicamente do administrador do site de associados, com o nome dominante inteiramente qualificado. Por exemplo: www.example.com, que determinado para 1 um ou mais servidores virtuais . Perceba que um endereo VIP migra de um para outro roteador LVS durante a falha, deste modo mantendo a presena no endereo IP, tambm conhecido como endereo IP flutuante. Os endereos VIP podem ser alias no mesmo dispositivo que conecta o roteador LVS rede pblica. Por exemplo, se o eth0 conectado Internet, ento diversos servidores virtuais podem ser alias ao eth0:1. Alternativamente, cada servidor virtual pode ser associado com o dispositivo separado por servio. Por exemplo, o trfico HTTP pode ser tratado em eth0:1, e o trfico FTP pode ser tratado em eth0:2. Apenas o roteador LVS est ativo desta vez. A funo do roteador LVS ativo de redirecionar os servios solicitados de um endereo virtual IP aos servidores reais. A redireo baseada em um destes oito algoritmo de carga balanceada: Round-Robin Scheduling Distribui cada solicitao seqencial em volta de um pool de servidores reais. Usando este algoritmo, todos os servidores reais so tratados como equivalentes sem considerar a capacidade ou carga. Weighted Round-Robin Scheduling Distribui cada solicitao seqencial em volta do pool de servidores reais, mas gera mais trabalho para servidores de grande capacidade. A capacidade indicada por um usurio determinado pelo fator peso, que ento ajustado acima e abaixo por informao de carga dinmica. Esta a escolha preferida se houver diferenas significantes entre a capacidade de servidores reais em um pool de servidor. No entanto, se a solicitao de carga
Um servidor virtual um servio configurado para escutar um especfico IP virtual
26
variar dramaticamente, um servidor de carga mais pesada, poder responder alm de sua prpria repartio de solicitaes. Least-Connection Distribui mais solicitaes de servidores reais com poucas conexes ativas. Essa conexo um algoritmo de agendamento dinmico, executando uma melhor escolha em caso de existir um alto grau de variao nesta carga solicitada. , tambm, a conexo mais adequada para um pool de servidor real, onde cada n de servidor possui aproximadamente a mesma capacidade. Em caso de servidores reais possurem capacidades variveis, o agendamento de conexo mnima carregada ser a melhor escolha. Weighted Least-Connections ( padro ) Distribui mais solicitaes para servidores com poucas conexes ativas relativas s suas capacidades. A capacidade indicada pela carga determinada pelo usurio, o que ento ajustada para acima ou para baixo por uma informao de carga dinmica. A adio de carregamento faz com que este algoritmo seja perfeito, quando o pool de servidor real conter o hardware de capacidade varivel. Locality-Based Least-Connection Scheduling Distribui mais solicitaes aos servidores com poucas conexes ativas relativas as suas destinaes IPs. Esse algoritmo para uso de um cluster de servidor proxy-cache. Ele roteia os pacotes dos endereos IP para o servidor daquele endereo, a no ser que este servidor esteja acima da capacidade e possua um servidor de baixa carga. Neste caso, isto determinar o endereo IP do servidor real de carregamento mnimo. Locality-Based Least-Connection Scheduling with Replication Scheduling Distribui mais solicitaes aos servidores com poucas conexes ativas relativas as suas destinaes IPs. Esse algoritmo tambm para o uso de um cluster de servidor proxy-cache. Isto diferencia um LocalityBased Least-Connection Scheduling pelo mapeamento do endereo alvo IP ao subset do servidor real. Source Hash Scheduling Distribui solicitaes ao pool de servidores reais, checando o recurso IP numa mesa hash esttica. Este algoritmo para os roteadores LVS com mltiplos firewalls. Alm disso, o roteador LVS ativo monitora dinamicamente o health, em geral, de servios especficos nos servidores reais atravs de um simples script enviado/esperado. Para assistir na deteco do health dos servidores que requerem os dados dinmicos, como os HTTPS ou SSL, voc pode tambm chamar por execues externas. Caso um servio em um servidor real no funcione corretamente, o roteador LVS ativo interrompe o envio de trabalhos para o servidor at que isto retorne operao normal. O roteador LVS de backup executa a funo de um sistema standby ( estado de prontido ). Periodicamente, os roteadores LVS mudam as mensagens hearbeat atravs da interface pblica externa primria. No caso do roteador LVS de backup falhar em receber a mensagem heartbeat no intervalo esperado, a falha ser iniciada e assumir a funo do roteador LVS ativo. Durante a falha, o roteador LVS de backup responsvel pelos servios de endereos VIP por um roteador falhado usando uma tcnica conhecida como ARP spoofing onde o roteador LVS de backup anuncia-se como destino dos pacotes endereados para os ns falhados. Quando os ns falhados retornarem ao servio ativo, o roteador LVS de backup assumir sua funo de backup novamente. The simple, two-tier configuration in Figura 1.20, Two-Tier LVS Topology is suited best for clusters serving data that does not change very frequently such as static web pages because the individual real servers do not automatically synchronize data among themselves.
27
Figura 1.21. Three-Tier LVS Topology Armazenada num servidor central, altamente disponvel e acessado por cada servidor real por meio de um diretrio NFS exportado ou Samba compartilhado. Essa topologia tambm compartilhada por websites que acessam um banco de dados central e de alta disponibilidade para transaes. Adicionalmente, usando uma configurao ativa-ativa com um cluster Red Hat, voc pode configurar um cluster de alta disponibilidade para satisfazer ambas funes simultaneamente.
28
Mtodos Encaminhados
Figura 1.22. LVS Implemented with NAT Routing Neste exemplo, existem dois NICs no roteador LVS ativo. O NIC para a Internet possui um endereo IP real no eth0, e tambm possui um alias de endereo IP flutuante para o eth0:1. O NIC para a interface de rede privada possui um endereo IP real no eth1, e possui um alias de endereo IP flutuante para o eth1:1. No caso de uma falha, a interface virtual de cobertura da Internet e a interface virtual de cobertura privada so comandadas simultaneamente pelo roteador LVS de backup. In the example, the LVS router's public LVS floating IP address and private NAT floating IP address are aliased to two physical NICs. While it is possible to associate each floating IP address to its physical device on the LVS router nodes, having more than two NICs is not a requirement. Usando esta topologia, o roteador LVS ativo recebe a solicitao e encaminha isto ao servidor apropriado. O servidor real ento processa a solicitao e retorna aos pacotes do roteador LVS. O roteador LVS usa a traduo do endereo da rede para substituir o endereo do servidor real, nos pacotes de roteadores LVS pblicos de endereo VIP. Este processo chamado IP masquerading devido aos endereos IP atuais, de servidores reais, estarem ocultos para os clientes solicitantes.
29
Usando o roteamento NAT, os servidores reais podem ser qualquer tipo de computadores atuando numa variedade de sistemas operantes. A maior desvantagem do roteamento NAT que o roteador LVS pode iniciar um funilamento de grande extenso, pois ele dever processar as solicitaes de entrada e sada.
Figura 1.23. LVS Implemented with Direct Routing Numa configurao tpica de roteamento direto LVS, o roteador LVS recebe solicitaes de servidores de entrada atravs de um IP virtual ( VIP ), e utiliza um algoritmo agendado para encaminhar a solicitao aos servidores reais. Cada servidor processa as solicitaes e envia respostas diretamente aos clientes, contornando os roteadores LVS. O roteamento direto permite escalabilidade nos servidores reais que podem ser aderidos sem o volume adicionado, no roteador LVS para pacotes de sada de um servidor real para cliente. Este pode iniciar um funilamento sob carga pesada da rede.
30
Enquanto existem muitas vantagens na utilizao do roteamento direto em LVS, h tambm limitaes. O problema mais comum no roteamento direto e LVS o Protocolo de Resoluo de Endereo ( ARP ). In typical situations, a client on the Internet sends a request to an IP address. Network routers typically send requests to their destination by relating IP addresses to a machine's MAC address with ARP. ARP requests are broadcast to all connected machines on a network, and the machine with the correct IP/MAC address combination receives the packet. The IP/MAC associations are stored in an ARP cache, which is cleared periodically (usually every 15 minutes) and refilled with IP/MAC associations. O problema com as solicitaes ARP em uma configurao de roteamento direto LVS, devido a solicitao de um cliente a um endereo IP ser associada ao endereo MAC para a solicitao ser executada. O endereo IP virtual de roteador LVS deve ser associado ao MAC. No entanto, devido ao roteador LVS e os mesmos servidores possuirem o mesmo VIP, a solicitao ARP transmitida a todos os ns associados com VIP. Isto pode causar diversos problemas, como o VIP ser associado diretamente a um dos servidores reais e as solicitaes serem processadas diretamente, contornando o roteador LVS completamente e derrotando o propsito da configurao LVS. A utilizao de um roteador LVS com o poderoso CPU, do qual responde rapidamente s solicitaes de clientes, no a soluo para este problema. Se o roteador LVS estiver sob alto carregamento, isto poder responder a solicitao IP mais vagarosamente do que um servidor real subutilizado. Este responder mais rapidamente e determinar o VIP num cache ARP do cliente solicitante. Para resolver este problema, as solicitaes seguintes devem apenas associar o VIP ao roteador LVS, do qual ir processar propriamente as solicitaes e envi-las para o pool de servidor real. Isto pode ser feito usando a ferramenta de filtrao do pacote arptables.
1.8.4.1. Persistence
Uma vez ativada, a persistncia atua como um marcador de tempo. Quando um cliente se conectar a um servio, o LVS lembra da ltima conexo por um perodo especfico. Caso o mesmo cliente de endereo IP conectar novamente no mesmo perodo, isto ser enviado ao mesmo servidor que foi conectado anteriormente contornando os mecanismos de balanceamento de carga. Quando a conexo ocorrer fora da janela de tempo, isto ser tratada de acordo com as regras de agendamento do local. A persistncia tambm permite que voc especifique um subnet mask ( marcas subnet ), para aplicao ao teste de endereo IP do cliente, como uma ferramenta de controle dos endereos que possuem um alto nvel de persistncia, agrupando as conexes ao subnet. As conexes agrupadas destinam-se a portos diferentes, podendo ser importantes para protocolos que usam mais de um porto para comunicao, como o FTP. No entanto, a persistncia no a maneira mais eficiente para cuidar do problema de agrupamento juntamente com conexes
31
destinadas para portos diferentes. No caso destas situaes, aconselhvel utilizar as marcas firewall.
1.9.1. Conga
Conga um grupo integrado de componentes de software que fornece a configurao e o gerenciamento de cluster, e armazenamento do Red Hat. O Conga fornece as principais caractersticas: Uma interface da Web para gerenciamento e armazenamento de cluster Implantao Automtica de dados de Cluster e Pacotes de Apoio Fcil Integrao com Clusters Existentes No Necessita da Re-Autenticao Integrao de Status de Clusters e Logs Controle Fino-Granulado sobre Permisso do Usurio Os componentes primrios do Conga so luci e ricci, dos quais so instalados separadamente. O luci um servidor que atua em um computador e se comunica com mltiplos clusters e computadores por meio do ricci. O ricci um agente que atua em cada computador ( tanto um membro de cluster ou um computador autnomo ) gerenciado pelo Conga. O luci acessado atravs do navegador da Web e fornece trs funes principais das quais so acessadas atravs das seguintes tabelas:
32
Conga
homebase fornece ferramentas para a adio e deletao de computadores, adio e deletao de usurios, e configurao de usurios privilegiados. Apenas um sistema administrador permitido a acessar esta tab. cluster Fornece ferramentas para a criao e configurao de clusters. Cada instncia das listas de clusters luci das quais foram montadas com o luci. Um administrador de sistemas pode administrar todos os clusters listados nesta tab. Outros usurios podem administrar apenas os clusters em que o usurio possui permisso para gerenciar. ( concedido por um administrador ). storage Fornece ferramentas para uma administrao remota de armazenamento. Com as ferramentas desta tab, voc pode gerenciar o armazenamento em computadores, sendo estes pertencentes a um cluster ou no. Para administrar um cluster ou armazenamento, um administrador adiciona ( ou registradores ) o cluster ou um computador a um servidor luci. Quando um cluster ou um computador registrado com o luci, o nome anfitrio FQDN ou endereo IP de cada computador armazenado num banco de dados luci. Voc pode propagar um banco de dados de uma instncia luci outra instncia luci. Esta capacidade fornece um significado de replicao de uma instncia de servidor e fornece um melhoramento eficiente e avaliao do caminho. Quando voc instalar uma instncia do luci, este banco de dados estar vazio. No entanto, voc pode importar parte ou todo banco de dados luci de um servidor existente luci, quando implantando um novo servidor luci. Cada instncia luci possui um usurio na instalao inicial admin. Apenas o usurio adm poderia adicionar sistemas ao servidor luci. Alm disso, o usurio admin pode criar contas de usurios adicionais e determinar quais so os usurios que possuem acesso permitido aos clusters e computadores registrados, no banco de dados luci. possvel importar usurios como uma operao em lote de um novo servidor luci, assim como possvel importar clusters e computadores. Quando um computador adicionado a um servidor luci a ser administrado, a autenticao feita apenas uma vez. Ento, a autenticao no ser mais necessria ( a no ser que o certificado usado seja anulado por um CA ). Aps isto, voc pode remotamente configurar e gerenciar os clusters e os armazenamento atravs da interface do usurio luci. As figuras seguintes apresentam um exemplo exibido das trs principais tabs luci: homebase, cluster, e storage. Para maiores informaes sobre o Conga, refira-se a Configurando e Gerenciando um Cluster Red Hat e ajuda disponvel online com o servidor luci.
33
34
35
Figura 1.27. Cluster Configuration Tool A Cluster Configuration Tool representa os componentes de configurao de cluster no arquivo de configurao ( /etc/cluster/cluster.conf ), com um grfico hierrquico exibido esquerda do painel. Um cone no formato de um tringulo esquerda do nome de um componente, indica que o componente possui um ou mais componentes subordinados designados para isto. Clicando no cone de tringulo, a poro de rvore abaixo de um componente se expande e colapsa. Os componentes exibidos no GUI so resumidos como a seguir: Ns de Cluster Exibe os ns de cluster. Os ns so representados pelo nome assim como os elementos subordinados sob os Ns de Cluster. Usando os botes de configurao no boto direito do quadro ( abaixo das Propriedades ), voc pode adicionar ns, deletar ns, editar propriedades de ns e configurar os mtodos de fencing para cada n. Dispositivos de Fence Exibe dispositivos de fence. Os dispositivos de fence so representados como elementos subordinados sob os Dispositivos de Fence. Usando os botes de configurao
36
no canto direito abaixo do quadro ( abaixo das Propriedades ), voc pode adicionar os dispositivos de fence, deletar os dispositivos de fence e editar as propriedades de dispositivos de fence. Os dispositivos de fence devem ser definidos antes de voc configurar o fencing ( com o boto Manage Fencing For This Node ) para cada n. Recursos Gerenciados exibe as falhas dominantes, os recursos e os servios. Domnios de Falha Para configurar um ou mais subconjuntos de ns de cluster usados para executar um servio de alta disponibilidade, num evento de uma falha de n. Os domnios de falhas so representados como elementos subordinados sob os Domnios de Falhas. Usando botes de configurao no boto ao lado direito do quadro ( abaixo de Propriedades ), voc pode criar as falhas dominantes ( quando forem selecionados os Domnios de Falha ) ou editar propriedades de domnio de falha ( quando um domnio de falha for selecionado ). Recursos Para configurar os recursos compartilhados a serem usados por servios de alta disponibilidade. Os recursos compartilhados consistem nos sistemas de arquivos, endereos IP, montagem e exportao NFS e scripts de criao do usurio dos quais esto disponveis a um servio de alta disponibilidade num cluster. Os recursos so representados como elementos subordinados sob os Recursos. Usando os botes de configurao no canto direito do quadro ( abaixo das Propriedades ), voc pode criar recursos ( quando forem selecionados os Recursos ) ou editar propriedades de recursos ( quando um recurso selecionado ).
Lembrete
A Cluster Configuration Tool tambm fornece a capacidade de configurar os recursos privados. O recurso privado um recurso do qual configurado para o uso de apenas um servio. Voc pode configurar um recurso privado com um componente Service em GUI. Servios Para criar e configurar servios de alta disponibilidade. Um servio configurado apenas determinando recursos ( compartilhados e privados ), determinando o domnio de falha, e definindo uma poltica de recuperao para o servio. Os servios so representados como elementos subordinados sob os Servios. Usando botes de configurao do lado direito do quadro ( abaixo de Propriedades ), voc pode criar servios ( quando forem selecionados os Servios ) ou editar propriedades de servio ( quando um servio for selecionado )
37
Figura 1.28. Cluster Status Tool Os ns e servios exibidos na Cluster Status Tool so determinados pelo arquivo de configurao de cluster ( /etc/cluster/cluster.conf ). Voc pode usar a Cluster Status Tool para ativar, desativar, reiniciar ou redirecionar o servio de alta disponibilidade.
38
Ferramenta de Linha de Comando ccs_tool Ferramenta de Sistema de Configurao de Cluster cman_tool Ferramenta de Gerenciamento de Cluster
Usado com
Propsito
Cluster Infrastructure
ccs_tool um programa para realizar atualizaes online do arquivo de configurao de cluster. Isto fornece a capacidade de criar e modificar os componentes de infraestrutura de cluster ( por exemplo, criao do cluster, adio e remoo do n ). Para maiores informaes sobre esta ferramenta, refira-se pgina man ccs_tool(8). cman_tool o programa que administra o gerenciador de cluster CMAN. Isto fornece a capacidade de unir-se ao cluster, abandonar o cluster, cancelar o n, ou mudar os votos de qurum esperados de um n num cluster. Para maiores informaes sobre esta ferramenta, refira-se pagina man cman_tool(8). fence_tool um programa usado para unir ou abandonar o domnio de fence padro. Especificamente, isto inicia o fence daemon (fenced) para juntar-se ao domnio e eliminar o fenced para abandonar o domnio. Para maiores informaes sobre esta ferramenta, refira-se pgina man fence_tool(8). O comando clustat exibe o status do cluster. Isto apresenta a informao de associao, verificao do qurum e estado de todos os servios de usurios configurados. Para maiores informaes sobre esta ferramenta, refira-se a pgina man clustat(8). O comando clusvcadm permite que voc ative, desative, redirecione e reinicie os servios de alta disponibilidade num cluster. Para maiores informaes sobre esta ferramenta, refira-se pgina man clusvcadm(8).
Cluster Infrastructure
Componentes de Gerenciamento de Servio de Alta Disponibilidade Componentes de Gerenciamento de Servio de Alta Disponibilidade
39
Starting the Piranha Configuration Tool causes the Piranha Configuration Tool welcome page to be displayed (refer to Figura 1.29, The Welcome Panel). Logging in to the welcome page provides access to the four main screens or panels: CONTROL/MONITORING, GLOBAL SETTINGS, REDUNDANCY, and VIRTUAL SERVERS. In addition, the VIRTUAL SERVERS panel contains four subsections. The CONTROL/MONITORING panel is the first panel displayed after you log in at the welcome screen.
Figura 1.29. The Welcome Panel As sees seguintes fornecem uma descrio breve das pginas de configurao da Piranha Configuration Tool.
1.10.1. CONTROL/MONITORING
O painel de CONTROLE/MONITORAMENTO exibe o status de tempo de execuo. Isto exibe o status do daemon pulse, a tabela de roteamento LVS e os processos nanny LVS gerados.
40
GLOBAL SETTINGS
Figura 1.30. The CONTROL/MONITORING Panel Auto update Ativa o status exibido para ser automaticamente atualizado no intervalo configurvel do usurio definido na caixa de texto de freqncia de atualizao em segundos ( o valor do padro de 10 segundos ). No recomendvel que voc defina a atualizao automtica a um intervalo menor que 10 segundos. Do contrrio, ser difcil reconfigurar o intervalo Auto atualizao, pois a pgina ir atualizar-se com uma freqncia muito grande. Caso voc se depare com este problema, apenas clique num outro painel e ento retorne ao CONTROLE/MONITORAMENTO. Update information now Fornece a atualizao do manual de status de informao CHANGE PASSWORD Clicando neste boto voc encontrar uma tela de ajuda com a informao de como mudar a senha administrativa para a Piranha Configuration Tool.
41
Figura 1.31. The GLOBAL SETTINGS Panel The top half of this panel sets up the primary LVS router's public and private network interfaces. Primary server public IP O endereo IP real de roteamento em comum para o n LVS primrio Primary server private IP O endereo IP real para uma interface da rede alternativa no n LVS primrio. Este endereo somente usado como uma alternativa do canal de heartbeat para o roteador de backup. Use network type Seleciona o roteamento NAT de seleo. The next three fields are specifically for the NAT router's virtual network interface connected the private network with the real servers. NAT Router IP O IP flutuante privado no campo do texto. O IP flutuante deve ser usado como porta de comunicao para os servidores reais. NAT Router netmask If the NAT router's floating IP needs a particular netmask, select it from drop-down list.
42
REDUNDANCY
NAT Router device Fornece o nome do dispositivo da interface da rede para o endereo IP flutuante, como eth1:1.
1.10.3. REDUNDANCY
O painel de REDUNDNCIA permite que voc configure o n de roteador LVS de backup e prepara vrias opes de monitoramento de heartbeat.
Figura 1.32. The REDUNDANCY Panel Redundant server public IP O endereo IP real pblico para o roteador de backup. Redundant server private IP The backup router's private real IP address. O resto do painel serve para configurao do canal de heartbeat, que usado pelo n de backup para a monitorao do n primrio de falha. Heartbeat Interval (seconds) Marca o nmero de segundos entre heartbeats o intervalo em que o n de backup ir checar o status funcional do n primrio LVS.
43
Assume dead after (seconds) Caso o n LVS primrio no responda aps este nmero de segundos, ento o n de roteador LVS de backup iniciar a falha. Heartbeat runs on port Prepara o portal do qual o heartbeat se comunica com o n LVS primrio. O padro programado para 539 se o campo estiver em branco.
Figura 1.33. The VIRTUAL SERVERS Panel Cada servidor exibido no painel SERVIDORES VIRTUAIS pode ser configurado nas telas subseqentes ou subsees. Para adicionar um servio, clique no boto ADICIONAR. Para remover um servio, faa a seleo clicando no boto rdio, perto do servidor virtual, e clique no boto DELETAR.
44
VIRTUAL SERVERS
Para ativar ou desativar um servidor virtual na tabela, clique no boto rdio e clique no boto (DES)ATIVAR. Aps adicionar um servidor virtual, voc pode configurar isto clicando no boto rdio para o lado esquerdo e clicando no boto EDITAR para exibir a subseo SERVIDOR VIRTUAL .
Figura 1.34. The VIRTUAL SERVERS Subsection Name O nome descritivo para identificar o servidor virtual. Este nome no o nome do anfitrio para a mquina, sendo ento descritivo e facilmente identificvel. Voc pode tambm referenciar o protocolo usado pelo servidor virtual, como por exemplo o HTTP. Application port O nmero do portal atravs do qual o aplicativo do servio ir escut-lo.
45
Protocol Fornece uma escolha de UDP ou TCP, num menu suspenso. Virtual IP Address The virtual server's floating IP address. Virtual IP Network Mask A netmask para este servidor virtual, num menu suspenso. Firewall Mark A entrada do valor integral da marca do firewall, quando construindo os protocolos de portais mltiplos ou criando os servidores virtuais de portal mltiplo de separao, no entanto os protocolos relatados. Device O nome do dispositivo de rede, do qual voc queira o endereo IP flutuante definido no campo do Endereo IP Virtual, para a vinculao. Voc pode alias o endereo IP flutuante a uma interface Ethernet conectada rede pblica. Re-entry Time Um valor integral que define o nmero de segundos antes do roteador LVS ativo tentar usar o servidor real, aps a falha do servidor real. Service Timeout Um valor integral que define o nmero de segundos antes de um servidor real ser considerado inativo e no disponvel. Quiesce server Quando o boto de rdio do servidor Quiesce for selecionado, um novo n do servidor real aparecer on-line a qualquer instante. A tabela mnima de conexo regulada para zero, assim o roteador LVS ativo encaminha as solicitaes como se todos os servidores reais fossem adicionados recentemente ao cluster. Esta opo evita um novo servidor comear a atolar-se com o alto nmero de conexes pela entrada do cluster. Load monitoring tool O roteador LVS pode monitorar a carga em vrios servidores reais usando tanto o rup ou ruptime. Se voc selecionar o rup do menu suspenso, cada servidor real dever executar o servio rstatd. Se voc selecionar o ruptime, cada servidor real dever executar o servio rwhod. Scheduling O algoritmo de agendamento preferido do menu suspenso. O padro de Weighted leastconnection. Persistncia Utilizado caso voc precise de conexes persistentes para o servidor virtual durante as transaes dos clientes. Especifica o nmero de segundos da inatividade permitida para o lapso, antes do tempo limite neste campo do texto. Persistence Network Mask Para limitar a persistncia de um subnet particular, selecione a mscara da rede apropriada para o menu suspenso.
46
VIRTUAL SERVERS
Figura 1.35. The REAL SERVER Subsection Click the ADD button to add a new server. To delete an existing server, select the radio button beside it and click the DELETE button. Click the EDIT button to load the EDIT REAL SERVER panel, as seen in Figura 1.36, The REAL SERVER Configuration Panel.
47
Figura 1.36. The REAL SERVER Configuration Panel Este painel consiste em trs campos de entrada: Name O nome descritivo para o servidor real.
Lembrete
Este nome no o nome anfitrio para a mquina, ento faa com que ele seja descritivo e facilmente identificado. Address The real server's IP address. Since the listening port is already specified for the associated virtual server, do not add a port number. Weight An integer value indicating this host's capacity relative to that of other hosts in the pool. The value can be arbitrary, but treat it as a ratio in relation to other real servers.
48
VIRTUAL SERVERS
Figura 1.37. The EDIT MONITORING SCRIPTS Subsection Sending Program Para uma verificao de servio avanado, voc pode usar este campo para especificar o caminho ao script de servio de checagem. Esta funo de grande auxlio aos servios que requerem dinamicamente os dados de mudana, como por exemplo os HTTPS or SSL. Para uso desta funo, voc deve escrever um script que retorna a uma resposta de texto, preparar isto para ser executado e digitar o caminho dele no campo Programa de Envio.
Lembrete
Caso um programa externo seja inserido no campo Programa de Envio, o campo Enviar ser ignorado.
49
Send Uma seqncia do daemon nanny a ser enviada a cada servidor real deste campo. Por padro, o campo enviado completado pelo HTTP. Voc pode alterar este valor dependendo de suas necessidades. Caso, voc deixe este campo em branco, o daemon nanny tentar abrir o portal e assumir o servio executado, caso isto se suceda. Apenas uma seqncia enviada permitida neste campo, e pode apenas conter imprimveis caracteres ASCII como tambm os seguintes caracteres de fuga: \n para uma nova linha \r para o retorno do carro. \t para tab. \ para escapar para o prximo captulo. Expect A resposta de texto ao servidor deve retornar, se isto estiver funcionando propriamente. Caso voc escreva seu prprio programa de envio, entre a resposta que voc elaborou para envio no caso desta ser bem sucedida.
50
clvmd
lvm
system-config-lvm lvm.conf
ccs_tool
51
Funo
Componentes
Descrio formato XML, formato usado com esta liberao de Red Hat Cluster Suite.
ccs_test
Diagnstico e comando testados dos quais so utilizados para resgatar informao dos arquivos de configurao atravs do ccsd. O CCS daemon que atua em todos os ns de cluster e fornece dados do arquivo de configurao a um software de cluster. Este um arquivo de configurao de cluster. O caminho direto /etc/ cluster/cluster.conf. O mdulo Kernel para o CMAN.
ccsd
cluster.conf
cman.ko
cman_tool
Este o fim da frente administrativa para o CMAN. Inicia e interrompe o CMAN, podendo mudar alguns parmetros internos como os votos. Daemon iniciado pelo cman script de iniciao para gerenciar o dlm em kernel, no utilizado pelo usurio. Daemon iniciado pelo cman script de iniciao para gerenciar o gfs em kernel, no usado pelo usurio. Usado para gerar uma lista de grupos relacionada ao ferncing, DLM, GFS, e adquirindo informao do depurador. Inclui os cman_tool services fornecido em RHEL 4. Daemon iniciado por cman script de iniciao para a interface entre openais/cman e dlm_controld/gfs_controld/ fenced; no usado pelo usurio. Biblioteca para programas que precisam interagir com o cman.ko. Comando usado para manualmente capacitar, desativar, relocar e restaurar os servios do usurio num cluster.
dlm_controld
gfs_controld
group_tool
groupd
libcman.so.<version number> Resource Group Manager (rgmanager) - Gerenciador de Grupo de Recurso (rgmanager) clusvcadm
52
Componentes de Cluster
Funo
Componentes clustat
Descrio Comando usado para exibir o status de um cluster, incluindo o n associado e servios de execuo. Daemon usado para manusear as solicitaes de servio do usurio incluindo o servio iniciado, servio desativado, servio realocado e servio restaurado. Daemon usado para manusear as tabelas de elevao NFS Clustered. Agente fence para a tomada eltrica APC. Agente fence para o IBM Bladecenters com interface Telnet. Agente fence para a Interface Bull NovaScale Plataform Administration Processor ( PAP ). Agente fencing para o Carto de Acesso Remoto Dell. Agente fence para mquinas controladas pela IPMI - Intelligent Platform Management Interface ( Interface de Gerenciamento da Plataforma Inteligente ) sobre LAN. Agente fence para a tomada eletrnica WTI. Agente fence para a tomada de Canal de Fibra Brocada. Agente fence para a tomada de Canal de Fibra McData. Agente fence para a tomada de Canal de Fibra Vixel. Agente fence para a tomada de Canal de Fibra SANBox2. Agente fence para as interfaces HP ILO ( anteriormente fence_rib ). Agente fence I/O para o IBM RSA II. Agente fence usado com o armazenamento GNBD. Agente fencing I/O para as reservas de persistncia SCSI. Agente fence usado para o sistema Egenera BladeFrame.
clurgmgrd
fence_drac fence_ipmilan
fence_wti fence_brocade fence_mcdata fence_vixel fence_sanbox2 fence_ilo fence_rsa fence_gnbd fence_scsi fence_egenera
53
Funo
Componentes fence_manual
Descrio Agente fence de interao manual. NOTA Este componente no suportado para ambientes de produo. Interface do usurio para o agente fence_manual. Um programa que apresenta o fence I/O num nico n. Agente fence I/O para as mquinas virtuais Xen Agente fence I/O hospedeiro para as mquinas virtuais Xen. Um programa para unir-se e sair do domnio fence. O fence I/O daemon. Biblioteca para o suporte de Distributed Lock Manager ( DLM, Gerenciador de Bloqueio Distribudo ). Mdulo Kernel que implementa o sistema de arquivo GFS, e carregado nos ns de cluster GFS. Comando que repara um sistema de arquivo GFS desmontado Comanda o que cresce no sistema de arquivo GFS montado. Comando que adiciona dirios a um sistema de arquivo GFS montado. Comando que cria um sistema de arquivo GFS num dispositivo armazenado. Comando que gerencia as cotas num sistema de arquivo GFS montado. Comando que configura ou forma um sistema de arquivo GFS. Este comando pode tambm concentrar uma variedade de informaes sobre o sistema de arquivo. Auxlio de montagem chamado por mount(8); no usado pelo usurio. Mdulo Kernel que implementa o driver de dispositivo GNBD nos clientes. Comando para criao, exportao e gerenciamento GNBDs num servidor GNBD.
fence_ack_manual fence_node fence_xvm fence_xvmd fence_tool fenced DLM libdlm.so.<version number> gfs.ko
GFS
gfs_quota gfs_tool
54
Componentes de Cluster
Funo
Descrio Comando para importar e gerenciar os GNBDs num cliente GNBD. Um servidor daemon que permite um n exportar o armazenamento local na rede. This is the controlling process which starts all other daemons related to LVS routers. At boot time, the daemon is started by the /etc/rc.d/ init.d/pulse script. It then reads the configuration file /etc/sysconfig/ ha/lvs.cf. On the active LVS router, pulse starts the LVS daemon. On the backup router, pulse determines the health of the active router by executing a simple heartbeat at a user-configurable interval. If the active LVS router fails to respond after a user-configurable interval, it initiates failover. During failover, pulse on the backup LVS router instructs the pulse daemon on the active LVS router to shut down all LVS services, starts the send_arp program to reassign the floating IP addresses to the backup LVS router's MAC address, and starts the lvs daemon. O daemon lvs executa o roteador LVS ativo, uma vez chamado pelo pulse. Ele l o arquivo de configurao /etc/ sysconfig/ha/lvs.cf, chamando a utilidade ipvsadm para construir e manter a tabela de roteamento IPVS, e atribuir um processo nanny para cada servio LVS configurado. Se o nanny reportar que o servidor real est fora de operao, o lvs instrui a utilidade ipvsadm para remover o servidor real de uma tabela de roteamento IPVS. Este servio atualiza a tabela de roteamento IPVS no kernel. O daemon lvs configura e administra o LVS pela chamada ipvsadm para adicionar, mudar, ou deletar as entradas numa tabela de roteamento IPVS. O monitoramento daemon nanny executa o roteador LVS ativo. Atravs deste deamon, o roteador LVS ativo
LVS
pulse
lvsd
ipvsadm
nanny
55
Funo
Componentes
Descrio determina o health de cada servidor e, opcionalmente, monitora esta carga de trabalho. Um processo separado atua em cada servidor definido para cada servidor real.
lvs.cf
Este o arquivo de configurao LVS. O caminho completo para este arquivo o seguinte: /0etc/sysconfig/ha/ lvs.cf. Todos os daemons adquirem a informao de configurao por este arquivo diretamente ou indiretamente. Esta a ferramenta baseada na web para monitoramento, configurao e administrao do LVS. Esta a ferramenta padro para manter o arquivo /etc/sysconfig/ha/lvs.cf de configurao LVS. Este programa envia difuses seletivas quando o endereo IP flutuante muda de um n para outro durante a falha. Um disco baseado em qurum deamon para o CMAN / Linux-Cluster. Utilidade de Disco Qurum de Cluster Disco Qurum de Cluster Daemon
send_arp
Disco Qurum
Tabela 2.1. Red Hat Cluster Suite Software Subsystem Components ( Componentes de Subsistema de Software )
56
Pginas Man
mkqdisk (8) - Utilidade de Disco Qurum de Cluster; qdiskd (8) - Disco Qurum de Cluster Daemon; fence_ack_manual (8) - programa executado por um operador como parte do manual de fence I/ O; fence_apc (8) - Agente fence para o APC MasterSwitch; fence_bladecenter (8) - Agente fence I/O para o IBM Bladecenter; fence_brocade (8) - Agente fence I/O para as tomadas Brocade FC; fence_bullpap (8) - Agente fence I/O para a arquitetura controlado por um console gerenciado PAP; fence_drac (8) - Agente fence para o Carto de Acesso Remoto Dell; fence_egenera (8) - Agente fence I/O para a Egenera BladeFrame; fence_gnbd (8) - Agente fence I/O para o GNBD baseado em clusters GFS; fence_ilo (8) - Agente fence I/O para o HP Integrated Lights Out card; fence_ipmilan (8) - Agente fence I/O para as mquinas controladas por IPMI sobre LAN; fence_manual (8) - programa executado pelo fence como parte do manual de fence I/O; fence_mcdata (8) - Agente fence I/O para as tomadas McData FC; fence_node (8) - Um programa que atua no fence I/O para um nico n; fence_rib (8) - Agente fence I/O para o Compaq Remote Insight Lights Out card; fence_rsa (8) - Agente fence I/O para o IBM RSA II; fence_sanbox2 (8) - Agente fence I/O para as tomadas QLogic SANBox2 FC; fence_scsi (8) - Agente fence I/O para as reservas de persistncia SCSI; fence_tool (8) - Um programa para unir e sair do domnio fence; fence_vixel (8) - Agente fence I/O para as tomadas Vixel FC; fence_wti (8) - Agente fence I/O para o WTI Network Power Switch; fence_xvm (8) - Agente fence I/O para as mquinas virtuais Xen; fence_xvmd (8) - Agente fence I/O anfitrio para as mquinas virtuais Xen; fenced (8) - o fence I/O daemon. Gerenciador de Servio de Alta Disponibilidade clusvcadm (8) - Utilidade de Administrao do Servio de Usurio de Cluster; clustat (8) - Utilidade de Status de Cluster;
57
Clurgmgrd [clurgmgrd] (8) - Grupo de Recurso Gerenciador ( Servio de Cluster ) Daemon; clurmtabd (8) - Tabela de Montagem Remota NFS de Cluster Daemon. GFS gfs_fsck (8) - Sistema de checagem do arquivo GFS off-line; gfs_grow (8) - Expande o sistema de arquivo GFS; gfs_jadd (8)- Adiciona relatrios ao sistema de arquivo GFS; gfs_mount (8) - opes de montagem GFS; gfs_quota (8)- Manipula as cotas de disco GFS; gfs_tool (8) - interface para as chamadas gfs ioctl; Gerenciador de Volume Lgico de Cluster clvmd (8) - o LVM de cluster daemon; lvm (8) - ferramentas LVM2; lvm.conf [lvm] (5) - Arquivo de configurao para o LVM2; lvmchange (8) - muda as caractersticas do gerenciador de volume lgico; pvcreate (8) - inicia um disco ou partio para ser usado pelo LVM; lvs (8) - relata informao sobre os volumes lgicos. Dispositivo de Bloqueio da Rede Global gnbd_export (8) - a interface para exportar os GNBDs; gnbd_import (8) - manipula os dispositivos de bloqueio de um cliente; gnbd_serv (8) - servidor gnbd daemon. LVS pulse (8) - heartbeating daemon para monitorao do health de ns de cluster; lvs.cf [lvs] (5) - arquivo de configurao para o lvs; lvscan (8) - rastreia ( todos os discos ) de volumes lgicos; lvsd (8) - daemon para o controle dos servios de clustering Red Hat; ipvsadm (8) - administrao do Servidor Virtual Linux; ipvsadm-restore (8) - restaura a tabela IPVS do stdin; ipvsadm-save (8) - salva a tabela IPVS para stdout; nanny (8) - ferramenta para monitar o status do servio num cluster;
58
send_arp (8) - ferramenta para notificar a rede sobre um novo endereo IP / endereo de mapeamento MAC;
59
60
61
62
ndice Remissivo
C
cluster displaying status, 38 cluster administration displaying cluster and service status, 38 cluster component compatible hardware, 59 cluster component man pages, 56 cluster components table, 51 Cluster Configuration Tool accessing, 37 cluster service displaying status, 38 command line tools table, 38 compatible hardware cluster components, 59 Conga overview, 32 Conga overview, 32
O
overview economy, 15 performance, 15 scalability, 15
P
Piranha Configuration Tool CONTROL/MONITORING, 40 EDIT MONITORING SCRIPTS Subsection, 49 GLOBAL SETTINGS, 41 login panel, 40 necessary software, 39 REAL SERVER subsection, 47 REDUNDANCY, 43 VIRTUAL SERVER subsection, 45 Firewall Mark , 46 Persistence , 46 Scheduling , 46 Virtual IP Address , 46 VIRTUAL SERVERS, 44
F
feedback, ix
R
Red Hat Cluster Suite components, 51
I
introduction, v other Red Hat Enterprise Linux documents, v
T
table cluster components, 51 command line tools, 38
L
LVS direct routing requirements, hardware, 30 requirements, network, 30 requirements, software, 30 routing methods NAT, 29 three tiered high-availability cluster, 28
M
man pages cluster components, 56
N
NAT routing methods, LVS, 29 network address translation (Ver NAT)
63
64