Вы находитесь на странице: 1из 14

1.Introduo.......................................................................................................................

3
2.Objetivos.........................................................................................................................3
3.Justificativas...................................................................................................................3
4.Reviso Temtica............................................................................................................3
4.1.Definio de Clusters...............................................................................................3
4.2.Tipos.........................................................................................................................3
4.2.1.Cluster de Alta Performance.............................................................................3
4.2.2.Cluster de Alta Disponibilidade........................................................................3
4.3.Aplicaes................................................................................................................3
5.Implantao....................................................................................................................3
5.1.Pr-requisitos...........................................................................................................3
5.2.Equipamento disponvel...........................................................................................4
5.3.Ambiente..................................................................................................................4
6.Instalao........................................................................................................................4
6.1.Instalao do N Master..........................................................................................4
6.1.1.Sistema Operacional..........................................................................................4
6.1.2.Network Time Protocol.....................................................................................6
6.1.3.Servidor NFS ....................................................................................................7
6.1.4.Servidor NIS .....................................................................................................8
6.1.5.Servidor DHCP...............................................................................................10
6.1.6.SSH..................................................................................................................11
6.1.7.Ambiente PXE.................................................................................................11
6.1.8.Segurana bsica.............................................................................................13
6.1.8.1.Firewall.....................................................................................................13
6.1.8.2.SELinux....................................................................................................14
6.1.8.3.TCP Wrappers...........................................................................................15
6.1.8.4.Sudo..........................................................................................................15
6.1.9.Cluster Softwares............................................................................................16
6.1.9.1.Alto desempenho......................................................................................16
6.1.9.1.1.OpenMPI............................................................................................16
6.1.9.1.2.PVM...................................................................................................16
6.1.9.1.3.Parallel Python...................................................................................16
6.1.9.2.Alta disponibilidade..................................................................................17
6.1.9.2.1.Red Hat Piranha.................................................................................17
6.1.10.Bibliotecas.....................................................................................................17
6.1.10.1.GEOS/PROJ4.........................................................................................17
6.1.10.2.GeoTiff....................................................................................................17

6.1.10.3.SQLite e extenses espaciais..................................................................17


6.1.10.4.GDAL.....................................................................................................17
6.1.10.5.GRASS...................................................................................................17
6.1.10.6.Mapserver...............................................................................................18
6.1.11.Instalao de Programas de Administrao...................................................18
6.1.11.1.Webmin...................................................................................................18
6.1.11.2.Munin Monitor........................................................................................18
6.2.Instalao dos Ns Slaves......................................................................................18
6.2.1.Kickstart File...................................................................................................18
6.2.2.Processo de boot remoto.................................................................................18
7.Administrao do Cluster.............................................................................................18
8.Referencias...................................................................................................................18

LISTA DE ABREVIAES
NTP
NFS
NIS
DHCP
SSH
PHP
PXE
GEOS
PROJ4
GDAL/OGR
GRASS

Network Time Protocol


Network File System
Network Information Services
Dynamic Host Configuration Protocol
Secure Shell
Hypertext Preprocessor
Preboot Execution Environment
Geometry Engine Open Source
Cartographic Projections Library
Geospatial Data Abbstraction Layer
Geographic Resources Analysis Support System

1. Introduo

2. Objetivos

3. Justificativas

4. Reviso Temtica
4.1.

Definio de Clusters

4.2.

Tipos

4.2.1.

Cluster de Alta Performance

4.2.2.

Cluster de Alta Disponibilidade

4.3.

Aplicaes

5. Implantao
5.1.

Pr-requisitos

5.2.

Equipamento disponvel

5.3.

Ambiente

6. Instalao
6.1.

Instalao do N Master

6.1.1.

Sistema Operacional

Instalao do Scientific Linux 6.1, Kernel 2.6.32


Idioma: Portugus (Brasil)
Teclado: Brasil (ABNT2)
Fuso Horrio: Amrica/So Paulo (Relgio do sistema no utiliza UTC)
Definio de Senha de root
Definio de Parties
Partio
Ponto de montagem Tamanho (GB)
Sistema de arquivos
swap
6
swap
lv_root
/
2
ext4
lv_opt
/opt
10
ext4
Lv_tmp
/tmp
10
ext4
lv_usr
/usr
15
ext4
lv_var
/var
5
ext4
lv_webroot
/var/www
10
ext4
Selecionar modo de instalao para Web-server
Habilitar todos as extenses para PHP e desmarcar os grupos Estrutura de Aplicativo
Turbogears e Mquina da Servidor Web (Tomcat), instalar X Window System,
Suporte Cientifico e Yum repositories (marcar todos os repositrios e depois desabilitlos por padro)
Adicionar configuraes de proxy no /etc/profile.d em arquivos .sh e .csh
# proxy.sh
export http_proxy=http://10.19.2.139:3128/
export ftp_proxy=http://10.19.2.139:3128/
# proxy.csh
setenv http_proxy=http://10.19.2.139:3128/
setenv ftp_proxy=http://10.19.2.139:3128/
Habilitar o proxy para o gerenciador YUM (funciona para o repositrio epel)
[root@masternode ~]# vim /etc/yum.conf
proxy=http://10.19.2.139:3128/
Adicionar o diretrio /usr/local/lib ao ldconfig
[root@masternode ~]# echo "/usr/local/lib" > /etc/ld.so.conf.d/local.conf
Adicionar o pacote Atomic Release para atualizar o SQLite.
Pacotes a adicionar:
yum y install gcc gcc-c++ gcc-gfortran gcc-objc gcc-objc++ swig libtool opensshclients vim-X11 rsync wget make unzip python-devel python-paver python-setuptools
Rede - Esquema de endereamento
Mscara de
Rede
N Master
Hostname
Domnio
subrede
192.168.20.0
192.168.20.1
255.255.255.0
masternode
cluster
Servidor Web
chkconfig httpd on
service httpd start
Instalao do Drupal 7.10 para ser o site do cluster

6.1.2.

Network Time Protocol

O Network Time Protocol (NTP) um protocolo para sincronizao dos relgios dos
computadores atravs do protocolo UDP (porta 123), ou seja, ele define um jeito para
um grupo de computadores conversarem entre si e acertar seus relgios, baseados em
alguma fonte confivel de tempo. Com o NTP fcil manter o relgio do computador
sempre com a hora certa, com exatido por vezes melhor que alguns milsimos de
segundo.
de grande importncia que os ns do cluster possuam a mesma hora de sistema. Para
isso necessrio determinar um servidor NTP para que os ns do Cluster sincronizem a
data e hora entre si. Seria muito esquisito se, dentro de uma transferncia de dados, um
arquivo fosse transferido de um n e chegassem 5 segundos adiantados em outro n.
Segundo Pitanga (2008), a sincronizao de relgios til para determinao de
desempenho, auditoria, ordenao de eventos, escalonamento de tarefas, dentre outros.
Nesta seo ser mostrado como foi configurado o servio NTP, considerando que o
pacote foi instalado junto com o sistema operacional, caso contrrio, no repositrio
principal do Scientific Linux consta o pacote ntp e ntpdate, que pode ser instalado pelo
YUM. Abaixo segue os passos executados:
Instalar o NTP Server e habilitar a inicializao automtica junto com o
sistema
[root@masternode ~]# chkconfig ntpd on
Editar o arquivo /etc/ntp.conf para habilitar os ns do cluster acessem o
servidor NTP, para a sincronizao de hora e data, sem permisses de
modificao.
Ainda em modo de edio, substituir os servidores NTP padro da
distribuio por servidores localizados no Brasil (NTP Pool Project,
2011).
(http://www.pool.ntp.org/zone/br).
[root@masternode ~]# vim /etc/ntp.conf
# Hosts on local network are less restricted.
restrict 192.168.20.0 mask 255.255.255.0 nomodify notrap
# Use public servers from the pool.ntp.org project.
# Please consider joining the pool (http://www.pool.ntp.org/join.html)
# http://www.ntp.br/NTP/MenuNTPLinuxBSD
server 0.br.pool.ntp.org
server 1.br.pool.ntp.org
server 0.south-america.pool.ntp.org
Sincronizar o relgio com o servidor NTP pblico, caso necessrio.
[root@masternode ~]# ntpdate pool.ntp.org
Sincronizar o relgio do sistema operacional com o relgio do hardware
(BIOS).
[root@masternode ~]# hwclock --systohc --localtime
Iniciar o servio ntpd.
[root@masternode ~]# service ntpd start
6.1.3.

Servidor NFS

Pacote a ser utilizado: nfs-utils (j instalado na verso web-server)


Editar /etc/exports

[root@masternode ~]# vim /etc/exports


/home
192.168.20.0/255.255.255.0(rw,async)
/usr/local 192.168.20.0/255.255.255.0(rw,async,no_root_squash)
/cluster 192.168.20.0/255.255.255.0(rw,async,no_root_squash)
Editar /etc/syconfig/nfs para tornar as portas NFS(v3) estticas
vim /etc/sysconfig/nfs
RQUOTAD_PORT=875
LOCKD_TCPPORT=32803
LOCKD_UDPPORT=32769
MOUNTD_PORT=892
STATD_PORT=662
STATD_OUTGOING_PORT=2020
Adicionar servio NFS para inicilaizao automtica e inicia-lo.
[root@masternode ~]# chkconfig nfs on
[root@masternode ~]# service rpcbind restart
[root@masternode ~]# service nfs start
6.1.4.

Servidor NIS

Pacotes a serem utilizados: yp-tools ypbind ypserv rpcbind


Editar o arquivo /etc/yp.conf
[root@masternode ~]# vim /etc/yp.conf
domain cluster server masternode
ypserver masternode
Editar o arquivo /etc/sysconfig/network e adicionar as entradas correspondentes ao
servidor NIS
[root@masternode ~]# vim /etc/sysconfig/network
NISDOMAIN=cluster
Definir os nomes do domnio da rede e do domnio NIS
[root@masternode ~]# domainname cluster
[root@masternode ~]# ypdomainname cluster
Reiniciar os servios rpcbind, nfs e ypserv
[root@masternode ~]# service rpcbind restart
[root@masternode ~]# service ypserv start
[root@masternode ~]# service nfs start
Testar o servio NIS
[root@masternode ~]# rpcinfo u localhost ypserv
# sada do comando
program 100004 version 1 ready and waiting
program 100004 version 2 ready and waiting
Inicializar o banco de dados do servidor NIS e adicion-lo para inicializao junto ao
sistema
[root@masternode ~]# /usr/lib64/yp/ypinit m <Ctrl + D>
[root@masternode ~]# chkconfig ypserv on

6.1.5.

Servidor DHCP

Pacotes a serem utilizados: dhcp


Editar o arquivo /etc/dhcp/dhcpd.conf (http://linux.die.net/man/5/dhcpd.conf)
[root@masternode ~]# vim /etc/dhcp/dhcpd.conf
ddns-update-style none;
allow booting;
subnet 192.168.20.0 netmask 255.255.255.0 {
authoritative;
range 192.168.20.2 192.168.20.255;
option routers 192.168.20.1;
option subnet-mask 255.255.255.0;
option domain-name cluster;
option nis-domain cluster;
option domain-name-servers 10.19.2.71, 10.19.2.72;
}
Editar o arquivo /etc/sysconfig/dhcpd
DHCPDARGS=eth1
Adicionar dhcpd para carregar com o sistema e iniciar o servio
[root@masternode ~]# chkconfig dhcpd on
[root@masternode ~]# service dhcpd start
6.1.6.

SSH

Pacotes a serem utilizados: openssh openssh-clients


O servidor SSH j vem instalado por padro
Gerar chaves de identificao, no local padro (/root/.ssh/) e sem passphrase.
[root@masternode ~]# ssh-keygen t rsa
Copiar a chave pblica para o diretrio NFS /shared e defin-la com acesso de leitura e
escrita apenas para o usurio root.
[root@masternode ~]# mkdir shared
[root@masternode ~]# chmod 600 ~/shared
[root@masternode ~]# cp ~/.ssh/id_rsa.pub ~/shared/authorized_keys
[root@masternode ~]# chmod 600 ~/shared/authorized_keys
Adicionar no arquivo /etc/ssh/ssh_config para a configurao do cliente SSH. (A
configurao para no utilizar o arquivo /etc/ssh/known_hosts do nodemaster)
[root@masternode ~]# vim /etc/ssh/ssh_config
Host computenode??.cluster 192.168.20.*
StrictHostKeyChecking no
UserKnownHostsFile /dev/null
6.1.7.

Ambiente PXE

http://linux.die.net/man/5/dhcp-options
http://www.iana.org/assignments/bootp-dhcp-parameters/bootp-dhcp-parameters.xml
Pacotes a serem utilizados: xinetd tftp-server syslinux httpd

Instalar o tftp-server
Editar o arquivo /etc/xinetd.d/tftp, e habilit-lo
[root@masternode ~]# vim /etc/xinetd.d/tftp
disable = no
Adicionar xinetd para carregar com o sistema e iniciar o servio
[root@masternode ~]# chkconfig xinetd on
[root@masternode ~]# service xinetd start
Criar os seguintes diretrios
[root@masternode ~]# mkdir p /tftpboot/images/scientific/x86_64/6.1
[root@masternode ~]# mkdir /tftpboot/pxelinux.cfg
Copiar os seguintes arquivos
# Syslinux
[root@masternode ~]# cp /usr/share/syslinux/menu.c32 /tftpboot
[root@masternode ~]# cp /usr/share/syslinux/pxelinux.0 /tftpboot
# Boot pela rede (arquivos do DVD do SL 6.1)
[root@masternode ~]# mount t iso9660 /dev/scd0 /mnt
[root@masternode ~]# cp /mnt/images/pxeboot/initrd.img
/tftpboot/images/scientific/x86_64/6.1
[root@masternode ~]# cp /mnt/images/pxeboot/vmlinuz
/tftpboot/images/scientific/x86_64/6.1
Copiar o DVD do Scientific Linux para o diretrio web
[root@masternode ~]# mkdir p
/var/www/html/install/scientific/x86_64/6.1/
[root@masternode ~]# cp R /mnt/* /var/www/html/install/scientific/x86_64/6.1/
Criar arquivo /tftpboot/pxelinux.cfg/default com o seguinte contedo
default scientific
label scientific
kernel images/scientific/x86_64/6.1/vmlinuz
append initrd=images/scientific/x86_64/6.1/initrd.img ramdisk_size=15000
method=http://192.168.20.1/install/scientific/x86_64/6.1/
ks=http://192.168.20.1/install/scientific/x86_64/6.1/ks.cfg pxe selinux=0
Configurar DHCP para permitir conexes de boot remoto. Dentro do
/etc/dhcp/dhcpd.conf, foi inserido as seguintes diretivas.
allow bootp;
option option-128 code 128 = string;
option option-129 code 129 = text;
next-server 192.168.20.1;
filename /tftpboot/pxelinux.0;
6.1.8.

Segurana bsica

6.1.8.1. Firewall
A partir das configuraes-padro do iptables
Desabilitar o ip6tables
Apache httpd
Submeter as regras para o iptables
iptables -I INPUT 5 -p tcp --dport 80 -j ACCEPT

NAT
Hablitar redirecionamento de IP (IP forwarding) no Kernel do Linux.
[root@masternode ~]# sysctl w net.ipv4.ip_forward=1
Submeter as regras para o iptables
[root@masternode ~]# iptables -t nat -A POSTROUTING -s
192.168.20.0/255.255.255.0 d 192.168.20.1 -o eth0 -j MASQUERADE
[root@masternode ~]# iptables -I FORWARD 1 -s 192.168.20.0/255.255.255.0 -d
192.168.20.1 -i eth1 -j ACCEPT
Portas RPC (NFS e NIS): rpcinfo p
Submeter as regras para o iptables
iptables -I INPUT 6 -s 192.168.20.0/24 -d 192.168.20.1 -i eth1 -j ACCEPT
iptables -I INPUT 6 -s 192.168.20.0/24 d 192.168.20.1 i eth1 -m multiport -p tcp
--dport 111,662,875,892,2049,32803 -j ACCEPT
iptables -I INPUT 7 -s 192.168.20.0/24 d 192.168.20.1 i eth1 -m multiport -p udp
--dport 111,662,875,892,2049,32769 -j ACCEPT
Salvar e reiniciar o Firewall
service iptables save
service iptables restart
6.1.8.2. SELinux
Dever ser configurado o acesso remoto a diretrios NFS, atribuindo valores s
configuraes do SELinux, ao invs de defin-lo como permissivo, ou at mesmo
desabilitado. Para isso basta executar um dos comandos abaixo, de acordo com as
necessidades:
http://linux.die.net/man/8/nfs_selinux
[root@masternode ~]# setsebool -P nfs_export_all_rw 1 # Exportar NFS para leitura e
escrita
[root@masternode ~]# setsebool -P nfs_export_all_ro 1 # Exportar NFS para somente
leitura
setsebool -P use_nfs_home_dirs 1 # Exportar diretrio /home
NIS Server http://linux.die.net/man/8/ypbind_selinux
[root@masternode ~]# setsebool P allow_ypbind 1
6.1.8.3. TCP Wrappers
Os TCP Wrappers permitem um maior controle para que computadores acessem certos
servios/daemons. O sistema ir analisar, nesta ordem, os arquivos /etc/hosts.allow e
/etc/hosts.deny. O primeiro arquivo ser usado para liberar o acesso ao servio pela rede
e o segundo, para restringir o acesso. Se no houver correspondncia em nenhum destes
arquivos, o acesso ao servio ser permitido.
Deve-se adicionar uma regra com um nome de sub-rede ou de domnio apropriado para
o seu ambiente para restringir o acesso permitido. A sub-rede tambm pode ser
especificada como 192.168.20., se desejado ao invs de incluir a mscara de rede.
Configurao de /etc/hosts.allow
vim /etc/hosts.allow

ALL: localhost
mountd: 192.168.20.0/255.255.255.0
Configurao de /etc/hosts.deny
vim /etc/hosts.deny
rpcbind:ALL
lockd:ALL
mountd:ALL
rquotad:ALL
statd:ALL
6.1.8.4. Sudo
O Scientific Linux, quando instalado no modo Server, possui um usurio ativado por
padro: root. Este usurio possui todos os privilgios administrativos dentro do sistema,
o que representaria uma operao de risco.
O comando sudo serve para executar tarefas que so referidas ao super-usurio root. O
usurio executa um comando precedido de sudo e o sistema pede confirmao de senha
antes de faz-lo. Esta uma maneira de se aumentar um pouco a segurana a fim de
evitar que se faa alguma bobagem sem nenhuma confirmao, esconder o usurio root
de acesso direto e atribuir tarefas administrativas a alguns usurios, chamados de
sudoers. Uma prtica utilizada atribuir ao grupo wheel a funo de ser o grupo de
sudoers pois, por definio, este grupo representaria os usurios com permisses
administrativas.
O objetivo de o N Master possuir usurio(s) com permisses administrativas. O
super-usurio root estar bloqueado para login no cluster e com isso aprimorar a
segurana contra execues indevidas de programas. A atribuio de um grupo restrito
de usurios para realizar tarefas administrativas atravs do sudo relativamente simples.
Os passos a serem realizados so os enumerados abaixo.
Habilitar o grupo wheel como grupo de usurios sudoers, atravs do
comando visudo
[root@masternode ~]# visudo
## Allows members of the users group to run all commands
%wheel
ALL=(ALL)
ALL
Adicionar os usurios que tero permisses administrativas ao grupo
wheel. Executar o comando abaixo para cada usurio.
[root@masternode ~]# usermod a -G wheel nome_usuario
Bloquear login no sistema com o usurio root
[root@masternode ~]# passwd l root # Bloqueia
[root@masternode ~]# passwd u root # Desbloqueia
6.1.9.

Cluster Softwares

6.1.9.1. Alto desempenho


6.1.9.1.1.
OpenMPI
O Projeto Open MPI (www.open-mpi.org) uma implementao Open-Source da
biblioteca MPI-2, que desenvolvido e mantido por um consrcio de instituies
acadmicas, de pesquisa e parceiros da indstria. O Open MPI , portanto, capaz de
combinar os conhecimentos, tecnologias e recursos de toda a comunidade de

Computao de Alto Desempenho, a fim de construir a melhor biblioteca MPI


disponvel. O Open MPI oferece vantagens para sistemas e fornecedores de software,
desenvolvedores de aplicaes e pesquisadores de cincias da computao.
Ele usado por muitos supercomputadores TOP500, incluindo Roadrunner, que foi o
mais rpido supercomputador do mundo desde Junho de 2008 a novembro de 2009,
(Cisco, 2011) e K-computer, o supercomputador mais rpido desde junho de 2011.
6.1.9.1.2.
PVM
6.1.9.1.3.
Parallel Python
O Mdulo Parallel Python (www.parallelpython.com) um mdulo Python que prov
mecanismos de execuo paralela de cdigo Python em sistemas com mltiplos ncleos
de processamento (SMP) e tambm em ambientes de clusters. Este mdulo de cdigo
aberto e 100% escrito em Python. O mdulo totalmente interopervel e portvel,
podendo ser implementado em sistemas Unix, Windows e Mac OS-X, em arquiteturas
32 bits e 64 bits.
Segundo o desenvolvedor do mdulo, a maneira mais simples e comum para escrever
aplicaes paralelas para SMP computadores usar threads. Embora, parece que se o
aplicativo estiver utilizando os mdulos Python thread ou threading, o interpretador no
permite a execuo de cdigo Python byte-code em paralelo. A razo que interpretador
Python usa o mecanismo Global Interpreter Lock (Trava Global de Interpretador) para
contabilidade interna. Este bloqueio permite executar apenas uma instruo Python
byte-code por vez, mesmo em um computador SMP.
Parallel Python supera essa limitao e proporciona uma maneira simples de escrever
aplicaes paralelas em Python. Internamente, se faz manipulao de processos e
comunicaes inter-processos (IPC - http://docs.python.org/library/ipc.html) para
organizar computaes paralelas. Todos os detalhes e complexidade destes ltimos esto
totalmente implementados, e a aplicao apenas submete trabalhos (jobs) e recupera
seus resultados, o que permite uma maneira mais fcil de escrever aplicaes com
processamento paralelo.
Os softwares desenvolvidos com Parallel Python funcionam em paralelo mesmo em
computadores conectados via rede local ou Internet. Devido sua natureza multiplataforma e a capacidade de balanceamento de carga dinmico, possvel paralelizar
clculos de forma eficiente, mesmo em clusters heterogneos e multi-plataforma. Outras
caractersticas importantes a se destacar do Parallel Python so a alocao dinmica de
ncleos de processamento, tolerncia a falhas, auto-descoberta de recursos
computacionais e possibilidade de autenticao de rede entre os ns do cluster com
algortimos de encriptao SHA.
6.1.9.2. Alta disponibilidade
6.1.9.2.1.
Red Hat Piranha
O balanceamento de carga IP da Red Hat, disponvel no Scientific Linux 6.1,
denominado Piranha (http://www.redhat.com/software/rha/cluster/piranha/) fornece a
capacidade de equilbrio de carga de entrada de solicitaes IP em um conjunto de
servidores reais. baseado na tecnologia Linux Virtual Server
(www.linuxvirtualserver.org), com significativas melhorias da Red Hat.
6.1.10.

Bibliotecas

6.1.10.1.
GEOS/PROJ4
Estas bibliotecas so utilizadas pela grande maioria dos softwares GIS disponveis do

mercado, at mesmo os de licena comercial, ou seja, so pr-requisitos para a grande


maioria dos softwares GIS que foram instalados a partir deste trabalho, como GDAL e
Mapserver.
O GEOS (Geometry Engine Open Source) uma API C++ para Java Topology Suite
(JTS). Esta biblioteca serve para a modelagem e manipulao de dados bidimensionais.
Ela prov uma srie de objetos geomtricos e funes de anlises espaciais. O JTS est
de acordo com as especificaes de Feies Simplificadas para SQL, publicado pela
Open Geospatial Consortium (OGC). A verso escolhida a verso estvel mais
recente: 3.2.2.
O PROJ.4 a biblioteca de projees cartogrficas, escrita em C, que originalmente foi
escrita por Gerald Evenden, e depois pela USGS. Esta biblioteca possui uma grande
base de informaes de projees cartogrficas, codificadas segundo o padro EPSG, e
operaes de converses entre elas. A partir dela possvel tambm criar projees
personalizadas. A verso escolhida a verso estvel mais recente: 4.7.1.
6.1.10.2.

GeoTiff

6.1.10.3.
SQLite e extenses espaciais
O SQLite um sistema de banco de dados leve, robusto e fcil de manipular. Assim
como os arquivos MDB do Microsoft Access, ele apenas um arquivo que pode ser
copiado, comprimido, compartilhado sem nenhum tipo de complicao. Ou seja, o
SQLite simples, portvel e multiplataforma. O SQLite pode ser considerado uma
opo OpenSource interessante com relao aos famigerados "Personal/File
Geodatabase" da ESRI.
O SpatiaLite a extenso espacial do SQLite, assim como o PostGIS est para o
PostgreSQL, ambos implementam as mesmas bibliotecas GEOS e PROJ.4 para
manipulao dos objetos espaciais e seguem as especificaes da OGC. O RasterLite a
biblioteca que permite a insero e manipulao de dados Raster dentro do SpatiaLite.
Diversas ferramentas OpenSource, como o Quantum GIS, manipulam diretamente os
arquivos SQLite. Existe, disponvel no site do desenvolvedor, ferramentas teis como o
spatialite-gui e spatialite-gis para a manipulao de bases de dados SQLite.
6.1.10.4.

GDAL

6.1.10.5.

GRASS

6.1.10.6.

Mapserver

6.1.11.

6.2.

Instalao de Programas de Administrao

6.1.11.1.

Webmin

6.1.11.2.

Munin Monitor

Instalao dos Ns Slaves

6.2.1.

Kickstart File

6.2.2.

Processo de boot remoto

7. Administrao do Cluster

8. Referencias

Вам также может понравиться