Вы находитесь на странице: 1из 9

==================================================================

==================================================================
==
==
== INSTALACION DE SERVIDORES REDHAT ENTERPRISE LINUX SERVER 5.1 ==
==
==
==================================================================
==================================================================
RAID:
Si necesitamos configurar el RAID de los discos adjunto un pequeo manual
ConfiguracionRAID.pdf
===========================
SISTEMA OPERATIVO:
Para la instalacion del sistema operativo necesitamos los 3 cd's de Red Hat
Enterprise Linux Server 5.1
Adjunto los ISO's de Red Hat Enterprise Linux Server 5.1 y video de instalacion
Rhel51Server.wmv
Idioma: Ingles
Teclado: Latino Americano
Se solicitara los 3 primeros CD's
Particiones:
/boot
100
/
10000
swap
2048
/home
1024
/local
Todo

Primaria
Primaria
Primaria

Rhel51-redasistencial.hospital.essalud
Programas:
Desktop Environments:-- GNOME Desktop Environment
Applications:---------- Editors
Texto Base
Development:----------- Development Tools
Java Development
Servers:--------------- FTP Server
Web Server
Windows File Server (samba)
Base System:----------- Administration Tools
Base
Dialup Networking Support
Java
X Window System
Languages:------------- Spanish Support
Ver observaciones en el correo
Security Level: Disabled
SELinux: Disabled
===========================
ABI:
Creamos la carpeta abi en /lib/modules/2.6.18-53.el5
cd /lib/modules/2.6.18-53.el5
mkdir abi
cd abi

Copiamos el zipiado ibcs-3_7.gz /lib/modules/2.6.18-53.el5/abi y lo


descomprimimos
cp /tmp/migra/abi/ibcs-3_7.gz /lib/modules/2.6.18-53.el5/abi/
tar -zxvf ibcs-3_7.gz
Ejecutemos MAKE:
make
Ejecutamos el SHELL:
sh abi_ldr
Verificamos la Instalacion:
lsmod | grep abi
----abi_wyse
19200 0
abi_uw7
26112 0
abi_solaris
27776 0
abi_isc
19072 0
abi_ibcs
18304 0
abi_sco
25728 0
abi_cxenix
12800 1 abi_sco
abi_svr4
82452 7
abi_wyse,abi_uw7,abi_solaris,abi_isc,abi_ibcs,abi_sco,abi_cxenix
abi_lcall
13076 10
abi_wyse,abi_uw7,abi_solaris,abi_isc,abi_ibcs,abi_sco,abi_cxenix,abi_svr4,binfmt
_xout,binfmt_coff
abi_util
6916 8
abi_wyse,abi_uw7,abi_sco,abi_cxenix,abi_svr4,binfmt_xout,binfmt_coff,abi_lcall
-----Editamos rc.local
vi /etc/rc.d/rc.local
Agregamos en la ultima linea
/lib/modules/2.6.18-53.el5/abi/abi_ldr
En este caso te voy a pasar la version 3.8 del ibcs que ya he modificado para
que no muestre el error del sco tape en el /var/log/messages
Creamos las siguientes carpetas en /local
cd /local
mkdir -p bin/sgh
mkdir -p db/sgh/backup db/sgh/data db/sgh/histo db/sgh/spool db/sgh/datacen
db/sgh/procesos
mkdir -p db/tmpfox/sortwork db/tmpfox/tmpfiles
mkdir foxpro
mkdir backup
Dentro de local/bin/sgh copiamos los directorios de los modulos...
FOXPRO
Copiamos en /local el archivo foxpro.tgz y lo descomprimimos
tar -xvf foxpro.tgz
Link:
Creamos los siguientes link en /usr/lib
cd /usr/lib
ln -s /local/foxpro
ln -s /usr/share/terminfo
Probamos el fox:
Copiamos el archivo fox en /bin

===========================
Editamos:
vi /etc/skel/.bash_profile
Nos debe quedar como las lineas de abajo:
----------------# .bash_profile
# Get the aliases and functions
if [ -f ~/.bashrc ]; then
. ~/.bashrc
fi
# User specific environment and startup programs
PATH=$PATH:$HOME/bin:/bin:/usr/bin:/local/foxpro:.
export PATH
# TZ=CST6CDT
TZ=EST5EDT
export TZ
#unset PATH
SGHPATH=/u3/gh5/ru
SGHFXP=/u3/gh5/ru/essalud.fxp
SIXUSER=$LOGNAME
SIXCFG=/tmp
TOPE=3
USUARIO=`who | grep -c $LOGNAME`
#ulimit -u 16384 -n 63536
if [ $USUARIO -gt $TOPE ]
then
echo "No puede abrir mas de 3 sesiones..."
sleep 7
exit 0
else
cd $SGHPATH
/local/foxpro/foxpro.pr $SGHFXP 2>/dev/null
exit 0
fi
----------------===========================
Editamos:
vi /etc/profile
Agregamos las lineas siguientes:
----------------##### Inicio de agregado para SGH
export PATH=$PATH:/local/foxpro:/u3/gh5/java
export SIXUSER=PLAN03
export SIXCFG=/u3/gh5/ru
export FOXTERM=at386.tn
##### Fin de agregado para SGH
----------------===========================
AT386.TN:
Copiamos en /usr/share/terminfo/a
el archivo at386.tn

===========================
U3/GH5:
En la raiz creamos el direcctorio u3
cd /
mkdir u3
Ingresamos a /u3 y creamos el link gh5:
cd /u3
ln -s /local/bin/sgh gh5
LINK EN /LOCAL/BIN/SGH:
Creamos los siguientes link en /local/bin/sgh
cd /local/bin/sgh
ln -s /local/db/sgh/data data
ln -s /local/db/sgh/spool spool
ln -s /local/db/sgh/histo histo
ln -s /local/db/sgh/backup backup
ln -s /local/db/sgh/datacen datacen
===========================
CONFIG.FPU:
Copiamos config.fpu a /local/foxpro
GRUPO ESSALUD:
Creamos el grupo essalud
groupadd essalud
SYSCTL
Editamos vi /etc/sysctl.conf y modificamos las siguientes variables:
-----------------# Controls the maximum shared segment size, in bytes
kernel.shmmax = 4294967295
# Controls the maximum number of shared memory segments, in pages
kernel.shmall = 2294967296
kernel.shmmni = 4096
fs.file-max = 6553600
net.ipv4.ip_local_port_range = 1024 65000
kernel.sem = 250 32000 100 128

En este caso, el parametro kernel.shmall = 2294967296, es un poco exagerado,


deberia quedarse con el default que define red hat durante la instalacion. Solo
se deberia modificar lo indicado en rojo, si es que no tiene esos valores.
===========================
Del servidor de gestion copiamos:
/home
/local/bin/sgh
/local/db/sgh
(*)
Deben generar un directorio de migracion un un FS que tenga espacio y desde ese
directorio deben de hacer el backup.
Ejm. Mkdir /local/migrar
cd /local/migrar
tar -czvf home.tar.gz /home
tar -czvf data.tar.gz /local/db/sgh/data

tar cpvf bin.tar.gz /local/bin/sgh


Esos tres archivos : home.tar.gz, data.tar.gz y
al nuevo servidor y luego descomprimidos como:
cd /
tar -xzvf home.tar.gz
tar -xzvf data.tar.gz
tar xvf bin.tar.gz

bin.tar.gz deben ser llevados

TELNET:
Modificamos los siguientes parametros:
------------vi /etc/xinetd.d/telnet
# default: on
# description: The telnet server serves telnet sessions; it uses \
#
unencrypted username/password pairs for authentication.
service telnet
{
disable = no
flags
= REUSE
socket_type
= stream
wait
= no
user
= root
instances
= UNLIMITED
per_source
= UNLIMITED
cps
= 200 5
server
= /usr/sbin/in.telnetd
log_on_failure += USERID
}

El telnet quedaria descartado si es que se estandariza el uso de ssh.


===========================
RPM
Copiamos el contenido de la carpeta RPMs a la carpeta /root
Instalamos los siguientes RPMs de la manera siguiente:
rpm -ivh nmap-4.11-1.1.i386.rpm
rpm -ivh xinetd-2.3.14-10.el5.i386.rpm
rpm -ivh telnet-server-0.17-38.el5.i386.rpm
Esto no seria necesario si sigues las observaciones hechas en el correo.
===========================
CRONTAB
Copiamos el contenido de la carpeta SH a la carpeta /root
Luego editamos el crontab con crontab -e y copiamos las siguientes lineas
------------00 05 * * * sh /root/borra_temp.sh
10 05 * * * sh /root/borra_tdata.sh
15 05 * * * sh /root/borra_tmpfox.sh
00 01 * * * sh /root/borra_respaldo.sh
25 01 * * * wall Por favor salir del sistema Proceso de BACKUP
30 01 * * * sh /root/backup.sh
15 05 * * * sh /root/bat_lprm.sh
00 01 * * * sh /root/flojo.sh
-------------

CAMBIA PEROMISOS:
Copiamos cambia_permiso a /root y le damos los permisos necesarios.
chown bin cambia_permiso
chgrp bin cambia_permiso
chmod +x cambia_permiso
SGH
Copiamos sgh en /usr/bin/sgh (Te permite iniciar gestion escribiendo sgh)
cd /usr/bin/
----------------------Copiamos el sixweb.conf en /etc
Este archivo nos permitira conectarnos al oracle (Consulta al host)
===========================
HOME
Para el backup del home nos vamos hasta cd /home y ejecutamos:
tar -czvf home.tar.gz /home
Con este comando, cuando hagas el tar, se va a autocomprimir tambien el archivo
home.tar.gz que estas generando haciendo mas pesado el archivo generado. Debes
hacerlo segun lo indicado en (*)
El archivo generado lo copiamos en la raiz del nuevo servidor y ejecutamos:
tar -xzvf home.tar.gz
Adicionalmente tenemos que copiarnos de /etc lo siguiente:
passwd
passwdshadow
shadowEsto no funciona asi, no es que simplemente copias los archivos, pues estarias
reemplazando los ya existentes y ten por seguro que los usuarios de sistema
entre ambos servidores son distintos, para pasar esto hay un procedimiento que
te permite pasar los usuarios de un sistema a otro, pero teniendo en cuenta cual
es el primer UID utilizado por el sistema, que supongo debe ser 500. El
procedimiento lo estoy anexando al final.
===========================
Servicios:
service
service
service
service

xinetd restart
cups restart
vsftpd restart
httpd restart

chkconfig
chkconfig
chkconfig
chkconfig
chkconfig

xinetd on
telnet on
cups on
vsftpd on
httpd on

===========================
* Usuarios en samba
Tendremos que crear los usuarios primero en Linux:
useradd publico -g essalud
passwd publico
smbpasswd -a publico

smbpasswd publico
service smb restart
chkconfig smb on
===========================
IMPRESION:
Editamos
vi /etc/cups/mime.convs
Nos vamos hasta el final, la penultima linea de texto, la descomentamos, quedara
de la siguiente manera:
----------------------application/octet-stream

application/vnd.cups-raw

----------------------Finalmente reiniciamos el servicio:


service cups restart
===========================
SH Flojo
Nos permite borrar las impresiones no ejecutadas, si el servidor supera las 500
impresiones se paraliza el sistema de impresion.
Se ejecutara por medio del cron 2 veces al dia, pero podemos ejecutarlos
manualmente tambien.
Copiamos en la carpeta /root
bat_lprm.sh
flojo.sh
Podemos verificar si tenemos impresiones encoladas con el siguiente comando:
lpq -a | wc
Ejecutamos:
./bat_lprm.sh
===========================
Link web:
cd /var/www/html
ln -s /local/bin/sgh/sapcesal/rep/ sapcesal
ln -s /local/db/sgh/procesos/ procesos
===========================
Copiamos el sixweb.conf en /etc
===========================
Verificamos el .bash_profile de los usuarios:
CITT:
SGHPATH=/u3/gh5/ru
SGHFXP=/u3/gh5/citt4/citt0004.fxp
SAPCESAL:
SGHPATH=/u3/gh5/ru
SGHFXP=/u3/gh5/sapcesal/prg/sapcesal.fxp

===========================
HOSTS: Modificamos el etc hosts con la siguiente estructura, el IP y siglas
varian segun el hospital.
EJEMPLO:
Editamos:
vi /etc/hosts
------------# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1
sgh-reba
localhost.localdomain
localhost
172.22.40.5
sgh-reba.lima.essalud.gob.pe
::1
localhost6.localdomain6 localhost6
127.0.0.1
sgh.citas.db
172.20.0.167
gxColasJbossMain
No guarda concordancia con la definicion al inicio del documento, pues ahi pones
como nombre de servidor Rhel51-redasistencial.hospital.essalud.
============================================
Procedimiento para migrar usuarios:
Servidor Antiguo a migrar (Red Hat 8)
======================================

Creamos un directorio donde poner los archivos de usuarios:


# mkdir /root/move/

Fijamos el limite de UID (esto se puede ver en /etc/login.defs):


# export UGIDLIMIT=500

Copiamos lo siguiente /etc/passwd hacia /root/move/passwd.mig usando awk para


filtrar los usuarios de sistema
# awk -v LIMIT=$UGIDLIMIT -F: '($3>=LIMIT) && ($3!=65534)' /etc/passwd >
/root/move/passwd.mig

Ahora con el archivo /etc/group:


# awk -v LIMIT=$UGIDLIMIT -F: '($3>=LIMIT) && ($3!=65534)' /etc/group >
/root/move/group.mig

Ahora el archivo /etc/shadow :

# awk -v LIMIT=$UGIDLIMIT -F: '($3>=LIMIT) && ($3!=65534) {print $1}'


/etc/passwd | tee - |egrep -f - /etc/shadow > /root/move/shadow.mig

Copiamos /etc/gshadow (aunque se usa muy raramente):


# cp /etc/gshadow /root/move/gshadow.mig

Copiamos todos los archivos generados en /root/move hacia el nuevo servidor


(RHEL 5.1)
# scp -r /root/move user@172.20.20.20:

En el nuevo servidor (RHEL 5.1)


======================================

Primero hacemos un backup de los usuarios existentes:


# mkdir /root/newsusers.bak
# cp /etc/passwd /etc/shadow /etc/group /etc/gshadow /root/newsusers.bak

Ahora agregamos los nuevos usuarios traidos del antiguo servidor:


# cd /root/move
# cat passwd.mig >> /etc/passwd
# cat group.mig >> /etc/group
# cat shadow.mig >> /etc/shadow
# cp gshadow.mig /etc/gshadow

# reboot
Debes tener en cuenta que, si en el paso del primer reinicio del sistema durante
la instalacion, generaste un usuario del sistema, este por defecto tendra el UID
500, por lo que si en el antiguo servidor hay un usuario con UID 500, tendras un
conflicto con estos usuarios, para esto, simplemente quitas el usuario con UID
500 del antiguo servidor y luego lo generas manualmente.

Вам также может понравиться