Академический Документы
Профессиональный Документы
Культура Документы
Mejor uso del hardware del servidor mediante el despliegue de nuevos servidores en
mquinas virtuales, evitando aadir ms servidores fsicos infrautilizados al centro de datos.
Para obtener la titulacin VMware Certified Professional debes seguir tres pasos muy
sencillos:
1. Participar en un curso autorizado y oficial VMware para adquirir experiencia. Este curso es
impartido por un instructor oficial VMware, el cual te enseara las mejores prcticas en la
instalacin, configuracin y gestin de VMware vSphere 5.x
Los cursos aceptados son:
VMware vSphere 5.x: Install, Configure and Manage v5.x
VMware vSphere 5: Whats New (Este curso es necesario solo para los candidatos que
ya han pasado la certificacin VCP4)
2. Adquirir experiencia con los productos VMware. Aquellos profesionales que no han tenido
experiencia previa con los productos VMware, les resultar ms difcil pasar el examen VCP
510.
Asiste al curso oficial VMware vSphere 5: Install, Configure and Manage o al curso
oficial Whats New 5.
Aprueba el examen VCP510 en vSphere 5. Esta opcin, solo estar disponible hasta
el 29 de Febrero del 2012.
3. Si eres actualmente un VCP4 en VMware ESX/ESXI 4.x:
Recuerda que las preguntas mostradas en este simulacro, solo son meramente orientativas.
No obstante, te servirn para saber si ests preparado para presentarte al examen o, por el
contrario, si necesitas estudiar un poco ms y retrasar la fecha del examen.
llegar a ser, y de hecho lo es en muchos casos, inflexible e ineficiente. Esta relacin 1:1
precisamente es la que hace que servidores de muchos centros de datos que estn
infrautilizados, alcanzado tan solo el uso de entre un 5 y un 10% de los recursos fsicos de
dichos servidores.
Asimismo, el aprovisionamiento de servidores fsicos en un centro de datos es un proceso
costoso en cuanto al tiempo necesario que se dedica a aprovisionar un servidor fsico. En un
entorno no virtualizado has de dedicar tiempo a comprar nuevo hardware, enrackar los
servidores, instalar el sistema operativo y las aplicaciones.
Con el software de virtualizacin de servidores podemos transformar hardware en software.
De esta forma, podemos ejecutar diferentes sistemas operativos, como por ejemplo Windows,
Linux, Solaris, incluso MS-DOS, simultneamente y en el mismo servidor fsico. As, cada
contenedor, dotado de su sistema operativo Guest o invitado, es llamado virtual
machine (mquina virtual en ingls) o VM como acrnimo.
Pero la virtualizacin de servidores, no es un software de simulacin o emulacin, como el
software de training de Cisco que simula un router de Cisco para poder hacer prcticas, es un
software de ejecucin.
Veamos ya algunas de las diferencias importantes de esta nueva versin de VMware vSphere
con las versiones anteriores.
Primero, y quizs uno de los cambios ms importantes en vSphere 5 es que la versin
vSphere ESX ya no est disponible.
Tambin, ahora con la nueva versin de ESXi 5, es posible instalar la imagen de un ESXi 5
directamente en la memoria del host fsico usando una nueva funcionalidad llamada
vSphere Auto Deploy ESXi, de la cual hablaremos ms adelante en este libro.
VMware vSphere 5 incluye una nueva versin para su sistema de archivos llamada VMFS-5
el cual, y a diferencia de las versiones anteriores, solo incluye un block size de 1MB a la hora
de formatear el datastore.
VMware vSphere Storage Appliance - de las siglas en ingls VSA - es otra de las nuevas
funcionalidades incluidas en la esta versin. Aunque hablaremos de esta nueva funcionalidad
ms adelante, recordarte que el VSA Manager ha de ser instalado en tu servidor de vCenter
para que puedas configurar esta nueva herramienta.
VMware vSphere ESXi Dump Collector te permitir recoger todos los log score dumps de
tus servidores ESXi. Otra nueva funcionalidad en VMware vSphere 5.
Para poder ver el video tutorial de instalacin de un servidor ESXi 5 y muchos ms videos
tutoriales, entra en nuestra pgina web dedicada en exclusiva al contenido multimedia extra de
este libro en http://www.josemariagonzalez.es/video-tutoriales/formacion-vsphere-5
Alternativamente, tambin puedes ver videos tutoriales de instalacin y configuracin de
VMware vSphere ESXi 5, as como manuales, artculos y posts interesantes para preparar el
examen de certificacin oficial VCP510 en la pgina oficial del blog de virtualizacin y cloud
computing en espaol en http://www.josemariagonzalez.es/
Cmo es una mquina virtual en vSphere 5?
Asimismo, es posible tener hasta un mximo de 512 mquinas virtuales por servidor ESXi. El
nmero mximo de adaptadores SCSI para una mquina virtual es de cuatro por mquina
virtual.
A cada mquina virtual le puedes conectar un controlador IDE mximo al cual puedes
conectar hasta 4 dispositivos IDE.
En cuanto a dispositivos xHCI USB se refiere, es posible conectar hasta 20 controladores USB
por mquina virtual. Sin embargo, solo es posible conectar un dispositivo USB 3.0 por
mquina virtual. A fecha de publicacin de este libro, VMware vSphere ESXi 5 aun no
soporta dispositivos USB 3.0 conectados directamente en el servidor.
Por ltimo, puedes configurar hasta 128MB de memoria RAM destinada a la memoria de video
por mquina virtual. Asimismo, el mximo nmero de vCPUs (virtual CPUs) por host ESXi es
de 2048, siendo 25 el nmero mximo de vCPUs por core. El nmero mximo de vCPUs que
podrs asignar a tus mquinas virtuales es de 32 vCPUs. Nota que para llegar a este nmero
de vCPUs tambin el sistema operativo tiene que soportarlo.
Si estas usando este libro para prepararte el examen oficial de certificacin VCP510,
asegrate bien que conoces los mnimos y mximos de una mquina virtual y preprate para
poder responder preguntas tipo como:
Cuntos puertos serie, paralelo, CDROMs, floppies, NICs, puede llegar a tener una
mquina virtual?
Asimismo, recuerda que aunque una mquina virtual puede tener como nmero mximo 10
tarjetas virtuales, solo podrs conectar cuatro tarjetas mximo durante la creacin de tus
mquinas virtuales con el wizard de creacin de mquinas virtuales de vCenter Server 5.
VMware vSphere 5 permite crear mquinas virtuales usando dos wizards: Typical yCustom.
Si seleccionas el mtodo Typical, el wizard solo te pedir el nombre, DataStore para la
mquina virtual, sistema operativo y el tamao del disco virtual, sin embargo no tendrs la
opcin de configurar otras opciones como el nmero de vCPUs, la versin del hardware
virtual, la cantidad de memoria y un largo etctera.
Por consiguiente, es una mejor prctica seleccionar la opcin Custom para poder personalizar
de una forma ms profunda la configuracin hardware de tus mquinas virtuales.
Aviso: Recuerda que una mquina virtual en vSphere 5 soporta hardware virtual versin 8 y
que este hardware virtual no es compatible con versiones anteriores a vSphere 5. Por
consiguiente, si quieres tener un entorno mixto, ESX/ESXi 4.x y vSphere ESXi 5, has de
dejar el hardware virtual de tus mquinas virtuales con la versin 7 correspondiente a la
versin 4 de VMware vSphere ESX/ESXi 4. Para terminar con un dato ms sobre las
mquinas virtuales y su configuracin, el nmero mximo de virtual SCSI targets por mquina
virtual es de 60.
Para poder ver el video tutorial de instalacin de una mquina virtual en un servidor ESXi 5,
entra en nuestra pgina web dedicada en exclusiva a los videos tutoriales de contenido
multimedia de este libro en
http://www.josemariagonzalez.es/video-tutoriales/formacion-vsphere-5
Alternativamente, tambin puedes ver los videos tutoriales de instalacin y configuracin de
VMware vSphere ESXi 5 para preparar el examen de certificacin oficial VCP510 en la
pgina web oficial de YouTube en:
http://www.youtube.com/blogvirtualizacion
Cul es la diferencia entre un software de virtualizacin basado en un hipervisor y la
virtualizacin basada en host?
Procesador: Solo CPUs de 64-bit x86, Intel o AMD, mximo 160 CPUs (cores o
hyperthreads).
Memoria: 2GB de RAM mnimo, 1TB mximo.
Red: Una o ms tarjetas Gigabit Ethernet. Las tarjetas Ethernet de 10Gb tambin estn
soportadas. El nmero mximo de tarjetas de 1Gb Ethernet (tg3 de Broadcom) por servidor es
de 32.
Controladora de disco: Controladora SCSI, controladora FC (Fibre Channel), controladora
iSCSI, controladora RAID interna, SAS y SATA.
Almacenamiento: disco SCSI, LUN (Logical Unit Number) FC, disco iSCSI o RAID LUN
con espacio disponible sin particionar.
Es posible instalar VMware vSphere ESXi 5 en una LUN de la SAN, mtodo conocido con el
nombre de Boot from SAN (BFS). BFS est soportado en Fibre Channel SAN, en iSCSI
(iniciadores de software iSCSI y dependent hardware iSCSI) y en FCoE - de las siglas en
ingls Fibre Channel over Ethernet - para aquellas cabinas de almacenamiento que estn
incluidas en la matriz de compatibilidad. VMware vSphere ESXi 5 puede configurarse con
un mximo de 256 LUNs de FC (Fibre Channel).
Recuerda que los dos requerimientos necesarios para poder hacer boot from SAN son:
1. La BIOS de la HBA (Host Bus Adapter) debe estar habilitada.
2. Debes seleccionar la HBA con el nmero de slot PCI menor.
Aviso: Recuerda que si haces una actualizacin de ESX/ESXi 4.1 a VMware vSphere ESXi
5, aquellos puertos no conocidos - no listados en la pestaa security profile - que se hayan
abierto con el comando de consola esxcfg-firewall en tu servidor ESX/ESXi 4.x, no
permanecern abiertos despus del upgrade.
Asimismo, VMware vSphere ESXi 5 soporta un mximo de 8 dispositivos PCI/PCIe en modo
VMDirectPath passtrough. Sin embargo, una mquina virtual no puede tener configurados ms
de dos dispositivos PCIx/PCIe configurados como VMDirectPath.
Si usas iniciadores de software iSCSI para hacer BFS y tu administrador deshabilita este
iniciador de software iSCSI, el servidor ESXi 5 volver habilitar dicho iniciador la prxima vez
que se reinicie el servidor para poder hacer BFS.
5. Y por ltimo, pero no por ello menos importante, tenemos la particin bootbank. Esta
particin contiene la imagen del sistema sobre un sistema de archivos. Si hay un disco local al
cual ESXi pueda escribir, este almacena dos copias del bootbank. Pero ojo, solo una es
montada en la estructura del sistema de archivos del ESXi en el directorio /bootbank. La
segunda copia se usa nicamente durante actualizaciones para mantener una segunda copia
como backup en caso de problemas durante actualizaciones del sistema.
Por otro lado, en VMware vSphere ESXi 5 es posible hacer una instalacin de la imagen
directamente en la memoria del servidor fsico usando una nueva funcionalidad
llamada vSphere Auto Deploy ESXi Installation Option.
Con VMware vSphere Auto Deploy podrs acceder al fichero de instalacin desatendido
(answer file) via CIFS, SFTP o HTTP.
VMware vSphere ESXi 5 soporta la designacin de capacidad de disco dinmicamente
mediante una funcionalidad llamada vStorage Thin Provisioning.
Ahora, con VMware vSphere ESXi 5 es posible hacer una migracin en caliente con Storage
vMotion de una mquina virtual que tiene snapshots.
VMFS-5 soporta un mximo de 9.000 discos virtuales por datastore. Solo existe una nica
opcin de tamao de bloque para un datastore formateado con la versin 5 de VMFS. Este
block size es nicamente de 1MB y te permite crear discos virtuales con un tamao de hasta
2Gb.
Ahora en VMware vSphere ESXi 5 y VMFS-5 es posible tener hasta un mximo de 4
ficheros swap por mquina virtual.
Tambin ahora es posible con VMware vSphere ESXi 5 hacer un unmount del datastore
siempre y cuando se cumplan los tres requisitos siguientes:
1. El datastore no puede contener ninguna mquina virtual.
2. El datastore no puede ser usado por vSphere HA heartbeat.
3. El datatore no puede pertenecer a un datastore clster.
VMware vSphere ESXi 5 soporta ahora hasta 3.000 mquinas virtuales por clster HA/DRS
con independencia del nmero de servidores ESXi que hayas configurado en tu clster.
Por ltimo, recuerda que VMFS-5 solo soporta 256 volmenes o datastores VMFS por
servidor ESXi.
Aviso: Cuando actualizas VMFS-3 a la versin VMFS-5, la configuracin del block size de tu
datastore VMFS-3 es heredara, es decir, si tu datastore VMFS-3 fue configurado con un block
size de 4MB, al actualizar a la versin VMFS-5 el block size seguir siendo de 4MB. Nota que
el block size de un datastore VMFS-5 no actualizado no puede ser distinto de 1MB.
Diferentes tipos de instalacin en vSphere ESXi 5
VMware vSphere ESXi 5 solo es posible instalarlo en modo texto, a diferencia de VMware
ESX donde era posible instalarlo tambin en modo grfico.
Una nueva funcionalidad en VMware vSphere ESXi 5 llamada Image Builder te permitir
hacer instalaciones personalizadas de tu ESXi as como asociar actualizaciones del binario del
ESXi a dicha personalizacin. Hablaremos del Image Builder ms adelante en este libro. Solo
apuntar que el formato de los paquetes que usa VMware vSphere ESXi Image Builder se
llaman VIB - de las siglas en ingls vSphere Installation Bundle.
Si usas la nueva funcionalidad llamada VMware Auto Deploy, recuerda que los logs de tu
servidor ESXi sern almacenados en memoria con lo que al reinicializar tu servidor perders
estos logs por defecto. Para definir profiles de imgenes para tus servidores ESXi con Auto
Deploy tendrs que usar cmdlet incluidos en el vSphere Power CLI image builder.
Es posible tambin actualizar servidores ESXi con la utilidad Enterprise llamada VMware
Update Manager (VUM), de la que hablaremos tambin en este libro.
Una mejora practica antes de actualizar un servidor ESXi, es guardar la configuracin del
servidor que vas actualizar con el siguiente comando de vCLI: vicfg-cfgbackup -s
Aviso: Con VMware vSphere ESXi 5, el nmero total de caminos de FC (Fiber Channel) por
servidor se han aumentado hasta los 1.204. En VMware vSphere ESXi 5 el mximo nmero
de servidores conectados a volmenes VMFS es de 64 hosts por volumen VMFS.
Asimismo, el nmero mximo de datastores conectados a un Cluster HA/DRS es de 32.
Ahora VMware vSphere ESXi 5 incluye dos nuevas funcionalidades para aumentar la
seguridad del VMkernel:
Asimismo, con el fin de mejorar la seguridad del servidor ESXi, VMware ha aadido un firewall
embebido en el VMkernel. A diferencia de las versiones anteriores, este firewall no est
basado en IPtables de Linux.
Aviso: El mximo nmero de tarjetas HBA de FC soportadas por un servidor ESXi es de ocho.
Tambin, el nmero mximo de CPUs lgicas por servidor ESXi 5 ha aumentado a las 160
por host.
Si an tienes servidores ESX en tu entorno virtual y necesitas aplicar parches en el Service
Console del ESX, debes de asegrate de aplicar dichos parches solo y nicamente cuando
VMware haya hecho pblico las actualizaciones y siempre que sea sugerido por personal
autorizado de VMware o por el equipo experto de VMware llamado VMware Security
Advisories.
Para poder recibir alertas de seguridad sobre vulnerabilidades del software de VMware,
puedes suscribirte en esta direccin: http://www.vmware.com/security.
Tipos de almacenamiento soportados en VMware vSphere ESXi versus funcionalidad
1MB, el tamao de disco de la mquina virtual (.vmdk) no podr superar los 256GB de
espacio en disco.
Asimismo, el tamao mximo para un volumen RDM (de las siglas en ingls Raw Device
Mapping) en VMFS-5 es de 64TB, siempre y cuando uses la funcionalidad de extenders a
nivel VMFS, de la cual hablaremos ms adelante en este libro, y el modo de compatibilidad de
este RDM sea fsico. Sin embargo, para un volumen RDM VFMS-5 en modo de compatibilidad
virtual, el tamao mximo es de 2TB menos 512 bytes.
VMware vSphere ESXi 5 usa el protocolo NFS versin 3 para comunicarse con cabinas de
tipo NAS. Nota que aunque NFS tambin puede usar la versin 4, esta no est soportada por
VMware. En la versin VMware vSphere ESXi 5, ahora es posible montar hasta 256
volmenes NFS por host.
Con relacin a los ficheros swaps de las mquinas virtuales, el tamao mximo que puede
alcanzar este tipo de ficheros es de 1TB por mquina virtual, siempre y cuando, configures tu
mquina virtual con 1TB de memoria RAM.
Puedes ver ms informacin sobre la configuracin del block size en VMFS-5 en nuestro
canal oficial de YouTube: VMware vSphere 5.0 en entornos SAN iSCS
En cuanto al nmero mximo de targets que un servidor host puede ver con un adaptador
Broadcom 10GB iSCSI es de 128 targets. El nmero mximo de tarjetas 1GB Ethernet
Broadcom (bnx2) que un servidor host ESXi puede tener es de 16.
Aviso: El nmero mximo de caminos por LUN de FC es de 32. Y si te pica la curiosidad por
saber cul es el nmero mximo de ficheros que puedes tener en un volumen VMFS-5, es de
130.690 ficheros, aunque me temo que muy probablemente no alcances nunca ese lmiteJ. En
VMFS-3 el mximo nmero de ficheros era de 30.720 ficheros.
Diagnosticando un problema en vSphere 5
Para poder diagnosticar un problema con vSphere ESXi 5, necesitas exportar los logs.
Desde el vSphere Client, selecciona File > Export > Export System Logs.
Ten en cuenta el tamao requerido para almacenar estos logs, sobre todo si cambias el nivel
de lo que quieres que se logee en tu sistemas. Para ponrtelo en contexto, los logs pueden
llegar a crecer hasta 9GB en una instalacin de 10 ESXi y aproximadamente 100 mquinas
virtuales con respecto al nivel estndar de logeo.
Tambin, y si no tienes configurado un servidor de vCenter, puedes conectarte directamente a
tu host ESXi y exportar los logs seleccionado la opcin, File > Export.
Ayer aprendimos lo bsico de la certificacin oficial VMware y vimos los dos primeros
captulos.
Hoy veremos los dos prximos captulos, la red y el almacenamiento:
Hasta maana,
Jose Maria Gonzalez
CEO and Founder de www.jmgvirtualconsulting.com
Si hay dos mquinas virtuales conectadas a dos virtual switches diferentes, el trfico entre
dichas mquinas fluir a travs de las tarjetas fsicas mapeadas a los switches virtuales y
entre servidores ESXi. Por el contrario, si varias mquinas virtuales estn conectadas al
mismo VSS del mismo servidor ESXi, los paquetes no salen por la red, sino que son
transmitidos internamente en el servidor ESXi por el VMkernel.
Para mejorar el rendimiento de red de las mquinas virtuales es posible mapear ms de una
tarjeta fsica (uplink) al VSS.
Aviso: Tambin es posible configurar switches distribuidos virtuales (Virtual Distributed
Switch). La configuracin de los switches distribuidos (VDS) es almacenada en el servidor
vCenter a diferencia de los switches estndar, los cuales almacenan la configuracin en los
servidores ESXi. Un Virtual Distributed Switch no es ms que un VSS que es compartido entre
mltiples servidores VMware vSphere ESXi. Los VDS solo estn incluidos en la versin
Enterprise Plus.
Port groups y el virtual switch estndar
llamada Traffic shapping, a nivel de port group, donde est incluida la mquina virtual para
aliviar problemas de congestin de red o garantizar un ancho de banda determinado. Esta
funcionalidad para los VSS te permite limitar el ancho de banda desde la mquina virtual hacia
afuera (outbound) pero no desde fuera hacia la mquina virtual (inbound).
Si precisas tener que limitar el ancho de banda desde fuera hacia dentro y desde dentro hacia
afuera (outbound y inbound) tendrs que usar los switches distribuidos (VDS). Recuerda que
este switch distribuido se crea en el vCenter Server, con lo que para usar VDS, aparte, debes
de contar con una licencia de vCenter.
Por defecto, y para los VSS, cuando creas un virtual switch por defecto es creado con 120
puertos. Sin embargo, si utilizas la lnea de comando y ejecutas el comandoesxcfg-vswitch
l vers que en realidad son 128 puertos.
Estos ocho puertos son puertos extra que usa el VMkernel internamente y que no podemos
usar desde la GUI. Estos ocho puertos extras solo pueden verse desde la lnea de comando
en ESXi 5:
Aviso: Es posible que tengas la necesidad de limitar el ancho de banda en los diferentes tipos
de conexiones descritas anteriormente, y sobre todo, que tengas que aliviar problemas de
cuellos de botella en la capa de red. En captulos posteriores cubriremos algunas tcnicas
para aliviar cuellos de botella en los diferentes componentes de vSphere 5.
Diferentes tipos de virtual switch en vSphere 5
Cada virtual switch, es una representacin lgica va software de un switch fsico de capa dos.
Los tres tipos de virtual switch que puedes crear en un servidor ESXi 5 son los siguientes:
1. Internal switch only. Este switch es usado nicamente para conectar, va red, las
mquinas virtuales instaladas en el mismo servidor VMware ESXi, las cuales no necesitan
conexin con el mundo exterior.
2. Virtual switch con un adaptador de red. Este switch es usado para conectar, va red,
mquinas virtuales, Management Network (gestin) y puertos VMkernel con el mundo exterior,
o dicho de otro modo, con otros servidores y mquinas virtuales de nuestro entorno virtual.
3. Virtual switch con ms de un adaptador de red. Este switch es usado para conectar, va
red, mquinas virtuales, Management Network y puertos VMkernel con el mundo exterior con
una funcionalidad adicional, como es el balanceo de carga y redundancia a fallos en los
componentes de red.
Las polticas de seguridad y de traffic shaping son configuradas a nivel de port
groupy vSwitch. Una configuracin incorrecta del traffic shaping afectara no slo al trfico de
las mquinas virtuales sino tambin al trfico en general.
En vSphere ESXi 5, una tarjeta mapeada a un switch virtual puede ser configurada para
trasmitir y recibir tramas Jumbo Frame. El MTU (Maximum Transmision Unit) de un Jumbo
Frame es de 9000. VMware ESXi 5 tambin soporta Jumbo Frames, tanto en los VSS como
en los VDS.
Ahora, tambin es posible activar desde la GUI de los VSS el uso de los mismos. La
configuracin de Jumbo Frames es considerada una mejor prctica para las redes de tipo
iSCSI, vMotion y Fault Tolerance.
Aviso: Los tres tipos de virtual switch pueden soportar hasta un total de 4088 puertos por
switch virtual estndar.
Para los tres tipos de virtual switch, no existen colisiones de red en el trfico interno. Asimismo
la direccin MAC de los adaptadores de red conectados a los virtual switchesno ser usada en
ningn momento de forma interna.
Las polticas de balanceo de carga en un VSS en vSphere 5
Aviso: En una configuracin de NIC teaming a nivel de VSS, es muy importante activar la
opcin Notify Switches. Cuando configuras una poltica de NIC teaming en un VSS y
seleccionas la opcin Notify Switches, el switch fsico ser alertado cuando la localizacin de
una tarjeta virtual cambia de puerto. Esto ocurre, por ejemplo, cuando se hace una migracin
de una mquina virtual en caliente con vMotion.
Propiedades de los adaptadores de red en VMware ESXi 5
Para ver las propiedades de tus tarjetas de red, selecciona el servidor ESXi en el panel
inventario, luego en la pestaa Configuration, selecciona el enlace Networking en la
parte Hardware y luego Properties en el switch virtual que tiene conectado el adaptador de red
que quieres modificar.
Existe nueva tecnologa en vSphere ESXi 5 que puedes usar para incrementar el throughput
de tus mquinas virtuales es el Split RX como veremos ms adelante.
Si estas usando adaptadores de red Gigabit Ethernet, es considerada una mejor prctica dejar
la velocidad y la configuracin de dplex en auto negotiate ya que el auto negotiate es parte
del estndar en redes Gigabit Ethernet.
Aviso: Para configurar NetQueue, y mejorar as el rendimiento de red de las mquinas
virtuales en un servidor ESXi, es necesario habilitarlo en el driver de la tarjeta fsica y en las
opciones avanzadas del VMkernel. Si el rendimiento de la consola remota para una mquina
virtual es lento, verifica la configuracin (speed, duplex) de la tarjeta fsica asignada al port
group del switch virtual.
Los diferentes tipos de polticas de seguridad en vSphere
En los VSS, hay tres tipos diferentes de polticas de seguridad: Traffic shaping Policy, NIC
Teaming Policy y Security Policy. En un Virtual Distributed Switch, aparte de estas tres
polticas de seguridad, existe otra nueva, Port Blocking Policy.
Las polticas pueden ser definidas a nivel de virtual switch, las cuales se convertiran tambin
en las polticas por defecto para todos los port groups creados en dicho virtual switch, o a nivel
de port group.
Las polticas definidas a nivel de port group, siempre sobrescriben las polticas definidas a
nivel de virtual switch. Un vSwitch o vSwitch port group en "Promiscuous Mode" permitir que
una mquina virtual pueda "escuchar" todo el trfico contenido en ese VSS y no solo el trfico
destinado para esta mquina virtual en concreto.
Una mejor practica en la capa de red con vSphere 5 es que antes de crear los diferentes
tipos de switches virtuales, protocolos de balanceo de carga, VLANs, port groups y NIC
teaming, hables con el administrador de tu red fsica sobre lo que necesitas a nivel de red
virtual.
Es muy corriente implementar IP hash a nivel de red virtual en entonos de produccin
relativamente importantes para luego darse cuenta que no est funcionando correctamente
porque no se ha activado en el switch fsico.
La configuracin predeterminada en vSphere 5, dentro de la poltica de
seguridad Security
La configuracin predeterminada para la poltica de seguridad Security y para todos los VSS
es la siguiente:
Promiscuous Mode: Reject - Significa que el virtual switch no redireccionar ninguna trama a
otros puertos del switch (modo switch). Si Promiscuous Mode es cambiado aAccept, el switch
se comportara como un HUB y redireccionar todas las tramas entrantes y salientes a todos
los puertos del virtual switch.
Esta configuracin suele ser til cuando "pinchamos" un sistema IDS (Intrusion Detection
System) o sniffer en un virtual switch para analizar todas las tramas de dicho switch.
MAC Address Changes: Accept - Significa que el virtual switch no hara un drop de la
trama entrante si la direccin MAC de sta no coincide con la direccin MAC de la mquina
virtual conectada en ese port group. Por defecto, esta opcin se suele cambiar a Reject para
evitar ataques tipo MAC spoofing.
Forged Transmit: Accept - Significa que el virtual switch no hara un drop de la
tramasaliente si la direccin MAC de sta no coincide con la direccin MAC de la mquina
virtual guardada en el fichero de configuracin (.vmx) de dicha mquina virtual. Por defecto,
esta opcin se suele cambiar a Reject para evitar ataques tipo MAC flooding y MAC spoofing.
En resumen, Forged Transmit permite a una mquina virtual transmitir paquetes (outbound)
que contienen una direccin MAC diferente a la que se ha definido en esa mquina virtual.
Recuerda que las polticas de seguridad de red a nivel de VSS y port
group sonReject (Promiscuous Mode), Accept (MAC address Changes) y Accept (Forget
Transmit).
Aviso: No cambies la configuracin por defecto de MAC Address Changes ni Forged
Transmits si tienes configurado en el virtual switch un clster Microsoft NLB (Network Load
Balancing) en modo unicast.
Para ver ms informacin sobre la configuracin determinada con Microsoft NLB, ver elKB
nmero 1556 en la pgina de VMware: http://kb.vmware.com
Asimismo, cuando tengas que hacer una conversin P2V - de las siglas en ingls Physical to
Virtual - con el software de conversiones de VMware llamado vConverter, asegrate de
configurar Allow Mac Adress Changes en Accept, si el servidor fsico que estas intentando
convertir tiene software instalado que fue licenciado usando la direccin MAC de su tarjeta
fsica.
La configuracin predeterminada, dentro de la poltica de seguridad de Traffic Shaping
Esta poltica de seguridad de traffic shaping, para el vswitch y port group, est desactivada por
defecto. Con la opcin network traffic shaping puedes limitar eloutbound peak bandwidth y
el outbound average bandwidth.
Esta poltica de traffic shaping solo se aplica a las conexiones de dentro hacia fuera
(outbound), es decir, desde dentro del virtual switch hacia fuera del virtual switch.
No es posible definir una poltica de traffic shaping desde fuera del virtual switch hacia dentro
(inbound) en un VSS.
Una primera alternativa para limitar el trfico de tipo inbound es la de usar algn sistema
externo de balanceo de carga o activar la opcin de rate-limiting en tu router fsico.
La segunda alternativa la encontramos en los VDS. En los Virtual Distributed Switches es
posible definir el Traffic Shaping en ambas direcciones (Ingress - inbound y Egress
- outbound).
En vSphere 5 hay dos formas de migrar una mquina virtual desde un vSwitch estndar a
un Virtual Distributed Switch.
La primera opcin es seleccionando un dvPort group desde las propiedades de la
configuracin de red de la mquina virtual, y la segunda, seleccionando la mquina virtual
desde la lista de mquinas virtuales cuando usas la opcin "Migrate Virtual Machine
Networking".
Para terminar con las diferencias entre un VSS y un VDS, estas son las tres funcionalidades
ms importantes que estn disponibles en los VDS y no en VSS:
NetFlow Monitoring
Recuerda que si usas un uplink que ya est previamente en uso en un VSS para crear un
VDS, las mquinas virtuales que estuvieran usando ese uplink perdern la conectividad.
Aviso: Ten en cuenta que el Average Bandwidth y Peak Bandwidth son medidos enKbps,
mientras que el Burst Size es medido en KB.
De la misma manera se mide en los Virtual Distributed Switch. Asimismo, recuerda que el
mximo nmero de VDS por servidor de vCenter es de 32.
Arquitectura de un Virtual Distributed Switch
Para la poltica de seguridad de NIC Teaming, existen cuatro opciones en el algoritmo de load
balancing a seleccionar: route based on the originating virtual port ID (por defecto), route
based on ip hash (es necesario etherchannel), route based on sourceMAC hash y explicit
failover order. Recuerda que las polticas de load balancingpara el Virtual Distributed
Switch son las mismas, ms una extra adicional.
Para habilitar el NIC teaming es necesario conectar ms de una tarjeta de red fsica a un
nico virtual switch o virtual distributed switch.
Si la opcin "explicit failover order" no es elegida como algoritmo de balanceo de carga en
un virtual switch con mltiples uplinks (NIC teaming) y una de las tarjetas fsicas del teaming
se cae", el VMkernel verifica el contador "reported uptime" de las otras NICs para asignar
una NIC del teaming y proceder al failover.
Beacon Probing se usa en vSphere para detectar e identificar fallos en el
enlaceupstream. Es muy til en entornos Blade y en donde tenemos Spaning Three Protocol
activado en nuestra red fsica. De esta forma podremos detectar fallos de red en los caminos
alternativos.
En un VSS con un port group de tipo Management Netowrk y un port group tipoVMkernel, y
mapeas dos uplinks al VSS, es posible separar el trfico de gestin y del
trafico VMkernel seleccionando la poltica de balanceo "Explict Failover order".
Asimismo, es posible ver ms informacin sobre la configuracin actual de los VSS con el
siguiente comando desde la consola de servidor ESXi:
stos son algunos de los mximos y mnimos en la capa de red para VMware vSphere ESXi
5:
350 es el nmero mximo de servidores ESXi 5 que puedes conectar por VDS.
4096 es el nmero mximo de puertos virtuales de red por host (VSS y VDS).
24 es el nmero mximo de tarjetas de 1GB Ethernet (e1000e Intel PCI-e) por host.
32 es el nmero mximo de tarjetas de 1GB Ethernet (e1000e Intel PCI-x) por host.
La configuracin de la zona a nivel del fabric de fibra es un mecanismo muy usando tanto para
entornos fsicos de SAN FC como para entornos virtualizados con una red de SAN FC.
El Zoning se hace a nivel de switch de fibra para restringir las conexiones de los servidores
ESXi o servidores fsicos a la cabina de datos y prevenir que otros servidores destruyan los
datos en los volmenes.
LUN Masking se puede hacer en dos niveles: a nivel de procesadores de datos (en Ingles SP
- Storage Processors) y a nivel de servidor ESXi. Aunque, en la actualidad elLUN Masking se
suele hacer ms a nivel de SP, tambin es posible hacerlo a nivel de servidor ESXi sobre todo
cuando usamos Boot From SAN(BFS).
Asimismo en los switches de FC de nueva generacin tambin es posible hacer LUN Masking.
BFS puede llegar a ser til para configuraciones diskless en servidores tipo Blade. Cuando
ests haciendo BFS, la LUN FC desde donde arranque el servidor ESXi, deber ser solo
visible para ese servidor. Los otros DataStores VMFS, deberan ser visibles a todos los
servidores ESXi.
Asegrate siempre de que cambies tu configuracin de la zona del fabric de FC o las
propiedades de las LUNs, hacer un rescan de tu fabric a nivel de centro de datos. De esta
forma te aseguras que todos los servidores tienen la ltima configuracin de tu SAN.
Desde VMware vSphere 4, aparecieron APIs por doquier, lo cual ha permitido evolucionar el
producto a nivel de almacenamiento con caractersticas muy innovadoras. Una de las APIs
ms importantes, y que ya apareci en la versin 4.1, es la vSphere APIs for Array
Integration, tambin conocida por el acrnimo VAAI.
En consecuencia, una cabina con soporte VAAI para la nueva versin de VMware vSphere
ESXi tendr un mayor rendimiento en las siguientes operaciones:
Write Same/Zero nos ayuda a eliminar I/O en tareas repetitivas y disminuir el consumo de
CPU, por ejemplo, la clonacin masiva o el aprovisionamiento de mquinas virtuales.
Fast/Full Copy nos permite realizar Storage vMotion sin trfico en la red o las HBAs, ya que
lo realiza la cabina SAN. La duracin de la migracin disminuye en un 25%, segn datos
proporcionados por EMC.
Hardware Offloaded Locking es una gran funcionalidad. Hasta ahora las reservas SCSI que
se realizan sobre un datastore VMFS se realizan a nivel de LUN, por tanto, en un momento
dado, solo una mquina virtual puede acceder a la LUN en algunas tareas, con Hardware
Offloaded Locking el bloqueo se realiza a nivel de bloque no de LUN. Esto nos permitir
aumentar el nmero de mquinas virtuales por datastore en nuestros diseos y disminuir el
tiempo de creacin de datastores VMFS y NFS.
Thin Provisioning Stun evita que nos quedemos sin espacio en disco poniendo la mquina
virtual en pausa hasta que consigamos disco. Esta situacin, puede llegar a ocurrir si
aprovisionamos en modo Thin y necesitamos ms disco del que tenemos.
VAAI est activado por defecto en vSphere ESXi 5 a partir de la licencia Enterprise. Por
supuesto, ni que decir tiene, la cabina de datos tambin tiene que soportar VAAI.
Para terminar con VAAI, una cabina con soporte VAAI y con el uso de thin provisioning ofrece
la posibilidad de reclamar espacio cuando una mquina virtual es migrada a un datastore
diferente con Storage vMotion o cuando el disco virtual es borrado.
Con el vSphere Client y desde la pestaa Storage Views podrs ver informacin muy
interesante relativa a tus datastores VMFS, como por ejemplo:
Para obtener ms informacin sobre los DataStores VMFS, como, por ejemplo, el estado
del Multipathing actual y el espacio usado, selecciona la pestaa Storage Views.
El Runtime Name, para un dispositivo de almacenamiento en FC, equivale al nombre de la
ruta del dispositivo en formato vmhba:C:T:L, donde C es Controler, T es Target y L es LUN.
El seudo name vmhba32 es el nombre que el VMkernel utiliza para los iniciadores software
iSCSI. Recuerda que tanto el adaptador de software iSCSI como el adaptador dependent
hardware iSCSI necesitan un port group tipo VMkernel para ser configurados del todo.
Si usas una adaptador de tipo dependent hardware iSCSI para tu conexin iSCSI, es posible
que el rendimiento de las tarjetas de red asociadas con este adaptador muestren muy poca
actividad, incluso cuando el trafico via iSCSI es muy alto. Esto es consecuencia directa de que
el trafico iSCSI hace un bypass del trafico normal de red y no se ver reportado por las
herramientas internas de monitorizacin de red del servidor ESXi (esxtop).
Asimismo, para obtener un mejor rendimiento iSCSI con adaptadores de tipodependent
hardware iSCSI es una mejor prctica habilitar la opcin de flow control.
Flow control est habilitado por defecto en todas las tarjetas de red en los servidores ESXi 5.
Es posible deshabilitar flow control. Puedes ver el KB 1013413 en el siguiente enlace para
deshabilitarlo: http://kb.vmware.com/kb/1013413
Presentando LUNs FC a los servidores vSphere 5
Una SAN de tipo iSCSI consiste de una cabina de datos con conexiones tipo iSCSI (red de
1Gb o 10Gb Ethernet) la cual contiene una o ms LUNs as como SPs. La comunicacin entre
el host ESXi y la cabina iSCSI se establece a travs de una red Ethernet de datos.
iSCSI usa el IQN (iSCSI Qualify Name), donde el primer nmero representa el ao, mes y la
organizacin que registr el dominio: iqn.2006-01.com.openfiler:volume.vmware. Este
nombre IQN no puede superar los 255 caracteres.
Los servidores ESXi vienen configurados, por defecto, con un iniciador de software iSCSI.
Este iniciador iSCSI transmite comandos SCSI por una red de datos. El target, es decir, la
cabina de datos iSCSI, recibe estos comandos SCSI y el SP los procesa.
Es posible tener mltiples iniciadores y targets en nuestra red iSCSI. Y a diferencia en las
versiones anteriores, en vSphere 5, el iniciador de software no viene instalado por defecto.
Puedes ver el video tutorial de la instalacin del iniciador de software iSCSI en vSphere
ESXi en un video tutorial de nuestro canal de YouTube llamado:VMware vSphere 5.0 en
entornos SAN iSCSI
VMware vSphere 5 utiliza CHAP (Challenge Handshake Authentication Protocol) para
ofrecer lo que se denomina Initiator authentication. Es una buena prctica aislar la red de
gestin, de la red iSCSI y de la red donde estn conectadas todas las mquinas virtuales.
Debido al hecho de que las redes IPs que usan la tecnologa iSCSI no encriptan los datos
trasmitidos, es aconsejable para configuraciones iSCSI, activar la funcionalidad de CHAP que
se incluye tanto en la cabina (target) como en el iniciador de software iSCSI en el servidor
ESXi.
Si configuras el servidor ESXi con la opcin de CHAP para acceder a una LUN iSCSI y
despus deshabilitas CHAP en el servidor, el acceso a las LUNs iSCSI no se ver afectado
hasta que no se reinicie el servidor ESX/ESXi o la cabina iSCSI. Puedes activar el CHAP en la
pestaa General despus de seleccionar las propiedades del iniciador de software iSCSI.
Aviso: No olvides abrir el puerto 3260 en el firewall del servidor ESXi. El protocolo iSCSI
utiliza este puerto para la comunicacin entre la cabina iSCSI (Target) y el servidor ESX
(iSCSI initiator).
Descubriendo recursos NFS en servidores vSphere 5
Tambin, es posible activar la opcin CHAP para conexiones de tipo NFS. El protocoloCHAP
bidireccional solo est soportado para los iniciadores software iSCSI. Con el CHAP
bidireccional el target verifica el iniciador software y el servidor verifica el target. El iniciador
hardware iSCSI solo soporta CHAP unidireccional, es decir, el target verifica al servidor host.
Aviso: El uso de la funcionalidad de usuario delegado que permite acceso a un DataStore
NFS no est soportado en ESX/ESXi 4.x. Las mquinas virtuales creadas sobre DataStores
NFS tienen formato thin, a diferencia de las mquinas virtuales creadas sobre DataStores
VMFS en FC, las cuales tienen un formato thick.
Configurando multipathing con iniciadores software iSCSI en vSphere 5
2.
3.
Cuando configuras multipathing con iniciadores software iSCSI, debes configurar dosport
groups tipo VMkernel. Despus, mapea cada port group a un uplink diferente sobre el
mismo virtual switch y selecciona el algoritmo de multipathing Round Robin.
La idea general es, despus de seguir todos los pasos siguientes, tener al menos dos
caminos por LUN activos para que de esta manera podamos aumentar, no solo
la disponibilidad con VMware multipathing sino tambin, el ancho de banda de E/S de
nuestros datastores en vSphere ESXi 5.
A continuacin, te resumo los pasos a seguir para crear una configuracin multipathing tanto
para iSCSI como para conexiones NFS en tus servidores ESXi:
Paso 1: Configura un vSwitch y habilita el Jumbo Frames
Este paso (Jumbo Frames) tienes que hacerlo desde lnea comando para la versin
ESX/ESXi 4.x pues en los vswitch estndares de esta versin no tienes la opcin de hacerlo
desde la GUI (si est disponible en los vswitch distribuidos). Para la nueva versin de
vSphere ESXi 5 ya es posible activar el Jumbo Frames tambin desde la GUI para los VSS.
esxcfg-vswitch a vSwitch1 (crea un vSwitch llamado vSwitch1)
esxcfg-vswitch m 9000 vSwitch2 (activa jumbo frame en el vSwitch1)
Paso 2: Aade los VMkernel Ports iSCSI
Aqu, depender de las tarjetas de red que tengas cableadas y de las controladoras de
disco que tengas en tu cabina.
Al menos, deberas de configurar dos VMkernel Ports con dos tarjetas de red para tener,
tanto balanceo de carga con RR ( de las siglas en ingls Round Robin) como mecanismo de
balanceo de carga.
esxcfg-vswitch A iSCSI1 vSwitch1 ( crea un VMkernel port llamado iSCSI1 )
esxcfg-vmknic a i 10.10.1.1 n 255.255.255.0 m 9000 iSCSI1 (asigna una ip, subnet
mask y jumbo frames al VMkernel port iSCSI1)
esxcfg-vswitch A iSCSI2 vSwitch1 ( crea un VMkernel port llamado iSCSI2 )
Switch Name Num Ports Used Ports Configured Ports MTU Uplinks
vSwitch1 64 7 64 9000
vmnic4,vmnic3
PortGroup Name VLAN ID Used Ports Uplinks
iSCSI2 0 1 vmnic4
iSCSI1 0 1 vmnic3
Paso 5: Habilita el iniciador de software iSCSI
Con el comando esxcfg-swiscsi e habilitas el iniciador de software iSCSI.
Paso 6: Muy importante: Crear el Binding de los VMkernel Ports con el iniciador de
software iSCSI
Primero, confirma el seudo-name de tu iniciador de software iSCSI. Lo puedes ver con este
comando.
esxcfg-scsidevs a
Deberas de ver algo as:
vmhba0 mptsas link-n/a sas.5001ec90e0ba7c00
(1:0.0) LSI Logic / Symbios Logic LSI1068E vmhba1 ata_piix link-n/a ide.vmhba1
(0:31.1) Intel Corporation 631xESB/632xESB IDE Controller
vmhba32 ata_piix link-n/a ide.vmhba32(0:31.1) Intel Corporation 631xESB/632xESB IDE
Controller
vmhba33 iscsi_vmk link-n/a iscsi.vmhba33() Software iSCSI
En mi caso como ves, el seudo-name de mi iniciador software iSCSI es vmhba33
Segundo, determina el nombre exacto de los VMkernel ports de tus iniciadores iSCSI. Lo
puedes ver con este comando:
esxcfg-vmknic l
Interface Port Group/DVPort IP Family IP Address
Netmask Broadcast MAC Address MTU TSO MSS
Enabled Type
vmk3 iSCSI1 IPv4 10.10.1.1
255.255.255.0 10.10.5.255 00:50:56:7b:d8:21 9000 65535 true
STATIC
vmk4 iSCSI2 IPv4 10.10.2.1
255.255.255.0 10.10.5.255 00:50:56:7e:ae:81 9000 65535 true
Clic Add.
En la seccin iSCSI Server box, asegrate de poner la IP del grupo o el IP de tu cabina iSCSI
y selecciona Ok.
Recibirs un mensaje que te pide hacer un Rescan de todas las HBAs. Dile que ests de
acuerdo y en unos minutos deberas de ver tus LUNs si estas han sido configuradas
correctamente en tu cabina y los servidores VMware vSphere 5ESXi tienen acceso a las
LUNs.
Aviso: Ahora para la versin vSphere ESXi 5 es posible hacer el mecanismo de port binding
desde la GUI.
Entendiendo el sistema de archivos VMFS en vSphere 5
tamao de 1TB (menos 512Bytes). A continuacin, te muestro la tabla de los block size y el
tamao de los ficheros en VMFS-3:
Sin embargo, para las cabinas de tipo activa/pasiva solo un procesador de datos puede hacer
un I/O de disco. Esto no significa que en esta configuracin haya un procesador de datos en
modo standby sin hacer ningn I/O de disco. Todo lo contrario, lo que para una LUN un SP
puede estar configurado como pasivo, para otra LUN este mismo SP puede estar configurado
como activo, con lo que los dos SP estn procesando I/Os pero no a la misma LUN. Esto
cambia con el uso de ALUA, que no es ms que el proceso de convertir una cabina
activa/pasiva en activa/activa mediante la activacin, y valga la redundancia, de la interface
de interconexin interna entre los dos SPs.
Aviso: Para incrementar el rendimiento de una mquina virtual, es posible cambiar la poltica
de multipathing de Fixed a Round Robin para cabinas de tipo activa/activa..
Ayer vimos la parte de red y de almacenamiento. Hoy vermos el servidor de vCenter y las
mquinas virtuales
Hasta maana y espero que sigas disfrutando de este curso gratuito de VMware vSphere en
cinco das!
Jose Maria Gonzalez
CEO y Fundador de www.jmgvirtualconsulting.com
P.S. Si te gustara aprender mucho mas sobre vmware en mucho menos tiempo, ahora tienes
acceso a nuestro curso online VMware vSphere 5.5 Avanzado a un precio reducido!
A continuacin vemos el plugin vCenter Service Status que verifica el estado del servicio de
vCenter Server. Este aspecto es muy interesante en una configuracin en modo Linked ya que
es posible ver el estado de todos los servicios de vCenter de sus respectivas instancias desde
una sola consola.
Aviso: vCenter Server incluye una consola KVM (de las siglas en ingles Keyboard, Video and
Mouse) embebida en cada mquina virtual registrada en el vCenter. El nmero mximo de
sesiones concurrentes a la consola de una mquina virtual es de 40.
Prerrequisitos hardware/software de vCenter Server 5
Requerimientos Hardware (Versin Windows):
cada Servidor VMware vSphere ESXi, en una base de datos relacional. Las bases de datos
soportadas por vCenter Server para Windows son las siguientes:
v Oracle
Oracle 10g F2
Oracle 11g
v IBM DB2 9.5 y 9.7
v Microsoft SQL
SQL Server Server 2005 SP3 (recomendado SP4)
SQL Server 2008 R2 Express*
SQL Server 2008
*SQL Server 2008 R2 Express es solo recomendada en entornos pequeos de hasta 5 hosts
ESXi y 50 mquinas virtuales.
En cuanto a la versin Linux de vCenter Server se refiere, los requerimientos de software son
diferentes. No obstante, el usuario o administrador del entorno virtual, no notar ninguna
diferencia con el hecho de tener la versin Windows o Linux de vCenter instalado en tu
entorno.
El servicio de vCenter en modo appliance reduce el tiempo requerido para instalar y configurar
la versin de vCenter en Windows, ya que la versin appliance para Linux viene pre-instalada.
Sin embargo, a nivel de base de datos el appliance an no soporta SQL. A da de publicacin
de este libro solo soporta Oracle y DB2 (express) como base de datos.
vCenter Server virtual Appliance usa un kernel versin 2.6.32.29-03 de SuSe Linux y estos
son sus requerimientos:
Requerimientos Hardware (Versin Linux):
Memoria:
Puedes ver el video tutorial de instalacin y configuracin del vCenter Server Appliance en
nuestro canal de YouTube dedicado en exclusiva a la virtualizacin de sistemas en espaol:
El servicio vCenter Hardware Status Plug-in
Es posible monitorizar la "salud" del hardware del servidor fsico ESXi. Si la pestaa
"Hardware Status" no est habilitada, comprueba que el plugin "vCenter Hardware Status" est
habilitado.
Para hacerlo, selecciona plug-ins, Plug-in Manager. Con el botn derecho del ratn
selecciona enable.
Recuerda que para que la pestaa Hardware Status te d ms informacin relativa al estado
del hardware fsico del servidor ESXi, el servicio "VMware VirtualCenter Management
Webservices" ha de estar arrancado.
Por defecto, si eliminas un usuario de tu directorio activo, el cual est actualmente conectado
al servidor de vCenter, el usuario permanecer conectado hasta 24 horas.
Puedes cambiar esta configuracin modificando el valor de la casilla Validation Period.
VMware vSphere vCenter Converter
VMware vSphere vCenter Converter es una herramienta gratuita que te permitir convertir tus
mquinas fsicas a mquinas virtuales e incluso sin prdida de servicio con las conversiones
en caliente.
Es posible instalar este software en el mismo servidor de vCenter via plugin o en modo
standalone. Personalmente, prefiero la versin standalone ya que para mi gusto ofrece una
funcionalidad de logs mayor.
Para ejecutar el Converter instalado en modo plugin, selecciona uno de los servidores ESXi
donde quieras convertir una mquina fsica a virtual con el botn derecho y selecciona Import
Machine.
vCenter Converter, tanto la versin plugin como la versin standalone, soporta imgenes de
Symantec Ghost (.gho), Acronis True Image (.tib) , StorageCraft y mquinas virtuales tanto
Windows como Linux de otros productos de VMware, como por ejemplo VMware Workstation,
VMware GSX Server, VMware Fusion, VMware ESX, as como de otros proveedores de
software de virtualizacin, como por ejemplo, Microsoft HyperV, Microsoft Virtual PC, Microsoft
Virtual Server y Parallels Desktop.
vCenter Converter soporta conversiones de fsico a virtual (P2V), de virtual a virtual (V2V) y de
imagen a virtual (I2V), pero aun no soporta conversiones de virtual a fsico (V2P). vConverter
requiere tener los siguientes puertos TCP abiertos: 139, 443, 445 y 902.
Aviso: Recuerda que vCenter Converter tambin se pude utilizar para convertir mquinas
virtuales de otras soluciones de virtualizacin, como por ejemplo VMware Fusion, Microsoft
Virtual Server, Microsoft Hyper-V y Virtual PC, a formato VMware ESX/ESXi. Es lo que se
denomina una conversin de virtual a virtual o V2V.
Durante la instalacin de vCenter Server, puedes elegir instalar vCenter en modo "standalone"
o linked mode. La primera instancia del vCenter ha de ser instalada en modo standalone.
Siempre que se requiera o sea necesario, podemos cambiar el modo ( Linked Mode o
standalone) del vCenter Server.
La opcin del modo Linked mode te permite gestionar todo tu entorno desde un punto nico
central, con independencia a que vCenter server te conectes con tu vSphere client.
No solamente este modo Linked te facilita la gestin desde una sola consola en entornos
grandes. A veces, no hay ms remedio que configurar nuestros servidores de vCenter en
modo Linked.
Por ejemplo, cuando tienes que registrar ms de 1.000 servidores ESXi o ms de 10.000
mquinas virtuales encendidas - este es el lmite de una sola instancia de vCenter Server 5
(versin Windows) -, necesitas modificar la configuracin de vCenter 5 y configurarlo en
modo Linked Mode.
Por supuesto, est claro que necesitars otra licencia de vCenter Server y otra base de datos
en el backend para poder emparejar las dos instancias, o ms, y superar el lmite mencionado.
No es posible emparejar servidores de vCenter que no pertenezcan a un domino. Por
consiguiente, si quiere emparejar servidores de vCenter en modo standalone, tendrs primero
que incluirlos en un dominio. Los vCenters que vas a emparejar pueden estar en dos dominios
diferentes, como por ejemplo, vmware.com y Microsoft.com. No obstante, asegrate de
configurar una relacin de confianza bi-direccional en los directorios activos de los dos
dominios para que puedan emparejarse.
Asimismo, el mode Linked se basa en gran medida en el servicio de DNS con lo que has de
asegurarte, antes de empezar el wizard de emparejamiento, que tu servidor de DNS funciona
correctamente.
Por otro lado, si tienes problemas al intentar conectar con tu servidor de vCenter, verifica si el
servicio de Windows de Virtual Center Server est arrancado en la mquina virtual o fsica
donde lo has instalado.
Tambin, puede ocurrir en entornos con servidores ESX que si te quedas sin espacio en la
particin / (root), pueda causar disrupciones en la conectividad de tu vCenter con el vSphere
Client.
Para lanzar el wizard de emparejado, dentro del servidor de vCenter en Windows,
selecciona inicio > programas > vmware > vCenter Server Linked Mode Configuration.
vCenter Server y las opciones de archivado desde la pestaa Maps
vCenter Server incluye una pestaa llamada Maps la cual puedes usar para ver una
instantnea de cmo est configurado tu entorno virtual. Esta opcin de Maps, te permite no
solo exportar los mapas en diferentes formatos: JPG, BMP, PNP, GIF, TIFF y EMF sino que
ahora, en la versin vCenter Server 5, podrs imprimirlos directamente a una impresora que
tengas configurada en tu servidor de vCenter.
Para exportar los mapas, selecciona File > Export > Export Maps. Despus, selecciona la
extensin del formato de la imagen a exportar.
Desde el vCenter Maps, puedes ver otros recursos de tu entorno virtual como por ejemplo
DataStore y Host resources.
Recuerda que los iconos en los mapas son interactivos y basta con hacer un clic con el botn
derecho del ratn sobre el icono para ejecutar acciones.
El uso de los mapas tambin es muy interesante para comprobar si tus mquinas virtuales son
compatibles con vMotion.
En la imagen anterior, observamos que la mquina virtual con nombre AD no puede ser
migrada con vMotion al servidor ESXi2.demos.local porque no est conectada a la red de
produccin, entre otras cosas!.
Cmo aadir un servidor ESXi al inventario de vCenter Server 5?
Una vez que hayas instalado el servidor de vCenter (Windows o Linux) ya podrs aadir tus
servidores hosts ESXi al inventario para que estos puedan ser gestionados y configurados.
Para aadirlos, previamente has de crear un objeto de inventario de tipo DataCenter.
Simplemente, selecciona con el botn derecho del ratn el objeto inventario raz - el objeto de
inventario raz del vCenter es el nombre de red que le hayas dado a tu servidor de vCenter - y
selecciona create DataCenter.
Despus de que hayas creado el objeto de inventario DataCenter, seleccinalo este objeto con
el botn derecho del ratn y elije Add Host
Luego, introduce los datos de tu servidor ESXi, nombre de host, usuario y contrasea y
selecciona siguiente.
Durante la inclusin de tu servidor ESXi al inventario de servidor de vCenter, este enviar un
agente de gestin al servidor ESXi llamado vpxa. Desde ese momento, este agente ser
utilizado por el vCenter para gestionar tu servidor ESXi.
Puede ser que no sea posible aadir un servidor ESXi al inventario y recibas este error:
Entre las posibles razones es que haya algn problema de comunicacin entre el vCenter y el
servidor ESXi o el agente de gestin del servidor ESXi (hostd) no est funcionando
correctamente.
Para asegrate de que el agente ESXi est funcionando, entra en la consola y ejecuta el
siguiente comando:
~ # ps | grep hostd
2847 2847 hostd-worker
2848 2847 hostd-poll
hostd
hostd
hostd
hostd
/usr/libexec/hostd/nssquery
hostd
hostd
/usr/libexec/hostd/nssquery
hostd
hostd
hostd
hostd
hostd
hostd
hostd
hostd
~#
Si este agente estuviera parado, puedes arrancarlo desde la consola DCUI de tu servidor
ESXi seleccionado F2 > Restart Management Network.
El plugin de vCenter para hacer backups de las mquinas virtuales, VMware Data
Recovery
El tamao de la base de datos de vCenter vara dependiendo del nmero de servidores ESXi y
de las mquinas virtuales que tengas registradas, pero por cada 50 mquinas virtuales
necesitars, al menos, 700MB extra de espacio en disco.
Desde la opcin vCenter Server Setting > Statistics > Database Size puedes crear simulacros
cobre el tamao necesario para la base de datos de tu vCenter. Recuerda que esta opcin es
solo un simulacro y no cambia nada de tu configuracin.
Aviso: En la imagen anterior, la cantidad de espacio estimado es para una base de datos
SQL. Si vas a utilizar en tu entorno una base de datos con Oracle, asegrate de dividir por dos
el valor mostrado con esta utilidad.
Una mquina virtual es un conjunto de ficheros en donde se ejecuta el sistema operativo y las
aplicaciones.
Los tres ficheros ms importantes que forman una mquina virtual son: el fichero
BIOS(.nvram), el fichero de configuracin (.vmx) y el fichero del disco virtual (.vmdk).
Para poder acceder a la BIOS de una mquina virtual, presiona F2 cuando la mquina virtual
est arrancando o edita la configuracin de la MV para forzar que entre en la BIOS cuando se
encienda.
Adicionalmente, los ficheros de snapshot de una mquina virtual son: 00000#-delta.vmdk,
00000#.vmdk y SnapshotNombre.vmsn.
Los ficheros con extensin .vmem corresponden a la memoria de la mquina virtual mapeada
a un fichero. Este fichero solo existe si la mquina virtual est encendida o tiene un snapshot.
Los ficheros con extensin .vmss corresponden al fichero de una mquina virtual en modo
suspendida.
Las VMware tools se instalan como una aplicacin ms dentro de la mquina virtual.
Selecciona la mquina virtual desde el inventario, haz un clic derecho con el ratn y
selecciona Install/Upgrade VMware Tools.
Las VMware tools incluyen los siguientes drivers: SCSI, SVGA, ratn, VMXNET 3 adaptador
de red, Memory Control (ballooning), Filesystem Sync y soporte para el servicio Windows:
Volume Shadow Copy Services (VSS).
El driver de ballooning es tambin conocido como vmmemctl driver y su principal misin es
"reclamar" memoria no usada a las mquinas virtuales. La mxima cantidad de memoria que
el driver vmmemctl puede reclamar a una MV es de un 65% de la memoria no reservada.
En vSphere 5, VMXNET 3, es el nombre del adaptador de red "paravirtualizado" de alto
rendimiento. Este adaptador solo est soportado en mquinas virtuales con hardware virtual
versin 8 (Las mquinas virtuales en vSphere ESX/ESXi 4.x usan hardware virtual versin 7
y en vSphere ESXi 5 el hardware virtual es versin 8).
Asimismo, las VMware Tools mejoran el movimiento del ratn, la gestin de la memoria y
tambin permiten hacer shutdown de la mquina virtual desde el men de inventario del
vCenter.
El mximo de memoria RAM que una mquina virtual puede tener configurado en vSphere 5
es de 1TB. Una mquina virtual puede fallar al encenderla, si la reserva de memoria asignada
a esta mquina virtual no puede ser garantizada por el VMkernel con lo que cuidado con hacer
reservas de memoria altas en tus mquinas virtuales!.
Usa Ctrl + Alt + Ins en lugar de Ctrl + Alt + Del para entrar en la consola de una mquina
virtual.
Qu es un vApps y cmo crearlo en vSphere 5?
Un vApp en VMware es la entidad lgica constituida por una o varias mquinas virtuales, que
utilizan el formato OVF para especificar y encapsular todos los componentes de una aplicacin
multinivel, as como las polticas y niveles de servicio asociados a la misma.
El nmero mximo de caracteres que puedes usar para crear el nombre de un vApp es de 80.
Este tipo de contenedores es ideal para aplicaciones multitiered donde tenemos aplicaciones o
mquinas virtuales en el backend, front-end y en el midle-tier. De esta forma, al agrupar las
distintas mquinas virtuales en un solo vApp podemos encenderlas, apagarlas y clonarlas con
un solo clic de ratn.
Los objetos que pueden ser incluidos en un vApp son los siguientes:
Resource Pools
Mquinas Virtuales
Si las opciones de vApp estn deshabilitadas en las propiedades de la mquina virtual que
forma parte de un vApp, no podrs editar el IP Allocation Policy como vemos en la siguiente
imagen.
Asimismo, dentro del vApp en la pestaa de configuracin Start Order, puedes seleccionar que
mquina virtual arranca antes, cual es la secuencia de arranque del vApp y el delay en
segundos que quieres configurar entre el arranque de las mquinas virtuales.
Qu son los clones y plantillas y cmo crearlas en vSphere 5?
Un clone es una copia exacta de la mquina virtual (mismo SID, hostname, direccin IP, etc) y
es posible hacer dicho clone mientras la mquina virtual est encendida. No obstante, la MAC
virtual de la tarjeta virtual del clone es diferente para evitar tener ms de una mquina virtual
con la misma MAC virtual.
La opcin Clone to Template, crea una plantilla de una mquina virtual ya configurada. Esta
mquina virtual es marcada como plantilla y no podr ser encendida hasta que la plantilla sea
convertida en mquina virtual (Convert to Virtual Machine). Si precisaras actualizar una
plantilla (service pack, etc), debers convertir la plantilla a mquina virtual, actualizarla y
posteriormente convertirla de nuevo en plantilla.
Para poder cambiar la identidad de un clone o template desde vSphere Client, es necesario
usar Sysprep, una herramienta de Microsoft incluida en el CD del sistema operativo
(deploy.cab)
No obstante, has de copiar a mano los archivos de Sysprep en el directorio "C:\Documents
and Settings\All Users\Application Data\VMware\VMware VirtualCenter\sysprep" del servidor
de vCenter. Ah debers ubicar los diferentes Sysprep segn las versiones de Windows que
indican los diferentes subdirectorios que existan. En caso de no copiar los ficheros de Sysprep,
no podrs hacer ninguna parametrizacin de clones o plantillas.
Adicionalmente, si quieres personalizar una mquina virtual Linux, has de instalar Perl en el
sistema operativo Guest.
La opcin, Convert to Template, convierte una mquina virtual en plantilla. La mquina virtual
debe estar apagada. El uso de plantillas ofrece varios beneficios fundamentales: usan menos
espacio en disco y stas no pueden ser modificadas hasta que no se conviertan a mquinas
virtuales. De igual forma, se asegura un despliegue rpido y sin esfuerzo de las mquinas
virtuales a la vez que se estandarizan las mismas.
Cuando creas un clone o template de una mquina virtual que tiene discos RDM en formato
"Physical Compatibility Mode", la mquina virtual resultante crea el disco RDM pero cambia
el formato a "Virtual Compatibility Mode". Recuerda que es posible
hacer clones y templates de mquinas virtuales con discos RDM.
La caracterstica fundamental de un disco RAW en modo "Physical Compatibility mode" es que
permite al sistema operativo "Guest" acceder al hardware directamente sin que el VMkernel
haga ninguna traduccin binaria de las instrucciones.
Dos de los grandes beneficios de un disco RDM en modo virtual es que podrs usar las
funcionalidades de cloning y plantillas.
Aviso: Las mquinas virtuales que usan discos FC RDM te permitirn usar software de
clustering, agentes de gestin SAN y software SCSI dentro de la misma mquina virtual.
El tamao mximo de un RDM soportado en VMware vSphere 5 y en modo fsico es de
64TB. Las mquinas virtuales en un DataCenter pueden ser clonadas a otro diferente, pero no
pueden ser migradas con vMotion.
Cmo habilito o deshabilito la opcin de logging en la mquina virtual?
Por defecto, la opcin de logging para las mquinas virtuales est activada. Una de las
posibles razones por la que quizs quieras desactivar esta opcin, podra ser el poder
maximizar el espacio disponible en los DataStores. No confundas la opcin de login con la de
logging.
Hay seis archivos de log que siempre se mantienen archivados para todas y cada una de
mquinas virtuales existentes en tu entorno. Por ejemplo, de -1.log a -6.log son los ficheros
logs de las mquinas virtuales que se crearn por primera vez cuando se cree una mquina
virtual.
La prxima vez que un archivo de log sea creado, por ejemplo, cuando una mquina virtual es
apagada o encendida, ocurre lo siguiente:
vSphere ESXi 5 permite desplegar mquinas virtuales entre diferente centros de datos.
Tambin te permite clonar una mquina virtual desde un centro de datos a otro.
Asimismo, es posible desplegar una mquina virtual desde una plantilla localizada en un
centro a otro centro de datos diferente.
Por ejemplo, podras clonar una mquina virtual Windows desde el centro de datos Data
Center A al Data Center B. Sin embargo, no es posible migrar en caliente una mquina
virtual con VMotion desde un centro de datos a otro. El error que se muestra en el
vSphere Client es: "The input arguments had entities that did not belong to the same
datacenter".
Una de las mejoras de vMotion en la nueva versin de vSphere ESXi 5 es el hecho de poder
crear diferentes vmknics y agruparlas en un mismo VSS para poder incrementar la velocidad
de las migraciones en caliente.
Asimismo, VMware vSphere ESXi 5 incluye Metro vMotion. Ahora, con Metro vMotion, no
slo tendrs un mejor rendimiento de tus migraciones en redes con una latencia muy alta, sino
que tambin, el RTT - de las siglas en ingles round trip time - ha aumentado de cinco a diez
milisegundos.
Antes de la versin vSphere 5.0, vMotion slo soportaba redes con latencia de ida y
vuelta de hasta cinco milisegundos. Con Metro vMotion y VMware vSphere 5.0, podrs migrar
en caliente tus mquinas virtuales cuando el host de origen y el host destino tienen una
latencia superior a 5 milisegundos.
Por supuesto, la mala noticia es que para poder disfrutar de Metro vMotion necesitas, al
menos, licencia Enterprise plus.
Configurando el Power Management en las mquinas virtuales
Las opciones de Power Management te permiten especificar como responde una mquina
virtual cuando el sistema operativo Guest es puesto en standby.
Estas opciones estn disponibles para todas las mquinas virtuales. No obstante, la opcin de
Wake on LAN (WOL) solo est soportado para sistemas operativos Windows y en alguno
sistemas operativos Linux y no est disponible en las tarjetas virtuales que utilicen el driver
Vlance, es decir, aquellas mquinas virtuales en las que las VMware tools no estn instaladas
en el SO Guest. Otra razn importante para instalar las VMware Tools!.
Migraciones vMotion con High Priority o Low Priority?
Hay dos requerimientos fundamentales para poder hacer migraciones con VMware:
1. Los dos servidores vSphere ESXi 5 involucrados en la migracin tienen que estar
conectados via red Ethernet Gigabyte.
2. Las mquinas virtuales deben tener acceso a las mismas subredes en los host vSphere
origen y destino.
VMware vMotion permite mover una mquina virtual desde un servidor ESXi a otro. Una
migracin en fro (cold migration), mueve una mquina virtual apagada y permite reubicar su
disco virtual en otro DataStore. La migracin en frio (es decir con la mquina virtual apagada)
pueden ejecutarse entre CPUs de distintos fabricantes, Intel y AMD. Para migraciones con
VMware vMotion en caliente, las CPUs han de ser compatibles dentro de la misma familia de
procesador y del mismo fabricante.
Las migraciones en caliente (hot migration) pueden fallar cuando activamos el soporteVMI
Paravirtualizacin en la mquina virtual del host ESXi origen y el host destino no tiene
soporte para VMI Paravirtualizacion. Por cierto, no te cuento que es VMI paravirtualizacin
pues VMware lo ha desactivado en esta nueva versin.
Recuerda que la migracin en caliente, mueve la mquina virtual de un servidor ESXi a otro
pero no mueve su disco virtual.
Una migracin con High Priority (Reserve CPU for Optimal VMotion performance)reserva
recursos en el host destino, por tanto, la migracin puede que no se ejecute si el host destino
no tiene recursos suficientes.
Una migracin con Low Priority (Perform with available CPU resources) no reserva recursos
en el host destino, por tanto, migraciones con low priority siempre se ejecutan con xito,
aunque es posible que el proceso de migracin sea ms largo.
Recuerda que el nmero mximo de migraciones en caliente con vMotion, para una red de
1Gb/s, es de 4 migraciones simultneas. Sin embargo, para una red de 10Gb/s, el nmero de
migraciones simultneas con vMotion sube hasta 8.
Asimismo, el nmero mximo de migraciones simultneas con vMotion por datastore es de
128.
Una mquina virtual que est usando VMDirectPatch I/O no puede ser migrada con vMotion.
VMotion soporta mquinas virtuales con discos RDM (Raw Device Mapping) en
compatibilidad fsica as como discos en modo thick o thin.
Dicho sea de paso, el disco de una mquina virtual puede ser convertido
de thick athin mientras que la mquina virtual est encendida y usando Storage vMotion.
Asimismo, la misma mquina virtual puede ser "inflada" de thin a thick, pero solo mientras la
mquina virtual est apagada usando la opcin de inflate como muestro en la siguiente
imagen:
Una manera de optimizar el Storage para aumentar el rendimiento de las mquinas virtuales
es a travs de Storage vMotion.
Los permisos son asignados a los objetos de inventario (DataCenter, clster, Servidor
ESX/ESXi, Resource Pool, Mquina Virtual) del vCenter, mediante la asociacin de un usuario
o grupo con un role.
Si un usuario es miembro de mltiples grupos con diferentes permisos en diferentes objetos,
los permisos se "suman".
Recuerda que cuando asignes permisos directamente a un servidor vSphere ESXi, no podrs
asignar permisos en carpetas y virtual machines.
Los permisos definidos explcitamente a un usuario en un objeto, tienen preferencia sobre los
permisos definidos a un grupo sobre el mismo objeto.
Un Resource Pool Administrator puede mover un Resource Pool y modificar permisos
dentro de su Resource Pool.
Un Datacenter Administrator puede crear Resources Pools y aadir hosts al inventario.
El role No Access, permite a un administrador eliminar los permisos en un objeto que de otra
forma se hubiesen propagado.
El role Administrator, predefinido en vCenter Server, es el nico que puede asignar permisos
a los usuarios. Los dos nicos usuarios asignados a este role son el usuario root y el usuario
vpxuser.
Asimismo los permisos aplicados directamente a un objeto del inventario, sobrescriben los
permisos heredados (Propagate to Child Objetcs).
Si un usuario o grupo pertenece a un role en vCenter Server y el role es borrado, los usuarios
o grupos asignados a ese role no tendrn permisos en vCenter.
Aviso: Si quieres restringir la posibilidad que un administrador pueda instalar plug-ins con
vSphere Client, debes modificar los permisos de dicho administrador y eliminar el
permiso Register Extension privilege.
Clonando roles en VMware vSphere 5
Los usuarios del servidor ESXi, root y vpxuser, son asignados al role Administrator a nivel del
servidor ESXi.
El usuario vpxuser es una copia exacta del usuario root y el motivo de la existencia de este
usuario es permitirte cambiar la contrasea de root desde el vSphere Client sin perder la
conexin con el vCenter.
El usuario vpxuser no tiene ningn derecho (login, shell). Es muy buena prctica no modificar
las propiedades de este usuario ya que podramos, involuntariamente, alterar el buen
funcionamiento del servicio de logon en el host ESXi.
Este usuario vpxuser se crea al aadir el servidor ESX/ESXi al inventario del vCenter.
Aviso: Si modificas las propiedades de este usuario, que dicho sea de paso no es una mejor
prctica, es muy probable que no puedas gestionar tu servidor ESXi desde el vCenter. Para
poder corregir esta situacin, sigue los siguientes pasos.
1. Des registra y borra tu servidor ESXi del inventario de vCenter
2. Conctate directamente con el vSphere Client a tu servidor ESXi
3. Borra el usuario vpxuser
4. Vuelve a conectar y aadir tu servidor ESXi al inventario de vCenter
Configurando el Firewall en vSphere ESXi 5
En la versin ESXi 5, la red de gestin (Management Network) est protegida por un firewall
orientado a servicios el cual puede ser configurado usando vSphere Client o via comando
desde la consola del Shell de ESXi (esxcli network firewal).
En el episodio 31 de nuestro canal de televisin web: www.virtualizacion.tv puedes
descargarte gratuitamente una guida de referencia de todos los comandos posibles en ESXi 5
y el equivalente en versiones anteriores.
Con el comando esxcli network rewal podrs abrir desde consola uno o varios puertos del
firewall de tu servidor vSphere ESXi 5.
~ # esxcli network firewall
Usage: esxcli network firewall {cmd} [cmd options]
Available Namespaces:
ruleset
Available Commands:
get
load
refresh
set
unload
Puedes configurar un servidor para que arranque con el host, para que arranque
manualmente o que arranque automticamente si otros puertos estn abiertos o cerrados.
El firewall en ESX i5 est configurado, por defecto, con seguridad alta, bloqueando todo el
trfico de entrada y salida que no es necesario para el correcto funcionamiento de vSphere y
sus plugins.
Habilitando y deshabilitando el Lockdown mode en vSphere 5
Lockdown mode deshabilita todos los accesos directos a los hosts ESXi. De esta forma solo
ser posible acceder a tu servidor ESXi desde el vSphere Client conectndose al vCenter.
Por defecto, no existe ningn usuario local en los hosts ESXi con lo que si quieres crear un
usuario local en tu servidor ESXi asegrate de hacerlo antes de activar el Lockdown mode ya
que despus de estar activado no podrs crear usuarios locales.
Cmo podemos activar Lockdown Mode?
1. Desde la DCUI
3. Desde vCenter Server haciendo clic sobre host > Configuration > Security Profile
Aunque las tareas diarias de administracin y gestin de un entorno virtual con vSphere se
realizan generalmente desde el vSphere Client conectndose directamente al vCenter, en
ciertas ocasiones puede que sea necesario acceder directamente a los servidores ESXi. Por
ejemplo, cuando queremos acceder directamente a los logs locales de un servidor ESXi o
para hacer un backup local de dicho servidor.
En este caso, es una mejor prctica configurar tus servidores ESXi para que se unan a un
dominio del directorio activo para que los usuarios que necesiten tener acceso local tengan
que identificarse contra un directorio centralizado (AD).
La ventaja de este modelo es que t, como administrador, puedes seguir usando los usuarios
o grupos de tu directorio activo o NIS para conceder acceso local a tus servidores ESXi. Este
modelo es ms seguro y fcil de implementar que el tener que crear cuentas independientes
locales por cada uno de tus servidores ESXi.
Por supuesto, una vez que integres tu servidor ESXi con tu directorio activo o servidor NIS,
podrs seguir teniendo la posibilidad de crear usuarios o grupos locales a nivel de ESXi.
Para aadir tu servidor ESXi a tu directorio activo selecciona la pestaa deConfiguration >
Authentication Services
Una vez dentro de este men bsicamente tienes que introducir los datos de tu domino
(nombre, usuario y passowrd) y seleccionar Join Domain
Aviso: ESXi 5 automticamente concede acceso de administrador al grupo del directorio
activo llamado ESX Admins lo cual permite la creacin de otros grupos de administradores
globales.
Los Resource pools permiten asignar CPU y memoria dinmicamente. El clster VMware DRS
ofrece una herramienta extraordinaria para la gestin de recursos de una forma mucho ms
centralizada.
El uso de resource pools, lmites, reservas y shares es considerado por VMware una mejor
prctica para garantizar el uso de los recursos que las mquinas virtuales requieren.
Asimismo, es muy recomendable garantizar a cada usuario los permisos necesarios, y no ms
de los necesarios, para que puedan cumplir con su obligacin, que no es otra que la
administracin del entorno virtual.
Qu es un Resource Pool con memoria reservada?
Un resource pool es una abstraccin lgica (contenedor) el cual permite asignar recursos de
CPU y memoria de forma ms dinmica y eficiente. Por tanto, los recursos de un servidor
ESXi o un clster DRS pueden ser divididos y asignados ms eficientemente.
Los beneficios de un resource pool son los siguientes:
1. Facilidad de delegacin y control de acceso.
2. Separacin de los recursos del hardware.
Los resource pools pueden ser creados a nivel de servidor ESXi o clster VMware
DRS, pudiendo ser editados y modificados dinmicamente.
El indicador amarillo durante el ajuste de los recursos en un resource pool, muestra la cantidad
recomendada para ese recurso.
El memory overhead de las mquinas virtuales tambin consume memoria en elresource
pool y, por lo tanto, esta memoria es incluida en la reserva del resource pool.
Aunque VMware recomienda el uso y las buenas prcticas dentro de los resource pool, no es
aconsejable crear una jerarqua de ms de tres resource pools. La profundidad mxima de
esta jerarqua en los resource pools es de 8. Esto creara un nivel de burocracia excesivo en
cuanto al control de acceso se refiere.
Aviso: El nmero mximo de resource pools por host es de 1.600
Cambiando los recursos desde el Resource Allocation
Puesto que todas las mquinas virtuales acceden directamente a los recursos fsicos, estas no
sabrn qu hacer cuando todas las mquinas virtuales estn accediendo a los mismos
recursos, es decir, cuando haya contencin en tu sistema.
Por consiguiente, vSphere incluye un mecanismo para controlar que mquina virtual accede
a que recursos y por cuanto tiempo y prioridad.
Cuando la memoria o la CPU de un servidor ESXi est en overcommitted, es decir, las
mquinas virtuales estn configuradas con ms memoria y ciclos de reloj de CPU de lo que
dispone fsicamente el servidor ESXi, necesitamos tener un mecanismo para garantizar los
accesos.
Es aqu donde entran los conceptos de Shares, Limits y Reservation.
Limit: Es el valor consumido de ciclos de reloj de CPU o memoria fsica del servidor ESXi del
cual no es posible pasarse.
Reservation: Este valor es definido en Mhz para CPU y MB para memoria RAM y representa
un valor que debe estar disponible cuando la mquina virtual se enciende.
Shares: Es un valor que especifica la prioridad relativa o la importancia de acceso de una
mquina virtual a un recurso determinado. Los shares compiten entre el lmite y la reserva.
Por consiguiente, con estos tres parmetros podemos definir SLAs - de las siglas en ingls
Sevice Level Agreement - para todas y cada una de nuestras mquinas virtuales. Los shares,
limits y reservation tambin estn disponibles a nivel de resource pool.
Nota que cuando no hay contencin entre mquinas virtuales, el cambio de la configuracin de
los shares no tiene ningn efecto. No obstante, cuando hay contencin entre dos mquinas
virtuales a nivel de CPU y defines unos shares ms altos a una mquina virtual, estars dando
una prioridad ms alta a esta mquina virtual sobre la otra.
Es posible cambiar el valor de los shares de CPU y la reserva de memoria desde la pestaa
Resource Allocation a nivel de Cluster o a nivel de host ESXi cuando este no est configurado
en un clster.
Asimismo, tambin es posible modificar en "caliente" la reserva de CPU y el tipo de reserva,
Fixed o Expandible.
Cuando una mquina virtual, con la configuracin en shares de memoria en custom, es
aadida a un resource pool, es posible que recibas un warning que indica que la mquina
virtual obtendr un porcentaje muy alto del total de los shares para la memoria. Cambia la
configuracin de los shares de custom a high, medium o low para evitar este warning.
Cuando aades un servidor vSphere ESXi a un clster y la opcin de DRS no est
habilitada, los resource pools que estaban en el servidor vSphere ESX/ESXi son eliminados.
Asimismo, si creas un clster sin la opcin de DRS, no podrs crear resource pools a nivel de
clster.
Cambio dinmico de los Resource Pools
Es posible incluir ms de una mquina virtual en un mismo resource pool. En este caso, todas
las mquinas virtuales del resource pool competirn por los mismos recursos fsicos
especificados en el resource pool.
En el caso de que el resource pool no haya sido configurado con la opcinExplandable
Reservation, el rendimiento de las mquinas virtuales puede llegar a verse afectado.
Para incrementar el rendimiento de alguna mquina crtica que este dentro de dichoresource
pool, puedes aumentar el lmite de CPU del mismo. Los resource pools que estn en un
mismo nivel son llamados Sibling Pools.
Qu tamao deberan tener mis LUNs de almacenamiento?
VMware tiene dos mtodos bien diferenciados a la hora de configurar el tamao correcto para
las LUNs de almacenamiento. El mtodo predictivo o el mtodo adaptivo.
El mtodo adaptivo utiliza menos LUNs pero LUNs ms grandes mientras que el mtodo
predictivo, utiliza varias LUNs con diferentes tipos de RAID para adaptarse mejor a las
caractersticas de E/S de las diferentes aplicaciones.
Una buena prctica a la hora de configurar las LUNs, es crear LUNs de unos 800GB de
tamao y aadir entre 15-20 mquinas virtuales comprobando el rendimiento.
Pero puede ser que cuando vas a aadir la mquina virtual nmero 5 se crea un cuello de
botella a nivel de LUN. Por eso es muy importante que antes de aadir una nueva mquina
virtual a una LUN, monitorices a nivel de E/S el delay de dicha LUN. Si el rendimiento aun es
ptimo, mete otra mquina virtual y vuelve a monitorizar el rendimiento. Si el rendimiento sigue
siendo bueno, sigue metiendo ms mquinas virtuales.
Cuando detectes que el rendimiento no es bueno, y antes de que se genere un cuello de
botella en tu LUN, crea otro datastore y empieza a meter nuevas mquinas virtuales en tu
nueva LUN y vuelve a empezar con el proceso descrito.
Hola
Hoy terminamos con el curso de cinco das sobre VMware vSphere.
Si estas interesado en cursos de formacin VMware para la certificacin oficial o quieres
implementar vmware en produccin con nuestros servicios profesionales de virtualizacin solo
tienes que contestar a este correo y nos pondremos en contacto contigo inmediatamente.
Muchas gracias,
Jose Maria Gonzalez
CEO y Founder www.jmgvirtualconsulting.com
Cuando una mquina virtual quiere hacer una operacin de E/S al disco FC compartido de la
cabina de almacenamiento, el VMkernel ejecuta las siguientes tareas:
1 - El archivo correspondiente a la mquina virtual es localizado en el DataStore VMFS.
2 - La solicitud de los bloques en el disco virtual es asignada a los bloques en el disco fsico
apropiado.
3 -La solicitud modificada de E/S es enviada desde el driver del controlador de disco duro de
la mquina virtual a la tarjeta fsica HBA.
Es imprtate entender este proceso para poder monitorizar bien todos los elementos o capas
involucradas durante una operacin de escritura.
El valor mximo recomendado de memoria que se muestra cuando se est configurando una
mquina virtual representa el umbral por encima del cual la memoria fsica del host es
insuficiente para ejecutar la mquina virtual con un rendimiento ptimo.
El tamao de la particin swap de la mquina virtual (.vswp) ser igual al tamao de la
memoria fsica seleccionada cuando se configura la mquina virtual.
En nuestro caso, el tamao de nuestro fichero swap sera de 1GB, al asignarle 1GB de
memoria RAM a la mquina virtual durante su creacin. Esta regla es diferente cuando se
asignan reservas a las mquinas virtuales. Por ejemplo, si creas una mquina virtual con un
1GB de memoria RAM y creas una reserva de 350MB, el tamao del fichero swap ser de
1GB menos 350MB, es decir, 650MB.
VMware VMkernel detecta las pginas de memoria que son idnticas en todas las mquinas
virtuales y asigna estas pginas a la misma direccin de memoria fsica, con el consiguiente
ahorro potencial de memoria fsica. Esta tcnica es denominada Transparent Memory Page
Sharing (TMPS).
VMware VMkernel trata las pginas de memoria compartidas como pginas de memoria COW
(Copy on write), lo que significa que son pginas de solo lectura cuando son compartidas y
pginas privadas cuando una de las mquinas virtuales hace algn cambio.
TMPS est siempre activada, a menos que se deshabilite manualmente modificando el fichero
de configuracin de la mquina virtual (.vmx).
Asimismo, Transparent Memory Page Sharing es la tcnica de conservacin de memoria con
un impacto menor que otras tcnicas, como pueden ser el ballooning o swaping, por cuanto
permite eliminar pginas de memoria duplicadas ubicadas en diferentes mquinas virtuales.
No confundas TMPS con el Memory Balloon Driver, el cual permite reubicar memoria no usada
de una mquina virtual a otra. Las tcnicas de conservacin de memoria con Transparent
Memory Page Sharing y RAM Overcommit, permiten asegurarse la eliminacin de copias de
pginas de memoria redundadas entre mquinas virtuales.
Una de las nuevas funcionalidades en la versin ESXi 5, en cuanto a la optimizacin de
memoria se refiere, es el llamado Memory Compression.
En vSphere ESXi 5 es posible dedicar en exclusiva una tarjeta HBA, de red o incluso un disco
USB conectado directamente en el servidor ESXi a una mquina virtual
Para configurar VMDirectPath debes seleccionar la pestaa de Configuration > Advanced
Settings
Un icono verde indica que el dispositivo est habilitado y activo. Un icono naranja indica que el
estado del dispositivo ha cambiado y el servidor host debe ser reiniciado antes de que el
dispositivo pueda ser utilizado por la mquina virtual.
Una vez asignado el hardware a la mquina virtual, este no podr ser gestionado por el
servidor ESXi. La versin anterior ESX/ESXi 4.1 ya soportaba dispositivos USB en
modo passthrought. Para ms informacin sobre la configuracin de USB en
modopassthrought revisa el KB1022290.
Puedes conectar hasta dos dispositivos passthrought a una mquina virtual y solo pueden ser
tarjetas de red o tarjetas HBAs de fibra para la conexin a la SAN.
Detectando cuellos de botella en el componente disco
Una mquina virtual puede tener un cuello de botella a nivel de E/S de disco si el
contador SCSI queue length es alto.
Puedes ver en uno de nuestros videos tutoriales los dos contadores importantes a monitorizar
para ver si hay un cuello de botella a nivel de disco. Tambin aprenders a ver como se
monitorizan estos contadores: http://www.youtube.com/watch?v=-vZj35bazCc
Una aplicacin en una mquina virtual puede experimentar un rendimiento pobre, aunque la
mquina virtual tenga memoria disponible, ya que puede no tener memoria fsica disponible.
El nmero mximo de vCPUs con el que puedes configurar una mquina virtual es ahora de
32.
Para mejorar el rendimiento de una mquina virtual ejecuta los siguientes pasos:
1. Deshabilita dispositivos no usados como puertos COM, floppies o CD-ROM.
2. Optimiza la mquina virtual como si fuera una mquina fsica.
3. Pon mquinas virtuales con requerimientos similares en el mismo servidor vSphere
ESX/ESXi.
Detectando cuellos de botella en el componente vCPU
VMware recomienda mirar el indicador CPU Ready para determinar si la mquina virtual tiene
un cuello de botella en el componente CPU.
Si el contador de uso de la CPU est al 100% y el contador de CPU Ready est entre un 510% durante un periodo largo de tiempo, es muy probable que la mquina virtual tenga un
cuello de botella a nivel de CPU. Un incremento en el nmero de shares de CPU es muy
posible que beneficie a una mquina virtual que est saturada en cuando a CPU.
Puedes ver un video tutorial en nuestro canal de YouTube dedicado en exclusiva a la
virtualizacin de sistemas, sobre como monitorizar la capa de CPU en tu entorno virtual para
saber si hay un cuello de botella a nivel de CPU: http://www.youtube.com/watch?v=hGGc1qP4AY
Aviso: Para mejorar el rendimiento de la mquina virtual, o bien creas una afinidad de CPU en
la mquina virtual para que esta se ejecute solo en una CPU fsica, lo cual no es una mejor
practica porque entre otras cosas pierdes vMotion o haces una reserva de la CPU fsica en
exclusiva para la mquina virtual en cuestin.
Monitorizando Thin Provisioning con alarmas
Haz clic con el botn derecho sobre la LUN que quieres monitorizar y selecciona Add Alarm.
Crea una alarma para el DataStore que quieres monitorizar, selecciona el contador "DataStore
Disk Overallocation" y determina el porcentaje apropiado. Despus, desde la pestaa
de Actions, crea una accin que enve una notificacin va email al administrador.
Aviso: Puedes convertir un disco de mquina virtual de thin a thick con la opcininflate con la
mquina virtual apagada.
Asimismo, tambin puedes convertir un disco de thin a thick cuando haces una migracin con
Storage vMotion y seleccionas cambiar el tipo de disco a Thick.
Con el nuevo New Task Wizard ahora es posible crear y programar las siguientes
tareas: Create a snapshot of a virtual machine, Enter a host in Maintanance Mode, Create a
virtual machine template, Migrate a virtual machine with vMotion, etc.
Para automatizar estas alarmas, selecciona Home, Management, Scheduled tasks y haz clic
en New.
Por defecto, vCenter crea 55 alarmas pre-definidas sobre el objeto inventario raz. Estas
alarmas son de solo lectura, excepto cuando editas las alarmas desde el objeto inventario
donde fueron definidas. En ese caso podrs modificar las alarmas pre creadas.
Configurando vCenter Server para enviar notificaciones por email
Dentro del servidor de vCenter, selecciona Administration en la barra del men de opciones y
elige vCenter Server Settings. Despus selecciona la opcin Mail.
Escribe la direccin IP de tu servidor SMTP centralizado. Debes de configurar tanto el servidor
de SMTP como la direccin email desde donde se van a mandar los correos. Asimismo, tu
servidor vCenter tiene que tener instalado un agente relay de SMTP para poder mandar las
notificaciones va email.
Aviso: Para configurar las notificaciones SMTP, el cliente vSphere debe estar conectado al
servidor vCenter.
Con vSphere no solo es posible migrar las mquinas virtuales de servidor ESXi con la
funcionalidad de vMotion, sino que tambin es posible mover sus discos virtuales asociados
de datastore.
Para migrar una mquina virtual, selecciona esta desde el inventario con el botn derecho del
rato y selecciona Migrate
La imagen anterior muestra el wizard de migraciones de mquinas virtuales. Cuando
selecciona la opcin Change host estas usando vMotion y cuando selecciones Change
datastore lo que estas usando es Storage vMotion.
Tambin es posible hacer un vMotion y un Storage vMotion a la vez pero la mquina virtual
tendr que estar apagada.
La idea de usar Storage vMotion es para mover mquinas virtuales entre diferentes
DataStores NFS, iSCSI y FC. Uno de los beneficios ms grandes de Storage vMotion es el
hecho de poder mover un disco virtual de una mquina virtual de un DataStore a otro con
menos latencia y comprobar el rendimiento de la mquina virtual en el nuevo DataStore.
Tambin es posible migrar una mquina virtual con Storage vMotion con los discos
suspendidos. Storage VMotion no puede usarse en mquinas virtuales con NPIV activado.
Los discos Raw Device Mapping en compatibilidad fsica estn soportados por vMotion y
VMware HA.
Asimismo, vMotion est soportado en una mquina virtual con la opcin NPIV (N-Port ID
Virtualization) habilitada, pero no cuando esta mquina virtual tiene mltiples discos virtuales
en diferentes DataStores. NPIV no est soportado en mquina virtual con Fault Tolerance
habilitado, otro de los servicios Enterprise que cubriremos ms adelante en este libro.
Una migracin con vMotion no incurre en ningn downtime para la mquina virtual. Recuerda
que vMotion es requerido en un clster DRS/HA.
Es posible que los hosts ESXi involucrados en una migracin en caliente con vMotion no sean
compatibles. Cuando veas una cruz roja, desde la pestaa Maps, en un servidor vSphere
ESX/ESXi de un clster DRS/HA, significar que este servidor no es compatible con VMotion.
En cuanto a los requerimientos de vMotion, una mquina virtual no puede ser migrada cuando:
1.
La MV tiene una conexin a un virtual switch de uso interno pero no est conectado.
Por ltimo, recuerda que los servidores ESXi involucrados en la migracin deben tener:
Visibilidad de todas las LUNs (FC, iSCSI o NAS) usadas por la MV.
vSphere Data Recovery est incluido en la versin vSphere Essentials Plus. Es una
herramienta para hacer backups y restores a disco de tus mquinas virtuales el cual se integra
con vCenter Server. Es por lo que necesitas la existencia de vCenter Server para poder usar e
instalar este appliance de VMware.
vSphere Data Recovery utiliza el API VSS(Microsoft Volume Shadow Copy Services) para los
backups en Windows Vista 32bit, Windows Server 2003 32bit y Windows Server 2008
32bit. Windows XP no est soportado en Data Recovery.
vSphere Data Recovery tambin soporta servidores ESX 3.5.x. No obstante, el backup de
mquinas virtuales hospedadas en servidores ESX 3.5 suelen tardar ms que en vSphere
ESX 4.x. y ESXi 5. El motivo es que ESX 3.5 no soporta la nueva funcionalidad en vSphere
llamada changed-block tracking.
Para instalar vSphere Data Recovery has de bajarte el appliance desde la web de VMware,
instalarlo en un Servidor ESXi gestionado por vCenter e instalar el plugin cliente en el vSphere
Client.
El nmero de tareas mximo de backup o restore que Data Recovery soporta es de 8 tareas
simultneas.
vSphere Data Recovery soporta nuevas funcionalidades como backup a disco y deduplicacin
por consiguiente hay que asignar un disco al appliance de Data Recovery para hacer los
backups.
Este disco puede llegar a tener un tamao de hasta 1TB para discos de FC y de 500GB para
discos compartidos via CIFS. El motivo es que si usas tamaos ms grandes, segn VMware,
el rendimiento disminuye considerablemente.
Opciones de Clustering para las mquinas virtuales
Es posible clasterizar las aplicaciones dentro de las mquinas virtuales con software de
clustering de terceros. El nico software de clustering para las mquinas virtuales soportado
en vSphere es el software de clustering de Microsoft Windows.
Asimismo, existen tres opciones a la hora de clusterizar tus mquinas virtuales con el software
de clustering de Microsoft.
La primera opcin es clster in-a-box, el cual te permite protegerte contra fallos de usuario,
aplicacin y sistema operativo.
Aviso: Recuerda que el Bus Sharing para el disco SCSI 0 (c:) es = None y el Bus
Sharing para el disco SCSI 1 (quorum) es = Virtual. Los discos RDM solo estn soportados
en modo virtual.
La segunda opcin es clster entre hosts ESXi, el cual te protege contra fallos de usuario,
aplicaciones, sistemas operativos y hardware.
Aviso: Recuerda que en esta configuracin el Bus Sharing para el disco SCSI 0 es = None y
el Bus Sharing para el disco SCSI 1 es = Fsico. Los discos RDM estn soportados tanto
en modo virtual o fsico.
La tercera opcin es clster entre mquina fsica ESXi y mquina virtual, la cual te permite
una solucin de redundancia N+1 de bajo coste. En esta configuracin es posible que el
failover del clster falle si usas el driver STORport Miniport.
Aviso: Recuerda que en esta configuracin el Bus Sharing para el disco SCSI 0 es = None y
el Bus Sharing para el disco SCSI 1 es = Fsico. En esta configuracin, los discos RDM solo
estn soportados en modo fsico.
Si usas Windows Server 2003 en un clster Microsoft MSCS asegrate que la tarjeta virtual en
las mquinas virtuales es de tipo "Flexible".
Si usas Windows Server 2008 en un clster Microsoft MSCS asegrate que el adaptador
virtual SCSI en las mquinas virtuales es un "LSI Logic SAS"
Cuando creas un clster Microsoft MSCS entre dos servidores ESXi 5, el disco de la mquina
virtual donde residir el disco quorum del clster, debe ser un disco RDM en compatibilidad
fsico o virtual.
Personalmente, no veo la necesidad de clusterizar las mquinas virtuales con un software de
terceros, en este caso de Microsoft, ya que los servicios de alta disponibilidad en VMware,
como HA y FT, nos ofrecen un RTO - de las siglas en ingles Recovery Time Objective muy
bueno y con una configuracin mucho ms simple y flexible.
No obstante, si tu aplicacin requiere un RTO de menos de 5 minutos y requiere una
configuracin de ms de una vCPU, no tendrs otra alternativa que clusterizar estas mquinas
virtuales con el software de clustering de Microsoft para ofreces ese RTO.
VMware Fault Tolerance(FT)
VMware FT es otro de los servicios Enterprise en VMware. A diferencia de VMware HA, donde
la mquina virtual tiene un downtime mnimo, una mquina virtual protegida con FT tiene un
downtime de cero (menos 14 milisegundos en una red de 1Gb).
Solo hardware de ltima generacin soporta la funcionalidad Fault Tolerance en VMware.
Asegrate de verificar con tu proveedor de hardware que este tiene soporte para FT.
VMware Fault Tolerance usa la tecnologa de VMware vLockstep y no soporta discos thin en
las mquinas virtuales.
Cuando activas Fault Tolerance en una mquina virtual, esta no puede tener ms de una CPU
virtual (VMware SMP).
VMware Fault Tolerant y las polticas de no-afinidad y afinidad del clster DRS
Gracias a las polticas de no-afinidad en un clster DRS, una o ms mquinas virtuales nunca
podrn estar localizadas en un mismo servidor ESXi. Tambin es posible crear polticas de
afinidad, es decir, que una o ms mquinas virtuales siempre residan en un mismo servidor
ESXi.
Un ejemplo tpico de una polica de no-afinidad sera el caso de dos controladores de domino.
Como veremos ms adelante, cuando activamos VMware DRS, este migrara automticamente
las mquinas virtuales de host ESXi para balancear la carga. Yo le llamo el vMotion con
celebro. Pero NO queremos tener una situacin en donde los dos controladores de dominio se
migran automticamente a un servidor ESXi y que esta falla.
Si claro, VMware HA levantara las dos mquinas virtuales automticamente - si lo tienes
configurado - pero estars unos minutos sin ningn controlador de dominio, y no querrs que
esto pase, verdad?.
Aviso: No obstante, dada una mquina virtual en modo VMware Fault Tolerant, puede suceder
que tanto la copia primaria como la copia secundaria residan en el mismo host ESX/ESXi.
Este caso solo puede darse cuando la mquina virtual en modo Fault Tolerant est apagada.
Para poder activar FT es necesario previamente tener HA configurado.
Fault Tolerance y el panel Summary
El nmero mximo de mquinas virtuales por host que puedes proteger con HA es de
512, con independencia del nmero de host que tengas configurados en el clster HA.
El nmero mximo de mquinas virtuales por clster que puedes proteger con HA es
de 3.000
Activando vSphere VMware HA/DRS
Antes de configurar VMware HA, verifica que todas las mquinas virtuales pueden ejecutarse
en los nodos que vayan a formar el clster. Recuerda que el acceso a recursos comunes como
LUNs y redes virtuales es vital para que VMware HA funcione correctamente.
Para crear un clster con la opcin de HA, selecciona el objeto de inventario datacenter con el
botn derecho del ratn y selecciona create new clster. En la imagen anterior se muestra el
wizard de creacin de un clster. Para activa la parte de HA del clster solo tienes que marcar
la opcin Turn on VMware HA. Es una muy buena prctica tener HA y DRS activados juntos.
DRS se activa de la misma forma que activamos VMware HA.
VMware HA solo reiniciar las mquinas virtuales en otro servidor vSphere ESXi cuando uno
de los servidores del clster se asla de la red o un host falla.
Recuerda que para que VMware HA funcione perfectamente, todos los servidores vSphere
ESX/ESXi en el clster deben tener acceso a los DataStores compartidos por todos los
servidores ESX/ESXi.
Asegrate que tu servidor DNS funciona perfectamente y que puedes hacer ping por nombre
corto, FQDN, alias y direccin IP desde todos los servidores ESX/ESXi y desde el vCenter, as
como al default gateway.
VMware HA instala un agente en cada servidor ESXi el cual monitoriza el host ESXi as como
las VMware tools en todas y cada una de las mquinas virtuales registradas. Asimismo, y
opcionalmente, este agente tambin puede ser configurado para monitorizar los heartbeats de
las aplicaciones que estn corriendo en las mquinas virtuales.
Cuando un servidor vSphere ESXi es puesto en modo mantenimiento en un clster HA/DRS,
las mquinas virtuales se migrarn automticamente a otros servidores vSphere ESXi,
siempre que el clster est configurado en fully automated. Si el clster est configurado
en partially automated, el administrador de vCenter deber mover las mquinas virtuales
manualmente. Recuerda los tres niveles de automatizacin para un clster DRS: Manual,
Partially Automated y Fully automated.
Los niveles de automatizacin en VMware DRS se definen en base a dos valores: dnde se va
a arrancar la mquina virtual cuando est apagada, y dnde se va a mover (vMotion) la
mquina virtual cuando est encendida (balanceo dinmico o DRS).
En un clster DRS, con la configuracin fully automated, si deseas que una mquina virtual no
se migre a otro servidor vSphere ESX/ESXi, has de cambiar las opciones de la mquina virtual
a Partially Automated.
La diferencia entre partially automated y fully automated en un clster DRS es que un clster
con la opcin fully automated migra las mquinas virtuales para optimizar el uso de los
recursos.
En la seccin, Virtual Machine Options, puedes cambiar el nivel de automatizacin por
mquina virtual.
La diferencia entre default (Partially Automated) y Disable, es que con Disabled el clster DRS
no genera ninguna recomendacin para esa mquina virtual en particular. Por consiguiente,
esta mquina virtual nunca sera migrada automticamente con VMware DRS (vMotion).
Aviso: En una configuracin DRS con solo dos servidores ESXi, es posible que un servidor
ESXi est usando el 100% de los recursos (memoria y CPU) mientras que el otro servidor est
mucho ms libre. Este es un caso tpico de que no existen recursos suficientes para ejecutar
una migracin en caliente con vMotion o que las CPUs de los host en el clster son
incompatibles con vMotion.
Cambiando el orden de prioridad en el arranque de mis mquinas virtuales en VMware
HA?
Edita los Settings de VMware HA y selecciona Virtual Machine Options. En mi ejemplo, para la
mquina virtual llamada DC1, he cambiado VM Restart Priority a High. Esto significa que la
mquina virtual DC1 arrancar antes que la mquina Windows (VM Restart Priority Medium).
Aviso: Recuerda que los settings a nivel de mquina virtual sobrescriben los settingsdefinidos
a nivel de clster.
Cuando estableces VM Restart Priority a Disabled, como en la mquina virtual llamada W2k
mi ejemplo, le ests indicando al clster VMware HA que, en caso de fallo hardware en uno de
los nodos, no reinicie dicha mquina virtual.
Recuerda las 4 opciones disponibles en la opcin VM Restart Priority en VMware
HA:Disabled, low, Medium y High
Configurando la parte de red en VMware HA
Es recomendable tener dos tarjetas de red para el control del latido del clster (heartbeat).
Asimismo, los uplinks vmnic0 y vmnic1 en mi ejemplo, deberan estar conectados a switches
fsicos diferentes para estar protegidos tambin contra fallos en la capa de red fsica.
La forma en la que vSphere VMware HA calcula el "failover capacity", cuando se activa HA con
la primera poltica de control de admisin (host failures clster tolerates), es usando el valor
ms alto de las reservas de memoria y CPU de las mquinas virtuales de un clster. Recuerda
que debe haber recursos suficientes en el clster (memoria y CPU) para poder acometer un
failover.
Un clster VMware DRS/HA mostrar un estado rojo si el nmero del contador "failover
capacity" es menor que el nmero "configured capacity".
Aviso: Recuerda que el valor por defecto de Isolation Response es de leave power on, es
decir, en caso de aislamiento de uno de los nodos del clster (perdida del heartbeat), las
mquinas virtuales se dejaran encendidas.
Restart Priority e Isolation Response son configuraciones a nivel de clster. Esta configuracin
puede ser modificada tambin a nivel de mquina virtual.
Si una mquina virtual en un clster DRS est teniendo problemas de rendimiento, debers
incrementar los shares de CPU de dicha MV a High o incrementar sus reservas de CPU.
Distributed Power Management (DPM)
Distributed Power Management es otro de los servicios Enterprise que se puede activar
cuando creamos un clster HA/DRS.
La idea de DPM es tener el centro de datos del futuro en el cual los servidores ESXi se
apagan cuando no se necesitan y se enciende cuando se les necesitan.
Puedes ver un video tutorial de DPM en accin en nuestro blog de virtualizacin y cloud
computing en espaol en la siguiente direccin web:http://www.josemariagonzalez.es
DPM usa Wake-on-LAN(WOL), IPMI (Intelligent Platform Management Interface) o las tarjetas
de gestin remota iLO de HP para poner el host ESX/ESXi en modo standby y volver a
encenderlo cuando el clster DRS lo necesite.
DPM est deshabilitado por defecto cuando se crea un clster DRS.Si lo activas, asegrate de
que las tarjetas de red dedicadas a vMotion soporten WOL pues es por esta red por donde se
envan los paquetes mgicos de para poner un host en modo standby o para sacarlo de ese
modo cuando sea necesario.
Quizs DPM tenga ms sentido en entornos grandes pues es donde ms dinero en energa y
refrigeracin puedes ahorrar.
No obstante, en clientes pequeos (4 servidores ESXi) donde hemos configurado DPM,
estamos ahorrando alrededor u unos 1.200 euros al ao, lo suficiente para comprarte otra
licencia de VMware Essentiasl!.
Verificando la configuracin del host con Host Proles
La opcin de Host Profiles es otra de las funcionalidades Enterprise que todo centro de datos
virtualizado de cierta envergadura debera tener configurado por la cantidad de trabajo que
este puede ahorrar al administrador.
Bsicamente con host profile podemos capturar la configuracin de un host ESXi 5 especfico
y duplicar dicha configuracin a otro host o clster con el consiguiente ahorro en la fase de
post-configuracin de todos tus servidores ESXi.
La funcionalidad de host profile tambin te permite comprobar que la configuracin de los host
ESXi 5, en tu centro de datos, siguen las mejores prcticas y estn configuradas acorde con
el baseline del administrador.
Host Profiles es el mtodo recomendado por VMware para configurar servidores ESXi cuando
han sido instalados con VMware Auto Deploy.
Para poder aplicar una configuracin con host profile a un servidor ESXi este tiene que ser
puesto primero en modo mantenimiento (maintenance mode)
Cuando un servidor ESXi 5 es puesto en modo maintenance mode, ninguna mquina virtual
puede ser encendida en ese servidor o migrada al mismo con DRS o manualmente con
vMotion.
Aviso: La ejecucin de Host profile puede fallar cuando el host no ha sido puesto en modo
mantenimiento o es un servidor ESX 3.x ya que la funcionalidad de host profile solo est
disponible a partir de las versiones ESX/ESXi 3.5
VMware vCenter Site Recovery Manager
Con vCenter Update Manager, en combinacin con VMware DRS, es posible actualizar el
hardware virtual de las mquinas virtuales, las VMware tools, parchear las appliances y
actualizar los servidores ESXi de una forma automatizada (VMware Orchestator), flexible y sin
ningn downtime.
VUM visto desde el servidor de vCenter
Para instalar VUM, debes de instalar la parte servidor en el mismo servidor donde tienes ya
instalado vCenter Server (para entornos pequeos) o en otro servidor independiente al
vCenter (entornos grandes). El binario est en el mismo DVD que el vCenter Server.
Una vez que lo hayas instalados, podrs actualizar los siguientes objetos: ESXi,Virtual
Appliances, VMware Tools y hardware virtual.
vCenter Update Manager incluye las siguientes baselines para las mquinas virtuales :
VMware Tools Upgrade to Match Host, VM hardware Upgrade to Match Host y VA Upgrade to
Laster. Y para los servidores ESXi son: Critical Host Patches y Non-Critical Host Patches
Recuerda que no importa el nmero de servidores vSphere ESXi que tengas en un clster,
solo podrs actualizar uno cada vez con vCenter Update Manager.
Aviso: El nmero mximo de mquinas virtuales que VMware Update Manager (VUM) puede
escanear por instancia de vCenter Server es de 10.000.
Asimismo, el nmero mximo de VMware Tools que puedes actualizar por servidor VUM es de
75 as como virtual machine hardware scans por servidor de VUM.
Algo imprtate a destacar, es quizs el hecho de que no es posible actualizar las VMware
tools por servidor ESXi, sin usar el servidor VUM, de ms de 24 mquinas virtuales a la vez.
Recuerda que no podrs actualizar con VUM el hardware virtual de tus mquinas virtuales en
servidores legacy, es decir, de servidores hosts que no sean ESXi 5.
Por ltimo, los puertos que VMware Update Manager usa son: 8084, 9084, 9087.
VMware vSphere Storage DRS
Antes de activar SDRS (Storage DRS) has de crear un grupo de datastores llamado datastore
clster. Un datasotre clster con SDRS activado balancear los discos de tus mquinas
virtuales (.vmdk) de la misma forma que un clster DRS balancea las mquinas virtuales con
vMotion.
Para crear un datastore clster, selecciona el objeto de inventario de tu vCenter con el botn
derecho del ratn y selecciona New DataStore Cluster.
Puedes configurar, como en VMware DRS, tu datastore clster en modo manual o
completamente automtico. Quizs lo ms importante a la hora de configurar tu datastore
clster es seleccionar unos buenos Thresholds de configuracin de E/S en tus LUNs. Esta
configuracin de los thresholds permitir a SDRS hacer las recomendaciones necesarias de
migraciones.
En mi ejemplo, me he creado un datastore clster con una latencia de I/O mnima de 15
milisegundos. Si mis mquinas virtuales sufrieran una latencia de E/S superior a los 15
milisegundos, SDRS migrara la mquina virtual con Storage vMotion a otro datasotre del
clster que ofrezca el mnimo de latencia configurado.
De esta forma podrs crear SLAs - de las siglas en ingls Service Level Agreetment - para
todas y cada una de tus mquinas virtuales de una forma rpida, sencilla y automatizada. Sin
lugar a dudas, Storage Distribute Resource Scheduler es una de las funcionalidades del centro
de datos del futuro el cual es virtual, flexible, dinmico y plug & play.