Anda di halaman 1dari 177

CURSO DE VMWARE 5.

5
INSTALAR ESXI
30 octubre, 2014administradorVMwarecertificacion vcp, consejos vcp, curso vcp, curso
vmware,curso vsphere, guia vcp, tutorial vcp

DOCUMENTACION UTIL DURANTE


ESTE CURSO DE VMWARE
Aqui te dejo un enlace a la documentacin de vSphere que puede ser (y ser)
realmente til en tu proceso de aprendizaje hacia la certificacion VCP.
Tambien te dejo un enlace al blueprint del examen VCP, donde se especifican
los objetivos y requisitos de conocimiento para presentarse y aprobar el
examen de certificacion VCP.

CURSO DE VMWARE
PLANIFICAR, INSTALAR ESXI Y
CONFIGURARLO
En este primer captulo de la gua para la certificacion VCP aprenderemos:

1. Requisitos de VMware ESXi


2. Instalar ESXi y configurarlo.
Antes de comenzar con la guia de certificacion VCP es necesario aclarar una
serie de conceptos bsicos que iremos manejando a lo largo del curso. En
posteriores comienzos de captulos iremos ampliando nuevos conceptos bsicos
segn se vayan utilizando.

Host: Es el servidor fsico donde vamos a instalar ESXi. El contenedor


fsico de las mquinas virtuales.
Guest: Cada una de las mquinas virtuales que se ejecutan dentro de un
host.
NIC: Tarjeta de red. Es acrnimo de Network Interface Card. vmnic es el
nombre que se da a las tarjetas de red de VMware.
LUN: Logical Unit Number, se trata de un contenedor de informacin en
almacenamiento compartido con tecnologa SAN (Fiber Channel o iSCSI)
DHCP: Protocolo de asignacin dinmica de direcciones IP

REQUISITOS DE VMWARE ESXI


Para conseguir instalar ESXi en un equipo, necesitamos que cumpla como
mnimo con los siguientes requisitos:
Al menos 1 CPU de 64 bit SOPORTADA.
Al menos 2 cores.
Al menos 4 GB de RAM.
Al menos 1 tarjeta de red Gigabit o 10Gbe SOPORTADA.
Al menos una controladora de disco soportada para el almacenamiento
local
Un dispositivo de arranque con un tamao mnimo de 1GB.
Soporte de las instrucciones LAHF y SAHF en la CPU (Load AH from
Flags y Store AH into Flags)
Soporte del bit NX/XD en la CPU. Que esta opcin est activada en
la BIOS.
Soporte de instrucciones de virtualizacin en la CPU. En Intel, VT-x, en
AMD RVI.
5.2GB de espacio en LUN si arrancamos desde almacenamiento SAN.

INSTALAR ESXI
Para instalar ESXi 5.5 debemos como primer paso descarganos la iso de
vmware.com. La iso que voy a utilizar para esta gua es VMware-VMvisor-
Installer-201410001-2143827.x86_64.iso y es descargable de forma gratuita al
registrarse en la web de VMware.
Conectate con una consola (monitor y teclado) al servidor donde vas a instalar
ESXi. Yo lo instalar dentro de mi host de laboratorio, como mquina virtual
dentro de otra mquina virtual. Es lo que se conoce como nested esxi o esxi
anidado.
Una vez hayas grabado la iso de ESXi a un CD o a un Pendrive, conctala al
servidor y arranca desde ella. Cada servidor tiene su forma de arrancar desde
CD / USB y est fuera del mbito de este curso para la certificacion VCP entrar
en particularidades de cada fabricante de hardware. Consulta el manual del
fabricante para ms informacin.

Una vez haya arrancado la ISO, se te presentar la siguiente pantalla


informndote de que vas a comenzar la instalacin (Pulsar ENTER):

A continuacin debers el acuerdo de licencia (Pulsar F11)


En la siguiente pantalla se te preguntar dnde quieres instalar ESXi. En mi
caso es el primer disco de 4GB disponible. Los dems los usaremos ms
adelante para VSAN. Seleccionamos el correcto (se marca en amarillo) y
pulsamos ENTER.

A continuacin debers elegir el idioma de tu teclado. Esto es importante para


poner la contrasea en caso de que incluya smbolos o caracteres no
alfanumricos. Selecciona Spanish y pulsa ENTER.
Introduce una contrasea para el host ESXi. La longitud mnima es de 7
caracteres. Despus, tras verificar que la has escrito correctamente teclendola
de nuevo en el rengln inferior, pulsa ENTER.

El siguiente paso verificar que tu equipo cumple los requisitos mnimos para la
instalacin, si se encuentra algn problema vers un mensaje similar al
siguiente, en el que indica que las instrucciones de virtualizacin VT-x no estn
habilitadas en la BIOS. Recuerdas que era un requisito de instalacin? Si
usas esxi anidado, puedes activarlo de la siguiente manera: Seleccionas la VM
con el ESXi, Edit Settings, Pestaa Options, CPU / MMU Virtualization, opcin de
abajo del todo. Si no sabes lo que es esxi anidado, ignora esto ltimo.
Se te pedir confirmacin antes de instalar ESXi en el disco que has
seleccionado anteriormente, ya que la instalacin borra todo el contenido que
haba en esos discos anteriormente y los reparticionar. Pulsamos F11

El instalador tiene un indicador de progreso y tarda unos cuantos minutos,


dependiendo sobre todo de la velocidad del almacenamiento al que estamos
escribiendo. Es posible que a veces parezca que se detenga, pero normalmente
tarda entre 5 y 20 minutos en instalarse.

Cuando haya terminado, se nos presentar un dilogo indicando que se va a


reiniciar el equipo. Pulsamos ENTER para reiniciar.
Una vez haya terminado de reiniciarse el host, intentar obtener IP mediante
DHCP. Esto lo har un poco menos cmodo de manejar y susceptible de
cambios de IP no controlados. VMware recomienda utilizar IPs estticas para los
hosts ESXi as que vamos a proceder con la configuracin de la red de gestin.
Pulsa F2 para acceder a Direct Console User Interface (DCUI). Es el sistema de
mens de gestin bsica de ESXi. Podrs acceder a l tras teclear tu
contrasea. El usuario es root.
A continuacin nos dirigimos al men Configure Management Network y
seleccionamos Network Adapters para asegurarnos de que la tarjeta de red
usada para administracin es la que queremos. Este paso es opcional e
innecesario si solo tenemos una tarjeta de red (no recomendado).
Despus, vamos a IP Configuration y elegimos la opcin Set static IP address
and network configuration, introduciendo los parmetros que queramos

A continuacin, iremos a DNS Configuration e introduciremos los valores que


necesitemos dentro de nuestra red. Disponer de resolucin DNS directa como
inversa es muy recomendable y necesario para algunas tareas. Configurar un
servidor DNS interno queda fuera del alcance de este curso, pero ms adelante
veremos algunas formas de prescindir del DNS dentro del vCenter.
Por ltimo, iremos a Custom DNS Suffixes para introducir el nombre de dominio
dns que vamos a utilizar para nuestra infraestructura. Para mi laboratorio uso el
dominio virt.es, usa el que prefieras.

Ahora pulsaremos la tecla ESC y diremos que queremos aplicar los cambios
pulsando Y.
Podremos ver como nuestro host ESXi comienza a responder a ping

Para tu informacin, para todos los ejercicios que haremos a lo largo de este
curso, he creado 3 hosts ESXi diferentes. Hay que estar familiarizado con ellos
as que te dejo una relacin de los mismos:

esxi01.virt.es 192.168.1.11
esxi02.virt.es 192.168.1.12
esxi03.virt.es 192.168.1.13

INSTALAR EL VSPHERE CLIENT


Una de las paradojas de las ltimas versiones de vSphere es que puede
administrarse desde web mediante el vCenter, que a su vez est disponible
como una mquina virtual (VCSA, vCenter Appliance). Sin embargo, la
herramienta bsica de gestin para desplegar vCenter sigue siendo un cliente
de Windows.

Para instalar el cliente de Windows de vSphere, iremos a https://IP_DE_TU_ESXi


y una vez all haremos click en Download vSphere Client
Tras instalarlo como cualquier otro programa, lo abriremos y veremos el
siguiente dilogo
Una vez introducidos los datos del host ESXi, daremos a login
Cuando nos salga el siguiente aviso sobre los certificados SSL, debemos decir
que los aceptamos y marcar la casilla para que ignore esto en un futuro. Los
certificados SSL que estamos utilizando son auto firmados y por eso nos avisa
de que no son seguros. Para la mayora de entornos, esto no nos supone un
problema.
Una vez conectados, el cliente nos recordar que estamos en modo Evaluacin.
Esto quiere decir que durante 60 das vamos a disponer de la totalidad de
funcionalidades de vSphere, tal y como seran si tuvisemos una versin
licenciada Enterprise Plus. Ten cuidado con esto, ya que una vez la evaluacin
termina, el host se desconectar del vCenter y perderemos estas
funcionalidades. NO USES EL MODO EVALUACIN PARA HOSTS EN
PRODUCCIN.

CONFIGURAR NTP EN ESXI


Es el momento de configurar la hora. Por qu es tan importante la hora en un
host ESXi? Porque muchas de las funcionalidades de vSphere requieren que los
hosts y dems componentes de la plataforma estn sincronizados casi al
segundo.

Seleccionaremos la pestaa Configuration del cliente vSphere y haremos click


en Time Configuration
Ahora pulsaremos en Properties, Botn Options y en General,
seleccionaremos Start and stop with host.
En NTP Settings, pulsaremos el botn Add e introduciremos un servidor de hora
conocido. Si no sabes ninguno, puedes probar a usar pool.ntp.org.
Marcamos Restart NTP service to apply changes y damos al botn de OK.

Marcamos por ltimo NTP Client Enabled y pulsamos OK

Mientras la hora aparezca en color rojo, no estar sincronizada. No he podido


obtener una captura de la hora sin sincronizar, pero es un dato a conocer.
CONFIGURAR EL ACCESO SSH A ESXI
Otra de las cosas tiles que podremos hacer en ESXi tras la instalacin es
habilitar el acceso por SSH. Podemos hacerlo desde la DCUI (Direct Console
User Interface) o desde el cliente vSphere. Vamos a ver como se hace de ambas
maneras.

Para habilitar el acceso SSH via DCUI, haremos login con F2 como hicimos
inicialmente para configurar la red de gestin e iremos a Troubleshooting
Options.

Una vez estemos en Troubleshooting Options, seleccionaremos Enable SSH para


habilitar el acceso SSH.

Este acceso nos ser til si queremos realizar resolucin de problemas ms


avanzada o trabajar con esxcli. esxcli no es un objetivo de la certificacion VCP,
sino ms bien de VCAP, por lo que no ser tratado en este curso.

Si preferimos utilizar el cliente vSphere de Windows para habilitar el SSH en


ESXi, deberemos ir a la pestaa Configuration, Security Profile, Services,
Properties
Una vez all, seleccionaremos SSH y pulsaremos el botn Options, para
seleccionar luego la opcin Start and stop with host y pulsar OK
HABILITAR, CONFIGURAR Y
DESHABILITAR HYPERTHREADING EN
HOSTS ESXI INTEL
Hyperthreading es una tecnologa de Intel que permite, en determinadas
circunstancias, obtener un hilo adicional de procesamiento por cada core. En la
prctica no supone una mejora de rendimiento del doble, y en algunos casos
especficos, puede hasta penalizar el rendimiento del host. Por ello, debemos
saber como habilitarlo y deshabilitarlo.
Para habilitarlo o deshabilitarlo, iremos a la pestaa de configuracin en el
cliente vSphere y, dentro del panel de Hardware, pulsaremos en Processors,
para posteriormente hacer click en Properties.

Te recomiendo utilizarlo salvo en casos especficos en los que tengas que


analizar un problema extrao de rendimiento de las CPUs. Por lo general el
Hyperthreading suele aportar un 30% de beneficio en rendimiento de CPU
global.

CONFIGURAR LAS OPCIONES DE


RENDIMIENTO Y AHORRO DE ENERGA
EN VMWARE ESXI
Este apartado, al que mucha gente no presta demasiada atencin, sirve para
configurar el balance entre consumo de energa y rendimiento que queremos
obtener de nuestro host ESXi. Dependiendo de como configuremos estas
opciones, el host consumir ms energa, ofreciendo mayor rendimiento, o
consumir menos, rebajando la potencia general del host. Para seleccionar una
de las opciones de ahorro de energa, nos dirigiremos a la pestaa
Configuration, Power Management, Properties. Elige la opcin que mas te
interese para tu entorno.

AJUSTE DE VALORES AVANZADOS DE


CONFIGURACIN EN ESXI
En este apartado aprenderemos a ajustar valores avanzados de ESXi, otro
requisito para el examen de certificacion VCP. Vamos a ajustar el modo en
que se comparten paginas de memoria idnticas entre mquinas virtuales. Sin
entrar en mucho detalle, aprenderemos a realizar ajustes avanzados en un host
esxi con este valor. Si quieres ms detalles puedes visitar el post sobre TPS,
comparticion de memoria entre mquinas virtuales en ESXi.
Para ajustar valores avanzados en el host ESXi, iremos a la
pestaa Configuration, Panel Software, Advanced Settings. El valor que vamos a
ajustar se encuentra en la rama Mem del arbol, y se
llama Mem.AllocGuestLargePage. Pondremos el valor a 0 y pulsaremos OK.
Este ajuste en concreto puede necesitar que reiniciemos el host, hagmoslo
antes de continuar.

Licenciar un host ESXi

IMPORTANTE, para el laboratorio de aprendizaje para la certificacion VCP


es importante dejar el modo evaluacin, por lo que no debemos asignar una
licencia gratuita. Sin embargo, es objetivo de la certificacion VCP saber asignar
licencias a un host, directamente y a travs de vCenter. Veremos ahora como
asignarla directamente y en captulos posteriores como hacerlo desde vCenter.
Para asignar una licencia a un host VMware ESXi, deberemos ir, dentro del
cliente vSphere de Windows, a la pestaa Configuration, dentro del
panel Software, haremos click en Licensed Features y finalmente haremos click
en Edit.
Para asignar la licencia, haremos click en el botn Enter Key e introduciremos el
cdigo de licencia.
No te olvides de repetir el procedimiento y volver a asignar la licencia de
evaluacin para poder tener todas las funcionalidades activas.
AGREGAR ALMACENAMIENTO EN ESXI
Nuestro host de momento no tiene ningn tipo de almacenamiento, ni local
(propio del servidor) ni compartido (en red). Estara bien que le diesemos
acceso a un disco local al menos para poder comenzar a hacer cosas.

Iremos a la pestaa de Configuracin, en la zona Hardware seleccionaremos


Storage y haremos click en Add Storage.
Seleccionaremos Disk/LUN y elegiremos un disco local de nuestro equipo. Es
importante que nos aseguremos de que se puede borrar todo el contenido del
mismo.

Seleccionaremos el sistema de ficheros VMFS-5


Seguimos para adelante con los mens hasta que se nos pregunte el nombre
del datastore. Si vas a manejar mucho almacenamiento local, te recomiendo
que los identifiques de la forma que puedes ver en la captura. De esa forma
sabes a que equipo pertenece, que es local, si es hdd o ssd, y su tamao.
Una vez terminemos el asistente, dispondremos de un datastore local en el que
poder crear mquinas virtuales ms adelante.

CREACIN DE PUERTOS DE RED


Nuestras mquinas virtuales van a necesitar red para comunicarse entre s y
con el exterior (si lo necesitan). En VMware podemos distinguir tres elementos
bsicos de red. vmKernels, vSwitches y Portgroups.

Los vSwitches son el equivalente a los switches de red normales, mientras que
los portgroups son agrupaciones de puertos de red de mquinas virtuales que
a su vez se conectan a vSwitches.

Un vSwitch est compuesto por uno o varios uplinks, que corresponden


con las tarjetas de red fsicas del host.
Un Portgroup est compuesto por el conjunto de puertos virtuales que
conectan las mquinas virtuales a l.
Un vmkernel es un puerto de uso exclusivo del host ESXi que realiza
cualquier actividad de entrada o salida de datos (almacenamiento, vmotion,
fault tolerance, vsan, etc)
Para crear nuestro primer Portgroup, iremos a Configuration, Networking, Add
Networking y seleccionaremos crear un Virtual Machine Portgroup.
Podremos seleccionar un vSwitch ya existente (El de gestin que usamos para
controlar la mquina) o crear uno nuevo con otra tarjeta de red diferente.

Finalmente seleccionamos un nombre para el Portgroup y ya estar listo para


que le conectemos mquinas virtuales.
Para los laboratorios de este curso de VMware ser necesario que dispongas de
TRES hosts ESXi diferentes. Realiza el ejercicio de configurar t mismo los otros
dos hosts.

Este es el final del primer captulo de nuestro curso de VMware. Tras aprender a
instalar ESXi, el siguiente paso es aprender a instalar vCenter en el captulo 02.

CURSO DE VMWARE 5.5


INSTALAR VCENTER
2 noviembre, 2014administradorVMwarecertificacion vcp, consejos vcp, curso vcp, curso
vmware,curso vsphere, guia vcp, tutorial vcp
GUIA DE CERTIFICACION VCP
INSTALACIN DE VCENTER PARA
WINDOWS Y VCENTER SERVER
APPLIANCE
Bienvenido al captulo 2 de la gua de certificacion VCP. En este captulo
aprenderemos los siguientes conceptos necesarios para la obtencion de la
certificacion VCP de VMware:

Identificar las diferentes versiones de vCenter y sus requisitos de


funcionamiento.
Instalar vCenter Server para Windows y configurarlo.
Instalar vCenter Server Appliance y configurarlo.

vCenter Server es un componente fundamental de VMware vSphere y es


utilizado para administrar hosts ESXi as como el inventario de recursos que los
rodean. vCenter Server existe en dos formatos. Uno que puede ser instalado en
versiones soportadas de Windows Server y otro denominado vCenter Server
Appliance que es una mquina virtual preconfigurada, ejecutando SUSE Linux.
Ambos proporcionan casi las mismas funcionalidades y no es necesario tener
conocimientos de Linux para manejar vCenter Server Appliance. En este curso
de VCP aprenderemos a instalar vCenter Server en un servidor Windows 2012,
as como el vCenter Server Appliance.

IDENTIFICAR LAS DIFERENTES VERSIONES


DE VCENTER
En la versin 5.5 de vSphere existen tres versiones de vCenter:

vCenter Server Essentials.


vCenter Server Foundation.
vCenter Server Standard.

Todas estas versiones incluyen los siguientes componentes:

Management Service.
Database Server.
Inventory Service.
vSphere Web Client.
vCenter APIs and .NET Extensions.
vCenter Single Sign On.
vCenter Orchestrator.
vCenter Server Linked Mode.

VCENTER SERVER ESSENTIALS


Se trata de una versin totalmente funcional de vCenter solo disponible cuando
se adquiere un kit de licencias vSphere Essentials (Essentials normal y
Essentials Plus). Est orientada a pequeos negocios con necesidades de
virtualizacin. Su limitacin principal es que solo puede gestionar hasta 3 hosts
con hasta 2 cpus cada uno y que no pueden combinarse ni ser administrados de
forma conjunta junto con otras ediciones de vSphere, es decir, no puedes
integrar hosts con licenciamiento no Essentials en este vCenter.

VCENTER SERVER FOUNDATION


Es otra edicin limitada de vCenter Server en la que puedes administrar hasta
tres hosts mximo y en la que adquieres funcionalidades de forma
independiente para ahorrar costes.

VCENTER STANDARD EDITION


Se trata de la edicin completa sin limitaciones de vCenter Server. Las nicas
restricciones que encontrars en vCenter Server Standard son las limitaciones
mximas del propio software, que van hasta el manejo de cientos de hosts y
miles de mquinas virtuales. Puedes consultar los mximos de vCenter Server
en el siguiente enlace http://www.vmware.com/pdf/vsphere5/r55/vsphere-55-
configuration-maximums.pdf

REQUISITOS DE INSTALACIN DE VCENTER


SERVER
REQUISITOS DE VCENTER SERVER PARA
WINDOWS
Procesador de 64 bit Intel o AMD con 2 cores.
Sistema operativo soportado (Windows 2008 o Windows 2012, ambos de
64 bit)
DSN de 64 bit para vCenter Server y de 32 bit para Update Manager.
12GB de RAM.
100GB de disco para la instalacin, con 40-60GB adicionales
posteriormente.
Tarjeta de red Gigabit.

vCenter para Windows puede utilizar como base de datos MSSQL Express si es
un despliegue pequeo de hasta 5 hosts o 50 VMs. Para despliegues mayores
puede utilizar MSSQL Standard o superior o una base de datos externa Oracle.
La instalacin de vCenter Server para Windows est soportada tanto si se hace
en una mquina fsica como si se instala en una virtual.

REQUISITOS DE VCENTER SERVER APPLIANCE


(VCSA)
Procesador de 64 bit Intel o AMD con 2 cores.
70GB de espacio en un datastore ESXi.
8GB de RAM para despliegues mnimos, hasta 10 hosts y hasta 100 VMs.
16GB de RAM para manejar entre 10 y 50 hosts o 100-1500 VMs.
24GB de RAM para manejar entre 50 y 100 hosts o 1500-3000 VMs.
Tarjeta de red Gigabit.

vCenter Server Appliance puede utilizar como base de datos un vPostgres


incluido en el propio Appliance o una base de datos externa Oracle para
manejar hasta 400 hosts y 4000 VMs (dedicandole 32GB de RAM).

En ambos casos, es crtico dimensionar bien el tamao de la base de datos


y NO USAR los niveles de estadsticas superiores a 1 salvo para resolucin de
problemas. Tener miles de grficas disponibles est bien, pero puede matar el
rendimiento de la base de datos y y acabar afectando a vCenter. Volveremos a
este tema de las estadsticas ms adelante.

INSTALAR VCENTER SERVER 5.5 PARA


WINDOWS
Lo primero que debemos descargar es la iso de vCenter de la web de VMware.
Es gratuito para la evaluacin de 60 dias. Para nuestro laboratorio de
certificacion VCP no necesitamos una cantidad exagerada de hosts, as que la
base de datos Microsoft SQL Server Express que viene con la ISO nos servir de
sobra.

Una vez hayamos descargado la iso de VMware (yo voy a usar una
llamada VMware-VIMSetup-all-5.5.0-2183112-20140901-update02.iso) la
grabamos a DVD, USB o la montamos directamente en Windows y ejecutamos
el instalador que viene en el mismo.

Seleccionamos Simple Install y pulsamos el botn de Install. Esto lanzar de


forma consecutiva los instaladores de vCenter Single Sign On, vSphere Web
Client, vCenter Inventory Service y finalmente vCenter Server junto con vCenter
Orchestrator. Recuerda que si pretendes usar vCenter en un entorno de
produccin de ms de 5 hosts o 50 mquinas virtuales, DEBES usar una base
de datos MSSQL Externa cuyo procedimiento de instalacin te dejo enlazado.
INSTALACIN DE SINGLE SIGN ON
Se nos pedir que seleccionemos una interfaz de red (una IP realmente) en la
que configurar los servicios
Realizar una validacin previa antes de instalar Single Sign On

Ahora nos pedir una contrasea para el ususario Administrator@vsphere.local.


Guardala bien, ser tu usuario posteriormente para todo. Los requerimientos de
complejidad de la contrasea te harn elegir una contrasea complicada.
Debemos dar un nombre a nuestro site Se trata de un nombre por el que
podremos identificar esta instancia de Single Sign On. Yo lo llamar virt.es

Proseguimos con la instalacin hasta que esta parte termine.

INSTALACIN DE VSPHERE WEB CLIENT


Lo primero que nos aparecer al ir a instalar vSphere Web Client es una peticin
de confirmacin de que el certificado SSL que usa nuestro Single Sign On es
correcto. Lo aceptamos y la instalacin seguir adelante hasta terminar sin
preguntarnos nada ms.
INSTALACIN DE VCENTER INVENTORY
SERVICE
La instalacin de vCenter Inventory Service comienza de forma automtica tras
la instalacin de vSphere Web Client y tampoco nos pedir ningn dato en el
transcurso de la misma.

INSTALACIN DE VCENTER SERVER PARA


WINDOWS
El instalador de vCenter Server es el ltimo que se ejecuta con el Simple Install
y lo primero que nos preguntar es la licencia. Si no introducimos ninguna,
vCenter se pondr en modo evaluacin con todas las funcionalidades
disponibles.
A continuacin se nos pregunta por la base de datos. Utilizaremos la SQL Server
Express que viene con la ISO. Si vamos a hacer un despliegue para ms de 5
hosts o 50 VMs, insisto una vez ms en que debes usar una instancia de
MSSQL Server Standard y crear base de datos, usuarios, permisos, esquema y
dos DSN previamente.
Indicamos a vCenter que se ejecute con el usuario de Administrador

Normalmente en un despliegue en produccin para un entorno grande,


marcaremos la opcin Increase available ephemeral ports. No lo necesitaremos
para nuestro laboratorio a lo largo del curso de certificacion VCP.
La siguiente pantalla nos preguntar por el tamao de nuestro inventario. Lo
dejaremos en small, ya que no vamos a acercarnos ni a los 100 hosts ni a las
1000 mquinas virtuales a lo largo de nuestro curso de VMware vSphere.

Tras pasar de la encuesta de experiencia de uso, podemos pulsar el botn


Install y se comenzar a instalar primero SQL Server, luego la base de datos de
vCenter y finalmente los servicios de vCenter Server.
INSTALACIN DE VSPHERE UPDATE MANAGER
Update Manager es el componente que se encarga de gestionar las
actualizaciones en vSphere. El instalador nos preguntar lo primero de todo por
las credenciales a utilizar para conectarse con vCenter Server.
Posteriormente nos preguntar por la base de datos a utilizar. Nosotros vamos a
utilizar SQL Server 2008 Express. Ten presente que si instalas Update Manager
usando un MSSQL Server externo o diferente al Express, Update manager
NECESITA un DSN de 32 bit.

En las siguientes pantallas podemos recibir un aviso de poco espacio en disco.


Para nuestro laboratorio de certificacion VCP nos servir de sobra con el espacio
que tenemos.
INSTALACIN DE VSPHERE ESXI DUMP
COLLECTOR
ESXi Dump collector se encargar de recoger volcados de memoria a travs de
la red cuando un host tiene problemas. La instalacin nos preguntar en que
modo queremos instalarlo. Para nuestro laboratorio, lo instalaremos integrado
con vCenter
Una vez ms, tendremos que proporcionar nuestras credenciales, confirmando
que el certificado SSL es el que esperamos.

Podemos dejar el puerto por defecto y seleccionar una IP alcanzable en nuestra


red para que el servicio escuche en ella.
INSTALACIN DE VSPHERE SYSLOG
COLLECTOR
Syslog Collector centralizar los logs de nuestros hosts en un nico equipo.
(requiere configuracin posterior en el lado de los hosts). Puedes aprender
a configurar el envio de logs por red en ESXi en esta otra entrada.

Los pasos para la instalacin son similares a los del Dump Collector y salvo las
credenciales, podemos dejar todos los valores por defecto.

INSTALACIN DE VSPHERE AUTO DEPLOY


vSphere Autodeploy es una funcionalidad avanzada de vSphere que permite
arrancar los hosts ESXi directamente desde la red y configurarlos cada vez que
arrancan. Est pensado para entornos muy grandes y automatizados y
convierte a vCenter en un componente muy sensible a proteger en caso de un
apagn y altera los planes de contingencia ante desastres. Ms adelante, casi al
final del curso de certificacin VCP veremos ms sobre Autodeploy. Aceptamos
los valores por defecto de la instalacin.

Aqui termina la parte referente a la instalacin de vCenter Server para Windows


de nuestro curso de vmware. En la siguiente parte, vamos a realizar una
instalacin de vCenter Server Appliance

INSTALAR VCENTER SERVER


APPLIANCE 5.5
vCenter Server Appliance es una versin alternativa de vCenter Server que va
cogiendo peso e importancia en las ltimas versiones de vSphere. Se trata de
un appliance con SUSE Linux (no es necesario tener conocimiento de Linux para
usarlo, aunque si vendr bien alguna vez) que se despliega nicamente en
forma de mquina virtual dentro de un host ESXi ya existente.
Para instalar vCenter Server Appliance en nuestro laboratorio de certificacion
VCP, debemos descargar primero la imagen del Appliance. Se trata de un
archivo con extensin OVA que contiene todo lo necesario para ser desplegado
desde el vSphere Client de Windows. Yo usare la versin VMware-vCenter-
Server-Appliance-5.5.0.20200-2183109_OVF10.ova

Una vez descargado el .OVA de la web de VMware en modo evaluacin,


abriremos el cliente vSphere Client de Windows y seleccionaremos el host
donde queremos desplegar la maquina virtual y buscaremos en el men File,
Deploy OVF Template

Buscaremos el archivo .OVA

Continuaremos hasta la pantalla de seleccin de almacenamiento. En mi caso


tengo varios almacenamientos, tanto locales como en red. Tu puedes instalarlo
en un disco local de tu ESXi.
Se nos pedir que seleccionemos un portgroup al que conectar la red del
vCenter Server Appliance. Seleccionaremos uno adecuado para que este
vCenter pueda tener visibilidad con el resto de hosts ESXi del entorno.

Seleccionaremos Power on after deployment y pulsaremos el botn Finish.


Una vez se haya terminado de desplegar y el primr arranque (tarda unos
minutos), veremos en la consola de VCSA una pantalla similar a esta. En ella
nos indica la ip que debemos visitar para empezar a configurar VCSA. Si no
disponemos de DHCP en nuestra red, veremos una pantalla de configuracin de
red previamente.
La configuracin de VCSA se hace de forma ntegra mediante navegador web
accediendo a la direccion https://ip_de_vcsa:5480/ El usuario inicial para
conectarse a VCSA es root / vmware
Tras aceptar la licencia de uso, lo primero que haremos (en mi caso al menos)
es ponerle una direccin IP fija, y a comentamos previamente que est entre las
mejores prcticas el uso de direccionamiento ip fijo para los hosts y servicios de
vSphere, sobre todo vCenter. Para configurar la ip fija, cancelaremos el
asistente antes de nada, tal y como lo indica en el punto Configure Options.
Vamos a Network, Address y seleccionamos direccionamiento IPv4 esttico,
momento en el que cambiar el men para pedirnos todos los datos necesarios
dentro de nuestra red.
Una vez lo tengamos todo rellenado, pulsaremos el botn Save Settings. Ten
presente que si has puesto una IP diferente, tendrs que cambiar la direccin
del navegador, ya que la ip original no seguir siendo vlida.
Volvemos a hacer login con root / vmware en la nueva IP de nuestro VCSA y
lanzaremos manualmente el Asistente de Configuracin haciendo click en el
botn indicado en la captura de pantalla.
Elegiremos configuracin personalizada para revisar todas las opciones que nos
ofrece el asistente.
En VCSA solo podemos optar por usar la base de datos vPostgres integrada, o
utilizar Oracle, que permite alcanzar mayor nmero de hosts y VMs. En nuestro
caso nos quedaremos con la integrada, as que dejamos la opcin embedded.
Single Sign On es un producto que puede instalarse conjuntamente con vCenter
o en un equipo separado. En la siguiente pantalla del asistente nos permite
seleccionar si vamos a usar un Single Sign On externo o el incorporado en
VCSA. En nuestro curso de VMware vamos a utilizar la opcin embedded.
Configuraremos una contrasea para el usuario Administrator@vsphere.local y
la recordaremos muy bien
Si fuesemos a utilizar autenticacin con Active Directory, daramos aqu los
datos de dominio y usuario Administrador. No es el caso en nuestro curso de
VMware as que seguiremos para adelante.
La sincronizacin horaria es MUY IMPORTANTE como ya dijimos antes. Hay
bastantes cosas que pueden ir mal si los relojes de nuestra infraestructura
vSphere no estn sincronizados, por lo que debemos en todo momento intentar
que tanto los hosts como mquinas virtuales, como servidores externos
auxiliares estn todos con la misma hora. La mejor de las opciones es siempre
el uso de NTP, y en caso de no estr disponible, mediante VMware tools.
Con este ltimo paso, el asistente ya nos ha preguntado toda la informacin
que necesitaba y puede comenzar a configurar los servicios.
Una vez se hayan completado todos los pasos, cerraremos el asistente y
realizaremos un par de cambios adicionales en la web de configuracin de
VCSA:
Cambiaremos la contrasea de Administrador (root) de VCSA, la que acabamos
de usar para acceder a https://ip_de_vcsa:5480/

Cambiaremos el nmero de das de caducidad de esta contrasea. En nuestro


caso, desactivaremos la caducidad de esta contrasea, directamente.
Por ltimo, a mi siempre me gusta reiniciar VCSA tras el asistente de inicio.
Podemos reiniciarlo directamente desde la web de configuracin en System >
Reboot
Con esto termina el captulo de instalacin y configuracin de vCenter de
nuestro curso de VMware orientado a la certificacin VCP. En el siguiente
captulo repasaremos o aprenderemos una serie de conceptos importantes
sobre almacenamiento y redes necesarios para nuestros siguientes ejercicios.

CURSO DE VMWARE 5.5


TIPOS DE
ALMACENAMIENTO
2 noviembre, 2014administradorVMwarecertificacion vcp, consejos vcp, curso vcp, curso
vmware,curso vsphere, guia vcp, tutorial vcp

En este captulo intermedio de nuestro curso de ayuda a la preparacion de la


certificacion VCP de VMware vamos a ver ms a fondo conceptos
fundamentales para el resto de nuestro curso de vmware para preparar la
certificacion VCP acerca del almacenamiento. No podemos continuar
profundizando en el curso de VMware vSphere sin conocer al detalle como
funciona el almacenamiento en estos entornos virtualizados.

TIPOS DE ALMACENAMIENTO EN
VMWARE VSPHERE
Hasta ahora en el curso de VMware para preparar la certificacion VCP hemos
visto que un host es el encargado de ejecutar mquinas virtuales. Pero estas
mquinas virtuales han de estar almacenadas en algun tipo de medio fsico.
Diferenciaremos estos tipos de almacenamiento en tres:

Almacenamiento local o DAS


Almacenamiento NAS (Network Attached Storage)
Almacenamiento SAN (Storage Area Network)
En el mundo de la vitualizacin, se conocen los contenedores de datos de
mquinas virtuales como Datastores (nombre comn a los tres tipos de
almacenamiento citados anteriormente).A continuacin veremos una
descripcin ms en detalle de cada uno de estos tipos de almacenamiento y su
utilidad. Es fundamental para continuar con nuestro curso de VMware que no te
quede ninguna duda con respecto a este captulo.

ALMACENAMIENTO LOCAL (DAS) EN


VSPHERE
El almacenamiento local se refiere a los dispositivos de almacenamiento que
tiene conectados directamente el host mediante una controladora de disco. Por
ejemplo, en nuestro ordenador de sobremesa, el almacenamiento local es el
disco duro (o discos duros, en plural) internos que tenemos dentro de la caja. En
un porttil, sera el pequeo disco duro que lleva dentro de la carcasa. En un
host ESXi, sern aquellos discos duros que tiene conectados mediante un
controlador soportado. Por ejemplo, el almacenamiento conectado mediante
USB no es utilizable por el host ESXi aunque est conectado directamente
mediante un cable.
As pues, si tenemos un servidor actuando como host ESXi, con 4 discos SAS de
300GB conectados a una controladora RAID en ese mismo servidor, y
configurados como dos RAID1, el almacenamiento local de ese host sern 2
volumenes de 300GB que ESXi interpretar como discos duros fsicos, aunque
entre medias la controladora est duplicando la informacin a 4 discos
realmente.

Dentro de estos discos locales, crearemos por lo general un datastore (o varios)


que ser el contenedor lgico de los datos de nuestras mquinas virtuales.
Las ventajas del almacenamiento local son el menor coste y el menor coste
de administracin.
Las desventajas del almacenamiento local son que impone una gran
cantidad de limitaciones en funciones avanzadas de vSphere como alta
disponibilidad (HA) o DRS (entre otras).

ALMACENAMIENTO NAS EN VSPHERE


El almacenamiento NAS, tambin conocido como almacenamiento en ficheros,
es un tipo de almacenamiento conectado por red a los hosts ESXi utilizando
protocolo NFS. En este caso, debemos disponer de un equipo remoto, conectado
mediante una red IP y a ser posible sin enrutamientos de por medio, que es el
responsable de servir los archivos de las mquinas virtuales a los hosts ESXi
mediante el previamente citado protocolo Network File Sharing. Se trata del
protocolo ms sencillo para conectar almacenamiento compartido a hosts ESXi
y en la actualidad dispone de casi todas las ventajas que ofrecen los protocolos
SAN ms avanzados en ESXi.

En esta configuracin, en el host esxi indicamos la IP del servidor NFS remoto,


as como la ruta del volumen compartido que queremos montar. Previamente,
tendremos que haber autorizado en el servidor NFS a este host para acceder en
modo lectura o lectura y escritura, ya que es el sistema de seguridad que
maneja NFS. El volumen no ha de ser formateado ya que el ESXi accede
directamente a archivos que se manejan en el sistema de archivos propio del
servidor NFS.

Las ventajas del almacenamiento NAS son que ofrece todas las funcionalidades
avanzadas de vSphere sin necesidad de invertir en equipamiento de Fibra
ptica. La configuracin es sencilla y rpida y el rendimiento es casi igual al del
almacenamiento SAN. Otra ventaja de NFS es que es menos sensible a la
latencia que otros protocolos SAN.

Las desventajas del almacenamiento NAS son un peor escalado en entornos


grandes, donde se necesitan agrupar mquinas virtuales en funcin de sus
patrones de acceso o la velocidad de acceso es crtica. El trfico de datos NFS
no va cifrado, por lo que resulta ms inseguro en entornos sensibles.
ALMACENAMIENTO SAN EN VSPHERE
El almacenamiento SAN, tambin conocido como almacenamiento por bloques,
permite a los clientes conectados, en nuestro caso los hosts ESXi, acceder
directamente a bloques de disco existentes en el servidor de almacenamiento.
Es, por decirlo de una forma resumida, una forma de conectar mediante un
cable de red o fibra ptica, discos duros que el host ESXi debe formatear y
administrar a nivel ms bajo que en el caso de NFS. Los hosts ESXi pueden
montar almacenamiento SAN mediante uno (o varios) de los siguientes
protocolos:

iSCSI
Utilizando iSCSI podemos obtener las ventajas del almacenamiento con bloques
(baja latencia, mayor rendimiento) de la mano de una red IP convencional.
Ambos extremos han de disponer de permisos mutuos para que puedan
comunicarse entre ellos. Adems la conexin inicial puede ir autentificada
mediante contrasea bidireccional. Esto, sin embargo, requiere recursos extra
dedicados exclusivamente a la comunicacin con el almacenamiento.
En una configuracin tpica iSCSI intervienen varios elementos:
Iniciador: Es el componente del lado cliente que establece la
conexin con el dispositivo de almacenamiento en bloques. Puede ser un
componente software o una tarjeta HBA (Host Bus Adapter).
IQN: Es el identificador nico de cada uno de los dos extremos de
la comunicacin iSCSI. Han de permitirse expresamente en ambos extremos.
CHAP: Challenge Handshake Authentication Protocol, es un
protocolo de cifrado mediante clave compartida para establecer una
comunicacin de datos.
FiberChannel o FC
Fiberchanel utiliza redes exclusivamente de fibra ptica, mediante unos
switches especiales denominados Fabric, para conectar almacenamiento en
bloques a los hosts, mediante la utilizacin de una tarjeta HBA en stos ltimos.
En vez de tener IQN, en FiberChannel denominamos WWN (world wide name) y
el acceso se hace mediante una tecnica llamada Lun Masking, que previene la
visibilidad de los almacenamientos a determinados WWN.
FiberChannel over Ethernet o FCoE es un estandar reciente para ofrecer
almacenamiento FiberChannel a travs de redes Ethernet.
Todos estos tipos de almacenamiento tienen en comn que lo que ofrecen es un
espacio de datos que el host tiene que formatear utilizando el sistema de
archivos propio de VMware, el VMFS. Es por esto, al disponer de acceso directo
a disco, que se denomina almacenamiento en bloques, pues toda la lgica del
almacenamiento de los datos se delega en el host ESXi. En la actualidad, el
sistema de archivos VMFS va por la versin 5.60 y soporta todas las
caractersticas propias de un sistema de archivos para cluster, utilizando un
tamao de bloque grande para un sistema de archivos, de 1 Mbyte por defecto.

Para aadir almacenamiento iSCSI en VMware seguiremos el siguiente


procedimiento:
Aadir un iniciador iSCSI por software en nuestro host
Apuntamos el IQN del iniciador, para dar permisos en el servidor iSCSI a este
host. Cada fabricante o proveedor de servidores iSCSI tiene una forma
particular y diferente de configurar sus equipos o software, acude al manual de
tu servidor iSCSI para dar permisos al IQN del iniciador iSCSI del host ESXi.
Aadimos un nuevo target esttico, indicando la IP del servidor iSCSI y el
nombre IQN del target que hemos creado en el servidor iSCSI . Pulsamos en el
botn CHAP y seleccionamos el usuario y contrasea que hemos elegido para
validar esta conexin.
Reescaneamos el HBA (Host Bus Adapter) para que busque nuevos dispositivos
disponibles con los datos que le hemos proporcionado.
Confirmamos que aparece el disco que esperamos

Vamos al asistente de Add Storage, elegimos DISK/LUN y agregamos el disco


iSCSI que acabamos de crear para el laboratorio del curso de VMware.
Se nos pedir elegir el filesystem con el que se formatear el nuevo disco.

Seguimos adelante con el asistente hasta el final y ya tendremos nuestro nuevo


datastore disponible en esa LUN iSCSI.
THIN PROVISIONING Y THICK
PROVISIONING
Hay dos conceptos importantes que debemos conocer como son
el thin y thick provisioning.
En ingls, thin es delgado y thick es grueso. Estos trminos, en
almacenamiento, se refieren a la forma en que se dispone del espacio de disco.

Con Thin provisioning, podemos:


Crear un nico (o varios) archivos que ocupen ms espacio del que
tenemos disponible en el datastore.
Conseguir que la suma del espacio mximo de los archivos de un
datastore sea mayor que el espacio disponible en ese datastore.
Utilizar de una forma ms eficiente el espacio disponible en disco.
Con Thick Provisioning, cuando creamos un archivo de N gigas, esos N gigas
se reservan automticamente para ese archivo.
Existen dos modalidades de Thick Provisioning. Lazy Zeroed y Eager
Zeroed. Con Lazy Zeroed thick provisioning, el espacio se reserva, pero no
se llena de ceros (0). Resulta una forma de provisionar espacio casi inmediata,
aunque el espacio que va a tener ese archivo puede contener datos previos de
archivos que se hayan borrado o movido. Con Eager Zeroed thick
provisioning, TODO el espacio que vayamos a asignar a ese archivo o
mquina virtual, se llena de ceros de forma inicial, asegurando que tenemos un
espacio de disco limpio, pero ralentizando considerablemente el proceso de
creacin de la mquina virtual e impactando en diferente medida al
almacenamiento que tiene que soportar todos esos gigas de escrituras.
A primera vista, thin provisioning parece la panacea, pero resulta problemtico
por cuatro motivos:

A nivel de costes, es muy atractivo leer que un datastore est al 80%


cuando realmente tiene asignados un 300% del espacio que realmente tiene.
Maximiza la fragmentacin de los archivos dentro del almacenamiento.
No es compatible con Fault Tolerance.
Las mquinas con thin provisioning tienen la capacidad de hacer que
todas las mquinas de ese datastore se caigan por una escritura no controlada
a disco (empezar a escribir logs de forma incontrolada cuando tienen disponible
en la mquina virtual ms espacio del que queda libre en el datastore). En esa
situacin, todas las mquinas quieren escribir bloques nuevos que creen que
tienen disponibles, y se cuelgan al no ser posible encontrar donde por parte del
almacenamiento.

CURSO DE VMWARE 5.5


DATACENTERS Y CLUSTERS
12 noviembre, 2014administradorVMwarecertificacion vcp, consejos vcp, curso vcp, curso
vmware, curso vsphere, guia vcp, tutorial vcp, VCP

CURSO DE VMWARE PARA LA


CERTIFICACION VCP VSPHERE
WEB CLIENT, DATACENTERS,
CLUSTERS
En el cuarto captulo del curso de VMware para la certificacion VCP vamos a
repasar los diferentes objetos que podemos encontrarnos en el inventario de
vSphere. Estos objetos, si bien se organizan jerrquicamente, no se utilizan
nicamente para simple organizacin y utilizar algunos como forma de
organizar el inventario es un error grave como veremos posteriormente. Tras
repasar estos conceptos, aadiremos a nuestro recin instalado vCenter toda
esa jerarqua de forma prctica.

En nuestro curso de VMware utilizaremos los siguientes nombres de objetos de


inventario:

Datacenter virt.es
Cluster laboratorio
Hosts
esxi01.virt.es
esxi02.virt.es
esxi03.virt.es
Networks
Master Gestion
vMotion
FT
VSAN
Datastores
QNAP01-VM01
QNAP01-VM02

DATACENTERS
Un Datacenter en vSphere es una entidad organizativa que agrupa diferentes
objetos que interactan entre s en vSphere. Un Datacenter agrupa cuatro
jerarquas diferentes de objetos:

Hosts y Clusters
Maquinas virtuales y Templates
Networks
Datastores y Datastore Clusters
Dentro de un datacenter, no se pueden repetir los nombres de objetos
de Networks ni Datastores. De esta forma, no podemos tener una red VSAN
en un cluster y otra que se llame igual en otro cluster, si ambos comparten el
mismo datacenter. Igualmente, tampoco se pueden repetir los nombres de
datastores dentro de un mismo datacenter. Si que se puede, sin embargo, tener
datastores con el mismo nombre si se encuentran en diferentes datacenters
lgicos. A lo largo de este curso de vmware, cuando hablemos de datacenters,
siempre estaremos hablando del nivel lgico del inventario de vSphere, no de
edificios donde alojar servidores.

CLUSTERS
Un cluster en vSphere es una agrupacin de hosts ESXi con sus
correspondientes mquinas virtuales que actan como una nica unidad. A
medida que vamos aadiendo hosts a un cluster, los recursos de estos nuevos
hosts pasan a integrar lo que conocemos como pool de recursos del cluster,
haciendo una bolsa nica y conjunta de capacidad de computacin. El cluster es
objeto donde se configuran cuatro funcionalidades importantes de vSphere que
veremos ms adelante. HA (Alta disponibilidad), DRS (Distributed resource
scheduler), EVC (Enhanced vMotion Compatibility) y VSAN (Virtual SAN).

Pregunta de examen VCP5


Un cluster puede contener mximo de:

32 Hosts.
4000VMs.
512 VMs por host.
2048 VMs encendidas por datastore.
HOSTS
Los hosts, como ya hemos visto, son los servidores que hemos instalado con
ESXi y que sirven para virtualizar cargas de trabajo a modo de mquinas
virtuales.

Pregunta de examen VCP5


Un host puede tener como mximo

320 CPUs lgicas disponibles (incluyendo hyperthreading en


procesadores Intel)
16 nodos NUMA
512 mquinas virtuales
4096 vCPUs asignadas a VMs
32 vCPUs por core

RESOURCE POOLS
Los Pools de Recursos (Resource Pools) son un conjunto de capacidades de
memoria y CPU de que disponen los hosts o clusters en vSphere. Los Resource
Pools se utilizan con dos fines:

Priorizar la utilizacin de recursos en momentos de contencin


Limitar el consumo de recursos de un conjunto de mquinas
virtuales haya o no contencin.
Los Resource Pools NO SON una forma de organizar mquinas virtuales.
Pregunta de examen VCP5
Un Resource Pool puede contener un mximo de:

1024 objetos
8 niveles de jerarqua
1600 resource pools por host
1600 resource pools por cluster

DATASTORES
Los datastores son la representacin del almacenamiento disponible en nuestra
plataforma vSphere. Un datastore es un espacio disponible para almacenar
mquinas virtuales y los ficheros asociados a ellas. Como vimos en captulos
anteriores, un datastore puede estar conectado mediante FC (FiberChannel) o
una red IP (NFS o iSCSI) o incluso ser un disco local del host. Sin embargo, de
cara a esxi, todos los datastores son iguales, sin importar la tecnologa que
haya por detras para conectarlos al host. La existencia del concepto de
datastore es esto precisamente, una capa que unifica todos los
almacenamientos para presentarlos por igual al host. Los datastores tambin
pueden agruparse en clusters como veremos posteriormente.
Pregunta de examen VCP5
Un host puede tener mximo 2048 virtual disks
iSCSI
256 LUNS por servidor de almacenamiento
4 HBAs iSCSI, que usen un mximo de 8 tarjetas.
1024 caminos (paths) hasta el almacenamiento iSCSI usando multipath.
8 caminos a una LUN nica
64 targets iSCSI en las HBA de Gbit
128 targets iSCSI en las HBA de 10Gbit
256 targets iSCSI con la iniciadora iSCSI por software
NFS
256 Mounts NFS
FiberChannel
256 LUNS por almacenamiento FC
64TB por LUN
LUN id maximo 255
32 paths a una LUN
1024 paths totales
8 HBAs de cualquier tipo
16 puertos en esas HBAs
256 targets por HBA
FCoE
4 adaptadores software FCoE
VMFS
64TB por volumen
256 volumenes por host.
64 hosts por volumen
2048 VMs encendidas en un volumen nico VMFS
128 operaciones de vMotion concurrentes por volumen VMFS
VMFS5
62TB Tamao Maximo de RDM (Raw Device Mapping) virtual
64TB Tamao mximo de RDM fsico
1MB Tamao de bloque VMFS5 nativo. Si se ha actualizado desde VMFS3,
hereda el tamao de bloque original.
62TB Tamao de archivo mximo.
130690 Nmero aproximado mximo de ficheros por volumen
VMFS3
2TB menos 512bytes Tamao mximo de RDM virtual y fsico
8MB de tamao de bloque
256GB de tamao de archivo usando bloques de 1MB
512GB de tamao de archivo usando bloques de 2MB
1TB de tamao mximo de archivo usando bloques de 4MB
2TB menos 512bytes de tamao mximo de archivo usando bloques de
8MB
30720 archivos aproximadamente por volumen.

NETWORKS
Las redes son el conjunto de tarjetas de red que agregamos a nuestras
mquinas virtuales para dotarlas de conectividad de red, as como los vSphere
Distributed Switches (switches distribuidos) a los que se conectan. Veremos
ms adelante lo que son los switches distribuidos, pero puntualizaremos que
dos mquinas virtuales estn dentro de la misma Network si se encuentran
conectadas al mismo PortGroup dentro de un mismo Distributed Switch, aunque
ste comprenda varios hosts diferentes y las mquinas virtuales estn en
ejecucin en diferente host. Veremos los mximos de configuracin cuando nos
metamos ms a fondo con las redes.

Pregunta de examen VCP5


Tarjetas fisicas en el host
24 tarjetas 1gb Intel e1000e
16 tarjetas 1gb Intel igb
32 tarjetas 1gb Broadcom tg3
16 tarjetas 1gb Broadcom bnx2
8 tarjetas 10gb NeXen nx_nic
8 tarjetas 10gb Serverengines be2net
8 tarjetas 10gb Intel ixgbe
8 tarjetas 10gb Broadcom bnx2x
Combinadas, 8 tarjetas 10gb y 4 de 1gb.
4 puertos 40gb Mellanox mlx4_en
vSphere Switches
4096 virtual network ports por host
1016 puertos activos por host
64 LAGS LACP por host
32 Uplinks para LACP por host
vSphere Distributed Switch
6500 puertos por Distributed switch en modo Static / Dynamic
1016 puertos por Distributed Switch en modo Ephemeral
60000 puertos en total por Distributed Switch
60000 puertos de Distributed Switch por vCenter
10000 Portgroups de Distributed Switch por vCenter del tipo Static /
Dynamic
1016 portgroups de Distributed Switch de tipo Ephemeral por vCenter
128 Distributed Switches por vCenter
16 Distributed Switches por host
1000 hosts por Distributed Switch
64 resource pools de red por Distributed Switch
64 grupos LACP por Distributed Switch
vSphere Standard Switch
512 puertos por cada Standard vSwitch
1000 portgroups de Standard Switch por host

FOLDERS
Los folders son carpetas para agregar de forma lgica objetos del mismo tipo.
As pues, podemos agregar maquinas virtuales bajo un nombre que nos resulte
identificativo o incluso podemos anidar carpetas dentro de carpetas siempre
que se mantenga la premisa de que contengan el mismo tipo de objetos. No se
pueden mezclar carpetas de hosts con carpetas de maquinas virtuales por
ejemplo. Tambin son receptores de permisos. Podemos asignar permisos de
forma especfica a todo lo que est contenido dentro de un folder. Los nuevos
objetos que se vayan incorporando a esta carpeta heredarn los permisos
aplicados a ella.

VIRTUAL MACHINES
Las mquinas virtuales son contenedores dentro de los cuales ejecutamos un
hardware virtualizado y en las que podemos instalar sistemas operativos.

TEMPLATES
Los templates o plantillas son un tipo especial de mquinas virtuales que est
listo para ser clonado y replicado para crear nuevas mquinas virtuales. Un
template no puede ser encendido, pero si clonado, por ejemplo. Los templates
pueden ser convertidos con un solo click a mquinas virtuales para ser
encendidos. Las mquinas virtuales han de estar apagadas para ser convertidas
a template con otro par de clicks.

La operacin de crear nuevas mquinas a partir de un template se denomina


Deploy from template o desplegar desde plantilla. Esta operacin clona el
template como una nueva mquina virtual y nos da la posibilidad de
personalizar diversos ajustes, como las configuraciones de red, nombre del
host, etc si nuestro sistema operativo est soportado.

VAPPS
Las vApps son un conjunto de mquinas virtuales que se configuran para operar
de forma conjunta. Se pueden establecer dependencias en el orden de
encendido, por ejemplo, o distribuirlas de forma conjunta mediante un nico
archivo .ova

CONFIGURANDO NUESTRO
DATACENTER VSPHERE
Hasta ahora hemos hecho tareas de instalacin de ESXi, vCenter y hemos
revisado algunos conceptos importantes a la hora de manejar una
infraestructura virtualizada. Es hora de comenzar a practicar lo que hemos ido
aprendiendo. Vamos a configurar la jerarqua de nuestro datacenter tal y como
lo puse al comenzar esta entrada:

Datacenter virt.es
Cluster laboratorio
Hosts
esxi01.virt.es
esxi02.virt.es
esxi03.virt.es
Networks
Master Gestion
vMotion
FT
VSAN
Datastores
QNAP01-VM01
QNAP01-VM02

CONECTAR A VCENTER
Vamos a intentar acostumbrarnos a utilizar todo lo posible el cliente web de
vSphere, ya que es el que est destinado a permanecer en un futuro. Veremos
que hay an cosas que no pueden llevarse a cabo con este cliente. En esos
casos concretos, utilizaremos el Cliente vSphere de Windows tradicional.

Para conectar a vSphere Web Client, abriremos un navegador y pondremos la


siguiente direccion https://vcenter:9443/vsphere-client/
Lo primero que hemos de hacer tras aceptar los avisos de SSL es descargarnos
el plugin de integracin que puedes ver en la imagen. Es importante para
utilizar la consola de las mquinas virtuales desde el navegador y poder
conectar imagenes .ISO o desplegar mquinas virtuales que vienen en formato
appliance .OVA / .OVF

Una vez hayamos instalado el plugin de integracin, regresamos a la


direccin https://vcenter:9443/vsphere-client/ y nos identificamos con el
usuario Administrator@vsphere.local que creamos durante la instalacin de
vCenter.
Una vez hayamos hecho login nos encontraremos con esta pantalla. Es el panel
principal de vSphere Web Client. En el podemos distinguir cinco reas
diferenciadas:

1. Navegador
Nos permite movernos por las diferentes reas del inventario de vCenter.
2. Contenido
Nos muestra detalles del objeto que tenemos seleccionado.
3. Bsqueda
Nos permite buscar en el inventario de vCenter de forma rpida el objeto que
deseemos, desde mquinas virtuales a portgroups, hosts, clusters, carpetas,
etc
4. Informacin
Se divide en tres contenedores que nos muestran la siguiente informacin:
Tareas
Nos muestra el conjunto de tareas que se encuentran en ejecucin.
Trabajo en curso
Nos muestra una relacin de trabajos que nos encontramos realizando o
hemos dejado para realizar posteriormente.
Alarmas
Nos muestra una relacin de warnings o alertas que se encuentran activas en
este momento.
5. Mensajes de vCenter
Nos muestra mensajes de informacin de vCenter, como por ejemplo licencias
que van a caducar en el ejemplo.
CREAR UN DATACENTER
Nuestro primer paso va a ser crear un datacenter en nuestro servidor vCenter.
Ese datacenter se llamar virt.es, pero podemos darle el nombre que nos
resulte ms significativo para identificarlo. Una buena idea es llamarlo como la
ubicacin fsica de los hosts que incluiremos dentro.

Para crear el datacenter en vSphere, haremos click en el inventario en vCenter


y a continuacin en Datacenters.

Una vez estemos dentro de datacenters, pulsaremos el botn de Create new


datacenter y le daremos el nombre que hayamos elegido.
AADIR UN HOST A UN
DATACENTER
Es hora de aadir nuestros tres hosts a este datacenter. Para ello, y sin salirnos
de la ventana de contenido de Datacenters, pulsaremos el botn de Add a
Host.

La primera pantalla del asistente nos pedir el hostname o direccin IP del


nuevo host que vamos a aadir a nuestro Datacenter.
El siguiente paso nos pedir las credenciales del host (root y la contrasea que
hubisemos elegido durante la instalacin). Tambin nos pedir, antes de
proseguir, que validemos el certificado SSL auto firmado que presenta el host.

El paso Host Summary nos informa de la versin de ESXi que tiene instalada el
host as como el nombre del fabricante del hardware. En este caso, al tratarse
de ESXi virtualizados, el fabricante aparece como VMware.
En el momento de asignar la licencia, para nustro curso de VMware vamos a
utilizar licencias de evaluacin de VMware, que son las que vienen por defecto y
nos permiten disfrutar durante 60 das de todas las funcionalidades de vSphere
con el nivel de licenciamiento Enterprise Plus.

El siguiente paso Nos pregunta si queremos activar el LockDown Mode.


El LockDown Mode es una funcionalidad de seguridad de ESXi que
desactiva los accesos directos mediante el cliente vSphere de Windows, para
que el servidor ESXi solamente sea administrable mediante vCenter o el acceso
fsico por consola.
Finalmente se nos pedir la ubicacin donde queremos aadir este host. Aqu
podramos elegir un cluster, si tuviramos alguno configurado. Lo dejaremos tal
cual y repetiremos el procedimiento para el resto de hosts ESXi que vamos a
utilizar en nuestro laboratorio durante este curso de VMware para la
certificacion VCP.

Podemos ver como las tareas se van ejecutando en el panel de tareas de la


parte derecha de la pantalla.
CLUSTERS DE VSPHERE
Como vimos anteriormente, el cluster es una entidad que agrupa hosts ESXi
para crear un conjunto agregado de recursos y habilitar diversas
funcionalidades de vSphere. Vamos a crear nuestro cluster llamado laboratorio,
pero previamente vamos a aprender una serie de conceptos nuevos que
pertenecen al mbito de los clusters VMware.

QU ES EVC?
Te estars preguntando Qu es EVC? Bien, EVC es una funcionalidad de los
clusters vSphere destinada al vMotion (migracin en caliente de mquinas
virtuales) que permite establecer una plantilla con el conjunto de instrucciones
de CPU disponibles para los hosts de ese cluster. La utilidad de EVC es clara
cuando juntamos hosts con diferentes generaciones de CPUs dentro de un
cluster. Podemos tener hosts con CPU Xeon Sandy Bridge que tienen una serie
de instrucciones disponibles en la CPU. Pasados un par de aos, compramos
otro servidor, con procesadores Xeon Ivy Bridge y lo queremos aadir al cluster.
Para que las mquinas virtuales sean ejecutables dentro de cualquiera de los
hosts de este cluster, deben tener disponibles el mismo juego de instrucciones
en TODAS las CPUs en las que pueden ejecutarse. Al activar EVC con nivel
Sandy Bridge, recortaremos las funcionalidades disponibles de los nuevos
servidores fsicos Ivy Bridge, pero podremos incluir estos ltimos en un cluster
previamente existente.

Es muy importante saber que EVC solo funciona dentro de un mismo fabricante.
No podemos hacer vMotion desde un host AMD a uno Intel ni viceversa. La
recomendacin general es mantener los clusters siempre con el mismo tipo de
procesadores, pero podemos juntar procesadores con un salto de generacin
entre ellos sin mucho problema. Si dispones de procesadores con un salto de
dos o ms generaciones entre ellos, es ms conveniente separarlos en
diferentes clusters para aprovechar mejor las nuevas funcionalidades que van
apareciendo con la evolucin de las familias de CPUs.

QU ES VMOTION?
vMotion es la capacidad de mover una (o varias) mquinas virtuales encendidas
desde un host fsico a otro diferente sin necesidad de apagarlas ni planificar
ninguna ventana de mantenimiento. Todo el proceso es transparente totalmente
para el usuario y se realiza de la siguiente forma:

Copia inicial de la memoria RAM de la mquina origen a destino. En el momento


de comenzar esta copia se comienzan a almacenar los cambios que se realizan
en memoria RAM en el origen, para transferirlos en siguientes copias de menor
tamao. Cuando estas copias han terminado, se transfiere el estado y registros
de CPU para esa mquina virtual desde el host de origen al destino y se
suspende durante una fraccin de tiempo la mquina virtual en el origen, para
pasar a ejecutarse en el destino. Todo, la ejecucin de programas,
transferencias de red, etc, sigue funcionando sin enterarse de que ha pasado de
un servidor fsico a otro.

QU ES DRS?
DRS, o Distributed Resource Scheduler es una funcionalidad de vSphere que
permite automatizar (o no) el reparto de carga entre los diferentes hosts de un
cluster mediante la utilizacin de vMotion y la configuracin de diferentes
umbrales de agresividad a la hora de repartir la carga. DRS se ejecuta cada
cinco minutos y analiza las cargas de trabajo de los diferentes hosts que
componen un cluster. Si observa que el nivel de desigualdad de utilizacin es
superior al que hemos establecido, invocar acciones de vMotion en el cluster
para repartir esta carga y dejar el cluster lo ms nivelado posible.

DRS permite adems establecer una serie de reglas de afinidad o anti afinidad
que nos permitirn asegurarnos de que una mquina virtual est separada en
un host fsico diferente de otra que desempea el mismo rol, por ejemplo, para
asegurarnos que no se nos cae todo de golpe con un nico fallo de host fsico.
Veremos todas estas reglas ms adelante.

Una caracterstica extra de DRS es DPM, Distributed Power Management, que


permite vaciar mediante vMotion hosts que no se necesitan para la carga de
trabajo actual del cluster. Esto permite ahorro de energa al prescindir de
servidores encendidos en periodos de poca utilizacin, como por ejemplo por
las noches.

QU ES HA?
El concepto HA dentro de VMware se refiere a alta disponibilidad de mquinas
virtuales. HA es una funcionalidad que acta a nivel de cluster que permite que,
en caso de fallo de un host, las mquinas afectadas (disponiendo de
almacenamiento compartido visible por todos los otros hosts del cluster) se
reinicie sola en otro host que haya sobrevivido a la cada. Podemos configurar
VMware HA para que monitorice a ms bajo nivel el comportamiento de la
mquina virtual y la reinicie en caso de que, aunque su host no sufra
contratiempos, el sistema operativo se cuelgue, por ejemplo.
QU ES VSAN?
VSAN es una tecnologa de almacenamiento distribuido entre hosts ESXi que
VMware ha presentado a finales de 2013. La idea detrs de VSAN es utilizar una
mezcla de almacenamiento SSD y discos duros tradicionales instalados en
servidores fsicos separados para crear un cluster de almacenamiento con
tolerancia a fallos y aceleracin mediante tecnologa Flash. Veremos en ms
detalle esta tecnologa ms adelante.

CREAR UN CLUSTER DE VSPHERE


Vamos con la creacin de nuestro cluster para el laboratorio del curso VMware
para la certificacion VCP. Mantenindonos en la misma ventana de propiedades
de Datacenters, pulsaremos el botn de Create New Cluster.

En la pantalla de creacin del cluster tenemos opcin de activar las siguientes


funcionalidades de vSphere: DRS, HA, EVC y VSAN. De momento las dejaremos
todas desactivadas.

Volvamos a la pgina inicial del inventario y hagamos click sobre Clusters.


Veremos que ya tenemos disponible nuestro nuevo y flamante cluster con una
capacidad de 0 Ghz. De poco nos va a servir este cluster si no tiene recursos,
as que vamos a aadirle nuestros tres hosts.Para ello, pulsaremos el botn
de Move Hosts Into Cluster.
Ahora seleccionamos los hosts que vamos a incorporar a nuestro cluster y con
pulsar OK, los hosts se comenzarn a agregar a nuestro cluster.

Podremos ver como los recursos de los hosts se han incorporado a nuestro
cluster laboratorio.

Una pregunta de examen VCP es el mximo de hosts que permite un cluster


vSphere. En la versin 5.5 es de 32 hosts. En vSphere 6 est previsto que sean
64.
Con esto terminamos el cuarto captulo del curso de VMware para la
certificacion VCP. En el siguiente captulo agregaremos almacenamiento
compartido a todos estos hosts y configuraremos VMkernels que nos permitirn
activar las funcionalidades avanzadas como vMotion, etc. Tambin
habilitaremos funcionalidades extra en nuestro cluster laboratorio.
URSO DE VMWARE 5.5
VIRTUAL NETWORKING,
VSWITCH
17 noviembre, 2014administradorVMwarecertificacion vcp, consejos vcp, curso vcp, curso
vmware, curso vsphere, guia vcp, tutorial vcp, VCP

VIRTUAL NETWORKING
VMKERNELS,
PORTGROUPS, VSWITCHES
En este quinto captulo de nuestro curso de VMware para la certificacion VCP
vamos a configurar nuestros hosts ESXi, aprendiendo lo que son los VMkernels,
vSphere Standard vSwitch, vSphere Distributed vSwitch y configurando los
VMkernels necesarios para vMotion, Fault Tolerance y VSAN, funcionalidades
que veremos en posteriores captulos.

CONFIGURAR LA RED EN VMWARE


VSPHERE
La base principal de la comunicacin en VMware pase por los vSwitches.
Disponemos de dos tipos de vSwitches que veremos a continuacin.

VSPHERE STANDARD VSWITCHES


Los Switches Standard de vSphere son una entidad propia de cada host vSphere
y se utilizan para comunicar las mquinas virtuales con el exterior utilizando los
adaptadores de red fsicos del host. Un vSphere Standard vSwitch (VSS a partir
de ahora) se compone de physical adapters (mnimo 0) y permite conectar a el
dos tipos de objetos. Portgroups y VMkernels.

VSPHERE DISTRIBUTED VSWITCHES


Los Switches Distribuidos de vSphere (Distributed vSwitch o DVS). Los
Distributed Virtual Switch permiten simplificar enormemente la gestin y
configuracin de redes en un entorno con varios hosts ESXi. Para configurarlos,
se crea el DVS y se asignan las tarjetas de red que queramos de una serie de
hosts. Automgicamente, se crear un switch en todos esos hosts que
compartir siempre la misma configuracin, eliminando posibilidades de error
por la creacin manual de puertos, etc. DVS tiene ventajas aadidas como la
creacin de puertos LACP, Monitorizacin por Netflow de los puertos de las
mquinas virtuales, pero sinceramente para m la mayor ventaja es la facilidad
de administracin y comodidad a la hora de aadir hosts nuevos a tu
infraestructura. DVS est disponible solo con el licenciamiento VSAN y
Enterprise Plus.

VIRTUAL MACHINE PORTGROUPS


Son objetos que tienen como misin proporcionar conectividad entre las
mquinas virtuales de un host y los vSwitches configurados en ese host. Un
Porgroup puede ser Standard o Distribuido. En un Virtual Machine Portgroup
podemos configurar VLANs, reglas de seguridad, Traffic Shaping y NIC Teaming

VLANS
Sirven para etiquetar el trfico de red con una marca especial que hace que
solo sea visible para las mquinas virtuales conectadas a ese portgroup o a
otras que tengan configurada esa VLAN. Las VLANs pueden quedarse dentro del
mbito de los vSwitches o propagarse ms arriba a travs de los switches
fsicos de la capa de electrnica de red si se configuran estas VLANs en ellos.

SECURITY
Podemos configurar las siguientes reglas de seguridad de forma individual en
cada Virtual Machine Portgroup

Promiscuous Mode (aceptar / rechazar)


Al activar esta opcin permitimos que una mquina virtual conectada a este
Virtual Machine Porgroup pueda poner su interfaz de red en modo promscuo,
capturando todos los paquetes de red que lleguen a ese Virtual Machine
Porgroup en particular. Puede ser util para la resolucin de problemas o la
instalacin de un sistema de deteccin de intrusiones (IDS).
MAC Address Changes (aceptar / rechazar)
Al activar esta opcin, permitiremos que las mquinas virtuales de dentro del
Virtual Machine Portgroup cambien su direccin mac desde alguna aplicacin o
el propio sistema operativo. Puede sernos util a la hora de montar un bonding /
teaming en un equipo.
Forged Transmits (aceptar / rechazar)
Al activar esta opcin estaremos permitiendo que de la mquina virtual salgan
paquetes marcados con una direccin MAC de origen diferente a la que tiene
asignada esa mquina virtual. Yo solo he tenido que hacer esto a la hora de
realizar simulaciones para resolucin de problemas.
TRAFFIC SHAPING
Nos permite limitar el ancho de banda que puede consumir este Virtual Machine
PortGroup de tres maneras diferentes:
Average Bandwidth
Es el ancho de banda medio que permitimos que fluya por este Virtual Machine
Port Group, medido en kilobits por segundo.
Peak Bandwidth
El ancho de banda mximo que permitimos que alcance este Virtual Machine
Port Group en cualquier momento, medido en kilobits por segundo.
Burst Size
La cantidad de kilobytes que permitimos un pico de trfico antes de penalizar el
ancho de banda aplicando el traffic shaping. Este parmetro se aplica siempre
que no se haya superado el ancho de banda medio establecido en la primera
limitacin y puede llegar hasta el valor de Peak Bandwidh siempre y cuando
haya ancho de banda disponible en el interfaz.
NIC TEAMING
En el men de configuracin de NIC Teaming dentro de un Virtual Machine
Portgroup nos encontramos con dos bloques de opciones configurables:

POLICY EXCEPTIONS

Load Balancing Nos permite establecer opciones de balanceo de


carga entre dos o ms tarjetas de red fsicas.

Route based on the originating virtual port ID


Balancear la carga tomando como parmetro el puerto virtual al que se
conecta la VM dentro del Virtual Machine PortGroup. Tomemos el siguiente
ejemplo:
Tenemos VM1 con identificador en el inventario de su
puerto de red 001, VM2 con identificador 002, VM3 con identificador 003. Si
tenemos 2 tarjetas de red, comenzar asignando el trfico de VM1 por la
NIC1, el de VM2 por la NIC2, el de la VM3 por la NIC3, por ejemplo. Los ID de
los puertos no siempre son correlativos, pero el balanceo de carga debera
ser siempre estable en lo que se refiere a VM NIC fsica. Es similar al
siguiente pero se controla mejor por donde va el trfico de cada mquina
virtual.
Route based on IP hash Este balanceo de carga tomar los
parmetros de direccin IP de origen y direccin IP de destino para aplicarles
un hash (una operacin). Dependiendo de ese resultado, enviar el trfico por
una tarjeta de red u otra. En este escenario (y siempre que haya ms de una
direccin IP generando trfico), el trfico se enviar de forma activa por todas
las tarjetas de red incluso aunque solo haya una mquina virtual. Se suele
utilizar para balancear el ancho de banda en servidores capaces de saturar el
ancho de banda de una nica interfaz.
Route based on source MAC hash Este modo de balanceo
tomar como factor de decisin la direccin MAC de la tarjeta de red de la
mquina virtual que enva el trfico. Si una mquina virtual tiene ms de una
tarjeta de red virtual conectada, podra enviarse el trfico de forma activa por
ms de un interfaz fsico del host. En caso contrario, es similar al caso 1.
Use Explicit failover order En este modo de balanceo,
especificamos en el bloque de opciones 2 (Failover Order) cuales van a ser las
tarjetas de red fsicas del host que van a usarse de forma activa, mantenerse
en espera para un caso de fallo, o directamente por que tarjeta de red fsica
no vamos a mandar nada de trfico nunca.
Network Failover Detection Establece los mtodos y criterios para
detectar la caida de un interfaz de red fsico de un host ESXi.
Link status only La caida del enlace fsico de la tarjeta de red
del host ESXi es la que hace considerar al host que no tiene conectividad y
que debe hacer el cambio a la tarjeta de red de StandBy (si la hubiera).
Beacon probing Es una modalidad de deteccin de problemas
de red en la que podemos detectar el mal funcionamiento de una tarjeta de
red incluso si no pierde el enlace fsico. Funciona mediante el envo de
paquetes de broadcast desde todas las tarjetas de red pertenecientes a un
mismo team (grupo de nics agregadas). El switch, al recibir estos paquetes,
est obligado a retransmitirlos a todos los puertos de red que tiene
conectados. De esta forma, si ESXi detecta que le faltan los broadcasts de una
tarjeta de red la marcar como caida y utilizar las dems. Este mtodo de
prueba est recomendado con al menos tres interfaces de red dentro de un
mismo team, para que ESXi pueda determinar que falla una de ellas (las otras
dos se ven entre s, pero no ven a la tercera que se ha caido). Esta
modalidad NO DEBE USARSE cuando usamos balanceo mediante hash
IP.
Notify Switches Si activamos esta opcin, al hacer un failover de
tarjeta de red (activar la secundaria porque hemos perdido la primaria), ESXi
enviar paquetes falsos supuestamente originados en las mquinas virtuales
que acaban de cambiar de tarjeta de red fsica, de manera que los switches
actualicen sus tablas ARP y acepten sin problemas el trfico de esas mquinas
virtuales en un nuevo puerto fsico.
Failback Con esta opcin seleccionamos si queremos que una tarjeta
de red, tras volver a considerarse como activa (recuperar el link, por ejemplo)
vuelva a entrar en funcionamiento de forma inmediata. Un caso tpico en el que
podramos querer tener esta opcin a NO, es cuando estamos haciendo trabajos
de red en un switch y una de las NICS, conectada a este switch, va a estar
flapeando (levantandose y cayendose) durante un periodo de tiempo.
FAILOVER ORDER

Nos permite configurar las interfaces fsicas del vSwitch a las que se conecta el
Virtual Machine Portgroup para establecer uno de los siguientes escenarios:

Activo-Activo
Todas las tarjetas de red que coloquemos en este grupo se considerarn activas
y sern candidatas a enviar trfico de las mquinas virtuales en condiciones
normales.
Activo-StandBy
El trfico se mover solo por las tarjetas de red que coloquemos en el grupo
Active y las que asignemos al grupo StandBy quedarn disponibles para entrar
en funcionamiento en caso de que haya un problema de red que cause que las
activas dejen de estar disponibles.
Unused
Nos permitir especificar tarjetas de red del vSwitch al que se conecta el Virtual
Machine Porgroup que deseamos dejar SIN USO de forma especfica, porque
queremos dedicarlas a otros menesteres, por ejemplo.

Realiza este ejercicio solo si tienes ms de una tarjeta de red en tu


host. Si solo tienes una tarjeta de red, tu host ESXi ya tendr un
Virtual Machine Portgroup que utilizaremos ms adelante y debers
obviar los ejercicios de Distributed Virtual Switch, adaptndolos a
Standard Virtual Switch (Creando vmkernels y Portgroups en tu nico
vSwitch0).

A continuacin crearemos un Virtual Machine Portgroup en uno de los hosts que


hemos aadido a nuestro cluster del laboratorio del curso de VMware.

Seleccionaremos un Host en el inventario e iremos a Manage > Networking >


Virtual Switches, para hacer click en el botn de Add Networking, seleccionando
Virtual Machine Port Group for a Standard vSwitch

A continuacin elegiremos crear un nuevo Standard vSwitch


Seleccionaremos las nics que queramos asignar a nuestro VSS
Las ordenamos en funcin de que queramos utilizarlas en modo activo, pasivo o
dejarlas sin uso de momento.
Continuamos el Asistente de creacin poniendo un nombre al nuevo Virtual
Machine Portgroup y finalizamos.

Si hacemos click en el nuevo vSwitch que hemos creado, veremos las tres
tarjetas de red que tiene asignadas, las dos que tiene activas y la otra sin uso
(de forma genrica para todo el vSwitch)
Ahora vamos a crear un segundo Portgroup en el vSwitch 1 y vamos a hacer
que su trfico vaya solamente por la vmnic3, que hemos dejado sin uso en el
Portgroup anterior.
Tras crear un nuevo Virtual Machine Portgroup y seleccionar vSwitch1 como el
vSwitch al que vamos a asignarlo, haremos click en su nombre y pulsaremos el
botn de Editar
En la seccin de configuracin de Teaming and Failover, podemos hacer un
override de la configuracion por defecto del vSwitch 1 (que dice que por defecto
todos los portgroups conectados a l usan la vmnic1 y vmnic2 de forma activa /
activa) y seremos capaces de subir vmnic3 desde Unused adapters hasta Active
y bajar las otras dos a Unused.Tambin aqu podremos cambiar las opciones de
balanceo de carga, deteccin de fallos, etc que explicabamos anteriormente. En
el caso de este Virtual Machine Portgroup no tiene mucho sentido ya que solo
tiene la vmnic3 como punto de comunicacin con el exterior, as que de poco
nos servira el load balancing. Sin embargo si podramos aplicarlo al penltimo
portgroup que creamos, que s tena dos interfaces activas.

Elimina el vSwitch1 que acabamos de crear, seleccionndolo y pulsando el


botn Remove Selected Standard vSwitch.
Confirmamos la eliminacin del vSwitch 1

VMKERNELS (VMK)
Los VMkernels son interfaces especiales que permiten la conectividad
nicamente del HOST ESXi. Se utilizan para diversas funciones, como
administracin, vMotion, Fault Tolerance, VSAN, Replicacin y Almacenamiento
pero nica y exclusivamente por parte del HOST ESXi.

Se pueden tener varios VMkernels por host ESXi, pero deberemos tener como
mnimo para la administracin remota de ese host ESXi. Los VMkernels
funcionan utilizando IP como protocolo de comunicacin, tanto ipv4 como ipv6,
aunque existen algunas limitaciones al utilizar ipv6 en los VMkernels.

CREACIN DE UN DISTRIBUTED VIRTUAL


SWITCH (SWITCH DISTRIBUIDO O DVS)
El resto de ejercicios del curso de VMware los realizaremos utilizando
Distributed Virtual Switch, as que vamos a crear un DVS con las tarjetas de red
de que dispongamos en nuestro laboratorio. En mi caso los hosts esxi tienen 7
tarjetas de red distribuidas de la siguiente forma:
vmnic0 Gestion, trfico de VMs y Almacenamiento
vmnic1 vMotion
vmnic2 vMotion
vmnic3 Fault Tolerance
vmnic4 Fault Tolerance
vmnic5 VSAN
vmnic6 VSAN

Si dispones de solo dos tarjetas de red, te recomiendo agrupar por un lado


vMotion, FT y VSAN y por otro Gestin, Almacenamiento y Servicio.(lo ptimo es
dejar almacenamiento apartado en una nic propia, pero no en nuestro
laboratorio del curso de vmware no vamos a mover barbaridades de trfico, as
que nos servir).

Para crear un Distributed Virtual Switch iremos en el vSphere Web Client a la


pantalla principal Home y elegiremos Networking

Haremos click derecho encima de nuestro Datacenter y elegiremos la opcin de


New Distributed vSwitch
Elegimos un nombre para nuestro Distributed vSwitch. Este ser el primero de
tres Distributed vSwitches que vamos a crear para vMotion, FT y VSAN.
Seleccionamos la versin 5.5.0 de Distributed vSwitch para disponer de todas
las caractersticas que aporta la ltima versin.
Seleccionamos 2 uplinks para nuestro Distributed vSwitch
Al finalizar el asistente podremos ver que aparece un nuevo elemento de red en
nuestro inventario de objetos de red, el Distributed vSwitch que vamos a
dedicar a vMotion

Ahora vamos a agregar hosts a este Distributed vSwitch haciendo click derecho
sobre l y pulsando Add and Manage hosts
En el asistente, seleccionamos Add Hosts
Aadimos los hosts de nuestro laboratorio del curso de vmware pulsando en el
botn New hosts
Seleccionamos Manage Physical Adapters para agregar a este Distributed
vSwitch las tarjetas de red de cada host correspondientes a este Distributed
vSwitch
Seleccionamos los uplinks que queremos para este Distributed vSwitch y
pulsamos el botn de Assign uplink. En el caso de mi laboratorio, asignar
vmnic1 al uplink 1 y vmnic2 al uplink 2. Repetimos la operacin con el resto de
hosts.
La siguiente ventana nos analizar el impacto que puede tener esta operacin
sobre puertos vmkernel ya existentes. Como estamos migrando uplinks vacos
al Distributed vSwitch, no va a haber ningn impacto.
Finalizamos el asistente.

El siguiente paso es crear un Distributed Port Group al que conectar los


VMkernels de cada host ESXi destinados a vMotion. Para completar esta tarea,
haremos click derecho sobre el Distributed vSwitch y seleccionaremos New
Distributed Port Group.
Le daremos un nombre identificativo, en nuestro caso vMotion.

Dejamos las opciones que vienen por defecto salvo la VLAN si vamos a utilizar
alguna en los puertos directamente conectados. Si ests usando un ESXi
anidado, te recomiendo que configures las opciones avanzadas y permitas
modo promscuo, cambio de MAC y Forged Transmits.
Finalizamos el asistente.

Ahora vamos a crear los vmkernels destinados a gestionar el vMotion en los


hosts del laboratorio del curso de vmware. Para ello, iremos en el inventario a la
pestaa de hosts, seleccionaremos cada uno de los hosts, y en Manage >
Networking, haremos click en Virtual Switches. Despus seleccionaremos el
nuevo Distributed vSwitch llamado vMotion y haremos click en el botn de Add
Host Networking.
Seleccionaremos Aadir VMkernel Network Adapter
Seleccionaremos el Distributed Port Group que acabamos de crear en el paso
anterior.

En el siguiente paso, seleccionaremos trfico de vMotion e IPv4


El siguiente apartado requiere que asignes direccionamiento IP propio de tu red.
En mi red, la red de vMotion es 192.168.2.x.

Finalizamos el asistente

Repetimos el paso de creacin de VMkernel para los hosts esxi02 y esxi03.

Repetimos el proceso completo de creacin de Distributed Virtual Switch para


crear:
Un nuevo Distributed vSwitch para FT (Fault Tolerance)
Un nuevo Distributed vSwitch para VSAN
Un nuevo Distributed Port Group para FT
Un nuevo Distributed Port Group para VSAN
Un nuevo VMkernel destinado a Fault Tolerance en cada host ESXi,
crendolo en el su Distributed vSwitch / Distributed Port Group correspondiente.
Un nuevo VMkernel destinado a VSAN en cada host ESXi, crendolo en su
Distributed vSwitch / Distributed Port Group correspondiente.

Al final, tus distributed vSwitches debern quedar como puedes ver en la


imagen:

En la configuracin de CADA HOST, deberamos tener vmkernels configurados


en cada uno de los Distributed Port Groups como vemos en la imagen:
Existen formas de hacer tareas de las que hemos realizado anteriormente de
forma combinada, como crear un portgroup inicial a la hora de crear el
Distributed vSwitch, o Crear VMkernels a la hora de aadir hosts a un
Distributed vSwitch. Practica por tu cuenta esas opciones.

Para futura referencia, en mi laboratorio estoy usando los siguientes


direccionamientos ip en los 3 hosts:

esxi01

Gestion y almacenamiento 192.168.1.11

vMotion 192.168.2.11

Fault Tolerance 192.168.3.11


VSAN 192.168.4.11

esxi02

Gestion y almacenamiento 192.168.1.12

vMotion 192.168.2.12

Fault Tolerance 192.168.3.12

VSAN 192.168.4.12

esxi03

Gestion y almacenamiento 192.168.1.13

vMotion 192.168.2.13

Fault Tolerance 192.168.3.13

VSAN 192.168.4.13

Para comprobar si la conectividad es correcta, podemos entrar en uno de los


hosts por ssh y hacer vmkping a las ips de los vmkernels de los dems hosts.

COMPROBAR CONECTIVIDAD VMOTION


Entramos a esxi01 por ssh y hacemos vmkping -c1 a las ips de vmkernel de
vMotion de los otros hosts. El -c1 es para solo hacer un ping.

1 ~ # vmkping -c1 192.168.2.12

2 PING 192.168.2.12 (192.168.2.12): 56 data bytes

3 64 bytes from 192.168.2.12: icmp_seq=0 ttl=64 time=1.064 ms

5 --- 192.168.2.12 ping statistics ---

6 1 packets transmitted, 1 packets received, 0% packet loss

7 round-trip min/avg/max = 1.064/1.064/1.064 ms

8 ~ # vmkping -c1 192.168.2.13


9

1
0 PING 192.168.2.13 (192.168.2.13): 56 data bytes

1 64 bytes from 192.168.2.13: icmp_seq=0 ttl=64 time=1.002 ms


1

1
--- 192.168.2.13 ping statistics ---
2
1 packets transmitted, 1 packets received, 0% packet loss
1
3 round-trip min/avg/max = 1.002/1.002/1.002 ms

1
4

Desde esxi01 tenemos conectividad vMotion con los otros dos hosts. Bien,
procederemos a probar FT y VSAN de la misma forma

COMPROBAR CONECTIVIDAD FAULT


TOLERANCE
Desde la sesin SSH que tenemos abierta en esxi01, hacemos vmkping a las ips
de los vmkernels de FT de los otros dos hosts.

1 ~ # vmkping -c1 192.168.3.12

2 PING 192.168.3.12 (192.168.3.12): 56 data bytes

3 64 bytes from 192.168.3.12: icmp_seq=0 ttl=64 time=1.122 ms

5 --- 192.168.3.12 ping statistics ---

6 1 packets transmitted, 1 packets received, 0% packet loss

7 round-trip min/avg/max = 1.122/1.122/1.122 ms

8 ~ # vmkping -c1 192.168.3.13

9 PING 192.168.3.13 (192.168.3.13): 56 data bytes

1 64 bytes from 192.168.3.13: icmp_seq=0 ttl=64 time=0.679 ms


0

1
1
1
2
--- 192.168.3.13 ping statistics ---
1
1 packets transmitted, 1 packets received, 0% packet loss
3
round-trip min/avg/max = 0.679/0.679/0.679 ms
1
4

COMPROBAR CONECTIVIDAD VSAN


Por ultimo, de nuevo desde la sesion root de SSH que tenemos abierta en
esxi01, hacemos vmkping a las ips de los vmkernels de VSAN que tenemos en
los otros dos hosts.

2
~ # vmkping -c1 192.168.5.12
3
PING 192.168.5.12 (192.168.5.12): 56 data bytes
4
64 bytes from 192.168.5.12: icmp_seq=0 ttl=64 time=0.932 ms
5

6
--- 192.168.5.12 ping statistics ---
7
1 packets transmitted, 1 packets received, 0% packet loss
8
round-trip min/avg/max = 0.932/0.932/0.932 ms
9
~ # vmkping -c1 192.168.5.13
1
0 PING 192.168.5.13 (192.168.5.13): 56 data bytes

1 64 bytes from 192.168.5.13: icmp_seq=0 ttl=64 time=0.915 ms


1

1
--- 192.168.5.13 ping statistics ---
2
1 packets transmitted, 1 packets received, 0% packet loss
1
3 round-trip min/avg/max = 0.915/0.915/0.915 ms

1
4
Hasta aqu llegamos en esta entrada del curso de vmware para ayudarte con la
certificacion VCP. En siguientes captulos vamos a comenzar a habilitar y utilizar
funciones vomo vMotion, HA, DRS y Fault Tolerance.

CURSO DE VMWARE 5.5


ALMACENAMIENTO
COMPARTIDO
18 noviembre, 2014administradorVMwarecertificacion vcp, consejos vcp, curso vcp, curso
vmware, curso vsphere, guia vcp, tutorial vcp

En este corto captulo de nuestro curso de vmware aadiremos almacenamiento


compartido desde vCenter a nuestros hosts esxi del laboratorio VMware. Hace
un par de captulos ha habamos pasado por encima del almacenamiento,
creando datastores en almacenamiento local y mirando como se agregaban
desde el cliente vmware de Windows. Ahora vamos a crearlos utilizando
vCenter, que es la forma habitual de trabajar y simplifica en gran medida tareas
como esta, ya que podemos agregar almacenamiento compartido a literalmente
centenares de hosts con una nica operacin. En este laboratorio utilizaremos
NFS como protocolo para el almacenamiento compartido y crearemos dos
datastores a partir de dos volumenes NFS que debemos tener configurados en
nuestro laboratorio con la solucin de almacenamiento compartido que
hayamos elegido.

Antes de nada, utilices el protocolo que utilices de almacenamiento compartido,


debes dar permisos en el lado del storage para poder conectar nuestros hosts
ESXi. En el caso de NFSv3, la validacin es simplemente mediante la ip de
origen que intenta montar el volumen. Yo ya he creado los permisos
correspondientes de lectura y escritura en el dispositivo de almacenamiento
compartido de forma previa.

AGREGAR DATASTORES EN VCENTER


Para agregar almacenamiento compartido en vCenter, y dado que queremos
agregarlo en todos los hosts de nuestro cluster del laboratorio, iremos en el
inventario a la opcin Hosts and Clusters
A continuacin, haremos click derecho en el cluster y seleccionaremos New
Datastore
Elegiremos la opcin NFS

Proporcionamos los datos del dispositivo de almacenamiento y el volumen


exportado por NFS.
Seleccionaremos los hosts a los que queremos agregar este almacenamiento
compartido y finalizaremos el asistente.

Podremos ver en el panel de tareas recientes que se ha completado


correctamente la operacin.

A continuacin, repetiremos el procedimiento para agregar un segundo


datastore NFS, necesario para las prcticas de Storage DRS y Storage vMotion.
Una vez dispongamos del segundo datastore, podemos irnos, en el panel de
inventario, a la pestaa de almacenamiento y podremos ver los datastores
disponibles

Si queremos confirmar que efectivamente, los 3 hosts de nuestro laboratorio se


han conectado al nuevo almacenamiento compartido, seleccionaremos el
datastore e iremos a Related Objects > Hosts

CREAR UN DATASTORE CLUSTER


Al igual que podemos crear clusters con los hosts ESXi, podemos crear
Datastore Clusters con el almacenamiento compartido. Esto nos sirve para
repartir su ocupacin o para balancear la carga de trabajo que tienen. A
continuacin crearemos un Datastore Cluster con los dos volumenes NFS que
hemos agregado anteriormente.

Para crear un Datastore Cluster, dentro de la misma pestaa de


Almacenamiento que estbamos antes, haremos click derecho sobre el
Datacenter y elegiremos la opcin New Datastore Cluster
Lo nombraremos LAB-CLUSTER y desactivaremos de momento DRS

Proseguimos con las opciones por defecto del asistente hasta llegar a la
pantalla de Select Clusters and Hosts. En esta ventana indicaremos cuales son
los hosts y clusters que debern tener conectividad con los datastores que
formen parte del Datastore Cluster. En cierto modo es una forma de filtrar los
datastores que van a participar en el cluster. Seleccionaremos todo el cluster
laboratorio.
A continuacin, elegiremos los datastores disponibles en comn dentro del
objeto que seleccionamos en el paso anterior. Como todos los hosts
pertenecientes al cluster laboratorio tienen conectados los datastores QNAP01-
VM01 y QNAP01-VM02, nos deja elegirlos, y as lo haremos.

Finalizamos el asistente ya veremos el cambio reflejado en el panel de


inventario, donde hemos dejado de ver directamente los dos datastores para
pasar a ver el cluster que los contiene.
CURSO DE VMWARE 5.5
MAQUINAS VIRTUALES
11 febrero, 2015administradorSin categora, VMwarecurso vcp, curso vmware, curso vsphere

Hasta ahora en nuestro curso de VMware hemos avanzado en conceptos de


virtualizacin, organizacin del inventario de objetos en vCenter,
almacenamiento, redes, pero todava no hemos tocado propiamente mquinas
virtuales. Las mquinas virtuales son el objeto de la virtualizacin propiamente
y merecen un captulo propio para aclarar una serie de conceptos importantes
de cara a los siguientes captulos.

COMPONENTES DE LAS MAQUINAS


VIRTUALES
Una maquina virtual en s no es ms que un conjunto de archivos que
almacenan informacin relativa a su configuracin de hardware, y los datos del
disco duro de esta. Entremos un poco ms en profundidad en estos
componentes.

QUE CONTIENE CADA ARCHIVO DE UNA


MQUINA VIRTUAL DE VMWARE?
Cuando trabajamos con VMware ESXi, estamos manejando, entre otras muchas
cosas, mquinas virtuales (VMs). Estas mquinas virtuales estn compuestas
por varios archivos almacenados en carpetas dentro de datastores. Tomaremos
como ejemplo el vCenter Server Appliance que instalamos en el captulo
anterior del curso de vmware para la certificacion VCP:

1 -rw------- 1 root root 16.1M Nov 2 19:03 vcsa55-000001-delta.vmdk

2 -rw------- 1 root root 315 Nov 2 19:03 vcsa55-000001.vmdk

3 -rw------- 1 root root 8.0G Nov 2 12:20 vcsa55-3dbf9190.vswp

4 -rw------- 1 root root 27.6K Nov 2 19:03 vcsa55-Snapshot1.vmsn

5 -rw------- 1 root root 25.0G Nov 2 19:03 vcsa55-flat.vmdk


6

8
-rw------- 1 root root 8.5K Nov 2 19:03 vcsa55.nvram
9
-rw------- 1 root root 523 Nov 2 12:20 vcsa55.vmdk
1
0 -rw-r--r-- 1 root root 441 Nov 2 19:03 vcsa55.vmsd

1 -rwxr-xr-x 1 root root 2.7K Nov 2 19:03 vcsa55.vmx


1
-rw------- 1 root root 0 Nov 2 12:20 vcsa55.vmx.lck
1
2 -rw-r--r-- 1 root root 261 Oct 31 17:15 vcsa55.vmxf

1 -rw------- 1 root root 16.2M Nov 2 19:03 vcsa55_1-000001-delta.vmdk


3
-rw------- 1 root root 320 Nov 2 19:03 vcsa55_1-000001.vmdk
1
-rw------- 1 root root 100.0G Nov 2 19:03 vcsa55_1-flat.vmdk
4
-rw------- 1 root root 529 Nov 2 12:20 vcsa55_1.vmdk
1
5 -rw-r--r-- 1 root root 136.2K Oct 31 17:47 vmware-1.log

1 -rw-r--r-- 1 root root 160.0K Nov 2 19:03 vmware.log


6
-rw------- 1 root root 110.0M Nov 2 12:20 vmx-vcsa55-1035964816-1.vswp
1
7

1
8

vcsa55.vmx
Guarda los datos de configuracin de la mquina virtual, desde su direccin
MAC, hasta los discos que tiene conectados, etc.
vcsa55-3dbf9190.vswp
Se trata del archivo de swap de la mquina virtual. Puede crecer hasta el
tamao que tiene la memoria RAM de la mquina virtual, por eso tiene
asignados los 8192 MB de RAM de la mquina virtual + el overhead (veremos
ms adelante eso, en el captulo dedicado a la gestin de memoria).
vcsa55.nvram
Este archivo guarda una copia de la BIOS de la mquina virtual
vcsa55.vmsd
En este archivo se guarda informacin relativa a los snapshots de la mquina
virtual. Solo informacin relativa a ellos, no los snapshots propiamente.
vcsa55.vmx.lck
Este archivo es un lockfile. Indica que esta mquina virtual se encuentra
encendida en algn host.
vcsa55.vmxf
Este archivo contiene informacion de configuracin extra para las mquinas
virtuales.
vmware.log
Este archivo guarda un log de eventos relacionados con la mquina virtual.
Puede ser til a la hora de hacer resolucin de problemas.
vcsa55.vmdk
Contiene una serie de datos de descripcin y configuracin del siguiente archivo
de la lista y correspondiente al primer disco duro de la mquina virtual
vcsa55-flat.vmdk
Se trata del disco duro propiamente de la mquina virtual, un contenedor de
datos en el que se almacenan los bytes correspondientes al primer disco duro
de la mquina virtual
vcsa55_1.vmdk
Contiene una serie de datos de descripcin y configuracin del siguiente archivo
de la lista y correspondiente al segundo disco duro de la mquina virtual
vcsa55_1-flat.vmdk
Se trata del disco duro propiamente de la mquina virtual, un contenedor de
datos en el que se almacenan los bytes correspondientes al segundo disco
duro de la mquina virtual
vcsa55-Snapshot1.vmsn
Se trata de un archivo que contiene informacin relativa al estado del snapshot
nmero 1 de la mquina virtual
vcsa55-000001.vmdk
Se trata del archivo que guarda la configuracin de un disco duro auxiliar
creado al hacer un snapshot del primer disco duro de la mquina virtual.
vcsa55-000001-delta.vmdk
Se trata del archivo de datos con las diferencias que va habiendo en
el primer disco duro de la mquina virtual desde el momento de creacin del
snapshot.
vcsa55_1-000001.vmdk
Se trata del archivo que guarda la configuracin del disco duro auxiliar creado al
hacer un snapshot del segundo disco duro de la mquina virtual.
vcsa55_1-000001-delta.vmdk
Se trata del archivo de datos con las diferencias que va habiendo en
el segundo disco duro de la mquina virtual desde el momento de creacin del
snapshot.

VCPU
Se trata de la cantidad de CPUs / cores de CPU a los que tienen acceso las
maquinas virtuales. Pueden tratarse de una o ms CPUs que se presentan
fsicamente como sockets o cores (podemos elegirlo). Aparte de configuraciones
avanzadas y optimizadas como afinidad NUMA, etc, podemos vernos en la
necesidad de presentar las CPUs como cores para respetar un escenario como
este:

Hemos comprado un software que se licencia por CPU fsica, es decir, por socket
fsico.

Nuestro host de virtualizacin es un servidor con dos procesadores Xeon de 6


cores cada uno, sin embargo solo podemos utilizar uno de ellos para la maquina
virtual si queremos respetar la modalidad de licenciamiento con el fabricante
(una modalidad que por otro lado est totalmente obsoleta).

Para esto, daremos a nuestra maquina virtual 1 socket de CPU y 6 cores de CPU.
Adems, para asegurarnos de que vamos a utilizar solo una cpu fsica para esta
maquina virtual, seleccionaremos CPU AFFINITY 0-5, lo cual har que solo se
utilicen los primeros 6 cores disponibles en el host para esta mquina virtual.
De esta manera, la maquina virtual nunca llegar a hacer uso del segundo
procesador fsico y no estaremos rompiendo estos licenciamientos ridiculos.

Otro escenario es que tengamos un software con la misma licencia limitada a 1


CPU fsica y queramos hacerle trampas y proporcionarle ms cores de los que
tienen nuestros procesadores en el host. Siguiendo el ejemplo anterior del Dual
Xeon Hexa Core, podramos hacer creer a la mquina que tiene 1 Socket, pero
otorgarle 12 CORES, con lo que aprovecharamos el doble procesador y el
software no rechistara, pensando que tenemos 1 nico procesador con muchos
ms cores de los que realmente tenemos.

CPU AFFINITY
Se trata de una opcin de configuracin de una maquina virtual en VMware que
permite seleccionar y limitar el uso de cores del host a una maquina virtual. Si
queremos que maquinavirtual01 se ejecute unica y exclusivamente en los
cores 0 y 1 de nuestro host, escribiremos 0,1 en los valores de CPU affinity. Ten
presente que esto limita la ejecucin de la maquina virtual a estos cores, pero
de ninguna manera los reserva para esta maquina virtual en exclusiva. Ademas,
estaras limitando el tiempo de cpu que se puede dedicar a los diferentes hilos
que componen la maquina virtual en tiempo de ejecucion (worlds) por lo que es
posible que termines viendo una merma del rendimiento conforme los
diferentes worlds compiten entre si por obtener recursos en caso de saturacion
de los cores a los que hemos limitado esa maquina virtual.

CPU affinity adems, inhabilita la maquina virtual para ser manejada mediante
la funcionalidad DRS automatizada de un cluster y no puede ser habilitado en
una maquina virtual que resida en un cluster con DRS ya habilitado.

La recomendacin general es que no utilices CPU affinity en tus maquinas


virtuales pues puede penalizarte ms que los beneficios que te aporte.
Adems, CPU affinity es una funcionalidad incompatible con vMotion y
por tanto con DRS.

VRAM
La vRAM, o RAM virtual, es la cantidad de memoria del host que se asigna a
cada mquina virtual para trabajar y, en definitiva, la que este guest ver como
disponible. Se puede asignar desde unos pocos MB hasta 2TB de memoria RAM.
La recomendacin general es que se debe asignar a la mquina virtual tanta
memoria como vaya a utilizar, ni ms ni menos. No es interesante asignar a un
equipo mucha ms memoria de la que vaya a utilizar, pues estaremos
perjudicando a las dems mquinas virtuales en caso de que ocurra una
situacin de contencin de recursos (falta de recursos).
DISCO DURO VIRTUAL
Otro de los componentes bsicos de una mquina virtual es su disco duro. Si
bien es perfectamente posible ejecutar mquinas virtuales que no dispongan de
almacenamiento de este tipo, existen pocos casos prcticos en los que
vayamos a querer nuestra mquina virtual arrancando solo desde PXE o una
ISO arrancable como un Live CD. Un ejemplo clsico de mquina virtual sin
disco duro es aquella en la que montamos una ISO de un Live CD de Linux para
probarlo durante un periodo determinado de tiempo y cuya informacin no nos
preocupa perder si la apagamos.

Los discos duros virtuales de una maquina virtual se conectan mediante


controladoras, al igual que en un ordenador normal. Disponemos de diferentes
tipos de controladoras de disco:

Buslogic Parallel IDE


LSI Logic Parallel
LSI Logic SAS
VMware PAravirtual

Podemos conectar hasta 4 controladoras de disco SCSI a una maquina virtual, y


15 discos duros a cada una de ellas, por lo que podremos disponer de un
mximo de 60 discos duros conectados a una nica mquina virtual. En el caso
de controladoras IDE, podremos conectar una nica a nuestra maquina virtual,
con hasta 4 dispositivos conectados a la misma. Si, por el contrario, elegimos
un adaptador Virtual SATA, podremos conectar 4 de este tipo, con 30
dispositivos por cada controladora SATA virtual.

CREAR MAQUINAS VIRTUALES


Una tarea habitual en un entorno virtualizado es la creacin de mquinas
virtuales dentro de nuestro vCenter. La creacin de mquinas se realiza de la
siguiente manera:

Seleccionaremos el nivel dentro del inventario en el que queremos crear


nuestra mquina virtual. El nivel ms alto al que podemos crear una mquina
virtual es el cluster. Si no tenemos un cluster, crearemos la mquina virtual en
un host. Las mquinas virtuales tambin pueden crearse en resource pools,
vApps y carpetas.

Para crear una mquina virtual, haremos click derecho sobre el objeto padre
donde queramos alojarla y haremos click en New Virtual Machine
Ahora se nos presentara un men en el que veremos todas las formas que
existen para crear una maquina virtual.
Repasmoslas:

CREATE A NEW VIRTUAL MACHINE

La forma tradicional y ms manual de crear una mquina virtual. Se te pedirn


los valores de configuracin de la mquina virtual para que luego procedas a
instalarla, es como instalar un servidor fsico normal.

DEPLOY FROM TEMPLATE

Se utiliza una mquina virtual que previamente has convertido en una plantilla.
Suele estar ya instalada y lista para configurar valores como el hostname o su
IP. Facilita bastante los despliegues de varias mquinas virtuales.

CLONE AN EXISTING VIRTUAL MACHINE

Puedes usar una mquina virtual ya existente para generar una clonndola.
Tiene la ventaja de que tiene el mismo contenido, pero el inconveniente de que
las ips, hostnames, configuraciones, son las mismas que las de la mquina que
ya tienes. Puede haber conflictos de ips duplicadas, aplicaciones compitiendo
por conexiones, etc.

CLONE VIRTUAL MACHINE TO TEMPLATE

Con este mtodo crearemos una plantilla o template a partir de una mquina
virtual que ya tenemos lista y preconfigurada. Es requisito para la opcion 2 de
este men.

CLONE TEMPLATE TO TEMPLATE

Esta funcionalidad nos permite clonar un template o plantilla. Normalmente lo


utilizaremos si queremos realizar modificaciones a la plantilla que solemos
utilizar para desplegar mquinas virtuales.

CONVERT TEMPLATE TO VIRTUAL MACHINE

Esta funcionalidad suele ser complementaria a la anterior. Dado que los


templates o plantillas de maquinas virtuales no se pueden encender,
necesitamos convertir la plantilla a mquina virtual normal cada vez que
vayamos a introducir algn cambio en la misma, como por ejemplo, instalar
actualizaciones de sistema o meter nuevas versiones de software para disponer
de ellas en futuros despliegues.

En este curso de VMware 5.5 vamos a aprender a crear mquinas virtuales de


forma tradicional, pero es importante que conozcas TODAS las formas de
creacin de mquinas virtuales, incluidos los despliegues con
plantillas/templates y la personalizacin del despliegue usando herramientas
como sysprep. Si ests preparando el examen VCP, son preguntas de examen
VCP.

Lo primero que se nos pedir en el asistente de creacin de mquinas virtuales


ser el nombre y ubicacin de la misma. Debemos dar un nombre por el que la
vayamos a poder identificar. Este nombre ser tambin el nombre de la carpeta
que se crear dentro del datastore para almacenar los diferentes archivos que
conforman la mquina virtual.
Como anteriormente hemos elegido el datacenter virt.es, se nos presenta una
lista de los objetos que contiene. Yo he elegido el cluster laboratorio, pero
puedes elegir el que se adapte a tus necesidades.
La siguiente pantalla nos muestra una seleccin de los diferentes datastores
que tenemos disponibles par almacenar nuestra mquina virtual. Elegiremos
uno con suficiente capacidad disponible y debemos tener presente si el resto de
nuestros hosts tienen visibilidad del mismo, para funcionalidades posteriores
como HA, FT, vMotion
La siguiente pantalla del asistente nos pregunta la versin del hardware virtual
que queremos poner a la mquina virtual. Esta eleccin, aparentemente
sencilla, la har compatible o incompatible con hosts de versiones anteriores a
la que seleccionemos. Adems, segn la versin del cliente vSphere de
Windows que utilices, podrs realizar o no acciones como editar las propiedades
de la mquina virtual. Como regla general, para mantenernos en el lado seguro,
diremos que el Cliente vSphere de Windows solo puede editar mquinas
virtuales con hardware versin 8, equivalente a ESXi 5.0. Con las ltimas
versiones del cliente vSphere, podremos editar mquinas con versin superior
de hardware, pero nicamente modificar los parmetros que ya existan en la
versin 8 de hardware virtual. Las nuevas capacidades de hardware v9 y
hardware v10 no sern editables. El cliente Web no tendr problema para editar
las mquinas virtuales de como mximo, su versin.
Elegiremos el tipo de sistema operativo que va a ejecutar nuestro guest.
Recordemos que el guest es la mquina virtual que estamos creando. En mi
caso, he elegido Linux, y dentro de la familia Linux, el sistema operativo Debian
7.
En esta pantalla se nos permitir ajustar los parmetros que por defecto
se recomiendan para el tipo de mquina virtual que hemos seleccionado
crear. Pregunta de examen VCP. En mi caso suelo quitar la unidad de floppy,
ya que nunca la utilizo.
En esta ltima pantalla revisaremos todos los parmetros antes de crear la
mquina virtual. Si estamos de acuerdo con todo, pulsaremos en Finish.
Una vez la mquina virtual est creada, haremos click derecho sobre ella y
seleccionaremos Power On para ponerla en marcha.
Nuestra mquina virtual ya est creada, pero carece de un sistema operativo
que arrancar. Pulsaremos el botn que se indica en la imagen para conectarle
un archivo .iso en el que tendremos nuestro sistema operativo.
Seleccionamos la opcin Connect to CD/DVD image on a local disk, si lo
tenemos descargado en nuestro ordenador de escritorio.

La aplicacin web solicitar permiso para acceder a nuestro ordenador, para


poder montar la iso en la mquina virtual como si de un CD se tratase.
Seleccionamos la iso que queramos instalar y pulsamos Open. En mi caso he
usado una de lubuntu para el ejemplo, aunque posteriormente he de confesar
que me arrepent y puse kubuntu para probar KDE Plasma 5

Volveremos a la pantalla de Summary para esta vez vamos a fijarnos en un


texto que pone Launch Console. Haremos click sobre l. Es el equivalente a
conectar un monitor y teclado a un servidor tradicional. Desde aqu
controlaremos la instalacin del sistema operativo en la mquina virtual.
Vaya, la mquina virtual ya estaba arrancada y efectivamente ha detectado que
no tenemos sistema operativo en el disco duro. Como hemos conectado la
imagen ISO a modo de CD con posterioridad, vamos a mandarle un reinicio
mediante el botn de Ctrl-Alt-Supr indicado en la imagen

Una vez pulsamos, podremos ver como esta vez si arranca desde la ISO y
comienza la instalacin del sistema operativo.
CREAR UN TEMPLATE DE UNA MAQUINA
VIRTUAL
Crear una plantilla puede facilitar enormemente el despliegue de mltiples
mquinas virtuales. Una vez tenemos nuestra mquina virtual instalada,
seguiremos el siguiente procedimiento para convertirla en plantilla.

Apagar la mquina virtual. Es requisito. Para convertir una mquina virtual


preexistente en una template, ha de estar apagada.

Pulsaremos sobre la mquina virtual apagada con el botn derecho del ratn y
elegiremos la opcin Convert to Template. Esta opcin puede estar dentro de All
vCenter Actions en el Web Client.

OJO! Para ver las plantillas tenemos que ir al tab de VMs, ya que no aparecen
en el de Hosts and Clusters.
Si nos fijamos en el inventario, el icono representativo de los templates es
diferente al de las mquinas virtuales. Esto permite diferenciarlas mucho ms
fcilmente.

CREAR UNA PLANTILLA DE


PERSONALIZACIN PARA DESPLIEGUES
(CUSTOMIZATION SPECIFICATION)
Cuando desplegamos una mquina virtual desde una plantilla, si el sistema
operativo est soportado, podemos personalizar aspectos como su hostname,
direccionamiento de red, DNS Esto es una ventaja y hace mucho ms gil el
despliegue de mquinas virtuales (te lo dije!)

Debes saber que para personalizar despliegues en Windows, podemos utilizar


la herramienta sysprep de microsoft, que permitir personalizar ms a fondo el
despliegue.

En mi caso, como voy a desplegar y personalizar una plantilla de Ubuntu, crear


una customization specification para este sistema operativo.

Haremos click en el icono de Home de vSphere Web Client, para posteriormente


hacer click en Customization Specification Manager
El asistente de creacin de personalizacin de VMs nos pedir inicialmente el
sistema operativo que vamos a personalizar. Puede ser Windows o Linux. Ten
presente que no todos los Linux estn soportados.

La siguiente pantalla nos permite personalizar opciones de hostname y dominio


de la mquina que vamos a personalizar en tiempo de despliegue.
Personalmente, creo que la opcin ms sensata es elegir el mismo hostname
que el nombre que vamos a dar en el inventario de vCenter a la mquina
virtual. Nos ahorrar confusiones para identificar nuestros equipos cuando el
entorno crezca.
La siguiente pantalla no tiene ningn secreto y nos pide la zona horaria del
equipo.
El siguiente paso es el de configuracin de red. Podemos elegir que interfaces
se configuran con DHCP y cuales se configuran con una direccin esttica o una
combinacin de ambos si tenemos ms de una tarjeta de red. El paso siguiente
es tambin relacionado con la red y consistir en configurar los servidores DNS.
El paso final es el habitual de revisar los parmetros antes de finalizar la
creacin del guest customization specification.
DESPLEGAR UNA PLANTILLA Y
PERSONALIZARLA
Utilizando el guest customization specification que acabamos de crear,
desplegaremos la plantilla.

Haremos click derecho encima de la plantilla y seleccionaremos Deploy VM from


this Template
Se nos pedir el nombre que queremos poner a la maquina virtual en el
inventario.
El siguiente paso nos pide la ubicacin de la mquina virtual.
A continuacin, se nos pedir el datastore donde queremos desplegar la
mquina virtual.
El siguiente paso entra directamente en la personalizacin de la mquina virtual
que estamos desplegando.
Se nos permitir elegir una especificacion de personalizacin de las que ya
existen. En este caso, elegiremos la que hemos creado en el paso anterior.
Revisamos los parmetros y aceptamos si estamos de acuerdo.
Hemos visto como desplegar maquinas virtuales desde una plantilla nos
permite disponer de forma gil, de mquinas virtuales que nacen iguales
ahorrndonos el paso de instalacin del sistema operativo, y que en cuestin de
minutos, podemos disponer de varias maquinas virtuales con diferentes
hostnames, configuracin de red, etc. Se trata de conceptos bsicos, pero para
quien no quiera meterse en formas de despliegue ms complicadas
(Orchestrator), le servir de sobra.

El tiempo de despliegue de la mquina virtual que he usado en el ejemplo ha


sido de 3 minutos. En almacenamientos de mayor categora que el de mi
laboratorio, con tecnologa flash, se puede disponer de mquinas virtuales listas
para la accin en pocos segundos.

BORRAR MAQUINAS VIRTUALES


Para borrar una mquina virtual en VMware, haremos click derecho sobre ella y
seleccionaremos Delete From Disk. Si elegimos Remove from Inventory, la
mquina virtual desaparecer del inventario de vCenter, pero permanecer en
el datastore intacta.

POWER STATES
Las maquinas virtuales en VMware pueden tener diferentes estados

Encendida (Power On) La mquina virtual se encuentra en


funcionamiento. Una mquina virtual encendida consume recursos de CPU,
memoria, disco y red en el hipervisor donde se est ejecutando.
Apagada (Power Off) La mquina virtual se encuentra apagada y no
est consumiendo recursos en el hipervisor. Sin embargo, la mquina virtual
sigue consumiendo recursos de disco (espacio) en el almacenamiento donde se
encuentre.
Suspendida (Suspended) La mquina virtual se encuentra en estado
suspendido. Su memoria RAM se ha volcado a disco duro y despus la mquina
virtual se ha apagado. Al encenderla, volver al mismo punto en que estaba
antes de suspenderla. Es el equivalente al suspender de un equipo porttil
normal.

Adems existen los siguientes comandos que hacen cambiar de estado a la


maquina virtual:

Reset Es el equivalente a dar un botonazo a la mquina virtual. El


reset desconectar las imgenes de CD que tenga conectadas desde la consola
la maquina virtual, igual que un power off power on.
Shut Down Guest OS Manda una orden a las VMware tools para que
enven una seal de apagado ACPI. Esta seal equivale a un apagado ordenado
del equipo. Es la opcin preferida por delante del apagado de botonazo.
Restart Guest OS Manda una orden a las VMware tools para que
enven una seal de reinicio ACPI. Esta seal equivale a un reinicio desde el
sistema operativo y es preferible a realizar un reset.

CURSO DE VMWARE 5.5


SNAPSHOTS
11 febrero, 2015administradorVMwarecurso vcp, curso vmware, curso vsphere, snapshots

Los snapshots son merecedores de un corto captulo en el curso de VMware. Mal


utilizados por muchos, infravalorados por otros, y grandes ayudantes para la
gente que realiza modificaciones serias en sus mquinas virtuales y quiere
disponer de una red para no tirarse al vaco realizndolos.

QU ES UN SNAPSHOT?
Un snapshot es una instantnea que se toma de una mquina virtual en un
momento en el tiempo. Al crear un snapshot, creamos un punto de restauracin
en la mquina virtual, de manera que si, por poner un ejemplo extremo, la
formateamos dos minutos despus, podemos recuperar todo con un par de
clicks.

Tenemos dos niveles de snapshots, que proporcionan una vuelta atrs ms o


menos completa:

Snapshot RAM + Disco Duro Es el snapshot ms completo que podemos


hacer. Incluye la memoria RAM del equipo, por lo que si hacemos uso de l,
volveramos al estado exacto del equipo en el momento de realizarlo, incluidas
las aplicaciones abiertas y su estado. Tarda en realizarse el tiempo que se
necesite para hacer un volcado de la memoria RAM a disco duro.
Snapshot solo Disco Duro Es un snapshot inmediato, en el que guardamos
el estado de los bloques del disco duro. Volver a este snapshot supone reiniciar
el equipo y perder el estado de las aplicaciones que estuviesen ejecutndose
cuando se tom el snapshot.

QU NO ES UN SNAPSHOT?
Un snapshot NO es un backup. No es una forma de hacer copias de seguridad.
No es una forma de Disaster Recovery. No es un business continuity plan. No es
algo que haces porque s.

Los snapshots de mquina virtual penalizan el rendimiento de la mquina


virtual e impactan en el almacenamiento. Los Snapshots crecen y crecen y
pueden llegar a ser un autntico problema a nivel de espacio en disco. Adems,
intentar borrar un snapshot que lleva mucho tiempo creado y ha crecido de
forma desproporcionada, puede ser una tarea casi imposible y hacer sudar a
almacenamientos de varios miles de euros en segn que entornos.

COMO FUNCIONAN LOS SNAPSHOTS


EN VMWARE?
Cuando hacemos un snapshot de disco, VMware atonta de forma
momentnea a la mquina virtual y aprovecha para darle un cambiazo en el
disco duro. La mquina virtual comienza a partir de ese momento a escribir
todos sus cambios en un nuevo archivo, que es un diferencial o delta con
respecto al disco duro original de la mquina virtual. Es por esto que si
queremos volver atrs en el snapshot, tan solo debemos indicar al hipervisor
que le vuelva a dar el cambiazo a la mquina virtual y la apunte al disco duro
que tena anteriormente. Los snapshots se pueden anidar, de la siguiente forma

COMO CREAR UN SNAPSHOT EN


VMWARE
Para crear un Snapshot en VMware, haremos click derecho sobre la maquina
virtual y seleccionaremos Take Snapshot.

En el men que nos aparecer, escribiremos el nombre del snapshot (busca


algo identificativo que te permita saber luego si lo puedes borrar)
Tambin aparecern dos opciones:

Snapshot the virtual machines memory Es la opcin para hacer


snapshot tambin del estado de la RAM del disco, permitiendo guardar el estado
de las aplicaciones en ejecucin. Tarda ms en realizarse, por lo que solo debes
hacerlo cuando realmente te valga la pena.
Quiesce guest file system (Needs VMware Tools Installed) Es
una opcin que hace que las VMware tools ordenen una escritura a disco al
sistema operativo de todos los datos que tenga pendientes de escribir. Esto
hace que los snapshots del disco tengan un mayor grado de consistencia,
aunque no proporciona consistencia a nivel de aplicacin, como en el caso de
algunas bases de datos.
Con estos dos pasos, ya hemos creado un snapshot de la mquina virtual. Si
quieres, puedes probar a borrar algunos archivos ahora que disponemos del
snapshot.

COMO VOLVER A UN SNAPSHOT


ANTERIOR EN VMWARE
Ahora que hemos borrado unos archivos (o instalado una actualizacin de
sistema operativo o una aplicacion) vamos a imaginarnos que algo ha ido
desastrosamente mal y queremos volver a como estbamos antes de comenzar.
Haremos click derecho encima de la mquina virtual y seleccionaremos Manage
Snapshots
En el siguiente men, seleccionaremos al punto de snapshot al que queremos
volver y pulsaremos el botn Revert To. Esta accin nos dejar la mquina como
la tenamos en ese momento. Si el snapshot inclua RAM, la mquina se
restaurar encendida. Si el snapshot no inclua memoria RAM, la mquina se
restaurar apagada y tendrs que encenderla a mano.
Te has fijado en que los snapshots se pueden anidar, incluso crear diferentes
ramificaciones? He visto desarrolladores que usan esto para crear desde una
misma mquina virtual diferentes entornos y poder moverse de una
configuracin a otra de forma bastante rpida.

BORRAR SNAPSHOTS EN VMWARE


El borrado de snapshots en VMware se realiza seleccionando el snapshot que
quieres eliminar y pulsando el botn Delete que ves en la captura anterior. Si
quieres eliminarlos todos, debers pulsar directamente el botn Delete All.

Ests avisado de que el borrado de snapshots es una tarea MUY intensiva con
el disco que implica lecturas, escrituras y borrados. Procura hacerlos en horas
valle de tu almacenamiento. Tambin debes saber que durante el proceso de
borrado de snapshots la mquina quedar atontada en algunos momentos y
no puedes hacer nada para evitarlo.
Otra cosa muy importante y que lamentablemente todos aprendemos cuando
un borrado de snapshot est afectando al rendimiento de nuestro
almacenamiento. Un borrado de snapshots NO SE PUEDE CANCELAR.

Anda mungkin juga menyukai