Anda di halaman 1dari 6

iniciador de software iSCSI en los dos ESX/ESXi y a correr!!! Buena suerte.

----------------------------------------------------------------------------VMware Data Recovery utiliza HBA o NIC del Host ESX? Un gusto saludarte, tena una consulta respecto a como trabaj la herramienta de VMware Data Recovery, ya que necesito saber si consume HBA del Host ESXi donde se encuentra alojado el appliance virtual Data Recovery, o tambien consume HBA de los host ESXi donde se alojan las VMs. Mi escenario es el Siguiente: - 03 Host ESXi 4.1 - 01 vCenter - 01 Storage - 20 VMs Lo recomendable sera montar un disco virtual (tomado de una LUN del Storage) del Data Recovery, pero en el proceso de Backup que se consume a nivel de trfico. El backup genera trafico interno en el Storage de la LUN origen (donde se encuentra la VM que se desea backupear) y la LUN destino (donde se alojara la VM que se desea Backupear)?, el trafico del backup, primero se va a la VM Data Recovery ingresando por su HBA, y saliendo nuevamente por esa HBA hacia la otra LUN (donde se alojara los backups)? Sera recomendable colocar una HBA dedicaba por Host ESXi para el Data Recovery? En caso de utilizar una ruta compartida cual sera el tiempo de demora de 100 GB de data si en enlace es de 1 GB? Muchas gracias por el apoyo! Julio Ramrez VCP4, DCUCD, CCDA, MCTS Julio como estas, si te sirve en mi caso tenia dos pasos nada mas habilitados y el Backup no afectaba a las Vms. Ahora ya estoy en 4 que es lo que Vmware recomienda. Por lo de los 100 Gigas deberias hacer una prueba en tu entorno, en mi entorno tarda alredor de 2 hs. Sdos. ----------------------------------------------------------------------------Creo que debe de haber alguna confusin en alguna parte. 1. El Data Recovery de VMware viene en formato appliance (OVF) con lo que se instala en un datastore de la SAN. De esta forma los backups serian LAN-FREE con lo que no necesitas dedicar ninguna HBA a esta VM. 2. Si el DR (Data Recovery) ve las otras lunes donde estn tus VMs, entonces los backups no se mueven ni por la red ni por la HBA. Esto es lo bueno de DR!! Espero haberte ayudado. Rgds, J. ----------------------------------------------------------------------------Muchas gracias por las respuestas Esteban y Jos Mara, Mi escenario es que las VMs se encuentran en LUNs de una SAN (IBM)y el Data Recovery se encontrara en una SAN (EMC) Fiber Channel. Entonces para realizar el Backup tiene que ir la data de una SAN a la Otra. Ahora tambien se podra realizar en una NAS, es decir colocar una ruta compartida de una NAS en vez de colocar un disco virtual del DR en la SAN. Pienso que deben de consumir en la NAS (recursos de Red de los host ESXi de las VMs) y en caso de ser SAN (recursos de HBA de los hosts ESXi de las VMs). Cual sera la tasa aproximada de transferencia en caso de ser una NAS (1Gbps) 1 SAN (4 Gbps). Muchar gracias por el apoyo! -----------------------------------------------------------------------------

En ese caso, de cabina a cabina, el datamover serie el ESX/ESXi con lo cual iria por la HBA, FC, puerto, SP, etc. Con referencia a la transferencia de datos es difcil de saber pues todo al final depende del disco fsico y la cache que tengas en ambas cabinas. Por favor, ayudamos a ayudarte. Si crees que hemos respondido a tu pregunta, marca tu hilo como "resolved" Gracias, ----------------------------------------------------------------------------Duda cluster Vmware Hola de nuevo a todos, Hay algn tipo de limitacin en los host para montar un cluster VMware? Quiero decir puedo poner host que sean AMD junto con otros Intel, por ejemplo o que sean Intel pero uno un modelo ms moderno y otro ms antiguo. Cuantos host puedo poner en un mismo cluster? Gracias Un saludo ----------------------------------------------------------------------------ola Pinni, De poner pudes ponerlos, aunque debes tener cuidado ya que debes asegurarte de que funcionalidades como vMotion o DRS te funcionen correctamente y para ello si qeu hay requerimentos de compatibilidad por lo que a procesadores se refiere. Es decir que si no son compatibles no te van a funcionar ni vMOtion ni todo lo que depende de ello con lo que perdemos muchas de las ventajas de un entorno virtualizado. Te recomiendo que visites la siguiente pgina donde encontraras la compatibilidad entre procesadores y familias tanto de Intel como de AMD: VMware VMotion and CPU Compatibility http://www.vmware.com/resources/techresources/1022 VMotion CPU Compatibility Requirements for Intel Processors http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1991 VMotion CPU Compatibility Requirements for AMD Processors http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1992 Un saludo, Gerard ----------------------------------------------------------------------------Nmero de VMs en base a los recursos del host ( Buenos das, He consultado que el nmero de las VMs que puedo crear en un host depende en gran medida de los requerimientos y del procesamiento que van a tener esas VMs, pero me pueden ayudar a tener un estandar del nmero de mquinas virtuales que puedo ejecutar en un servidor ESX/ESXi tomando como referencia los recursos fsicos del servidor (memoria ram, core/procesadores, disco, principalmente), consideremos un tipo de VM con un procesamiento promedio. Saludos http://t.co/9tASsHKk about 12 hours ago -----------------------------------------------------------------------------

Hola Benth, En general esto ms que un estandar, se trata de buenas practicas, como por ejemplo: - Tener 16 MV por LUN como maximo. - Tener de 4 a 8 MV por Core de CPU. Tambien todo depender del tamao de tus MVs, si hay MVs que sean ms intensivas en el uso de recursos como Memoria, IOPS, etc. Asi como tambin del tamao de los hosts. Esto ultimo estar dado por la estrategia de diseo que tomes, ya sea Scale-Up o Scale-Out, al momento de dimensionar tus hosts. Tambien el numero maximo de MV estar dado por tu configuracin HA (http://www.patriciocerda.com/2011/04/vmware-ha-y-slot-size.html). Saludos, ----------------------------------------------------------------------------Hola bullrem, siguiendo con las acertadas recomendaciones que ya ha hecho mi compaero Patricio, simplemente comentarte que es importante que no confundas el SWAP del sistema operativo de la MV con el SWAP del host ESX(i) en el que se aloja dicha MV. Como bien apuntas, los sistemas Unix tradicionalmente se apoyan enormemente en la SWAP y asignarle discos rpidos a estas SWAPs da un punto de rendimiento ms que considerable. Sin embargo, la SWAP a la que se refera Patricio, como te comantaba antes, es la que se usa como ltimo recurso por parte del host ESX(i) para conseguir memoria para la mquina fsica. El problema que plantea el uso de esa SWAP es que adems de los problemas intrnsecos de la falta de memoria, se le aade una sobre carga de IOPS al disco bastante importante. Un saludo ----------------------------------------------------------------------------ESXi y "iSCSI software adapter" Buenas a todos, Aprovechar el POST para felicitar a Jose Maria por dar este paso al crear este foro. Lo dicho, un saludo y felices fiestas a todos, ahora a presentar mi problema. Hace poco comente esto mismo por uno de tus articulos de ESXi y ESX, pero al final no tuvimos tiempo y no seguimos viendo de donde podia venir el problema. La cuestion es que tenemos una serie de servidores con ESX y queremos comenzar a migrarlos a ESXi. Pues bien, disponemos de 8 Servidores todos con ESX y sin problemas para visualizar nuestras cabinas de discos. La cuestion es que hemos cogido uno de los servidores que en estos momentos esta funcionando correctamente con ESX y hemos pasado todas sus VM a otro servidor para poder trastear todo lo que queramos. Le hemos instaldo la version "ESXi 4.1.0, 320137" y hemos configurado toda la parte de "Networking" EXACTAMENTE igual que la tenia configurada cuando tenia instalado el servidor de "ESX 4.1.0, 320092", asi como tambien en la parte de "Storage Adapter" el adaptador "iSCSI Software Adapter" esta configurado como estaba en el ESX, pero no conseguimos que vean las LUN. Algiuien podria decirme donde puede haber una diferencia entre ESX y ESXi para que esto no funcione? ----------------------------------------------------------------------------Hola Juan Jos No encuentro un explicacin a porque con ESX 4.1 te funciona. No obstante, por lo que comentas tu configuracin iSCSI y multipathing en ESX/ESXi no est bien configurado. Voy a intentar resumirte los pasos que hay que dar para configurar iSCSI , multipathing en una EqualLogic por lo que veo en tus logs estas usando una EqualLogic una buena mquina :) Paso 1: Configura un vSwitch y habilita el Jumbo Frames Este paso (jumbo Frames) tienes que hacerlo desde comando pues en los vswitch estndares no tienes la opcin de hacerlo desde la GUI (si est disponible en los vswitch distribuidos) esxcfg-vswitch a vSwitch1 (creas un vSwitch llamado vSwitch1) esxcfg-vswitch m 9000 vSwitch2 (activas jumbo frame en el vSwitch1) Paso 2: Aades los VMkernel Ports iSCSI

Aqu depender de las tarjetas de red que tengas cableadas y de las controladoras que tengas en tu cabina. Al menos deberas de configurar dos VMkernel Ports con dos tarjetas de red para tener, tanto balanceo de carga (con RR Round Robin) como failover. esxcfg-vswitch A iSCSI1 vSwitch1 creas un VMkernel port llamado iSCSI1 esxcfg-vmknic a i 10.10.1.1 n 255.255.255.0 m 9000 iSCSI1 asignas un ip, subnet mask y jumbo frames al VMkernel port iSCSI1 esxcfg-vswitch A iSCSI2 vSwitch1 creas un VMkernel port llamado iSCSI2 esxcfg-vmknic a i 10.10.2.1 n 255.255.255.0 m 9000 iSCSI2 asignas un ip, subnet mask y jumbo frames al VMkernel port iSCSI2 Paso 3: Asigna las tarjetas de Red fsicas al vSwitch1 Primero asegrate que tienes al menos dos tarjetas de red fsicas sin asignar a otro vswitch. Lo puedes ver con este comando esxcfg-nics l esxcfg-vswitch L vmnic3 vSwitch1 (Conecta la tarjeta vmnic3 al vswitch1) esxcfg-vswitch L vmnic4 vSwitch1 (Conecta la tarjeta vmnic4 al vswitch1) Aqu viene lo bueno. Por defecto, cuando creas un team en un vswitch las dos tarjetas son activa/activa. Para que el multipathing de ESX/ESXi funcione con el iniciador de software iSCSI debemos cambiar las propiedades del multipathing. Lo explicare en el siguiente paso. Paso 4: Asocia los VMkernel Ports a las tarjetas de red fsicas Antes de seguir con este paso, teclea el siguiente comando: esxcfg-vswitch l Deberas de ver algo as en tu vswitch1: Switch Name Num Ports Used Ports Configured Ports MTU Uplinks vSwitch1 64 7 64 9000 vmnic3,vmnic4 PortGroup Name VLAN ID Used Ports Uplinks iSCSI2 0 1 vmnic3,vmnic4 iSCSI1 0 1 vmnic3,vmnic4 Aqu puedes ver que las dos tarjetas estn asociadas en los dos VMkernel Ports. Esto es lo que tienes que cambiar con el siguiente comando. esxcfg-vswitch p iSCSI1 N vmnic3 vSwitch1 (borro el vmnic3 del VMkernel port iSCSI1 esxcfg-vswitch p iSCSI2 N vmnic2 vSwitch1 (borro el vmnic2 del VMkernel port iSCSI2 Para verificar que has tecleado bien los comando, vuelve a teclear este comando para ver la salida: esxcfg-vswitch l Deberas de ver algo as: Switch Name Num Ports Used Ports Configured Ports MTU Uplinks vSwitch1 64 7 64 9000 vmnic4,vmnic3 PortGroup Name VLAN ID Used Ports Uplinks iSCSI2 0 1 vmnic4 iSCSI1 0 1 vmnic3 Paso 5: Habilita el iniciador de software iSCSI En tu caso, supongo que lo tendrs ya habilitado. En cualquier caso, con el comando esxcfg-swiscsi e lo habilitas. Paso 6 muy importante: Crear el Binding de los VMkernel Ports con el iniciador de software iSCSI Primero, confirma el seudo-name de tu iniciador de software iscsi. Lo puedes ver con este comando. esxcfg-scsidevs a Deberas de ver algo as: vmhba0 mptsas link-n/a sas.5001ec90e0ba7c00 (1:0.0) LSI Logic / Symbios Logic LSI1068E vmhba1 ata_piix link-n/a ide.vmhba1 (0:31.1) Intel Corporation 631xESB/632xESB IDE Controller vmhba32 ata_piix link-n/a ide.vmhba32(0:31.1) Intel Corporation 631xESB/632xESB IDE Controller vmhba33 iscsi_vmk link-n/a iscsi.vmhba33() Software iSCSI En mi caso como ves, el seudo-name de mi iniciador software iscsi es vmhba33. Segundo, determina el el nombre exacto de los VMkernel ports de tus iniciadores iSCSI. Lo puedes ver con este comando: esxcfg-vmknic l Interface Port Group/DVPort IP Family IP Address Netmask Broadcast MAC Address MTU TSO MSS

Enabled Type vmk0 iSCSI1 IPv4 10.10.1.1 255.255.255.0 10.10.5.255 00:50:56:7b:d8:21 9000 65535 true STATIC vmk1 iSCSI2 IPv4 10.10.2.1 255.255.255.0 10.10.5.255 00:50:56:7e:ae:81 9000 65535 true En mi caso, como ves en la salida anterior, es el vmk0 y el vmk1. Despus de que sabemos cul es el nombre del iniciador software iscsi (vmhba32) y de los vmkernel ports (vmk0 y vmk1) ya podemos hacer el binding con el siguiente comando: esxcli swiscsi nic add n vmk0 d vmhba33 (crea el binding para el vmk0 VMkernel port con el iniciador de software iSCSI vmhba33) esxcli swiscsi nic add n vmk1 d vmhba33 (crea el binding para el vmk1 VMkernel port con el iniciador de software iSCSI vmhba33) Para verificar que se han creado bien los binding con los VMkernel ports y el iniciador de software iSCSI, teclea el siguiente comando: esxcli swiscsi nic list d vmhba33 Deberas de ver que las dos VMkernel ports estan incluidos en el iniciador de software iSCSI. Paso 7: Conecta la cabina Dell EqualLogic a tu entorno VMware ESX/ESXi Entra en la seccin Configuration -> Storage Adapters. Haz clic en iSCSI Software Adapter and selecciona Properties. Clic en la pestaa Dynamic Discovery Clic Add. En la seccin iSCSI Server box, asegrate de poner el IP del grupo de tu cabina PS y selecciona Ok. Recibirs un mensaje que te pide hacer un Rescan de todas las HBAs. Dile que ests de acuerdo y en unos minutos deberas de ver tus LUS si estas han sido configuradas correctamente en la cabina de Dell-EqualLogic y los servidores ESX/ESXi tienen acceso a las LUNs. ----------------------------------------------------------------------------Hola jjbravo, Gracias por tus palabras de agradecimiento y bienvenido al los foros de virtualizacin en espaol. Ahora que lo comentas si que recuerdo haber hablado contigo de esto. Vamos a ver si entre todos te podemos echar una mano: Lo primero que se me ocurre es que mires en tu cabina iSCSI si esta ve tu iniciador iSCSI. Esta debera de ver el ip con el que configuraste el vmkernel port en tu servidor ESXi. Segundo, comprueba que no estas filtrando LUNs con CHAP en tu cabina o en tu servidor ESXi. Tercero, desde tu servidor ESXi entra en la consola (via ssh o via local access) y teclea el comando vmkping "ip_de_tu_cabina_iSCSI" a ver si al menos tienes conectividad. Seguimos en contacto jjbravo. ----------------------------------------------------------------------------Hemos realizado un vmkping desde nuestro ESXi a nuestro grupo de cabina y no nos da conectividad. No se trata de tema de cableado, ya que como comentaba anteriormente, si desinstalamos el ESXi y le instalamos el ESX sin tocar cableado, todo funciona correctamente. Lo que si, es comentar que el tema de la creacin de los vSwitch en el ESXi es diferente que en el ESX, ya que en el ESXi no existe el "Service Console", ahora para tener un "Service Console" creas un vSwitch con "Management Traffic". Ahora mismo solo tenemos creados 2 vSwitch "VMkernel Port", uno de ellos con "Managemente Traffic" para que ejerza de "Service Console", y el segundo vSwitch que es tambin un VMkernel para la conexion con nuestra cabina. En este segundo vSwitch no tenemos escogida ninguna de las 3 opciones que aparecen "vMotion", "Fault Tolerance logging" y "Managemente Traffic", ninguna de estas 3 opciones esta escogida para este segundo vSwitch -----------------------------------------------------------------------------

jjbravo said: Hemos realizado un vmkping desde nuestro ESXi a nuestro grupo de cabina y no nos da conectividad. No se trata de tema de cableado, ya que como comentaba anteriormente, si desinstalamos el ESXi y le instalamos el ESX sin tocar cableado, todo funciona correctamente. Lo que si, es comentar que el tema de la creacin de los vSwitch en el ESXi es diferente que en el ESX, ya que en el ESXi no existe el "Service Console", ahora para tener un "Service Console" creas un vSwitch con "Management Traffic". Ahora mismo solo tenemos creados 2 vSwitch "VMkernel Port", uno de ellos con "Managemente Traffic" para que ejerza de "Service Console", y el segundo vSwitch que es tambin un VMkernel para la conexion con nuestra cabina. En este segundo vSwitch no tenemos escogida ninguna de las 3 opciones que aparecen "vMotion", "Fault Tolerance logging" y "Managemente Traffic", ninguna de estas 3 opciones esta escogida para este segundo vSwitch El tema de CHAP esta todo correcto, lo hemos confirmado un par de veces. ----------------------------------------------------------------------------Hola jjbravo, disculpa la tontera de la pregunta, pero... el uplink que tienes asociado al segundo vStwitch es el mismo que antes tenia conectividad con la cabina en el ESX?

Anda mungkin juga menyukai