Anda di halaman 1dari 7

MANUAL TCNICO

Instalacin y conguracin de servidores para el aplicativo OrfeoGPL en el Ministerio de Salud y Proteccin Social.
Sebastin Ortiz Vsquez CC-BY-SA

Basado en el Manual de Instalacin OrfeoGPL Alta Disponiblidad de la Fundacin CorreLibre. ResumenEste documento es una gua para instalacin y adecuada nos permitan cumplir con estos objetivos de conconguracin de sistema operativo y distintos servicios necesarios abilidad y disponilidad.
para la puesta en marcha del SGD OrfeoGPL 3.8.2, con caractersticas que permitan garantizar la integridad de la informacin y un premeditado procedimiento en caso de falla del servidor principal. Se utilizar el sistema operativo Debian GNU/Linux 6.0 con soporte para virtualizacin brindado por Linux-VServer y soporte para almacenamiento distribuido utilizando DRBD. Servidor web Apache 2.2 y servidor de base de datos PostreSQL 9.1, servidor FTP VSftpd y acceso remoto usando OpenSSH. El lector deber contar con conocimientos previos sobre el manejo por lnea de comandos de sistemas operativos basados en UNIX. Adicionalmente no es un manual de todas y cada una de las herramientas que en el se nombran ms all del simple uso y funcionalidad especcado en ste documento, cada herramienta tiene su propio manual que podr y deber ser consultado por el lector de ser necesario y se proporcianan como anexos a este documento.

II.

A RQUITECTURA DEL SISTEMA

El equipo encargado del desarrollo del proyecto denio la siguiente arquitectura del sistema a nivel de servidores para la primera fase del proyecto. II-A. Servidores fsicos

Index Termsorfeogpl, gnu, linux, alta disponibilidad, drbd, postgresql, apache, debian, ssh, fail-over

I.

I NTRODUCCIN

RFEOGPL es un sistema de gestin documental electrnico y como tal hace parte de las herramientas que permiten al Ministerio cumplir sus actividades misionales, por tal motivo es imperante la necesidad de contar con una conguracin que asegure la disponibilidad y conabilidad de la informacin, adems de la disponibilidad del sistema. En el proyecto que se desarrolla actualmente para el Ministerio, se prevee que la conguracin de alta disponibilidad de los servidoresse realizar en la segunda fase del proyecto a iniciar en el ao 2013, no obstante el Sistema entrar a funcionamiento el segundo semestre del ao 2012, perodo durante el cual se deber contar igualmente con un plan de contingencia y de aseguramiento de la informacin. La conguracin que se detallar en este documento, permitir garantizar la no perdida de informacin en varios escenarios de fallas y contar con una estrtegia que permita rpida puesta en marcha del Sistema en casos donde falle alguno de sus servidores. Se har uso de una cantidad de programas y herramientas con licencia libre que en conjunto y con la conguracin

Para la ejecucin de los servicios de aplicaciones y almacenamientos necesarios para el funcionamiento del aplicativo OrfeoGPL en el Ministerio, sern necesarios en una primera fase, dos servidores con caracteristicas y especifcaciones regidas por la invitacin a contatar #XXXX de 2012 . II-A1. Conexin a la red del Ministerio: Cada uno de los servidores se conectar a la red del Ministerio utilizando una interface y un punto de red que soporten 1 Gigabit de conexin. La conguracin de dicho punto deber permitir que cualquier equipo dentro de la red del Ministerio se conecte directamente sin necesidad de acceder a travs del servidor proxy. II-A2. Almacenamiento: Cada uno de los servidores contar con una conguracin de almacenamiento de RAID 5, con un total de mnimo 2 Terabytes disponibles para el sistema operativo. II-B. Diseo del cluster

Sebastian Ortiz Vsquez, Contratista de Ocina de TICS , Ministerio de salud y la proteccin social, Bogot D.C., Colombia, e-mail: sortiz@minsalud.gov.co.

El cluster sobre el cual funciona el aplicativo est compuesto por dos servidores, cada uno conectado a la red del Ministerio y conectados entre ellos dos directamente a travs de un cable cruzado. El almacenamiento replicado a travs de la red usando DRBD, usando el esquema Activo/Pasivo, slo uno de los dos servir en un momento dado y el otro est disponible el 100 % del tiempo para tomar el lugar del Activo en caso de ser necesario. El proceso es bastante rpido ya que el servidor donde est congurado el aplicativo es un servidor virtual, y tan solo es iniciar dicho servidor virtual en el servidor que este en el papel de activo o primario para arrancar el aplicativo. En las pruebas realizadas se encontr que el mayor causante del tiempo fuera de servicio son los clientes Windows mientras se dan cuenta del cambio de MAC de la direccin IP, ya que est direccin IP no cambia, pero s cambia la direccin MAC asociada a sta.

MANUAL TCNICO

III.

I NSTALACIN DE RECURSOS FSICOS

El Ministerio adquiri para servidores del Sistema OrfeoGPL dos (2) servidores.
Cuadro I C ARACTERSTICAS TCNICAS SERVIDORES . Fabricante Modelo Procesador Memoria Almacenamiento Controlador Almacenamiento Red Fuente de poder Unidad ptica Tamao Garanta Hewlett-Packard ProLiant DL 180 G6 SAS/SATA LFF 2x Intel Xeon E5620 32 Gibabytes 3x 1 Terabite SATA 3G HP Smart Array P410 256 Mb Intel NC362i Dual Port 1 Gigabit Redundant 460 W DVD-RW/CD-RW 2U en Rack 3 aos

Una vez se ha terminado el particionamiento se debe instalar el sistema estndar, seleccionando solamente la instalacin de Servidor SSH, e instalar el cargado de arranque en el disco primario, se deber entrar a travs de una consola fsica y modicar la conguracin de red de acuerdo a lo que se plantea en el archivo /etc/network /interfaces Algoritmo 1 Archivo de conguracin de red /etc/network/interfaces # The l o o p b a c k n e t w o r k i n t e r f a c e auto lo i f a c e lo i n e t loopback # The p r i m a r y n e t w o r k i n t e r f a c e a l l o w h o t p l u g e t h 0 i f a c e eth0 i n e t s t a t i c # Para Orfeo1 address 172.16.1.240 # Para Orfeo2 # address 172.16.1.242 netmask 2 5 5 . 2 5 5 . 2 5 5 . 0 network 1 7 2 . 1 6 . 1 . 0 broadcast 172.16.1.255 dns n a m e s e r v e r s 1 7 2 . 1 6 . 1 . 1 4 dns s e a r c h m i n p r o t e c c i o n s o c i a l . gov . co up r o u t e add h o s t 1 7 2 . 1 6 . 1 0 0 . 2 dev e t h 0 up r o u t e add d e f a u l t gw 1 7 2 . 1 6 . 1 0 0 . 2 down r o u t e d e l d e f a u l t gw 1 7 2 . 1 6 . 1 0 0 . 2 down r o u t e d e l 1 7 2 . 1 6 . 1 0 0 . 2 a l l o w h o t p l u g e t h 1 i f a c e eth1 i n e t s t a t i c # Para Orfeo1 address 10.1.1.1 # Para Orfeo2 # address 10.1.1.2 netmask 2 5 5 . 2 5 5 . 2 5 5 . 0 IV-1. Conexin va SSH: Cuando se complete la instalacin y la mquina ya se encuentre funcional y conectada a la red, podemos comenzar a acceder remotamente al servidor. El protocolo SSH es ampliamente usado para acceder remotamente a servidores basados en UNIX, como GNU/Linux, BSD, OS X, etc. Para acceder a nuestro servidor debemos contar con un programa cliente de SSH, en GNU/Linux y OS X viene instalado por defecto el cliente de consola que tiene el mismo nombre ssh, en Microsoft Windows podemos usar la herramienta libre llamada Putty que permite realizar este tipo de conexiones. La conguracin de la conexin es independiente del programa, el servidor ser 172.16.1.240 para el caso de orfeo1 o 172.16.1.242 en el caso de orfeo2, el puerto siempre es el 22 y el usuario y la contrasea depende de los congurados en la instalacin del sistema. Algoritmo 2 Lnea para conectarse a un servidor usuario@pc999 :~ $ ssh l r o o t 1 7 2 . 1 6 . 1 . 2 4 0

La instalacin fsica de los servidores fue realizada por el tcnico de la empresa proveedora en un rack HP en el centro de datos del Ministerio de Salud ubicado en el piso 21, conectando las interfaces de red marcadas con el nmero 1 de cada servidor a la red del Ministerio y puestos en la VLAN de servidores. Se solicit asignacin cuatro (4) direcciones IP para estos servidores y los virtuales, las direcciones asignadas son las siguientes 172.16.1.240/16, 172.16.1.241/16, 172.16.1.242/16 y 172.16.1.243/16. Adicionalmente se creo el dominio orfeo.minsalud.gov.co que resulve a la direccin 172.16.1.241. IV. I NSTALACIN SISTEMA OPERATIVO HUESPED

Una vez instalado el equipo se procede a encenderlos por primera vez y vericar la conguracin de hardware, la bios deber reportar los dos procesador y las 32 gigabytes de memoria RAM, adicionalmente el controlador de disco nos reportar los 3 discos duros. Una vez este proceso este completado debemos crear en el controlador discos un RAID 5 conformado por los 3 discos fsicos, y el sistema reportar un volumen lgico de 2 Terabits. Previamente descargamos la ltima versin estable del instalador del sistema Debian GNU/Linux 6.0y grabamos la imgen en un CD o DVD y procedemos a arrancar el servidor en que instalaremos desde la unidad de disco ptico. Arrancamos la instalacin, seleccionamos el idioma Espaol, la ubicacin Colombia, introducimos manualmente la conguracin de red de acuerdo a las conguraciones proporcionadas, introducimos la contrasea de root y nalmente llegamos al proceso de particionamiento de disco. El esquema del particionamiento del disco deber ser el siguiente:
Cuadro II E SQUEMA DE PARTICIONAMIENTO DISCO DURO . Montaje /boot / sin (bodega) sin (db) sin (vservers) swap Particin fsica /dev/cciss/c0d0p1 /dev/cciss/c0d0p2 /dev/cciss/c0d0p6 /dev/cciss/c0d0p5 /dev/cciss/c0d0p4 /dev/cciss/c0d0p3 Tamao 4 GB 50 GB 1.6 TB 100 GB 250 GB 32 GB Tipo Primaria Primaria Lgica Lgica Lgica Primaria Formato ext3 ext4 sin formato sin formato sin formato swap

MANUAL TCNICO

Figura 1.

Men de conexin de Putty

Figura 2.

Esquema Activo-Pasivo con DRBD.

IV-B. IV-A. Instalacin Linux-VServer y DRBD

Conguracin DRBD

Linux-VServer es una software de virtualizacin a nivel de sistema operativo, permite la ejecucin de otro sistema operativo GNU/Linux, compartiendo los mismos recursos.Para la instalacin del una versin ms actualizada que la disponible en el repositorio ocial de Debian, siguiendo las sugerencias del sitio ocial y siguiendo las instrucciones disponibles en http://repo.psand.net/info/ se agrega este repositorio a nuestro Debian. Una vez instalado y actualizado nuestro repositorio se procede a la instalacin del los paquetes linux-image-vserver2.6.36-beng, util-vserver y util-vserver-*. Una vez instalados estos nuevos paquetes es necesario reiniciar el equipo y arrancar desde este nuevo ncleo, para conrmar la instalacin podemos ejecutar el comando uname -r y vericamos que la salida sea Linux orfeo1 2.6.36.4vs2.3.0.36.39-beng #1 SMP Wed Mar 9 12:05:40 GMT 2011 x86_64 GNU/Linux. Distributed Replicated Block Device (DRBD) es una tecnologa para almacenamiento distribuido a travs de conexiones de red, en nuestro caso lo usaremos para replicar la informacin en tiempo real a los dos servidores, sta tecnologa nos permit garantizar que la informacin ser consisten en los dos sistemas de almacenamiento conectados a la red y que en caso de alguna contingencia con un servidor, el otro podr tomar su lugar y los datos sern exactamente los mismo que los del servidor anterior antes de la falla. DRBD est incluido dentro del ncleo de Linux a partir de la versin 2.6.33 por lo tanto en nuestra versin con VServer est incluido y slo debemos instalar la utilidades para poder utilizar este mdulo, entonces instalamos drbd8-utils y drbdlinks. Una vez terminada la instalacin de estos paquetes hemos terminado de instalar los programas necesarios para nuestra conguracin.

Nuestra conguracin tendr un nodo primario y un nodo secundario, el nodo primario ser aquel en el cual se esten ejecutando las o la mquina virtual que contenga el servidor web y servidor de base de datos que proveean el aplicativo OrfeoGPL, en nuestro esquema de particionamiento establecimos una particin fsica para almacenar por aparte los documentos digitalizados y subidos al Sistema OrfeoGPL, la base de datos del Sistema OrfeoGPL y los datos y conguraciones relativas a las mquinas virtuales. Estas tres particiones entonces sern establecidas cada una como un recurso de DRBD y sern sincronizadas con el servidor segundario, permitiendo en caso de alguna contingencia que el servidor secundario arranque las mquinas virtuales necesarias con la conguracin, base de datos y archivos de bodega identicos a los que existan en el servidor primario y este a su vez se deber convertir en nodo primario de DRBD para tomar el control. Se utilizar el protocolo de sincronizacin C del DRBD que garantiza que no se perder ningn dato en caso de error en el nodo primario. DRBD cuenta con un archivo de conguracin comn y se deber creaer un archivo por cada recurso, en el archivo de conguracin cmun establecemos el protocolo y podramos establecer comportamiento complejos en casos de degradacin y de brain split. Adicionalmente establecemos la velocidad de conexin y el algoritmo de hashing usando para vericar los datos y para realizar las sumas de vericacin de las sincronizaciones. Una vez tengamos denidos nuestros recursos deberemos proceder entonces a crear nuestos recursos fsicos usando los siguientes comandos en en cada uno de los dos nodos. Podemos ver el estado el estado de DRBD utilizando el comando drbd-overview, all nos mostrar el estado actual de nuestra replicacin. Cuando nuestro sistema ya est congurado y corriendo podemos proceder a crear los sistemas de archivos y establecer

MANUAL TCNICO

Algoritmo 3 /etc/drbd.d/global_common.conf#syncer syncer { r a t e 110M; v e r i f y a l g s h a 1 ; csums a l g s h a 1 ; } Algoritmo 4 /etc/drbd.d/bodega.res r e s o u r c e bodega { device / dev / d r b d 0 ; disk / dev / c c i s s / c0d0p6 ; meta d i s k i n t e r n a l ; on o r f e o 1 { address 10.1.1.1:7789; } on o r f e o 2 { address 10.1.1.2:7789; } }

Algoritmo 6 /etc/drbd.d/vservers.res resource vservers { device / dev / d r b d 2 ; disk / dev / c c i s s / c0d0p4 ; meta d i s k i n t e r n a l ; on o r f e o 1 { address 10.1.1.1:7791; } on o r f e o 2 { address 10.1.1.2:7791; } }

Algoritmo 7 Inicializacin de DRBD. r o o t @ o r f e o 1 : ~ # drbdadm c r e a t e md b o d e g a r o o t @ o r f e o 1 : ~ # drbdadm c r e a t e md db r o o t @ o r f e o 1 : ~ # drbdadm c r e a t e md v s e r v e r s r o o t @ o r f e o 1 : ~ # drbdadm up b o d e g a r o o t @ o r f e o 1 : ~ # drbdadm up db r o o t @ o r f e o 1 : ~ # drbdadm up v s e r v e r s # S o l o en e l nodo p r i m a r i o r o o t @ o r f e o 1 : ~ # drbdadm p r i m a r y b o d e g a r o o t @ o r f e o 1 : ~ # drbdadm p r i m a r y db r o o t @ o r f e o 1 : ~ # drbdadm p r i m a r y v s e r v e r s # S o l o en e l nodo s e c u n d a r i o r o o t @ o r f e o 2 : ~ # drbdadm s e c u n d a r y b o d e g a r o o t @ o r f e o 2 : ~ # drbdadm s e c u n d a r y db r o o t @ o r f e o 2 : ~ # drbdadm s e c u n d a r y v s e r v e r s

los puntos de montaje en nuestro sistema. Se eligio el sistema de archivos ext4. Este procedimiento slo deber hacerse en el nodo primario ya que el sistema se encarga de la sincronizacin de los dos discos fsicos. La operacin de la creacin de los sistemas de archivos puede tomar varios minutos dado el tamao de las particiones, adicionalmente se replicar dicha informacin al nodo secundario. Ahora debemos crear los registros en el archivo /etc/fstab que maneja los puntos de montaje y unidades. IV-C. Conguracin y creacin de mquinas virtuales

Nuestas mquinas virtuales y la conguracin de ellas tambin debern quedar respaldadas en la particin de DRBD, para esto entonces necesitamos congurar los directorios antes de crear nuestra primera mquina. Siguiendo las recomandaciones en creamos los siguientes directorios y habiendo ya aadido el montaje en /etc/fstab algoritmo 8, montamos la carpeta de conguracin /etc/vservers en nuestro sistema Algoritmo 5 /etc/drbd.d/db.res r e s o u r c e db device disk meta d i s k on o r f e o 1 address } on o r f e o 2 address } } { / dev / d r b d 1 ; / dev / c c i s s / c0d0p5 ; internal ; { 10.1.1.1:7790; { 10.1.1.2:7790;

soportado por DRBD. Nuestro sistema ahora est congurado para almacenar los datos y las conguraciones de las mquinas virtuales en nuestro sistema de almacenamiento distribuido. IV-C1. Creacin de una mquina virtual basada en Debian GNU/Linux: El sistema operativo Debian GNU/Linux tiene una conguracin de seguridad que por defecto esconde la particin /proc, dentro de las utilidades que instalamos de util-vserver se encuentra vprocunhide que establece los permisos necesarios dentro de la particin /proc para permitir la ejecucin de mquinas virtuales. Por est razn lo primero que debemos hacer es correr dicha utilidad una nica vez. Teniendo listo nuestro sistema huesped utilizamos el mtodo de creacin de mquinas virtuales basado en debootstrap. La conguracin de est creacin establece que el nombre de la mquina ser orfeo1_guest0, el nombre del host ser orfeo1_guest0, la interface de red ser dummy0 y est asociada

Algoritmo 8 Creacin sistemas de archivos. r o o t @ o r f e o 1 : ~ # mkfs . e x t 4 / dev / d r b d 0 r o o t @ o r f e o 1 : ~ # mkfs . e x t 4 / dev / d r b d 1 r o o t @ o r f e o 1 : ~ # mkfs . e x t 4 / dev / d r b d 2

MANUAL TCNICO

Algoritmo 9 Lneas a agregar al /etc/fstab nodo primario. ####################DRBD################## # / var / bodega d r b d _ r e s o u r c e bodega / dev / d r b d 0 / v a r / b o d e g a ext4 d e f a u l t s , noauto , noload 0 2 # / v a r / db d r b d _ r e s o u r c e db / dev / d r b d 1 / v a r / db ext4 d e f a u l t s , noauto , noload 0 2 # / var / vservers drbd_resoruce vservers / dev / d r b d 2 / v a r / v s e r v e r s ext4 d e f a u l t s , noauto , noload 0 2 ####################DRBD################## # Montaje v s e r v e r s c o n f i g d i r / v a r / v s e r v e r s / e t c / / e t c / v s e r v e r s none bind , noauto 0 1

Algoritmo 13 Comando de creacin de mquina virtual. r o o t @ o r f e o 1 : ~ # v s e r v e r o r f e o 1 _ g u e s t 0 b u i l d m d e b o o t s t r a p c o n t e x t 42 h o s t n a m e o r f e o 1 _ g u e s t 0 i n t e r f a c e dummy0= e t h 0 : 1 7 2 . 1 6 . 1 . 2 4 1 / 2 4 r o o t d i r / v a r / v s e r v e r s / d a t a d s q u e e z e m h t t p : / / d e b i a n . u n a l . edu . co / d e b i a n

ya tenemos la posibilidad de arrancar nuestra mquina. IV-D. Conguracin de servicios en la mquina virtual de OrfeoGPL. IV-D1. IV-D2. IV-D3. Servidor SSH: Servidor HTTP: Servidor de base de datos: V. C ONTIGENCIA

Algoritmo 10 Lneas a agregar al /etc/fstab nodo secundario. # ####################DRBD################## # / var / bodega d r b d _ r e s o u r c e bodega # / dev / d r b d 0 / v a r / b o d e g a ext4 d e f a u l t s , noauto , noload 0 2 # / v a r / db d r b d _ r e s o u r c e db # / dev / d r b d 1 / v a r / db ext4 d e f a u l t s , noauto , noload 0 2 # / var / vservers drbd_resoruce vservers # / dev / d r b d 2 / v a r / v s e r v e r s ext4 d e f a u l t s , noauto , noload 0 2 ####################DRBD################## # Montaje v s e r v e r s c o n f i g d i r / v a r / v s e r v e r s / e t c / / e t c / v s e r v e r s none bind , noauto 0 1

El proceso de contigencia se ejecutar de forma manual, cuando sea detectada una falla en servicio de OrfeoGPL y sea necesario la entrada en funcionamiento de nuevo del Sistema. Nuestro primero reto consisten en determinar si es necesario o no la entrada en vigencia de est poltica de contingencia, sta decisin estar basada en los conocimientos tcnicos y crterio de la personada encargada en ese momento de la administracin del sistema, la recomendacin que ante cualquier duda respecto al funcionamiento del sistema se proceda a ejecutarse este procedimiento ya que se busca garantizar la disponibilidad y conabilidad de la informacin. Tambin es necesario conocer a ciencia cierta en cual servidor fsico se est ejecutando la mquina virtual con el servicio, o lo que es lo mismo conocer cual mquina tiene el rol primario dentro del sistema DRBD.
Figura 3. Escenario de contingencia.

la tarjeta de red eth0 del huesped y tendr la direccin ip 172.16.1.241/24, se crear en la carpeta /var/vservers/data/ y ser un Debian GNU/Linux squeeze instalado desde el mirror de la Universidad Nacional de Colombia. Este proceso de creacin de la mquina se demorar un poco puesto que debe descargar del repositorio todos los paquetes bsicos del sistema operativo, una vez terminando el proceso Algoritmo 11 Montaje unidades DRBD. r o o t @ o r f e o 1 : ~ # mount / v a r / b o d e g a r o o t @ o r f e o 1 : ~ # mount / v a r / db r o o t @ o r f e o 1 : ~ # mount / v a r / v s e r v e r s

Algoritmo 12 Creacin directorios VServer. root@orfeo1 :~# mkdir / var / v s e r v e r s / d a t a root@orfeo1 :~# mkdir / var / v s e r v e r s / e t c r o o t @ o r f e o 1 : ~ # mount / e t c / v s e r v e r s

Una vez tomada la decisin, se proceder al fencing, que no es otra cosa que asegurarse que el sistema que est fallando efectivamente no este disponible, apagando fsicamente el equipo que tena el rol de nodo primario y que ahora deseamos quitar. El procedimiento recomendado es el siguiente:

MANUAL TCNICO

V-A.

Fencing por STONITH

La primera tarea que se deber ejecutar es Shoot The Other Node In The Head, el nodo en cuestin se reere al servidor fsico donde se encuentran nuestras mquinas virtual que estn corriendo, por seguridad deberemos primero intentar apagar nuestra mquina virtual y luego la mquina fsica a travs de los programas que nos ofrece el sistema operativo para estas tareas. De no ser posible ser necesario entonces proceder a realizar dicho procedimiento a travs de medios fsicos. 1. Intentar acceder a travs del ssh o en forma fsica al servidor que se encuentre en el rol primario(Opcional, recomendado). 2. Ejecutar el comando de Apagar la mquina virtual (Opcional, recomendado). 3. Apagar la mquina fsica: a) Conectarse a travs de la conexin remota. b) Desconectar fsicamente el equipo de la red elctrica y la red de datos (Opcional, recomendado). V-B. Actualizacin de roles DRBD y montaje de unidades

Algoritmo 14 Script de activacin de contigencia /root/contingencia.sh

Ahora tenemos que nuestro nodo pasivo o segundario deber tener el rol de nodo primario o activo, esto se logr a travs del cambio de rol del DRBD, que slo ser posible si efectivamente el DRBD detecta una falla, por eso es requerido que el servidor hasta ahora primario sea dado de baja. Adicionalmente debemos cambiar la conguracin del montaje de las unidades para que el nodo secundario despus de ser actualizado a primario pueda efectivamente subir con permisos de escritura y lectura los directorios donde se encuentra toda la informacin. La siguiente es una descripcin del pasos uno a uno que ejecutar un script que nos soportar toda la tarea de activar los cambios de roles, montar las unidades y arrancar nuestra mquina virtual en un nuevo hesped. 1. Desconectar la interface de red que comunica el DRBD. 2. Actualizar el archivo /etc/fstab que permita el montaje de los directorios. 3. Cambio de rol en los recursos DRBD a primario. 4. Montar los recursos en el servidor nuevo primario, antiguo segundario. 5. Actualizar punto de montaje de la bodega de datos y la base datos en la mquina virtual. 6. Puesta en marcha de la mquina virtual. 7. Comprobar el funcionamiento del Sistema OrfeoGPL. Para la ejecucin del script se deber ejectuar el siguiente comando el servidor que se desea actualizar a primario. 1. Intentar acceder a travs del ssh o en forma fsica al servidor que se encuentre en el rol secundario. 2. Ejecutar el script mencionado anteriormente que se encargar de realizar las operaciones necesarias de forma automtica. V-C. Listado de comandos para reestablecer el servicio

#/ bin / bash # Autor : S e b a s t i a n O r t i z V. s e t e # D e s c o n e c t a r l a i n t e r f a c e de r e d d e l d r b d . ifdown eth1 # A c t i v a r l o s p u n t o s de m o n t a j e # s e d i s . # / dev / d r b d . / dev / d r b d . / e t c / f s t a b # A c t i v a r e l modo p r i m a r i o de l o s r e c u r s o s d r b d drbdadm p r i m a r y b o d e g a drbdadm p r i m a r y db drbdadm p r i m a r y v s e r v e r s # Montar l o s r e c u r s o s mount / dev / d r b d 0 / v a r / b o d e g a t e x t 4 mount / dev / d r b d 2 / v a r / v s e r v e r s t e x t 4 mount / dev / d r b d 1 / v a r / db t e x t 4 mount / v a r / v s e r v e r s / e t c / / e t c / v s e r v e r s t none o # Montar l o s d i r e c t o r i o s de d a t o s y db vmount o r f e o 1 _ g u e s t 0 b i n d / v a r / b o d e g a / v a r / b o d vmount o r f e o 1 _ g u e s t 0 b i n d / v a r / db / v a r / db # Iniciar los servidores virtuales f o r i i n l s / v a r / v s e r v e r s / e t c ; do v s e r v e r $ { i } s

usuario@pc999 :~# ssh l r o o t 1 7 2 . 1 6 . 1 . 2 4 [ 0 , 2 ] # D e t e n e r l a mquina v i r t u a l # Opcional root@orfeo1 :~# v s e r v e r orfeo1_guest0 stop # Apagar e l s e r v i d o r f s i c o # Opcional r o o t @ o r f e o 1 : ~ # h a l t f # Conectarse al servidor secundario usuario@pc999 :~# ssh l r o o t 1 7 2 . 1 6 . 1 . 2 4 [ 0 , 2 ] # Promover e l s e r v i d o r a p r i m a r i o root@orfeo2 :~# sh c o n t i n g e n c i a . sh V-D. Despus de la emergencia

Una vez se ha establecido cual fue el fallo en el nodo y reestablecida la conguaracin del DRBD se proceder a resincronizar los datos y dejar este nodo como pasivo dispuesto para tomar el papel de primario en presencia de una nueva continencia. ste procedimiento es ms sencillo y se encargar de dejar nuestro antiguo nodo primario sincronizado y en un rol pasivo o segundario. 1. Acceder a travs del ssh o en forma fsica al servidor que present la falla, o antiguo primario. usuario@pc999 :~# ssh l r o o t 1 7 2 . 1 6 . 1 . 2 4 [ 0 , 2 ] 2. Activar la interfaz de red del nodo con rol primario y conectar de nuevo los recursos congurados en DRBD. root@orfeo2 :~# sh r e s i n c r o n i z a r _ p r i m a r i o . sh

# C o n e c t a r s e a l s e r v i d o r que e s t f a l l a n d o # Opcional

3. Establecer el modo secundario del nodo que fallo y activar las polticas de sincronizacin. Mnimamente se debe reinciar dicho servidor.

MANUAL TCNICO

Algoritmo 15 Script de preparacin para resincronizacin del nuevo nodo primario /root/resincronizar_primario.sh. #/ bin / bash # Autor : S e b a s t i a n O r t i z s e t e #En e l nodo que e s e l nuevo p r i m a r i o # A c t i v a c i n i n t e r f a c e DRBD ifup eth1 # R e c o n e c t a r r e c u r s o s DRBD drbdadm c o n n e c t b o d e g a drbdadm c o n n e c t db drbdadm c o n n e c t v s e r v e r s # M o s t a r v i s t a de r e c u r s o s DRBD drbd o v e r v i e w

# Encender e l s e r v i d o r # C o n e c t a r s e a una c o n s o l a root@orfeo1 :~# sh r e s i n c r o n i z a r _ s e c u n d a r i o . sh Algoritmo 16 Script de preparacin para resincronizacin del nuevo nodo segundario /root/resincronizar_secundario.sh. #/ bin / bash # A u t o r : S e b a s t i a n O r t i z Vasquez s e t e # E s t e p r o g r a m a s o l o d e b e r a e j e c u r t a r s e c u a n d o s e p r e s e n t o f a l l a en d r b d # Se a s u m i o l a c o n t i g e n i c a y s e q u i e r e r e s i n c r o n i z a r e s t e nodo . # Cambio de Rol a s e g u n d a r i o drbdadm s e c o n d a r y b o d e g a drbdadm s e c o n d a r y db drbdadm s e c o n d a r y v s e r v e r s # P o l t i c a de s i n c r o n i z a c i n de d e s c a r t a r c a m b i o s . drbdadm d i s c a r d my d a t a c o n n e c t b o d e g a drbdadm d i s c a r d my d a t a c o n n e c t db drbdadm d i s c a r d my d a t a c o n n e c t v s e r v e r s # M o s t a r e s t a d o r e c u r s o s DRBD drbd o v e r v i e w

VI. Citation: [?]

B IBLIOGRAFA

Anda mungkin juga menyukai