Autores:
U201220093 – Herdin Hiram Ríos Carbajal
U201220093 – Marco Quispe Rengifo
U201220093 – Ivette Ramírez Salazar
Problema Causas
3. Planteamiento de la Solución
OG: Implementar una arquitectura tecnológica que permita desplegar una red social
mundial que soporte la información e interacciones de más de 100 millones de
usuarios.
Los indicadores de éxito planteados para este proyecto se utilizarán para medir el
logro de cada uno de los objetivos se muestra
Indicador Objetivo
Indicador de Éxito
de éxito Específico
1.6.1 Alcance
El Plan de Gestión del Tiempo como objetivo principal indicar las fases que tendrá
el proyecto con sus respectivas actividades que se realizarán en cada una de estas,
estableciendo fechas de entrega con el fin de cumplir las actividades y sus
respectivos entregables.
Plan de Trabajo,
Gestión del
2018-1 Entregables de Alta
Proyecto
Gestión
Análisis y
documentación de la
Planificación
funcionalidades y Alta
2018-1 arquitecturas de las
Factibilidad del
redes sociales
Proyecto
Pruebas de las
herramientas a Pruebas de
2018-1 Alta
utilizar en la Concepto
solución
Desarrollo de la
Objetivo 2
Arquitectura y
2018-1 Alta
despliegue de una
Prueba Funcional
red social
Actas de Cierre y
2018-2 Alta
Aceptación
Cierre del
Cierre
Proyecto
Memoria Final del
2018-2 Alta
Proyecto
Establecer tiempos de
Retrasos en la holgura para la realización
elaboración y de actividades del
1 Media Alta
presentación de los proyecto con el objetivo de
entregables del proyecto cumplir con las fechas de
entrega.
Almacenar la información
Pérdida de información en repositorios en Cloud
2 Baja Alta
del proyecto como Google Drive y en
dispositivos propios.
Retrasos en las
actividades asignadas a Realizar escala vertical
4 los recursos de las Media Media para que el caso sea
empresas virtuales de la atendido prontamente.
EISC
Planificación:
Desarrollo:
Análisis:
3.2. Planificación
3.2.1. Preguntas de investigación
Con el fin de lograr un mejor entendimiento nos planteamos las siguientes
preguntas:
o ¿Qué Arquitectura soporta los sistemas de información?
o ¿Cómo se consigue la escalabilidad en los sistemas de información o
aplicaciones?
o ¿Cómo se consigue la Alta disponibilidad en los sistemas de
información?
3.2.2. Bancos Bibliográficos
3.2.3. Palabras
Para poder hacer una búsqueda selectiva de los artículos, se necesita reducir el
tamaño de la búsqueda bajo ciertos parámetros que se relacionen con el tema de
investigación. Para dicho fin se utilizaron palabras clave como:
3.2.4. Periodo
Además, para poder reducir la búsqueda a temas actuales el período se debe
reducir a tres años de investigaciones. Los años para los que se ha reducido esta
búsqueda, desde el año 2015 al año 2018.
Años Artículos
2015 5
2016 1
2017 3
2018 1
Artículos con palabras clave relacionadas Las palabras clave muestran a simple
relacionadas a la Arquitectura vista el contenido relacionado con
tecnológica, alta disponibilidad y Arquitectura tecnológica, alta
escalabilidad disponibilidad y escalabilidad.
Artículos con una antigüedad mayor a 4 Se excluyen los artículos con fecha
años menores a 2015
- Escalabilidad
Los cuales, se ven relacionados con los artículos seleccionados bajo la siguiente
distribución
# Título Referencia
A Dynamically Scalable Cloud Data Infrastructure for Li, T., Keahey, K., Wang, K., Zhao,
3
Sensor Networks D., & Raicu, I. (2015)
A Novel Approach for Optimization Auto-Scaling in Mogouie, K., Arani, M. G., & Shamsi,
4
Cloud Computing Environment M. (2015)
5 Want to scale in centralized systems? Think P2P. Kermarrec, A. M., & Taïani, (2015)
Intelligent Hybrid Cloud Data Hosting Services with Myneni, M. B., Prasad, L. N., &
8
Effective Cost and High Availability Kumar, D. N. (2017)
Los autores observan que con la disponibilidad de sensores modernos y escáneres LiDAR
(Light Detection And Ranging) que entregan cientos de GiB hasta varios TiB por hora, el
volumen mundial de datos geoespaciales crece exponencialmente. Si bien el
procesamiento de información espacial siempre ha sido una tarea compleja y lenta, este
nuevo tipo de datos de gran volumen (Big Data o Big Geo Data) requiere nuevas técnicas
que hagan uso de tecnología moderna, como programación multinúcleo y programación
GPGPU. Sin embargo, tales datos grandes generalmente no caben en la memoria de una
computadora. A menudo se almacena de forma distribuida en múltiples sistemas
informáticos. Estas computadoras conforman los nodos de una infraestructura distribuida,
generalmente denominada nube.
Contiene una interfaz de usuario basada en web donde los expertos de dominio (por
ejemplo, analistas de SIG o planificadores urbanos) pueden definir flujos de trabajo de
procesamiento de alto nivel utilizando un lenguaje específico de dominio (DSL). Los flujos
de trabajo se pasan a través de una serie de componentes que incluyen un analizador, un
intérprete y un servicio llamado administrador de trabajos. Estos componentes usan
conocimiento declarativo y de procedimiento codificado en reglas para generar una cadena
de procesamiento que especifica la ejecución de los flujos de trabajo en una infraestructura
de nube dada de acuerdo con las restricciones definidas por el usuario. Los servicios se
comunican entre sí a través de un sistema de archivos distribuidos que es escalable y
tolerante a las fallas.
Se presenta una arquitectura modular para el procesamiento de Big Geo Data en la nube.
Se describe la arquitectura general, sus componentes y cómo funcionan entre ellos.
También se describe los requisitos para los sistemas que procesan Big Geo Data y cómo
los abordan en nuestra arquitectura. La arquitectura es modular y permite ejecutar una
amplia gama de servicios de procesamiento (incluso heredados). Esto hace que el sistema
sea adecuado para muchas aplicaciones. Además de eso, no se enfoca en cierta
infraestructura de la nube. En cambio, esta solución hace uso de un sistema basado en
reglas que nos permite controlar la ejecución de flujos de trabajo en múltiples plataformas.
La flexibilidad adicional viene dada por el hecho de que nuestra arquitectura permite que
expertos de dominio controlen el procesamiento de Big Geo Data a través de un lenguaje
específico de dominio. Esto hace que la nube y, por lo tanto, su potencia de procesamiento
esté disponible para los usuarios del dominio geospatial sin que tengan que tener un
conocimiento profundo de la infraestructura y sus detalles técnicos.
El DSL es muy potente y permite a los expertos en el dominio controlar el procesamiento
en la nube con solo un par de comandos. La ganancia de rendimiento del uso de
procesamiento distribuido es enorme en comparación con una única estación de trabajo de
alta gama. La arquitectura se ha implementado en un nivel prototípico que permitió realizar
la evaluación.
Los autores notaron que los centros de datos están revolucionando la forma en que diseñan
redes, debido en gran parte a las restricciones de ingeniería enormemente diferentes que
surgen al interconectar una gran cantidad de nodos homogéneos altamente
interdependientes en un espacio físico relativamente pequeño, en oposición a puntos
finales heterogéneos débilmente acoplados dispersos a través del mundo. Si bien muchos
aspectos del diseño de la red y el protocolo dependen de estos atributos físicos, muchos
otros requieren una comprensión firme de la demanda que los anfitriones finales pondrán
en la red. Desafortunadamente, si bien se entiende, mucho acerca de lo primero (es decir,
que los modernos centros de datos en la nube conectan decenas de miles de servidores
usando una combinación de Ethernet de 10 Gbps y cantidades crecientes de
interconexiones de fibra de alta velocidad), estos últimos tienden a no ser divulgados en
público. Por lo tanto, muchas propuestas recientes están motivadas por suposiciones
ligeramente validadas con respecto a las cargas de trabajo del centro de datos o, en
algunos casos, los rastros de carga de trabajo de un solo operador de centro de datos
grande. Estos rastros están dominados por el tráfico generado como parte de un importante
servicio de búsqueda web, que, si bien es significativo, puede diferir de las demandas de
otros servicios principales en la nube. En este documento, se estudia las cargas de trabajo
de muestra desde los centros de datos de Facebook. Se encuentra que los estudios de
tráfico en la literatura no son completamente representativos de las demandas de
Facebook, cuestionando la aplicabilidad de algunas de las propuestas basadas en estas
suposiciones prevalentes sobre el comportamiento del tráfico del centro de datos. Esta
situación es particularmente aguda cuando se consideran nuevas telas de red, protocolos
de ingeniería de tráfico y diseños de interruptores.
Los autores proponen el estudio de una red de centro de datos que conecta cientos de
miles de nodos de 10 Gbps. Utilizando sistemas de monitoreo en todo Facebook y rastreos
de encabezado de paquete por host, examinamos los servicios que generan la mayoría del
tráfico en la red de Facebook. Aunque se encontró que los patrones de tráfico exhibidos
por las implementaciones Hadoop de Facebook se ajustan bien a los reportados en la
literatura, porciones significativas de la arquitectura de servicio de Facebook varían
dramáticamente de las infraestructuras de estilo MapReduce estudiadas previamente,
conduciendo a patrones de tráfico muy diferentes. Los hallazgos del estudio con
importantes implicaciones arquitectónicas incluyen:
Si bien no se ofrecen estas cargas de trabajo como más representativas que otras, pueden
cambiar a medida que los servicios de Facebook evolucionan, sugieren que el espacio de
carga de trabajo del centro de datos en la nube es más rico de lo que la literatura puede
implicar. Como una forma de caracterizar la importancia de nuestros hallazgos, la Tabla 1
muestra cómo nuestros resultados se comparan con la literatura, y cita sistemas
ejemplares que incorporan estos supuestos en su diseño.
Figura 4: Arquitectura FBflow
Se encontró que la red del centro de datos de Facebook admite una variedad de servicios
distintos que muestran diferentes patrones de tráfico. Así también se encontró que varios
se desvían sustancialmente de los servicios considerados en la literatura. Las diferentes
aplicaciones, combinadas con la escala (cientos de miles de nodos) y la velocidad (enlaces
de borde de 10 Gbps) de la red del centro de datos de Facebook resultan en cargas de
trabajo que contrastan de varias maneras con la mayoría de los conjuntos de datos
publicados anteriormente. Las limitaciones de espacio nos impiden proporcionar una
cuenta exhaustiva; se describen las características que pueden tener implicaciones para la
topología, la ingeniería de tráfico y el diseño de conmutadores de la parte superior del rack.
Nuestra metodología impone algunas limitaciones en el alcance de este estudio. El uso de
hosts finales para capturar paquetes de marca de tiempo introduce variaciones basadas
en el programador sobre la precisión de la marca de tiempo. Además, solo se pudo capturar
el tráfico de unos pocos hosts a la vez sin correr el riesgo de caer en la recopilación de
paquetes. En conjunto, estas restricciones impiden evaluar los efectos como incast o
microburbujas, que se consideran como contribuyentes al bajo rendimiento de las
aplicaciones. Además, los volcados de paquetes por host son necesariamente anecdóticos
y ad hoc, dependiendo de la presencia de un host de captura no utilizado en el mismo
bastidor que el objetivo. Si bien Fbflow se implementa en todo el centro de datos, la gran
cantidad de datos de medición que ofrece presenta otro desafío, específicamente uno de
procesamiento y retención de datos, que limita la resolución en la que puede operar. Por
lo tanto, se considera que el monitoreo y análisis efectivos de la red es un problema en
constante evolución.
Referencia
Arquitectura Descripción
Los autores observaron que los últimos años han visto un aumento en el uso de sensores,
actuadores y sus redes para detectar, monitorear e interactuar con el medioambiente.
Hay una proliferación de sensores pequeños, baratos y robustos para medir diversas
características físicas, químicas y biológicas de Permiso para hacer copias digitales o en
papel de todo o parte de este trabajo para uso personal o en el aula se otorga sin cargo
siempre que no se hagan copias o distribuidos con fines de lucro o ventajas comerciales y
que las copias lleven este aviso y la cita completa en la primera página.
Para copiar lo contrario, para volver a publicar, para publicar en servidores o para
redistribuir a listas, se requiere un permiso específico previo y / o una tarifa. El medio
ambiente que abre nuevos y confiables métodos para monitorear las cualidades que van
desde las variables geofísicas, las condiciones del suelo, el control de la calidad del aire y
el agua hasta el crecimiento y la descomposición de la vegetación.
Los proyectos organizados en torno a este enfoque representan áreas importantes que van
desde las ciencias oceánicas, la ecología, la construcción e investigación urbana, hasta la
hidrología. Esto requiere una infraestructura capaz de recopilar, almacenar, consultar y
procesar el conjunto de datos de las redes de sensores.
Todas las capas de componentes de nuestro sistema están organizadas como servicios
escalables, la mayoría de los cuales pueden escalar de forma dinámica y automática. Para
permitir que lo hagan, deben cumplirse un par de requisitos. En primer lugar, las instancias
paralelas de un servicio se pueden ejecutar en múltiples máquinas de forma independiente.
Esto garantiza que un servicio se pueda ampliar. En segundo lugar, una nueva instancia
del servicio debería ser capaz de descubrir y unirse a un servicio en ejecución. Esto
garantiza el escalamiento en vivo de un servicio, lo que significa que el servicio puede
escalar en cualquier momento a pedido sin detenerse.
Para determinar la escalabilidad del lado del servidor y medir el rendimiento general, se
ajustó el tamaño del mensaje a 1000 bytes y realizamos experimentos similares con hasta
128 clientes y 8 servidores. A medida que se unieron más clientes, las latencias de todas
las escalas de servidores aumentaron como se muestra en la figura 3. Cuanto más se
usaban los servidores, menos aumentaba la latencia. En el sistema de un solo nodo, la
latencia comenzó a aumentar rápidamente en una escala de 32 clientes y superior. Esto
sugirió que el servidor único se saturó al atender a más de 32 clientes.
En los últimos años, las aplicaciones de servicios en la nube se han ampliado cada vez
más. Los servicios en la nube son infraestructuras distribuidas que desarrollan la
comunicación y los servicios. El escalado automático es una de las características más
importantes de los servicios en la nube, que dedica y retoma el recurso dinámico asignado
en proporción al volumen de solicitudes. El escalado intenta utilizar la máxima potencia de
los recursos disponibles también para usar recursos inactivos, con el fin de maximizar la
eficiencia o cerrar recursos innecesarios para reducir el costo de ejecutar solicitudes.
La computación en la nube es una nueva tecnología que ha encontrado su lugar en la vida
humana como una necesidad básica, y su popularidad aumenta entre los usuarios de
Internet día a día. Los usuarios del servicio en la nube solo pagan el precio en función de
la cantidad de recursos que han utilizado (pago por uso). Por otro lado, se requiere una
gran precisión para establecer un equilibrio entre el precio y la eficiencia. Proporcionar
servicios en la nube de alta calidad al precio más bajo posible, satisfacer las solicitudes y
mantener la estabilidad del sistema son el deseo final. La escalabilidad es uno de los
desafíos y características importantes de la tecnología de computación en la nube que
puede proporcionar esta característica para los usuarios de servicios en la nube.
Una de las técnicas de gestión para escalar en la computación en la nube es utilizar un
enfoque de umbral. El umbral se determina en función de factores como la fuerza y la
velocidad de procesamiento y la capacidad de almacenamiento. Cuando la utilización del
recurso es mayor que el valor del umbral, las solicitudes se remitirán a otras fuentes y
cuando el uso del recurso sea menor que el umbral, algunos de los recursos innecesarios
se seleccionarán y desactivarán para disminuir los costos. Por lo tanto, la cantidad de
actividades de implementación en un recurso se ha medido periódicamente, luego la escala
se hará en su base.
La determinación y el uso de un enfoque de escalado eficiente requiere crear y utilizar un
marco adecuado que incluya factores efectivos en el mecanismo de escalado. Por lo tanto,
Ofrecen un marco, luego el enfoque de escala propuesto se presenta en base a este marco.
La figura muestra los principales componentes del marco de escalabilidad que incluyen:
Load Balancer, Scaling Manager, Cost Manager, Virtualization Manager y Server Cluster.
Se evalúa el número de escalas para el enfoque propuesto frente a los otros dos enfoques
descritos anteriormente. La eliminación o adición de máquinas virtuales previamente
formuladas se realiza en función de la violación de los valores de umbral. El número de
escalas que indica que el sistema está equilibrado o no, también puede imponer gastos
operativos y costos al sistema. De modo que una gestión adecuada de los criterios y la
elección de valores de umbral adecuados pueden ayudar a que el enfoque de escalado
para acceder a la velocidad de respuesta más alta y al menor costo resulte en una tasa
decreciente de violación de SLA. En la Figura, los resultados de la simulación se han
representado para tres enfoques en comparación con 4 por día en función del número de
escalas para cada enfoque en la nube. Según los resultados, el número de escalabilidad
está cambiando continuamente en un enfoque aleatorio en respuesta a las diversas
solicitudes, por lo tanto, el sistema no tiene una estabilidad adecuada. Por otro lado, estos
valores son aproximadamente iguales en nuestro enfoque y en el enfoque de Costo-
consciente, por lo que podemos decir que la estabilidad del sistema se ha preservado en
parte.
Los sistemas punto a punto (P2P) se han investigado ampliamente en la última década, lo
que lleva a implementaciones altamente escalables para una amplia gama de aplicaciones
y servicios distribuidos. Un sistema P2P asigna roles simétricos a las máquinas, que
pueden actuar como cliente y servidor. Esto alivia la necesidad de cualquier componente
central para mantener un conocimiento global del sistema. En cambio, cada par toma
decisiones individuales basadas en el conocimiento local del resto del sistema,
proporcionando escalabilidad por diseño.
Mientras que los sistemas P2P se han aplicado con éxito a una amplia gama de
aplicaciones distribuidas (multidifusión, enrutamiento, almacenamiento, pub-sub,
transmisión de video), con algunos éxitos altamente visibles (Skype, Bitcoin), tienden a
pasar de moda a favor de una visión mucho más centrada en la nube de la Internet actual.
Creemos que esto es paradójico, ya que los sistemas basados en la nube son en sí mismos
infraestructuras a gran escala y altamente distribuidas. Residen en centros de datos
masivos y densamente interconectados, y deben ejecutarse de manera eficiente en un
número cada vez mayor de máquinas, al tiempo que se ocupan de volúmenes crecientes
de datos. Hoy, incluso más de una década atrás, los sistemas a gran escala requieren
diseños escalables para brindar servicios eficientes.
Los sistemas P2P son escalables por diseño: el hecho de que cada par potencialmente
actúe como un servidor evita el cuello de botella de la mayoría de los sistemas distribuidos
haciendo que el número de servidores aumente linealmente con la cantidad de clientes.
Esta capacidad natural de escalar se complementa con el hecho de que no se requiere que
ninguna entidad mantenga un conocimiento global del sistema, una operación costosa y
difícil en sistemas a gran escala. En cambio, cada par solo depende de la información local
y restringida para controlar su comportamiento. Esto garantiza la escalabilidad por dos
razones:
o Primero, los pares individuales solo necesitan procesar una pequeña cantidad de
información.
Este trabajo analiza una nueva base de requisitos para desarrollar un nuevo paradigma
para los sistemas de información de tráfico. Integra principalmente tres dimensiones dentro
de un sistema de tráfico; patrón de conducta y preferencias de los conductores, deseos de
tráfico urbano y capacidades de los proveedores de servicios de información de tráfico. En
base a lo anterior, los segmentos funcionales de varios fondos relacionados se unen para
estructurar una nueva arquitectura, llamada Sistema Interactivo de Información para
Viajeros (ITIS). La característica interactiva principal de esta nueva arquitectura es una vía
de comunicación bidireccional entre los conductores y el proveedor del sistema de
información de tráfico; de hecho, la decisión de elegir una carretera en un momento
determinado para un individuo se basará en la utilidad de ambos lados.
Esta nueva configuración consiste en la aplicación del teléfono inteligente del lado del
conductor, la predicción del tráfico central y las unidades de toma de decisiones, lo que
dará forma a un nuevo enfoque de los procesos de toma de decisiones. Todos estos
trabajan juntos para satisfacer el objetivo designado de ITIS de preservar la condición de
equilibrio de Wardrop en el nivel de la red de tráfico. Finalmente, nos concentramos en un
estudio de comparación, que muestra una diferenciación entre el rendimiento del ITIS
propuesto y el modelo ATIS actual en una situación real. Esto se ha hecho con
simulaciones de escenarios analógicos. La ventaja más notable de la arquitectura
propuesta no se limita a un límite de saturación, y el efecto positivo de aumentar la
penetración del sistema en el rendimiento del sistema de información recién introducido.
En conclusión, se sugiere llevar a cabo nuevos temas de investigación.
REFERENCIA
ESCALABILIDAD DESCRIPCION
(Noranian, 2017)
Capacidad de incrementar el
espacio o capacidad
AUTO
automáticamente cuando el
ESCALABALIDAD
sistema lo necesite (Mogouie, 2015)
mantener un conocimiento
global del sistema
La calidad del servicio es un factor importante que afecta la selección del servicio de los
usuarios de la nube, que ha atraído la atención de muchos investigadores. Como una
métrica crucial para la calidad del servicio, la disponibilidad es el atributo más discutido,
que se incluye en casi todos los acuerdos de nivel de servicio en la nube (SLA).
De acuerdo con Pan et al., Más del 70 por ciento del SLA de usuario / proveedor incluía
preocupaciones de disponibilidad. Por lo tanto, muchos trabajos de investigación se
centraron en mejorar la disponibilidad mediante diversas optimizaciones. Para mejorar la
satisfacción del usuario, el proveedor de la nube infraestructura como servicio (IaaS)
proporciona mayor disponibilidad para sus usuarios, y proporciona una penalización
cuando se infringe el SLA.
El Cloud Computing ha sido utilizado por diferentes tipos de clientes porque tiene muchas
ventajas, incluida la minimización de los costos de los recursos de infraestructura, y su
propiedad de elasticidad, que permite que los servicios se amplíen o disminuyan de
acuerdo con la demanda actual. Desde el punto de vista del proveedor de la nube, hay
muchos desafíos que superar para poder ofrecer servicios en la nube que cumplan con
todos los requisitos definidos en los acuerdos de nivel de servicio (SLA).
La disponibilidad se calcula como el porcentaje de tiempo que una aplicación y sus
servicios están disponibles, dado un intervalo de tiempo específico. Uno logra alta
disponibilidad (HA) cuando el servicio en cuestión no está disponible menos de 5.25
minutos por año, lo que significa al menos 99.999% de disponibilidad ("cinco nueves").
los autores definen que los sistemas HA son sistemas tolerantes a fallas sin un único punto
de falla; en otras palabras, cuando un componente del sistema falla, no necesariamente
causa la terminación del servicio provisto por ese componente. Ofrecer un mayor nivel de
disponibilidad ha sido uno de los mayores desafíos para los proveedores de la nube. El
objetivo principal de este trabajo es presentar una revisión sistemática y analizar las
soluciones de HA de última generación para Cloud Computing. Los autores esperan que la
observación de tales soluciones se pueda utilizar como un buen punto de partida para
abordar algunos de los problemas presentes en el área de computación en la nube de HA.
La alta disponibilidad ha sido uno de los mayores desafíos para los proveedores, y muchos
servicios se pueden utilizar para mejorar la disponibilidad de un servicio, como el punto de
control, el equilibrio de carga y la redundancia. Más allá de los servicios, también podemos
encontrar soluciones de infraestructura y middleware. Esta revisión sistemática tiene como
objetivo principal presentar y debatir soluciones de alta disponibilidad (HA) para el cómputo
en la nube e introducir algunos desafíos de investigación en esta área. Esperamos que
este trabajo se pueda utilizar como punto de partida para comprender y enfrentar los
problemas de HA en la nube.
Como se describió en esta revisión sistemática, los proveedores de Cloud pueden hacer
uso de varias tecnologías y mecanismos para ofrecer servicios de HA. Los autores
clasifican las soluciones HA en dos categorías: enfoques de middleware y enfoques
basados en virtualización. Proponen un marco para evaluar la disponibilidad de la máquina
virtual contra tres tipos de fallas:
a) falla de la aplicación,
b) falla de la máquina virtual y
c) falla del sistema principal.
Los autores usan OpenStack, Pacemaker, OpenSAF y VMware para aplicar su framework,
que considera stateful y stateless-HA.
Imagen 13: Clasificación para Alta disponibilidad
La combinación de
Arquitectura de Cloud intelligent hybrid cloud data
Arquitectura en la nube e hosting services with effective
Hibrida
infraestructura fisca cost and high availability.
Implementar la alta
disponibilidad como a study of cloud computing-based
disaster recovery system for
HA- as a services servicio como propuesta de security high availability of
despreocupación de las academic affairs information
service.
organizaciones
3.2 Conclusiones.
En este capítulo se explica cómo se llevó a cabo el proyecto para cumplir con cada uno de
los objetivos y poder entregar un producto final. En primer lugar, se habla sobre la gestión
del proyecto.
5.1 Producto Final
5.2 Lecciones Aprendidas
Conclusiones
Recomendaciones
Glosario
Siglario
Bibliografía
Referencias electrónicas
Referencia de Imágenes
Anexos