INSTITUTO TECNOLÓGICO
DIRECCIÓN GENERAL DE EDUCACIÓN SUPERIOR
TECNOLÓGICA DE CD.GUZMAN
TESIS
TEMA:
PRESENTA:
ALEJANDRO CÁRDENAS NÚÑEZ
DIRECTOR DE TESIS:
FRANCISCO MANUEL GONZÁLEZ SOLARES
En la actualidad las personas tienen la necesidad de observar en tiempo real lo que ocurre
en otros lugares para tomar decisiones al respecto.
Se consideró que este producto y/o servicio, debe ser de bajo costo y asequible a cualquier
persona que desee monitorear un lugar en particular.
3
ÍNDICE GENERAL.
ANTECEDENTES ...............................................................................................................8
DEFINICIÓN DEL PROBLEMA. .........................................................................................9
JUSTIFICACIÓN. ..............................................................................................................11
OBJETIVO. ........................................................................................................................12
HIPÓTESIS........................................................................................................................12
Limitaciones y delimitaciones............................................................................................12
MARCO DE REFERENCIA. ..............................................................................................13
MÉTODO. ..........................................................................................................................15
DESARROLLO. .................................................................................................................17
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO ....................41
1.1.- FORMATOS DE IMAGEN. ...........................................................................................41
1.1.1.- Introducción. ...........................................................................................41
1.1.2.- Tipos de Imágenes. ................................................................................41
1.1.3.- Formato JPEG. .......................................................................................43
1.1.4.- Formato BMP..........................................................................................44
1.1.5.- Formato GIF. ..........................................................................................44
1.1.6.- Formato TIFF. .........................................................................................44
1.1.7.- Formato PNG..........................................................................................45
1.2.- Formatos de audio. ...................................................................................................46
1.2.1.- Introducción. ...........................................................................................46
1.2.2.- Formato MP3. .........................................................................................49
1.2.3.- Formato RA. ...........................................................................................50
1.2.4.- Formato WAV. ........................................................................................50
1.2.5.- Formato GSM 6.10. ................................................................................51
1.2.6.- Windows Media Audio (WMA). ..............................................................52
1.3.- FORMATOS DE VIDEO. .........................................................................................53
1.3.1.- Introducción. ...........................................................................................53
1.3.2.- Formato AVI............................................................................................55
1.3.3.- Formato Mpeg. .......................................................................................57
1.3.4.- Formato Microsoft Video 1. ....................................................................60
1.3.5.- Formato Cinepak by radius. ...................................................................60
4
1.3.6.- Formato Intel Indeo 5.05. .......................................................................61
1.3.7.- Formato Microsoft RLE. .........................................................................61
1.3.8.- Formato Windows Media Video (WMV). ................................................61
1.3.9.- Formato H.261........................................................................................62
1.3.10.- Formato H.263......................................................................................63
1.3.11.- Formato H.264......................................................................................63
1.3.12.- Conclusiones. .......................................................................................64
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA......................................................67
2.1.- INTRODUCCIÓN. .....................................................................................................67
2.2.- ESTÁNDAR H.320. VIDEOCONFERENCIA SOBRE RDSI. ...................................67
2.3.- ESTÁNDAR H.321. VIDEOCONFERENCIA SOBRE ATM. ....................................69
2.4.- ESTÁNDAR H.322. ...................................................................................................70
2.5.- ESTÁNDAR H.323.VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
...........................................................................................................................................70
2.6.- ESTÁNDAR H.324. VIDEOCONFERENCIA SOBRE POTS. ..................................72
2.7.- ESTÁNDAR H.310. VIDEOCONFERENCIA SOBRE ATM –MPEG-2. ...................73
2.8.- CONCLUSIONES. ....................................................................................................73
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP..........75
3.1.- INTRODUCCIÓN. .....................................................................................................75
3.2.- DESCRIPCIÓN OFICIAL DEL H. 323. .....................................................................76
3.3.- ESTRUCTURA DEL H. 323. .....................................................................................77
3.4.- IMPORTANCIA DEL H. 323. ...................................................................................78
3.5.- IMPLEMENTACIÓN DE LOS PRODUCTOS H.323. ...............................................79
3.6.- ARQUITECTURA H.323. ..........................................................................................80
3.6.1.- Terminales. .............................................................................................81
3.6.2.- Gateways. ...............................................................................................82
3.6.3.- Gatekeepers. ..........................................................................................83
3.6.4.- Unidad Control Multipunto (MCU). .........................................................86
CAPITULO 4. STREAMING. .....................................................................................................90
4.1.- INTRODUCCIÓN. .....................................................................................................90
4.2.- STREAMING BAJO DEMANDA. ..............................................................................91
4.3.- STREAMING EN VIVO. ............................................................................................91
4.4.- FORMATOS DEL STREAMING MEDIA. .................................................................92
5
4.5.- STREAMING MEDIA UNICAST. ..............................................................................93
4.6.- STREAMING MEDIA MULTICAST...........................................................................94
4.7.- DISTRIBUCIÓN DE CONTENIDO. ..........................................................................96
4.8.- FUNCIONAMIENTO DEL STREAMING. .................................................................99
4.9.- VENTAJAS DE STREAMING. ..................................................................................99
4.10.- TECNOLOGÍAS STREAMING. ............................................................................100
4.10.1.- Componentes de las tecnologías Streaming. ....................................101
4.10.2.- Servidores de Streaming. ...................................................................101
4.11.- CONCLUSIÓN. .....................................................................................................108
CAPITULO 5. RTSP Y RTP. ...................................................................................................110
5.1.- INTRODUCCIÓN. ...................................................................................................110
5.2. - RTSP (REAL TIME STREAMING PROTOCOL). ..................................................110
5.3.- CARACTERÍSTICA DEL RSTP. .............................................................................110
5.4.- PROPIEDADES DEL PROTOCOLO RTSP. ..........................................................112
5.5.- VENTAJAS DE RTSP. ............................................................................................113
5.6.- DESVENTAJAS DE RTSP. ....................................................................................114
5.7.- RTSP VS. HTTP. ....................................................................................................114
5.8.- RTP (REAL TIME PROTOCOL). ............................................................................115
5.9.- RTCP (REAL TIME CONTROL PROTOCOL). ......................................................115
5.10.- TRANSMISIÓN EN TIEMPO REAL. ....................................................................116
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED. ......................................................120
6.1.- INTRODUCCIÓN. ..................................................................................................120
6.2.- TRADUCCIÓN DE DIRECCIONES (NAT). ............................................................120
6.3.- MANIPULACIÓN DE CABECERAS. ......................................................................126
6.4.- NAT CON MÚLTIPLES DIRECCIONES. ..............................................................128
6.5.- CONCLUSIÓN. ......................................................................................................128
CAPITULO 7. TCP Y UDP. .....................................................................................................130
7.1.- INTRODUCCIÓN. ...................................................................................................130
7.2.- ARQUITECTURA TCP/IP. ......................................................................................130
7.3.- PROTOCOLOS TCP/IP. .........................................................................................132
7.4.- CARACTERÍSTICAS DE TCP/IP. .........................................................................132
7.5.- EN QUE SE UTILIZA TCP/IP. ................................................................................134
7.6.- PROTOCOLO UDP.................................................................................................134
6
7.6.1.- Encabezado de UDP. ...........................................................................140
7.6.2.- Formato del mensaje UDP. ..................................................................141
7.7.- CONCLUSIÓN. .......................................................................................................142
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN). ........................................................145
8.1 INTRODUCCIÓN. .....................................................................................................145
8.2. PROTOCOLO PPTP. ...............................................................................................152
8.3. PROTOCOLO L2TP. ................................................................................................154
8.4. PROTOCOLO IPSEC...............................................................................................155
8.5. PROTOCOLO MPLS................................................................................................160
8.6. CONCLUSIÓN..........................................................................................................160
PRUEBAS Y RESULTADOS ..................................................................................................161
BIBLIOGRAFÍA........................................................................................................................164
GLOSARIO. .............................................................................................................................166
7
ANTECEDENTES
Otro hecho que contribuyó al avance de la videovigilancia de forma notable fue que
en 1997, la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA) iniciara
un proyecto de tres años para desarrollar un sistema de Monitorización y Vigilancia de vídeo
(VSAM). El objetivo del proyecto VSAM fue el desarrollo de tecnología automática de análisis
de vídeo para su uso en aplicaciones urbanas y militares.
Recientemente, en uno de sus informes el analista Simon Harris del IMS Research,
argumenta que el uso de los sistemas de vídeo inteligente es sumamente urgente. Dice:
8
“Los operadores de CCTV están siendo sobrecargados con un contenido de vídeo
que no pueden vigilar de forma eficiente. Los experimentos han demostrado que después de
22 minutos, los operadores que visualizan simultáneamente varios monitores de vídeo
pueden pasar por alto acciones peligrosas que suceden en las escenas vigiladas.
Necesitamos vídeo inteligente para mejorar la efectividad de los sistemas de vigilancia y
aliviar la carga de los operadores”.
Borrmart, (Ed.). Seguritecnia, Revista independiente de seguridad.
Una de las aplicaciones más usada en estos días es la vigilancia de la vivienda, con
una cámara IP. Es decir una cámara cuyo video y audio podemos acceder desde cualquier
lugar en el que tengamos acceso a Internet
Actualmente las personas trabajan en lugares muy distantes de donde viven lo que impide a
mucha gente estar cerca de sus familiares y/o propiedades, por horas, días, semanas y
hasta meses. Esta ausencia por periodos prolongados de un lugar específico, representa sin
9
duda alguna, una maravillosa oportunidad para identificar aquellos que se dedican a cometer
ilícitos en contra de terceros, ya que contando con la identificación de casas habitación o
negocios en donde no hay moradores y/o vigilancia de forma frecuente, disponen del tiempo
necesario para efectuar sus tropelías.
Uno de los ejemplos más representativos de este tipo de sucesos es el robo a casas
habitación y negocios, el cual se efectúa con mayor índice de frecuencia durante los fines de
semana y/o periodos vacacionales. Eso es tan solo un ejemplo de lo que podría ser evitado
con el uso de un proyecto como el que aquí se pretende realizar; aunque también, es
necesario mencionar el hecho de que existen otros muchos lugares en donde podría ser
aplicado, ya que como es de todos conocido a través de los medios informativos, se
encuentran los actos relacionados con el robo de infantes que se dan en hospitales, los
cuales son sustraídos de manera ilícita por personas ajenas a la institución; de igual forma
se han dado a conocer los hechos relacionados al maltrato a que son sometidos algunos
infantes dentro de las instalaciones de casas habitación e instituciones de cuidado infantil, en
donde, según se ha reportado a través de los medios de comunicación, la forma en que
dichos menores son abusados por parte del personal a quienes los padres les confían a sus
hijos.
10
Los componentes de hardware, serán adquiridos dentro de los que se ofrecen en el
mercado, según las necesidades particulares.
JUSTIFICACIÓN.
• En la oficina: Para verificar que los empleados cumplan realmente con sus funciones o
bien para controlar el tiempo que invierte el personal en desarrollar la actividad para la
que fue contratado y el número de visitas que recibe durante el transcurso de la jornada
laboral y todas las actividades relevantes al cuidado de los bienes materiales.
• Educación: Seguridad y monitorización remota de áreas de recreo de colegios, pasillos,
aulas y salas, así como seguridad de los edificios. Para evitar actos de vandalismo o
incluso evitar la venta de drogas a estudiantes.
• Transporte: Monitorización remota de estaciones de tren y vías, autopistas, aeropuertos,
etc. Para evitar actos de terrorismo e identificar a los delincuentes.
• Administración: En aplicaciones de vigilancia de seguridad, a menudo integradas con
sistemas de control de accesos nuevos o existentes. Para garantizar el acceso a
personas autorizadas.
• En casa: para detectar posibles intrusos a la hora que ellos (los propietarios) se
encuentran ausentes, para verificar el estado y trato que tiene el infante que se deja al
cuidado de otra persona.
• En la guardería: para ver el trato y cuidados que reciben los niños, así como el
comportamiento que tienen los mismos.
• Industria: Monitorización de procesos de fabricación, almacenes, para supervisar las
actividades de los obreros, verificar controles de nivel, etc.
• En los bancos: para detectar posibles actos delictivos en que puedan incurrir sus
propios empleados.
• En el hospital: para evitar el robo de niños por parte de personal no autorizado.
11
• En cualquier lugar que se desee verificar el orden, como son el caso de los accesos a
las empresas, almacenes, etc.
Por lo anterior, es que con el presente proyecto, se pretende desarrollar un sistema,
el cual será capaz de permitir verificar las situaciones antes descritas.
OBJETIVO.
HIPÓTESIS.
Con el uso del software denominado “Ojovigilante 1.0” se podrán vigilar en tiempo
real los lugares donde sea instalado, para cuidar bienes inmuebles, el abuso y maltrato de
infantes y personas de la tercera edad.
.
LIMITACIONES Y DELIMITACIONES.
LIMITACIONES.
El sistema de videovigilancia sólo funciona en ambiente windows (windows 98,
windows milenium, windows 2000, windows XP).
DELIMITACIONES.
El sistema no puede evitar robos sólo graba la evidencia y desalienta a cometer
ilícitos mediante el uso de alarmas sonoras.
El sistema no tiene reconocimiento de rostros humanos.
12
MARCO DE REFERENCIA.
Además, se debe de tomar en consideración que dentro del mundo computacional las
aplicaciones que pueden ser realizadas o llevadas a la práctica, dependen en demasía en:
las necesidades de los usuarios en potencia, los adelantos tecnológicos que se realicen en el
área de electrónica de estado sólido y de comunicaciones.
Además los protocolos HTTP (Hipertext Transfer Protocol por sus siglas en inglés o
Protocolo de transferencia de Hipertexto),
RTP (Real Time Protocol por sus siglas en inglés o Protocolo de Tiempo Real), y
RTSP (Real Time Streaming Protocol por sus siglas en inglés o Protocolo de flujos en
Tiempo Real).
De igual forma, se requiere de una investigación relacionada con los formatos de imágenes,
Audio y video.
13
Servicio de video vigilancia en el mercado.
Una investigación hecha sobre las empresas que ofrecen servicio de videovigilancia nos
indica lo siguiente:
Es un servicio exclusivo para clientes Infinitum que te permite monitorear tu casa a través de
Internet mediante el uso de cámaras IP compatibles.
ServiGuard.
Al igual que Telmex se debe pagar una renta mensual por cámara instalada.
14
Avantel.
También con este servicio se debe pagar una renta mensual por cámara instalada.
Video Guardián.
Es una empresa mexicana que ofrece servicio de video vigilancia incluye el software y el
hardware.
MÉTODO.
15
Se hará una investigación de sistemas de videovigilancia existentes en el mercado
para conocer sus características (servicios, precio, etc.)
Para de esta manera determinar si es conveniente desarrollar un sistema de videovigilancia
mejor y a bajo costo.
16
DESARROLLO DEL PROYECTO.
El proyecto se desarrollo en lenguaje Visual basic 6.0. Utilizando una red de área local (LAN
) con tres computadoras:
La interfaz para internet se desarrollo utilizando HTML, ASP y JavaScript utilizando IIS
(Internet Information Server) como servidor web.
17
INTERFACES DEL SISTEMA DE VIDEOVIGILANCIA.
• Pantalla principal.
Esta es la interfaz principal en donde se muestran cuatro pantallas, las dos pantallas
superiores pueden transmitir video local y remoto y las dos pantallas inferiores son sólo para
video remoto.
- La pantalla superior-izquierda es para conectar la cámara local principal y es la única que
puede transmitir video por la red.
Conectar a dirección IP. Aquí se introduce la dirección IP del servidor de video al cual
desea conectarse para poder acceder a la cámara.
Contraseña. Algunos servidores de video tienen contraseña para enviar video teclee aquí la
contraseña de lo contrario se negará el servicio de transmisión.
Botón (Conectar). Una vez que haya tecleado la dirección IP y la contraseña oprima este
botón, la petición se enviará al servidor y si es correcto empezará a recibir video.
18
Cámaras locales y remotas. En este cuadro se encuentran todas las cámaras disponibles
para recibir video, elija la cámara que desea con la contraseña y haga clic en el botón
conectar.
• Cámara principal.
Caja de texto para elegir tamaño de imagen. En esta caja se encuentran todos los
tamaños de imagen soportados por la cámara conectada.
Alarma video. Seleccione este cuadro haciendo click dentro del el, si desea que la pantalla
active la alarma de detección de movimiento.
Alarma audio. Seleccione este cuadro haciendo click dentro del el, si desea que la pantalla
active la alarma de detección de audio.
Mover cámara. Muestra una interfaz para mover la cámara al ángulo deseado.
19
Zoom. Muestra una interfaz para hacer zoom a la imagen.
Propiedades. Muestra una interfaz para aplicarle varias propiedades a la imagen como
(brillo, contraste, matiz, etc.).
Desconectar. Desconecta la cámara principal (si existen clientes recibiendo video les manda
un mensaje de desconexión).
Con esta interfaz podemos grabar video en formato WMV o AVI hasta que se oprima
el botón “Parar captura” o durante el tiempo indicado en minutos y segundos.
Cuando se graba en formato WMV puede elegir el perfil de grabación, es decir las
características predefinidas con las que se grabará como son: tamaño de la imagen, cuadros
por segundo, codificador de audio y video.
La grabación en formato AVI será con el codec de audio y video que tengamos configurado
en el sistema de videofigilancia.
20
La grabación por alarma siempre será en formato WMV con el perfil y el tiempo
seleccionado.
Para la grabación remota el cliente manda una solicitud para iniciar la grabación de video, el
servidor empieza a grabar el video, cuando el cliente manda la solicitud de terminar
grabación de video el servidor envía vía TCP una copia del archivo grabado.
Con esta interfaz se puede grabar una imagen en cualquier momento para copiarla al
portapapeles o grabarla en un archivo, se hace doble click sobre la pantalla y aparecerá la
interfaz, para refrescar la imagen basta con dar click sobre ella.
En la detección de audio o movimiento se manda una imagen vía FTP para verla
posteriormente si está activa la opción de envio, también se puede mandar un aviso junto
con la imagen por SMTP sobre el evento ocurrido.
21
• Configurar propiedades del video.
Con esta interfaz podemos configurar las propiedades de video e imagen de nuestra cámara
como son: brillo, contraste, matiz, saturación, nitidez, gama, habilitar color, equilibrio de
color, luz de fondo, ganancia, etc.
22
Esta interfaz nos permite agregar, eliminar o modificar nuevas cámaras, el sistema una vez
que se inicia busca cámaras conectadas en un rango de IPs, después busca las cámaras
que tenemos dadas de alta en el sistema.
• Visor de fotografías.
Esta interfaz nos permite ver las imágenes grabadas manualmente o por alarmas.
Esta interfaz nos permite manipular la cámara para ver el ángulo deseado, horizontal, vertical
y acercamiento.
23
Pan la cámara permanece en una misma posición, pero gira sobre su mismo eje, barriendo
todo el campo visual.
Tilt es un movimiento vertical de la cámara en la que la cámara apunta hacia arriba o hacia
abajo desde una ubicación fija.
Esta Interfaz sirve para realizar una comunicación escrita y oral con otros clientes
conectados, también puede enviar archivos por TCP.
Seleccione el usuario para chatear. En este cuadro aparecen todos los usuarios
conectados, también aparece el usuario “Todos” si elige este usuario le enviará el mensaje a
todos los clientes conectados.
24
Computadora remota IP. Aquí veremos los mensajes que nos son enviados.
Computadora local. En este cuadro escribimos los mensajes que enviaremos al usuario
que indiquemos.
Botón (Enviar archivo). Muestra una interfaz para poder enviar un archivo a otra
computadora.
CHAT DE VOZ.
Conectar con IP. Si conoce la IP y esta no aparece en la lista de cámaras escriba aquí la IP
y presione el botón “Marcar/Colgar”.
Lista de cámaras. Nos muestra todas las cámaras con las que podemos comunicarnos elija
una y presione el botón “Marcar/Colgar”.
• Transferir archivo.
25
Esta interfaz nos permite enviar un archivo a otra computadora por TCP.
Elegimos la IP o la computadora remota y presionamos el botón conectar, buscamos el
archivo que queremos enviar, y presionamos el botón “Enviar archivo”.
Con esta interfaz podemos mandar un correo electrónico manualmente, el sistema también
la utiliza para enviar un archivo de video al detectar audio y/o movimiento al destinatario que
le indiquemos.
El sistema envía automáticamente un archivo de video si esta habilitada la opción “Enviar
correo electrónico si detecta movimiento” esto con fines de respaldo y seguridad.
El servidor SMTP debe ser un servidor válido de correo, generalmente nuestro proveedor de
internet nos otorga este servicio, aunque actualmente existen estos servicios gratuitos como
los que otorga Hotmail, Yahoo, Gmail entre otros.
26
• Transferencia remota de archivos (FTP).
Con esta interfaz podemos enviar un archivo manualmente, para alojarlo en un servidor
remoto vía FTP.
El sistema envía automáticamente un archivo de video al detectar audio y/o movimiento si
esta habilitada la opción “Subir video local a Internet”.
Datos de conexión. Nos pide el servidor FTP donde alojaremos nuestro archivo de video,
el usuario y contraseña de autenticación.
Tipo de conexión.
Modo activo. Se llama modo activo porque la transmisión de datos es iniciada como proceso
distinto desde el servidor, hacia el puerto que le hemos indicado.
Modo pasivo. En modo pasivo es siempre el programa cliente el que inicia la conexión con el
servidor.
Tipo de transferencia.
Binaria. Este tipo es usado cuando se trata de ficheros comprimidos, ejecutables para PC,
imágenes, archivos de audio, archivos de video.
27
ASCII. Adecuado para transferir ficheros que sólo contengan caracteres imprimibles (ficheros
ASCII, no ficheros resultantes de un procesador de texto), por ejemplo páginas HTML.
• Reproductor de video.
Con esta interfaz puede eliminar los videos históricos que ya no desee conservar y tener
más espacio en disco duro.
28
• Configurar cámara remota.
Esta interfaz es muy especial y nos pide clave de acceso para poder utilizarla, con
ella podemos configurar muchas de las propiedades de las cámaras remotas como:
cambiar de cámara para transmitir video, Codificador de audio y video, apagar y encender
cámara, apagar el sistema de videovigilancia, sensibilidad de detección de audio y
movimiento, programar hora de detección automática, activar alarmas de audio y
movimiento, etc.
29
• Configurar servidor web IIS.
Si deseamos transmitir por Internet es necesario crear y configurar el servidor web IIS
(Internet Information Server), debemos tener instalado el servidor web, entramos a esta
interfaz y presionamos el botón “Crear directorio virtual” si existe un servidor web, se crea el
servicio con éxito de lo contrario nos indica que no existe un servidor web instalado..
30
• Opciones del panel 1.
31
• Opciones del panel 2.
Cuadros por segundo. Puede elegir los cuadros por segundo a los cuales transmitirá video
en un rango de 5 a 30 cps. Entre mayor sea el valor más ancho de banda consumirá.
32
• Opciones del panel 3.
33
Estructura funcional del sistema.
Cámara 2
Cámara 1
Servidor y
Cliente 2
Servidor y
Cliente 1
Cliente 3 Cliente 4
34
Análisis y pruebas de codificadores de video.
35
Resultados de las pruebas a los codecs de video más populares.
Tamaño
Promedio
Codec de video Calidad Conclusión
En 5
muestras
Microsoft MPEG-4 video codec V1 495 Kb Excelente Ideal para transmitir stream por
Internet.
Ideal para transmitir stream por
Microsoft MPEG-4 video codec V2 475 Kb Excelente
Internet.
Microsoft MPEG-4 video codec V3 470 Kb Excelente Ideal para transmitir stream por
Internet.
Ideal para transmitir por internet
Microsoft Windows Media Video 9 148 Kb Excelente
por el tamaño.
No se recomienda para transmitir
Microsoft Video 1 2682 Kb Regular
por internet.
Aceptable para transmitir por
Indeo video 5.1.0 460 Kb Bueno
internet.
Aceptable para transmitir por
Indeo video 5.10 compression filter 440 Kb Bueno
Internet.
Aceptable para transmitir por
Intel indeo video R.3.2 500 Kb Bueno
Internet.
Aceptable para transmitir por
Intel indeo video 4.5 510 Kb Bueno
Internet.
Aceptable para transmitir por
Intel I.263 Video Driver 2.55.016 178 Kb Bueno Internet.
Por el tamaño no se recomienda
Codec intel IYUV 11960 Kb Bueno
para transmitir por Internet.
Cumple para transmitir por
Cinepak codec by radius 1450 Kb Bueno Internet.
36
Los codecs Cinepak y los de la familia Indeo son muy comunes en las versiones de windows
y tienen una calidad aceptable para transmitir stream por internet.
Los codificadores Microsoft MPEG-4 video codec versión V1, V2 y V3 también tienen una
alta calidad de compresión y se encuentran presentes en las versiones de windows con la
aplicación windows media player.
Los codificadores VP60 Simple Profile, VP61 Advanced Profile y VP62 Heightned Sharpness
Profile generan un video de tamaño reducido con una calidad aceptable, el inconveniente es
que hay que instalarlos manualmente, ya que no vienen en las versiones del sistema
operativo windows.
37
Análisis y pruebas de codificadores de audio.
o IAC2
o IMA ADPCM
o PCM
o ACELP.net
o Windows Media Audio V1
o Windows Media Audio V2
o Microsoft G.723.1
o Ley A CCITT
o Ley u de CCITT
o AC-3 ACM Codec
o MPEG Layer 3
o Vorbis encoder
Tamaño
Velocidad de
Codec de audio Promedio Calidad
transmisión
En 5 muestras
38
Microsoft G.723.1 405 Kb Buena 64 Kbps
39
CAPITULO 1.
ESTÁNDARES DE SEÑALES
DIGITALES DE AUDIO Y VIDEO.
40
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
1.1.1.- Introducción.
Existe una amplia gama de formatos de video como son: bmp, gif, jpg, etc. Pero no
todos estos formatos son adecuados para una web, debido a que pueden ocupar mucha
memoria o a que no son compatibles con algunos navegadores.
Eso hace difícil el escoger el formato adecuado a las necesidades del usuario. A
partir del trabajo con herramientas gráficas, el desarrollo de formatos se ha enfocado a la
capacidad y calidad de la compresión de los archivos, ya que el archivo de imagen debe ser
comprimido, porque el espacio que ocupará y su tiempo de transferencia serán menores, la
combinación ideal residen en buena calidad de la imagen y tamaño reducido de archivo, y,
los formatos más cercanos a esos estándares, son: GIF y JPEG, lo que es debido a las
opciones de compresión que utilicen.
Para manipular los datos de un archivo de imagen, existen dos modos o formatos que
permiten visualizarlas, éstos son: mapas de bits y vectoriales.
Mapas de Bits.
Las imágenes de mapa de bits (bitmaps) están formadas por una rejilla de celdas. A
cada una se le denomina píxel y se le asigna un valor de color y luminancia propios. Al ver
un conjunto de celdas, se crea la ilusión de una imagen de tono continuo. El píxel es una
unidad de información y puede ser muy pequeño (0.1 mm.) o muy grande (1 cm.).
Cuando se crea una imagen de mapa de bits se genera una rejilla específica de
píxeles y al modificar su tamaño, se transforma simultáneamente la distribución y coloración
41
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
Imágenes Vectoriales.
Los elementos constituyentes del vector, en una imagen vectorial, son las curvas de
Bézier (desarrolladas por Pierre Bézier por encargo de la empresa Renault); cada una se
define por los puntos: inicial y final de la curva (nodos o puntos de anclaje) y dos de control
(manecillas o manejadores), estos últimos sirven para definir la forma de la curva y no
aparecerán en la imagen final, y, para modificar la curva sólo se tiene que mover alguno de
los nodos.
Estas curvas muy estilizadas y versátiles, son fáciles de manejar, ya que adoptan
curvaturas muy suaves (casi líneas rectas) o muy fuertes (curvas complejas) que pueden
adaptarse a infinitud de formas (por ejemplo iconos y logotipos) siendo útiles en el diseño y
manipulación de fuentes de texto.
En la imagen vectorial, cada objeto esta definido por sus propias fórmulas matemáticas
y se puede manipular independientemente y cada objeto esta dividido en elementos
independientes, por lo que no hay que modificar todo el objeto sino sólo una parte,
controlando con gran precisión la forma, orientación y ordenación de los elementos de la
imagen. La imagen vectorial también acepta la inserción de bitmaps, ya sea para rellenos de
formas, o bien, como elementos separados. Sin embargo, se tiene la posibilidad de exportar
los gráficos vectoriales a formatos estándar de mapa de bits.
42
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
Los gráficos vectoriales son muy eficaces en el manejo de texto, ya que admiten
fuentes TrueType que son reconocidas como objetos vectoriales. A cada letra se le pueden
asignar contornos editables y descomponer el texto en objetos. De esta manera, ya no hará
falta tener instalada la fuente para seguir editando los contornos, porque ya no serán
tratadas como fuentes.
El formato Joint Photographic Experts Group (JPEG por sus siglas en inglés o
Conjunto de Grupos de Expertos en Fotografía) se utiliza normalmente para mostrar
imágenes de tono continuo en documentos de lenguaje marcado como hipertexto (HTML) en
World Wide Web (WWW) y otros servicios electrónicos. El formato admite los modos de color
CMYK, RGB y escala de grises. A diferencia del formato GIF, conserva toda la información
del color de la imagen RGB, aunque comprime el tamaño del archivo mediante la eliminación
selectiva de datos.
43
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
El formato BMP (BitMaP por sus siglas en inglés o Mapa de Bits) es el formato de las
imágenes de Windows. Su uso fue muy extendido, pero los archivos son muy grandes dado
la escasa compresión que alcanzan.
Admite los modos de color RGB, color indexado, escala de grises y mapa de bits.
Puede escoger entre los formatos de Microsoft® Windows o de OS/2® y especificar una
profundidad de bit para la imagen. En imágenes de 4 y 8 bits con formato Windows, también
se puede especificar la compresión RLE.
Graphics Interchange Format (GIF por sus siglas en inglés o formato de intercambio
de gráficos) es el más utilizado para mostrar gráficos de color indexado e imágenes en
documentos de lenguaje marcado como hipertexto en la World Wide Web y otros servicios
electrónicos. Es un formato con compresión LZW (desarrollado en 1997 por A. Lempel, J. Zif
y Terry Welch) diseñado para minimizar el tamaño de los archivos y la duración de las
transferencias electrónicas.
El formato TIFF (Tagged Image File Format por sus siglas en inglés o formato de
archivo de imagen encadenado) fue desarrollado por Aldus Corporation en 1986, para
guardar imágenes desde el escáner y programas para creación de imágenes y retoque
fotográfico, su uso se basa en imágenes de mapa de bits. Es probablemente el formato de
mapa de bits más versátil, seguro y con mayor soporte, ya que es capaz de describir los
datos de una imagen desde 2 colores hasta color completo en varios espacios de tonos.
44
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
El PNG es un formato gráfico cada vez más usado en lugar de GIF. Se muestra
correctamente en los navegadores, su uso está libre de derechos y permite una alta
compresión así como una reproducción progresiva de imágenes con hasta 16,7 millones de
colores.
45
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
1.2.1.- Introducción.
Existen básicamente dos formatos que son tomados en consideración para ser
manipulados e incorporados como parte del mundo análogo y digital, los cuales son el
monoaural (o de un solo canal) y el estereofónico (o de dos canales), lo cual implica que al
usar el formato monoarual no existe la separación de sonido, ya que independientemente de
si son tonos agudos o graves se conjuntan en una sola vía o canal, mientras en el formato
estereofónico, se separan los tonos agudos (por un canal) de los graves (por el otro canal).
Éstos requieren por lo menos del doble de espacio que los primeros para su manipulación.
Los archivos de audio estéreo sin comprimir y con calidad de CD requieren unos 150
kilobytes (KB) de espacio en disco duro por cada segundo de sonido. El tamaño de un
archivo de sonido depende de la frecuencia de muestreo (frecuencia), del número de bits por
muestra (calidad o riqueza del sonido) y de si el sonido es monoaural o estereofónico. Por
ejemplo, una muestra de música mono de 16 bits a 22 kilohertz (kHz) requiere una velocidad
de datos de 2.65 megabytes (MB) por minuto para reproducirlo tal como se grabó
originalmente.
Hay codecs de audio para distintos usos, algunos están optimizados para voz,
mientras que otros son adecuados para sonidos y muestras de música con una velocidad de
bits de baja a alta. Los codecs de audio orientados a voz (como DSP Group TrueSpeech o
Microsoft Groupe Spécial Mobile -GSM 6.10- por sus siglas en francés Grupo Especial Móvil
de Microsoft) permiten una compresión eficaz de los datos de voz. Los codecs de audio
orientados a música (tales como Fraunhofer Institut Integrierte Schaltungen IIS (FhG) MPEG
Layer-3 o Voxware MetaSound) permiten que el sonido con calidad cercana al CD se
comprima a una cuarta parte de su tamaño original.
46
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
Las técnicas de codificación de audio pueden dividirse en dos grandes grupos: las
orientadas a sistemas de telefonía (transmiten señales vocales) o a la reproducción o
transmisión de señales más genéricas que abarquen un espectro más amplio. En el primer
caso, se acepta cierta limitación en las prestaciones del codificador para obtener una calidad
que permita oír con comodidad la voz humana. En el segundo, se trata de optimizar los
codificadores, de manera que cualquier distorsión o ruido añadido quede por debajo del
umbral de percepción del oído humano.
Al igual que en las técnicas de codificación de vídeo, una de las funcionalidades que
históricamente se han buscado con más interés ha sido la compresión de las señales, con
objeto de reducir la cantidad de información que es necesaria almacenar o enviar. Sin
embargo, los factores de compresión que se consiguen son más limitados, debido
posiblemente a que, en este caso, no existe tanta redundancia en la información.
Este formato, sin otra codificación adicional, es el empleado en los CDs y requiere un
flujo de datos de 705 kbit/s por canal. Es posible reducir este flujo disminuyendo sólo la
resolución de las muestras, con lo que se aumenta el ruido, o la frecuencia de muestreo, con
lo que se reduce el margen de frecuencias.
Los sistemas de codificación de audio utilizan técnicas para reducir la redundancia de la
señal y emplean técnicas psicoacústicas para eliminar los sonidos que el oído humano no
puede percibir. En la actualidad se consigue un buen nivel de calidad con alrededor de 1 bit
47
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
por muestra para señales vocales y 2 bits por muestra para señales musicales.
Probablemente estos valores se reduzcan a la mitad en un futuro no muy lejano.
Número de canales: un flujo de datos codificado puede contener una o más señales
de audio simultáneamente. De manera que puede tratarse de audiciones "mono" (un canal),
"estéreo" (dos canales, lo más habitual) o multicanal. Los códec de audio multicanal se
suelen utilizar en sistemas de entretenimiento "cine en casa" ofreciendo seis (5.1) u ocho
(7.1) canales.
48
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
La desventaja de estos archivos es que se necesita una máquina potente pues usan
a fondo el procesador, pues al igual que los formatos Zip deben descomprimirse para poder
escucharse.
49
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
(Real Audio por sus siglas en inglés o Audio Real): Es el formato más usado en
Internet por su capacidad de reproducción en tiempo real, esto significa que mientras el
archivo es bajado se escucha el sonido y cuando se termina de bajar el ya fue reproducido.
Este formato fue desarrollado por RealNetworks.
Esta empresa a puesto a disposición de los usuarios software para recibir y enviar en
tiempo real (Tanto video como Sonido), La empresa es reconocida como una de las mas
importantes en el mundo informático pues a puesto a su formato RA a la altura del Wav o del
MIDI en popularidad.
El problema mas grave que tiene es que puede cortarse la reproducción del audio
cuando hay interrupción en la señal de datos, esto ocurre cuando el usuario usa un modem
muy lento o hay mucho tráfico en la red.
Este producto puede tocar archivos antiguos de RA, Wav. Puede ser usado por Mac y PC.
Programa Real Player para escuchar o ver videos desde Internet, sin la necesidad de
almacenar en el disco duro. Es el más usado por su rapidez, el sonido tiene mejor calidad en
las versiones nuevas.
(Waveform Audio File por sus siglas en inglés o Archivo de Audio en forma de onda).
Uno de los formatos de fichero más utilizados para almacenar sonidos es el formato WAV.
Se trata de almacenar las muestras una tras otra (a continuación de la cabecera del fichero,
50
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
que entre otras cosas indica la frecuencia de muestreo), sin ningún tipo de compresión de
datos, con cuantificación uniforme. La sencillez de este formato lo hace ideal para el
tratamiento digital del sonido.
Aunque los archivos Wav pueden tener un excelente sonido comparable a la del CD
(16 bits y 44,1 Khz. estéreo) el tamaño necesario para esa calidad es demasiado grande
(especialmente para los usuarios de Internet) una canción convertida a Wav puede ocupar
fácilmente entre 20 y 30 Mb. La opción mas pequeña es grabar a 4 bits y los Khz lo mas bajo
posible, el problema es la baja calidad del sonido, los ruidos, la estática, incluso cortes en el
sonido, por esta razón casi siempre se usa para muestras de sonido. La ventaja mas grande
es la de su compatibilidad para convertirse en varios formatos por medio del software
adecuado, un ejemplo de ello es pasar de Wav a Mp3.
El códec (Microsoft Groupe Spécial Mobile GSM por sus siglas en francés o Grupo
Especial Móbil) está diseñado para la compresión eficaz de voz y resulta adecuado para el
sonido orientado a voz con velocidades de bits de media a alta. GSM proporciona
compresión 2:1 en tiempo real (siempre que el hardware sea lo suficientemente rápido para
admitirlo), lo que convierte a este códec en una buena opción para grabar voz con la
grabadora de sonidos. Si utiliza GSM para comprimir música puede obtener una calidad de
sonido deficiente. GSM es conforme a la recomendación 6.10 del European
Telecommunications Standards Institute (Instituto de estándares de telecomunicación
europeo).
El Sistema Global para las Comunicaciones Móviles (GSM) es un sistema estándar
para comunicación utilizando teléfonos móviles que incorporan tecnología digital. Por ser
51
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
digital cualquier cliente de GSM puede conectarse a través de su teléfono con su ordenador
y puede hacer, enviar y recibir mensajes por e-mail, faxes, navegar por Internet, acceso
seguro a la red informática de una compañía (LAN/Intranet), asi como utilizar otras funciones
digitales de transmisión de datos, incluyendo el Servicio de Mensajes Cortos (SMS).
A diferencia del MP3, este formato posee una infraestructura para proteger el Copyright y así
hacer más difícil el "tráfico ilegal" de música.
52
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
1.3.1.- Introducción.
Todos los codecs usan técnicas de compresión eliminando datos para salvar espacio
en disco, sacrificando, en mayor o menor grado, la imagen original. La consecuente
disminución de la calidad de la imagen es aceptable, pues los algoritmos de codificación
están diseñados para descartar la información redundante o que no es perceptible por el ojo
humano.
Los CODECs utilizan distintos sistemas para comprimir el video pero, se pueden distinguir
básicamente dos tipos:
• CODECs sin pérdida, es decir, los que conservan los datos originales y aseguran que las
imágenes sean las mismas después de la compresión y posterior descompresión. Estos
CODECs usan normalmente el sistema RLE (Run Length Encoding por sus siglas en
inglés). Éste consiste en descartar regiones o bloques de similares colores entre imagen
53
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
e imagen. Esta técnica funciona bien con imágenes generadas por ordenador, donde
existen áreas de color uniforme. Sin embargo, las técnicas de compresión sin pérdida no
son, en general, muy efectivas con el video digital, ya que éste tiene pocas áreas de color
continuo y está formado por numerosas variaciones de color. El ratio típico de estos
CODECs es de 1:2.
• CODECs con pérdidas, intentan eliminar información de las imágenes de forma que sea
lo más inapreciable posible por el espectador. Estos sistemas eliminan información que
no puede ser recuperada. La cantidad de información perdida depende del grado de
compresión y es proporcional a la disminución de calidad, es decir
Por tanto, al usar algún codec para editar un video con un programa de edición de
VFW (Video For Windows por sus siglas en inglés o Video Para Windows) se encontrará con
el fenómeno de la recompresión. Ésta genera pérdida aditiva de datos en casi todos los
sistemas de compresión con pérdida, esto quiere decir que, cada vez que se vuelve a
comprimir un video se pierde más y más calidad, aunque en la recompresión se ajuste la
54
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
(Audio Video Interleave por sus siglas en inglés o Audio Video Intercalado) Son un
caso especial de archivos RIFF (Resource Interchange File Format por sus siglas en inglés o
Formato de Archivos para el Intercambio de Recursos) un formato de propósito general para
el intercambio de datos multimedia que fue definido por Microsoft e IBM tiempo atrás.
De hecho RIFF es un clon del formato IFF inventado por Electronic Arts in 1984 para
Deluxe Paint en plataforma AMIGA. IFF se erigió enseguida como un estándar de
intercambio en esta plataforma y fue mantenido por Commodore hasta su desaparición. Al
decidir Electronics Arts cambiar a la plataforma PC, trajo consigo el formato IFF.
55
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
empleado para DV era AVI tipo 2 cuando en realidad dentro del segundo formato
cronológicamente hablando, hay a su vez una división denominadas por la propia Microsoft
como AVI DV Tipo-1 y AVI DV tipo-2, siendo las diferencias el tipo de codecs empleados
para su manejo y la forma en que se guardan los flujos de datos internamente.
Así pues, ciñéndose a la realidad, sólo existen dos tipos generales de AVI, Los
basados en Video para Windows (los primeros en aparecer) y los basados en DirectShow
(originalmente ActiveMovie). Y como se ha mencionado, un AVI no es más que un formato
de archivo que puede guardar datos en su interior codificados de diversas formas y con la
ayuda de diversos codecs que aplican diversos factores de compresión, también existe la
posibilidad de almacenar los ficheros en un formato AVI "raw" o crudo, es decir, sin
compresión y muchos fabricantes aportan su granito de arena con codecs particulares, Los
formatos de AVI basados en Video para Windows son los que ahora forman el núcleo de los
denominados AVI DV Tipo-2 mientras que los basados en DirectShow (y por extensión en
DirectX) son los denominados AVI DV tipo-1.
Hasta este punto, convendría decir que en realidad, cualquier tipo de imagen grabada
en cinta y mucho más pesada al ordenador, se puede considerar como digital, dado que no
existe una imagen real, analógica, visible a simple vista como en las películas de cine o en
los carretes de fotos.
Aunque un AVI puede tener n número de flujos, lo más común es un flujo de vídeo
(vids) y otro de audio (auds).
56
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
Las cabeceras (o headers) del formato del flujo definen todo el formato (incluida la
compresión usada) de cada flujo. El formato estándar de un AVI basado en VfW contempla
la existencia de un flujo de video, uno de audio o ambos. Así un AVI en VfW puede
almacenar sólo audio, sólo vídeo o ambos pero en flujos separados para cada tipo.
Tanto MPEG-1 como MPEG-2 son estándares aprobados por ISO (también está en fase de
estudio MPEG-4). Las principales ventajas de este sistema son:
57
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
MPEG-1 fue diseñado para la transmisión de vídeo con frecuencias de 1.5 Mbps, la
velocidad nominal de CD-ROMs de velocidad simple y de líneas T1. MPEG-2, en cambio se
diseñó para soportar aplicaciones de televisión con varios formatos, incluyendo la televisión
de alta definición (HDTV). Aunque MPEG-2 es una norma reciente, ha sido aceptada
rápidamente por las industrias de la televisión por cable y vía satélite.
58
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
Es un formato de compresión que permite ver el video en una ventana pequeña (320 por
240 píxeles). Ocupa bastante espacio en el disco duro, pero tiene la ventaja de que puede
ser reproducido incluso en PC anticuados. Es una buena opción para distribuir videos en CD-
ROM, ya que se tiene la certeza de que un PC poco potente no se va a ‘colgar’ al
reproducirlos.
59
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
Por otro lado, se tiene que MPEG-3 Fue una propuesta de estándar para la TV de
alta resolución, pero se ha demostrado que MPEG-2 con mayor ancho de banda cumple con
este cometido.
Es muy usado para la compresión de video de 24 bits (color real), creado para
visualizar posteriormente el video en CD-ROM o para descargarlo de Internet. Este codec
trabaja con ratios altos de compresión y permite diversos tamaños de ventana al momento
de visualizarlo; está siempre presente en toda versión de Microsoft Windows. (Compatible
con Quicktime de Apple) Compresor temporal de alta calidad. Está diseñado para producir
mínimas pérdidas en la recompresión. Es altamente asimétrico, siendo muy rápido
decodificando (reproducción) y lento codificando. Trabaja con 16 millones de colores.
60
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
Muy usado para distribuir video por Internet en computadoras provistas con
procesadores MMX. Este codec emplea un sistema progresivo de descarga que se adapta al
ancho de banda y flujos de señal.
Usado para comprimir cuadros que contengan áreas de color plano, como los dibujos
animados. Este codec usa un codificador espectral de 8 bits que degrada la imagen al
comprimirla hasta el 2% del original.
Tal como RV, ha tenido un desarrollo vertiginoso. Se puede configurar para cualquier
tipo de uso, desde pequeños videos que se envían junto a mensajes de correo electrónico,
hasta transmisiones de televisión en vivo a través de Internet. Incluso sirve para grabar una
película completa en CD-ROM. Para codificarlo se puede utilizar una herramienta gratuita,
muy eficiente: el Codificador de Windows Media 9.0.
61
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
H.261 define a su vez dos tamaños de ventana CIF (Common Intermediate Format
por sus siglas en inglés o Formato Intermedio Común) con una resolución de 352 x 288 y
QCIF (Quarter CIF) con una resolución de 176 x 144.
El estándar H.261 fue desarrollado (antes que MPEG) para satisfacer la compresión
de video para transmisiones de bajo ancho de banda y su aplicación más extendida es la de
videoconferencia Conocido también como px64, es considerado como un compresor del tipo
lossy (con pérdida) que soporta velocidades de transmisión con múltiplos de 64 Kbps, de ahí
su gran difusión en videoconferencia sobre RDSI (Red Digital de Servicios Integrados).
Consta básicamente de cinco etapas:
62
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
- Soporta más formatos de imagen, como son: 16CIF, 4CIF, CIF, QCIF y Sub-QCIF (para
transmisiones en Internet de baja velocidad como módems de 28.8 Kbps).
- Mejora la técnica de redundancia temporal, ya que tiene en cuenta no sólo los fotogramas
pasados sino también los siguientes esperados, y además ofrece mayor calidad al ampliar la
zona en la que busca el macrobloque en la imagen siguiente a 32 puntos en lugar de los 16
que usa H.261.
De forma que para una determinada velocidad de transferencia, H.263 ofrece mayor calidad
de imagen que H.261 con resoluciones que van desde Sub-QCIF a 4xFCIF.
H.264 o MPEG-4 es una norma que define un códec de vídeo de alta compresión,
desarrollada conjuntamente por el ITU-T Video Coding Experts Group.
63
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
El uso inicial del MPEG-4 AVC estuvo enfocado hacia el vídeo de baja calidad para
videoconferencia y aplicaciones por Internet, basado en 8 bits/muestra.
1.3.12.- Conclusiones.
Elegir un formato de imagen, audio y video no es tarea fácil depende de los reccursos
computacionales y del ancho de banda.
En las pruebas realizadas se obtuvieron los siguientes resultados:
Formato de imagen:
El formato JPG tiene una calidad y tamaño ideal para transmitir se puede ver con cualquier
navegador y es un formato universalmente aceptado.
Formato de audio:
Los formatos de audio más eficientes probados en el sistema “Ojovigilante 1.0” fueron:
GSM 6.10
MPEG Layer 3
Ogg Vorbis
Windows Media Audio V1 y V2
Formato de video:
El formato de video elegido en un sistema de videovigilancia es lo más importante ya que
utiliza la mayoría del ancho de banda en la transmisión.
en el sistema de video vigilancia Ojovigilante 1.0 se probaron varios formatos con los
siguientes resultados:
64
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
El formato Microsoft MPEG-4 video codec V1, V2 y V3 obtuvo los mejores resultados
es ideal para streamig.
El formato Microsoft RLE tiene una calidad pobre, pero util en poco ancho de banda.
65
CAPITULO 2.
ESTÁNDARES DE
VIDEOCONFERENCIA.
66
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.
2.1.- Introducción.
En los últimos años se ha asistido a una evolución muy importante de las técnicas de
codificación de contenidos audiovisuales que ha sentado las bases para el desarrollo de una
nueva generación de servicios multimedia interactivos, el principal cambio producido por
estas técnicas ha sido la gran reducción en las capacidades requeridas para el
almacenamiento o transmisión de la información, gracias al empleo de técnicas de
compresión. Esto modificó de forma muy importante las previsiones de ancho de banda que
se manejaban para las nuevas redes de comunicaciones haciendo mucho más asequible la
introducción de contenidos multimedia.
67
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.
de velocidades de transmisión: desde 64 kilobits por segundo (kbps) hasta 2 Megabits por
segundo (Mbps). Hasta 128 kbps la videoconferencia es considerada de baja calidad, no
siendo apropiada para aplicaciones de negocios. Sin embargo, a velocidades iguales o
superiores a 384 kbps, RDSI provee una muy buena calidad de transmisión, ideal para
aplicaciones de negocios.
68
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.
• Las tarjetas V.35 y RS-366 son sustituidas por una tarjeta ATM a 25 Mbps. La tarjeta
ATM en costo, es unas cuantas veces mucho menor que los componentes V.35.
• Se utiliza una pasarela RDSI-ATM como punto de acceso centralizado para la red
WAN RDSI. Esta metodología permite el acceso fuera de la red y sirve también de
centro de multiplexaje, sustituyendo los multiplexores para cada estación utilizados
en la implementación RDSI. Esto proporciona un ahorro importante.
• Se utilizan switches ATM en lugar de RDSI, disminuyendo costos en la
implementación.
• La topología ATM no necesita de múltiple cableado como ocurre con la
implementación RDSI, que requiere de tres cables UTP individuales.
69
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.
algoritmo de compresión de video MPEG-2 de ISO, que proporciona calidad de video clase
HDTV (televisión de alta definición).
Es una versión mejorada del H.320, optimizada para redes que garantizan Calidad de
Servicio (QoS) para tráfico isocrónico, como el video en tiempo real. Fue el primer estándar
usado con la norma IEEE 802.9 para redes LAN Ethernet.
Extiende al H.320 a Ethernet, Token Ring y otras redes de paquetes switcheados que
no garantizan QoS (Quality of Service o Calidad de servicio por sus siglas en inglés). Soporta
operaciones punto a punto y multipunto. Además del Codec de video H.261 y el Codec de
audio G.711 del H.320, las implantaciones del H.323 también pueden incluir componentes
del H.320 y el H.324, como H.263, G.722, G.723 y G.728.
Los temas de QoS se han manejado por un componente de portero centralizado que
permite que los administradores de LAN administren el tráfico de video en la espina dorsal.
Otra parte integral de la especificación define una compuerta LAN/H.320, que permite que
cualquier nodo H.323 interopere con productos.
Hace poco tiempo se han concluido los trabajos relacionados con un nuevo estándar,
el H.323. Este nuevo estándar fue diseñado para establecer videoconferencia sobre redes
basadas en arquitecturas como Ethernet, Token Ring, FDDI, etc., utilizando los protocolos
TCP/IP. H.323 no tiene las características que poseen los estándares H.320 y H.321, que
fueron diseñados para aprovechar las ventajas de RDSI y ATM, para proporcionar una
videoconferencia de alta calidad. El estándar H.323 es independiente del transporte,
permitiendo la implementación de cualquier arquitectura de transporte, como por ejemplo
ATM.
70
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.
En este sentido, este tipo de videoconferencia podría utilizarse, por ejemplo, para
establecer discusiones entre los individuos participantes en un proyecto; sin embargo, para
establecer videoconferencia con alta calidad y con características multipunto es necesario
utilizar ATM o ISDN.
RSVP se integra en una evolución hacia una nueva arquitectura, que pretende
asegurar las comunicaciones multipunto en tiempo real conservando la filosofía del mejor
esfuerzo (best effort) y la arquitectura IP. Esta evolución prevé los siguientes puntos:
• Establecer y mantener un camino único para un flujo de datos gracias a los protocolos de
encaminamiento multipunto. Este mantenimiento del camino es indispensable para el
funcionamiento de RSVP.
• Establecer un módulo de control que gestione los recursos de la red.
• Instaurar un sistema de ordenación de paquetes en la cola de espera para satisfacer la
calidad de servicio solicitada.
71
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.
Sin embrago, se espera que el estándar H.324 tenga cierta aceptación entre el
mercado de consumidores. Primero, porque este tipo de videoconferencia está orientada a
aplicaciones recreacionales donde no se requiere de una elevada calidad y en segundo lugar
debido a la facilidad de implementación donde sólo se requiere de un PC equipado con un
módem y utilizar la red telefónica convencional (POTS).
72
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.
Mientras los estándares H.320 y H.321 pueden proporcionar una elevada calidad de
videoconferencia, especialmente cuando se utilizan elevadas velocidades de transmisión
(768 kbps ó mas), el estándar H.310 define una metodología para implementar
videoconferencia basada en MPEG-2 (estándar del ISO) sobre ATM a velocidades que van
entre 8 y 16 Mbps. La videoconferencia basada en el estándar H.310 provee una
elevadísima calidad en la transmisión de audio y vídeo, estando este tipo de
videoconferencia orientada a aplicaciones como la transmisión de procedimientos quirúrgicos
en vivo, donde el grupo de médicos asesores están ubicados a grandes distancias.
2.8.- Conclusiones.
73
CAPITULO 3.
74
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
3.1.- Introducción.
Las actividades de desarrollo en torno al H. 323 son muy altas debido al soporte
unificado de una coalición global entre fabricantes de computadores personales, fabricantes
de sistemas de comunicación y diseñadores de sistemas operativos. Si bien para el H.323 es
muy importante el consenso y el apoyo que se le pueda dar, su potencia no se manifestará
hasta que éste esté implantado en el usuario final del producto y los servicios asociados.
Empresas con planes para incluir el estándar H.323 – amigable en sus productos y
servicios necesitan desarrollar su propio software basado en la recomendación Study Group
15 o bajo una licencia del H.323 Protocol Snack.
El estándar H.323 proporciona una base para las comunicaciones de audio, video y
datos a través de una red IP como Internet. Los productos que cumplen con el estándar
H.323 pueden ínteroperar con los productos de otros, permitiendo de esta manera que los
usuarios puedan comunicarse sin preocuparse con problemas de compatibilidad.
H.323 es un estándar bajo el amparo de la ITU, es un conjunto de estándares para la
comunicación multimedia sobre redes que no proporcionan calidad de servicio (QoS). Estas
redes son las que predominan hoy en todos los lugares, como redes de paquetes
75
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
conmutadas TCP/IP e IP sobre Ethernet, Fast Ethernet y Token Ring. Por esto, los
estándares H.323 son bloques importantes de construcción para un amplio rango de
aplicaciones basadas en redes de paquetes para la comunicación multimedia y el trabajo
colaborativo.
H.323 forma parte de una gran serie de estándares que permiten la videoconferencia
a través de redes. Conocidos como H.32X, esta serie incluye H.320 y H.324, que permiten
las comunicaciones RDSI y RTC respectivamente.
La red LAN sobre la cual los terminales H.323 se comunican puede ser un solo
segmento o un anillo, o puede ser múltiples segmentos con topologías complejas. Se hace
notar que la operación de los terminales H.323 sobre segmentos múltiples de una red LAN
(incluyendo Internet) puede resultar con un pobre performance. Los posibles recursos
mediante los cuales la calidad del servicio puede ser garantizada en estos tipos de redes
LAN y redes Internet, están más allá del alcance de esta recomendación.
76
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
77
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
78
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
Se basa en el hecho de que el H.323 promete que los productos y servicios en una
red de calidad de servicio no garantizada tenderán a tener una mayor demanda. El protocolo
Internet para redes de calidad de servicio no garantizada ofrece ubicuidad en comparación
con los protocolos de las redes más primitivas. Ubicuidad y uso fácil han creado un
fenómeno de mercado masivo con una velocidad de crecimiento sin precedentes. El tamaño
del mercado potencial y los avances de innovación en este ambiente incrementan
adicionalmente la importancia del H.323.
La respuesta más corta es que se debe incluir el H.23 stack y cualquier otro
componente que el usuario pueda requerir en el software de aplicación de tal manera que
permita generar todas las opciones apropiadas de la aplicación. Un ejemplo de un terminal
H.323 se muestra en la siguiente figura. "El diagrama muestra las interfaces del equipo del
usuario, video codec, audio codec, equipo telemático, H.225 Layer, sistemas de control de
funciones y la interfaz a la red LAN.
Todos los terminales H.323 deben tener una Unidad de Control del sistema, H.225.0
Layer, Interfaces de Redes y una Unidad de Audio Codec. La Unidad Video Codec y la
Aplicación de datos del usuario son opcionales. Específicamente la recomendación H.323
requiere que todos los puntos extremos soporten la sintaxis, semánticas y procedimientos de
las entidades de protocolo siguientes:
• Master/Slave determination
• Capability Exchange
• Logical Channel Signaling
• Bidireccional Logical Channel Signaling
• Mode Request
• Round Trip Delay Determination.
• Maintenance loop Signaling.
79
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
Además del software de aplicación, los diseñadores deben tener en cuenta que la interface
de red es generalmente considerada fuera del alcance de la recomendación H.323, sin
embargo ésta a menudo es incluida con el producto H.323 amigable.
80
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
que pueden incorporar muchos segmentos de red interconectados por otros enlaces de
comunicación.
3.6.1.- Terminales.
Para permitir que cualesquiera terminales ínter operen se define que todos tienen que
tener un mínimo denominador que es, soportar voz y con un codec G.711. De esta manera el
soporte para video y datos es opcional para un terminal H.323.
Todos los terminales deben soportar H.245, el cual es usado para negociar el uso del
canal y las capacidades. Otros tres componentes requeridos son: Q.931 para señalización
de llamada y configuración de llamada, un componente llamado RAS
(Registrantion/Admisión/Status), este es un protocolo usado para comunicar con el
Gatekeeper; y soporte para RTP / RTCP (Real Time Protocol / Real Time Control Protocol
por sus siglas en inglés) para secuenciar paquetes de audio y video.
Otros componentes opcionales de los terminales H.323 son: los codec de video, los
protocolos T.120 para datos y las capacidades MCU.
81
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
3.6.2.- Gateways.
Los Gateways no se necesitan si las conexiones son entre redes basadas en paquetes.
Muchas funciones del Gateway son dejadas al diseñador. Por ejemplo, el número de
terminales H.323 que pueden comunicar a través del Gateway no es asunto de
estandarización. De la misma manera el número e conexiones con la SCN, el número de
conferencias individuales soportadas, las funciones de conversión de audio/video/datos, y la
inclusión de funciones multipuntos son dejadas al diseñador. Debido a la incorporación de
los Gateways a la especificación H.323, la ITU posicionó H.323 como el pegamento que
junta todos los terminales para conferencias funcionando juntos.
82
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
3.6.3.- Gatekeepers.
83
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
Los Gatekeepers juegan también un rol en las conexiones multipunto. Para soportar
conferencias multipunto, los usuarios podrían emplear un Gatekeeper para recibir los
canales de control H.245 desde dos terminales en una conferencia punto-punto. Cuando la
conferencia cambia a multipunto, el Gatekeeper puede redireccionar el Canal de Control
H.245 a un controlador multipunto, el MC.
Debido a que una Zona está definida por su Gatekeeper, las entidad H.323 que
contengan un Gatekeeper interno necesitan de un mecanismo para desactivar su
funcionamiento cuando hay varias entidades H.323 que contiene un Gatekeeper dentro de la
red, las entidades pueden ser configuradas para estar en la misma Zona.
84
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
85
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
El MC no trata directamente con ningún flujo de datos, audio o video. Esto se lo deja
el MP, este mezcla, conmuta y procesa audio, video y/o bits de datos. Las capacidades del
MC y MP pueden estar implementadas en un componente dedicado o ser parte de otros
componentes H.323, en concreto puede ser parte de un Gatekeeper, un Gateway, un
terminal o una MCU.
El MP recibe flujos de audio, video o datos desde los extremos, estos pueden estar
involucrados en una conferencia centralizada, descentralizada o híbrida. El MP procesa esos
flujos y los devuelve a los extremos.
La comunicación entre el MC y el MP no es asunto de estandarización.
Conferencias Multipunto.
86
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
Son los terminales que reciben múltiples flujos de audio y video los responsables de
procesarlos. Los terminales usan los canales de control H.245 para indicar a un MC cuantos
flujos simultáneos de video y audio son capaces de decodificar. El número de capacidades
simultáneas de un terminal no limita el número de flujos de audio y video que son enviados
por multicast en una conferencia.
Una ventaja de las conferencias centralizadas es que todos los terminales soportan
comunicaciones punto a punto. La MCU puede sacar varios flujos unicast a los participantes
y no se requiere ninguna capacidad de la red especial. También es posible que la MCU
reciba varios flujos unicast, mezcle el audio, y conmute el video, y saque un flujo multicast,
conservando de esta manera el ancho de banda de la red.
H.323 también soporta conferencias multipunto mixtas en las cuales algunos
terminales están en una conferencia centralizada, mientras otros están en una
descentralizada, y una MCU proporciona el puente entre los dos tipos. Al terminal le es
transparente la naturaleza mixta de la conferencia, solo tiene en cuenta el modo en que
envía o recibe.
Multicast hace más eficiente el uso del ancho de banda de la red, pero supone una
más alta carga computacional en los terminales que tienen que mezclar y conmutar entre los
87
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
flujos de audio y video que reciben. Además, el soporte multicast es necesario en elementos
de la red como routers y switches.
Un MC puede estar localizado en un Gatekeeper, un Gateway, un terminal o una MCU.
88
CAPITULO 4. STREAMING.
89
CAPITULO 4. STREAMING.
CAPITULO 4. STREAMING.
4.1.- Introducción.
El streaming media es una tecnología desarrollada para poder emitir audio y video
por Internet de manera instantánea. Antes del streaming media era necesario dedicar varios
minutos a la descarga de un archivo que contenía el video para poder verlo. Por otro lado el
streaming permite transmisiones de audio y video en vivo por la Red.
90
CAPITULO 4. STREAMING.
Cada día son más los sites que están incorporando video y audio en su contenido.
Convirtiendo en realidad a la web en una verdadera experiencia multimedia. Una pequeña
empresa puede colocar un video corporativo, una escuela de danza puede transmitir sus
presentaciones, una agencia de modelos puede presentar sus desfiles y no hay límites para
su aplicación.
• Redes de banda ancha. El desarrollo del streaming y las redes de banda ancha van
de la mano. Mientras mayor velocidad tenga la conexión a Internet se puede
transmitir video de mejor calidad. En el mediano plazo se espera que ver un video por
Internet sea tan igual como disfrutar de la televisión.
91
CAPITULO 4. STREAMING.
• Flujo de contenido. Una vez que se ha producido el streaming debe ser colocado en
un Hosting especial con las capacidades para administrar la concurrencia simultánea,
el flujo de ancho de banda y codificación en vivo, teniendo la inteligencia para atender
a un pequeño grupo o a miles de usuarios simultáneamente.
Hoy en día se dispone de tres plataformas para crear streaming: Windows Media,
Quicktime y Real. Son arquitecturas que compiten entre si por brindar una solución que
abarque desde los aspectos de creación hasta la visualización del audio o video streaming.
El criterio para su elección depende mucho de la orientación del proyecto, de los que verán
el contenido o de cómo éste se despachará. En algunos casos los proyectos de streaming
producen los tres formatos de un mismo contenido.
Streaming media.
Existen 2 tipos de servicios de streaming media:
El que por ahora prevalece es el llamado UNICAST, que distribuye archivos multimedia
(audio / video) desde un servidor a cada computadora individualmente.
92
CAPITULO 4. STREAMING.
Para difundir archivos multimedia de manera similar a como un canal de televisión o estación
de radio emiten su señal se utiliza MULTICAST.
La mayoría de los archivos de audio y video que se ven en el computador, cual sea el
reproductor que se utilice (Real, Windows Media), proviene de un servicio UNICAST. Este
servicio consiste en un servidor que envía paquetes de datos a cada computador que solicita
un stream.
Unicast es una buena opción para recibir transmisiones en vivo, pero tiene sus
desventajas. El servidor debe enviar el flujo de datos individualmente a todo aquel que quiere
recibir la transmisión. Si se tiene un puñado de personas recibiendo el stream está bien; pero
si se trata de difundir el stream a miles de usuarios se debe de considerar 2 inconvenientes
con el proceso unicast.
Demasiadas peticiones. Con unicast el servidor tiene que procesar cada solicitud de stream
y despacharla. Cada stream toma una pequeña porción de poder de procesamiento del
servidor. Si se obtienen muchas solicitudes el servidor no podrá sostener la sobrecarga y
muchas personas no podrán recibir la transmisión.
93
CAPITULO 4. STREAMING.
Sintonía fina. Todos los paquetes se mueven a través de una red a gran velocidad. Estos
son dirigidos por routers hasta que encuentran la dirección para la que han sido proyectados.
Un computador / servidor "mira" en el canal y graba cualquier paquete direccionado a él.
Este convierte los paquetes a información útil y marca los paquetes así estos no serán
examinados por ningún router más.
Con multicast su computador es configurado para que aparte de "escuchar" por paquetes
direccionados a él también esté atento a paquetes que estén direccionados a una dirección
específica de multicast, llamada estación. Multicast reserva una serie de direcciones para
transmisión que no pueden ser asignadas a ninguna computadora. Si su computadora está
configurada para multicast ésta permanecerá pendiente de paquetes de datos sobre una
particular "estación".
Cuando ésta reciba un paquete de esa estación lo convertirá en información útil y aprobará
su reproducción en el player de streaming media. Al mismo tiempo, todas las otras
computadoras que se encuentren recibiendo la transmisión estarán obteniendo los mismos
paquetes desde la misma estación.
Multicast es muy eficiente. Una simple serie de paquetes de datos puede ser usada para
transmitirá a la Internet entera.
Recibiendo multicast. Desde el punto de vista del usuario, recibir multicast o unicast
es casi lo mismo. Se hace click en el enlace debido, el reproductor de streaming media es
conectado al servidor, se abre el archivo de audio / video y comienza el show. La única
94
CAPITULO 4. STREAMING.
Debido a que multicast es transmisión por envío de una serie de paquetes de datos,
no hay una manera sencilla de que el reproductor solicite un paquete de datos para que sea
enviado de nuevo. Esto quiere decir que algunos paquetes son perdidos, incluso antes de
que se pueda notar debido en parte a la manera en que el reproductor codifica los archivos.
Multicast puede ser una solución a largo plazo para los "traffic jams" de la Internet,
pero aún falta camino por recorrer.
Del lado del usuario, la mayoría de las tarjetas de red en los equipos más recientes
también entienden el funcionamiento de multicast. Aún así llevará un par de años cerrar la
brecha.
Sin embargo existe un área donde multicast se está haciendo popular: las intranets.
Debido a que el equipamiento tecnológico de las compañías está modernizado (en términos
generales) es posible interconectar muchos equipos donde es hoy posible trabajar con
multicast, por ejemplo, con fines de capacitación. Multicast también puede ser utilizado
exitosamente en una gran ciudad.
95
CAPITULO 4. STREAMING.
96
CAPITULO 4. STREAMING.
o Broadcast Unicast: Es una conexión punto a punto que un cliente Windows Media
Player inicia a un servidor Windows Media. Es similar a una llamada de teléfono,
donde se establece una conexión continua entre cada cliente y el servidor.
o Codecs para contenido ASF (Advanced Streaming Format). ha sido desarrollado por
un consorcio de empresas (Microsoft, Vivo, Real NetwWorks, etc.) para media
servers, servidores HTTP y reproducción local. ASF es un formato de transporte
independiente diseñado para audio, video, imágenes, texto y comandos de script.
Con ASF se consigue que un único stream de entrada pueda ser codificado en
múltiples streams de salida en un mismo archivo Windows Media (multi-bit-rate -
MBR).
Cada stream escalado difiere en la velocidad en que puede ser entregado, y sólo
puede reproducirse uno a la vez, de forma que son el reproductor y el servidor los que
negocian la velocidad más adecuada. Los Codecs para contenido ASF son: MS Audio,
MPEG 4, Screen Capture (640X480), MPEG 1 and 2,TrueMotion RT, (Duck), ClearVideo 1.3
(Real Video),H.263 (Vivo), H.261 (Intel), VideoFlash, (WebTV), VFOWave, Real Video
Standard, RLE, RT24 MetaVoice (Voxware), MetaSound (Voxware), MetaVoice (Voxware),
MPEG Layer 3 (FhG), G.723 (Vivo + Lucent), Siren (Vivo), L&H, RealAudio (14.4/28.8),
DolbyNet, ACELP (Sipro), etc..
o Audio: Microsoft Audio es un Codec de audio desarrollado por Microsoft que ofrece
gran calidad utilizando pocos recursos. Así por ejemplo un Streaming de una señal
FM-setéreo se retransmite a 20 Kbps. Otra característica es que ofrece un amplio
rango, desde 6 Kbps a 160 Kps en mono y estéreo. También cabe destacar su alto
97
CAPITULO 4. STREAMING.
98
CAPITULO 4. STREAMING.
El sistema está sincronizado para que el archivo se pueda ver mientras que se
descarga, de modo que cuando éste acaba de descargarse también ha acabado de
visualizarse. Si en algún momento la conexión sufre descensos de velocidad se utiliza la
información que hay en el buffer, de modo que se puede aguantar un poco ese descenso. Si
la comunicación se corta demasiado tiempo, el buffer se vacía y la ejecución el archivo se
cortaría también hasta que se restaurase la señal.
99
CAPITULO 4. STREAMING.
• Éstos archivos son "fragmentados" en pequeños lotes cuyo tamaño viene definido por
el tipo de red por la cual van a ser difundidos. Para que los archivos puedan ser
reproducidos en el destino han de ser recibidos completamente, es decir, han de
recopilarse todos los fragmentos de datos y recomponer el fichero.
A mediados de los '90, surgieron las primeras tecnologías de Streaming para redes IP
(Protocolos de Internet), introduciendo el nuevo protocolo RTSP o Real Time Streaming
Protocol, que tiene en cuenta los problemas con los que contaba HTTP. Este protocolo será
analizado posteriormente.
Entre estas tecnologías destaca con rapidez la desarrollada por Real Networks. Ésta
permite transmitir audio y vídeo desde los servidores hacia los clientes usando simples
módem y con una pequeñísima diferencia temporal entre la solicitud del archivo y su
reproducción.
100
CAPITULO 4. STREAMING.
• Un servidor Web, que soporta el software necesario para poder servir información
multimedia en tiempo real, el cual es llamado Stream. Este software permite al
servidor ofrecer conexiones multitudinarias. Ante una solicitud de información, el
servidor divide y comprime la información en pequeños paquetes para ser transmitida
por la Red.
101
CAPITULO 4. STREAMING.
Los primeros, suelen utilizar formatos de vídeo de más calidad y más ancho de
banda. Aquí se habla de MPEG-1 (1 a 3 Mbits) con una calidad similar al VHS, MPEG-2 (3 a
102
CAPITULO 4. STREAMING.
10 Mbits) con calidad DVD. Además se necesitan las tarjetas capturadoras (encoders) que
generen esta salida. Aquí el precio variará dependiendo del formato que se elija. La elección
de un formato u otro dependerá de varios factores: uso que se la dará a esos contenidos,
disponibilidad de ancho de banda en la red, calidad y tipo del material (master), lugar de
visualización de contenidos,…
Como ejemplo de ancho de banda/calidad se dice que una ventana pequeña con
calidad VHS se puede estar hablando de (80 Kbits para una solución propietaria y hasta 0.5
Mbits para MPEG-1). Una pantalla grande con calidad S-VHS se necesita de 1 a 2 Mbits
para MPEG-1. Para una mayor calidad como Betacam-SP. Evidentemente con este volumen
de información se tiene que plantear la elección de un sistema de almacenamiento acorde a
las necesidades.
El segundo tipo de servidores se utilizarán para dar servicio a Internet. Aquí los
anchos de banda (a Día de hoy) son considerablemente menores a 1. Se hable de velocidad
que va desde los 28-56 Kbits.a 128 o 384 kbits. Con formatos como Realvideo o ASF
(Advanced Stream Format). Evidentemente, las necesidades de almacenamiento cambian
radicalmente con el primer tipo de servidores, y los precios de la solución final (incluyendo
estaciones de codificación) también.
103
CAPITULO 4. STREAMING.
Servidor RealServer:
104
CAPITULO 4. STREAMING.
Soporta video bajo demanda (VoD), emisión en vivo y programada. La emisión puede ser
entregada de múltiples formas al receptor:
Windows Media es una solución propietaria que aporta sus propios protocolos. La
conexión entre cliente y servidor se negocia usando el protocolo MMS (Multi Media Server) o
también se puede hacer streaming sobre HTTP. MMS funciona encima de TCP, usa el
puerto 1755 y con él se negocian las características de velocidad de la conexión así como el
modo de entrega que en particular puede ser sobre HTTP. Los servidores que sirven
contenidos de Windows Media usan urls del tipo MMS://, o bien MMSU:// (para forzar UDP) o
bien MMST:// (para forzar TCP). La negociación de la forma de entrega es la siguiente:
primero se intenta Multicast (sí el servidor está configurado para hacerlo), después UDP,
TCP y HTTP.
Los contenidos de Windows Media pueden ser difundidos desde un servidor web por HTTP.
Comparado con un servidor Web, el Windows Media Service aporta varias ventajas:
• Uso más eficiente del ancho de banda. El Windows Media Service puede hacer uso
como ya se indicó de varios transportes que hacen más eficiente la entrega.
• Mejor calidad para el usuario
• Envió de flujos multistream. Para que según el ancho de banda del cliente se envié
con distintas calidades.
• Protección de contenidos con copyright
• Escalabilidad. Soporta más clientes.
• Control del ancho de banda en uso.
105
CAPITULO 4. STREAMING.
Otro punto fuerte a favor de esta solución es el precio, Microsoft lo distribuye desde
su Web de forma gratuita.
Codificación.
Para la generación de archivos en formatos asf, wmv y wma se pueden utilizar dos
soluciones:
• Batch Encode Utility: para generar archivos asf, wmv y wma a partir de archivos en
otros formatos (por ejemplo avi, mp3, wav, mpg, etc.
• Windows Media Encoder: Se puede usar para lo mismo que el anterior pero además
permite tomar como fuente una captura audio y/o video que es codificada en tiempo
real. En este se pueden especificar varias fuentes (por ejemplo un video de entrada,
un anuncio, un gráfico, etc.) e ir pasando de unas a otras. Se pueden generar eventos
que son generados en el reproductor del cliente.
106
CAPITULO 4. STREAMING.
Difusión.
Para la difusión del contenido multimedia como ya se dijo además de un servidor web
se pueden utilizar los Windows Media Services. Estos son administrados desde una interface
web simple.
Una vez instalado el servicio, que puede funcionar tanto en NT como en Windows
2000 (en este viene en el CD-ROM de instalación), habrá que instalar los puntos de
publicación de unidifusión a petición. Esto es equivalente a dar la raíz en un servidor WEB.
Una vez hecho esto cualquier archivo asf colocado en dicho directorio será servido bajo
demanda usando la sintaxis mms://nombreservidor/archivo.asf. También se puede dar un
alias al punto de montaje y entonces sería mms://nombreservidor/alias/archivo.asf. Esta url la
entienden Explorer o Media Player, en el caso del Explorer lanza el Media Player para que la
use.
Puesto que una url de tipo mms:// solo es entendida por Internet Explorer, se usa un
formato de archivo denominado asx que además sirve para definir el comportamiento del
Media Player. Este archivo se baja por HTTP y está asociado al Media Player. Dentro de
este archivo se encuentra la url mms:// o http:// del contenido a visualizar, también se pueden
poner banners, y metainformación sobre el contenido en emisión, además de listas de
reproducción y más características interesantes.
El video puede ser visualizado embebido dentro de una página web en cuyo caso la
apariencia del video puede ser cambiada, por ejemplo con botones o sin ellos, etc.
107
CAPITULO 4. STREAMING.
4.11.- Conclusión.
Para poder transmitir video por red IP es necesario codificar el video con un codificador
que soporte el streaming por ejemplo: (Windows Media Video, MPEG, Cinepak by radius,
Indeo video 5.10).
Si deseamos transmitir video de calidad por Internet a una gran audiencia es necesario
contar con IP público, ademas de un ancho de banda mayor a 512 kps.
108
CAPITULO 5. PROTOCOLOS
RTSP y RTP
109
CAPITULO 5. PROTOCOLOS RTSP Y RTP
5.1.- Introducción.
110
CAPITULO 5. PROTOCOLOS RTSP Y RTP
Los modos de operación que utiliza el servidor para enviar el audio y/o video a la
dirección de destino son:
111
CAPITULO 5. PROTOCOLOS RTSP Y RTP
112
CAPITULO 5. PROTOCOLOS RTSP Y RTP
• Proxy y un firewall amigable: El protocolo debe ser de fácil manejo para la aplicación y
el firewall. Un firewall debe comprender el método SETUP para crear un canal para el
flujo de UDP.
• Control apropiado del Servidor: Si un cliente inicia la solicitud de flujo de datos, este
debe ser capaz de detener el mismo. Por otra parte, el servidor no debe transmitir el flujo
de datos de manera tal que impida al usuario detenerlo.
113
CAPITULO 5. PROTOCOLOS RTSP Y RTP
114
CAPITULO 5. PROTOCOLOS RTSP Y RTP
Con el avance arrollador del internet, cada día se ha hecho más necesaria la
transmisión de voz, video e información en tiempo real. TCP no fue diseñado para este fin
por lo que no cumple con las expectativas y necesidades de las nuevas aplicaciones. Así
surge RTP, un protocolo que viene a llenar el vacío para la transmisión en tiempo real.
Por otra parte, las cabeceras del RTP también especifican el tipo de emisión que se
realiza, por lo que permiten diferentes tipos de compresión de datos. Cuando se realiza una
conexión a través de RTP, se definen dos direcciones diferentes que son controladas desde
dos puertos distintos, de forma que audio y vídeo viajan por separado controlados por el
RTCP. Además, el RSVP, tiene como objetivo añadir información feedback desde el cliente
hacia el servidor para garantizar una calidad de servicio. En contra, se tiene que el RTP no
asegura ni la entrega continua de información, ni la de todos los paquetes y ni siquiera puede
evitar la entrega desordenada de los mismos, aunque sí los controla.
RTCP es un protocolo que permite mantener información de control sobre una sesión de
RTP, la idea es reservar y garantizar la calidad de servicio. Para mantener el control de la
sesión, cuenta con varios tipos de paquetes:
115
CAPITULO 5. PROTOCOLOS RTSP Y RTP
Cuando se establece una conexión se establece un puerto para RTP y el siguiente puerto
se le asigna a RTCP. El tráfico de RTCP no debe exceder el 5% del ancho de banda de la
sesión.
Tráfico Multimedia.
Se suele denominar tráfico multimedia aquel compuesto por vídeo y audio. Los
requerimientos para la transmisión de audio y vídeo, se describen en los siguientes puntos:
Ancho de banda.
116
CAPITULO 5. PROTOCOLOS RTSP Y RTP
trata casi exclusivamente de forma comprimida. El ancho de banda dependerá por tanto del
tipo de compresión y de la calidad con que se quiera transmitir.
Los tres estándares más difundidos para compresión de vídeo: ISO Moving Pictures
Expert Group (MPEG), Intel’s Digital Video Interactive (DVI) e International
Telecommunications Union (ITU) H.261; requieren un ancho de banda de 1.2 a 40 Mbps
para MPEG y MPEG-2, 1.2 a 1.8 Mbps para DVI, y de 0.064 a 2 Mbps para H.261.
Retraso de transmisión.
Estos requerimientos son más estrictos que los de ancho de banda. La experiencia
con los sistemas de conferencia multimedia y los estándares ITU sugieren un retraso
máximo de 150 ms en las aplicaciones de vídeo interactivas.
El vídeo debe tener de 25 a 30 imágenes por segundo. Esto deja un tiempo máximo
de compresión-descompresión de 33 a 40 ms (30-1 a 25-1) para evitar el solapamiento en la
compresión de las imágenes. Restando a 150 ms tanto el tiempo de la compresión como el
de descompresión deja un retraso máximo de 70 a 84 ms para la transmisión en la red.
Asumiendo que una ruta de tres saltos LAN-WAN-LAN es una topología frecuente, y
teniendo en cuenta que los elementos de enlace (gateways, routers, etc.) también
contribuyen al retraso, quedando un retraso máximo aceptable de 10 a 15 ms por salto.
Aunque estos cálculos son aproximativos y dependerían de muchos otros factores, nos
Sirve como una aproximación a los problemas de la transmisión.
117
CAPITULO 5. PROTOCOLOS RTSP Y RTP
Fiabilidad.
Para la transmisión en tiempo real esta gestión de errores puede ser negativa, debido
al retraso que produciría la retransmisión de un paquete de nuevo. Para evitar este problema
se plantea que el tratamiento y gestión de los errores sea a niveles superiores. En una red
en tiempo real, la pérdida de paquetes puede ocurrir debido a la saturación de memoria en
los nodos o al superar el retraso máximo exigido.
Cuando audio, vídeo y otros datos vienen por distintos canales, se necesitan
mecanismos para la sincronización de los distintos flujos en el destino. Esto se puede
conseguir usando una combinación de asignación de tiempos y almacenamiento antes de su
visualización. Esto en general no afecta a la red y es un problema del destino.
118
CAPITULO 6.
(NAT)
119
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)
6.1.- Introducción.
Para que estas empresas puedan tener un acceso a redes externas o a Internet se
requiere de una traducción de direcciones que permita que con una sola conexión a la red de
redes y unas cuantas direcciones IP válidas, de esta manera se puede tener un buen control
sobre la seguridad de la red y sobre el tipo de información intercambiada con redes externas.
120
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)
Aplicación.
Esta situación ocurre frecuentemente en las empresas que tienen redes internas
grandes, también puede darse el caso que el proveedor sólo asigne una dirección válida a la
empresa, en esta situación se configura a NAT para que diferentes hosts dentro de la
empresa puedan acceder a Internet mediante esta única IP válida asignada por el proveedor,
en este caso la configuración del router con NAT asocia además de la dirección IP, un puerto
para direccionar correctamente los paquetes a los diferentes hosts .
Estos problemas también pueden presentarse en redes caseras más pequeñas y son
una solución factible para habilitar una conexión a Internet sin tener que hacer una
reconfiguración de la red interna, además que el proceso de traducción de direcciones IP es
transparente al usuario final que no se da cuenta de lo que pasa.
Operación básica.
Para que una red privada tenga acceso a Internet, el acceso debe ser por medio de un
dispositivo ubicado en la frontera de las dos redes que tenga configurado NAT para la
traducción de direcciones, en estos casos lo más conveniente es poner a un router para que
los paquetes sean enviados hacia él.
121
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)
Cuando la última de las sesiones que use una dirección asociada termine, NAT
liberará la asociación para que la dirección global pueda ser reciclada para su posterior uso.
La naturaleza exacta de la asignación de direcciones es específica de cada implementación
de NAT.
En este caso sucede lo mismo que en el anterior con las cabeceras de los
paquetes que salen de “A”, en este caso la tabla muestra una lista con las direcciones
válidas disponibles para ser usadas, estas direcciones son asignadas dinámicamente a los
hosts.
122
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)
NAT tradicional.
NAT Básico.
Las direcciones dentro de la zona son locales para este dominio y no son válidas
fuera de él. De este modo, las direcciones dentro de la zona pueden ser reusadas por alguna
otra. Por ejemplo, una sola dirección de clase A puede ser usada por muchas zonas. En
cada punto de salida entre una zona y el backbone, NAT está instalado. Si hay más de un
punto de salida es de gran importancia que cada NAT tenga la misma tabla de traducción.
En el ejemplo de la siguiente gráfica la red tiene las direcciones de clases A 10.0.0.0,
en 1 una máquina ubicada en una red externa con dirección 130.57.52.13 envía un paquete
a la dirección 130.57.199.13, en 2 el paquete llega al router NAT el cuál traduce la dirección
de destino 130.57.199.13 por la dirección 10.0.0.1 que es la dirección verdadera del host
123
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)
destino, esto se ve en 3, en 4 la máquina envía una respuesta con dirección fuente 10.0.0.1,
al pasar por el router NAT la dirección de fuente de la respuesta es modificada por la
dirección 130.57.199.13 que es una dirección global única.
Se puede ver la tabla de traducción que tiene el router, en la cuál se observa la asociación
de direcciones locales con las direcciones que usarán en Internet.
Digamos, una organización tiene una red IP privada y una conexión WAN a un
proveedor de servicio. El router de zona de la red privada es asignado a una dirección válida
globalmente en la conexión WAN y los demás nodos en la organización usan direcciones IP
que tienen sólo significado local. En este caso, a los nodos en la red privada se les puede
permitir acceder simultáneamente a la red externa, usando la única dirección IP registrada
con la ayuda de NAPT. NAPT permitiría mapeos de tuplas del tipo (direcciones IP local,
número de puerto TU local) a tipos del tipo (dirección IP registrada, número de puerto TU
asignado).
Este modelo es adecuado para muchos grupos de redes pequeñas para acceder a
redes externas usando una sola dirección IP asignada del proveedor de servicio. Este
modelo debe ser extendido para permitir acceso entrante mapeando estáticamente un nodo
local por cada puerto de servicio TU de la dirección IP registrada.
Cuando el host con dirección 192.168.0.2 envía un paquete HTTP (puerto destino 80)
al servidor 207.28.194.84, en la cabecera de los paquetes se envía la información mostrada
124
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)
en “A” donde se indica la dirección fuente como Src y la dirección destino como Dst estos
paquetes son enviados al router NAT ubicado al centro del gráfico.
Los paquetes de regreso que sean enviados por el servidor web, pasan por una
traducción de dirección y puerto similar por la dirección IP de destino y puerto TCP de
destino. Se observa que esto no requiere de cambios en los hosts o en los routers. La
traducción es completamente transparente para los usuarios.
En el gráfico se muestra la tabla de asignación de los hosts con las direcciones de los
hosts de la red interna con sus respectivos puertos y la asociación de puertos con los que
será enviada la información afuera.
Fases de Traducción.
• Ligando la dirección, con NAT Básico, una dirección privada es ligada a una dirección
externa, cuando la primera sesión saliente es iniciada desde el host privado. Después de
esto, todas las otras sesiones salientes originadas desde la misma dirección privada
usarán la misma dirección unida por la traducción de paquete.
125
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)
126
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)
• Ajuste de la suma de control, las modificaciones de NAT son por paquete y puede ser
un cómputo muy intensivo, ello involucra una o más modificaciones a la suma de control,
inclusive para traducciones de un sólo campo.
El método para NAT debe ser transparente para el host-final, la dirección IP del
encabezado IP embebido en la carga útil del mensaje ICMP-error debe ser modificado, el
campo de suma de control del encabezado IP embebido debe ser modificado, y finalmente,
la suma de control del encabezado ICMP debe también ser modificada para reflejar los
cambios a la carga útil.
En general, NAT no debería trabajar con ninguna aplicación que envíe direcciones IP
o puertos como datos. Por ejemplo, cuando dos programas usan FTP mantienen una
conexión TCP entre ellos. Como parte del protocolo, un programa obtiene un número de
puerto en la máquina local, y envía los datos por la conexión TCP al otro programa.
Si la conexión entre los programas pasa por medio de un router configurado con
NAPT, el puerto podría ser cambiado y reemplazado por el puerto que NAPT le asigne. Así,
127
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)
si NAT falla al cambiar el número de puerto, el protocolo podría fallar. Las implementaciones
de NAT fueron creadas para reconocer puertos conocidos como el de FTP y hacer los
cambios necesarios en el flujo de datos. Pero existen aplicaciones que no pueden ser
usadas con NAT.
En la configuración NAT Básico, cuando los nodos de la red privada agotan las
direcciones globales disponibles para el mapeo, el acceso a la red externa para algunos de
los nodos locales es abruptamente cortado cuando la última dirección IP válida de la lista fue
asignada.
Esto es un inconveniente y puede ser evitado permitiendo que el router NAT Básico
pueda conmutar a una configuración NAPT para la última dirección global de la lista de
direcciones. Haciendo esto asegurará que los hosts de la red privada tengan continuidad en
el acceso a los nodos externos y servicios para la mayoría de las aplicaciones.
6.5.- Conclusión.
Si el sistema de videovigilancia está detrás de un router este debe ser capaz de hacer NAT
para entregar el video al cliente correcto.
128
CAPITULO 7.
TCP y UDP
129
CAPITULO 7. TCP y UDP
7.1.- Introducción.
TCP/IP no es un único protocolo, sino que es en realidad lo que se conoce con este
nombre es un conjunto de protocolos que cubren los distintos niveles del modelo OSI. Los
dos protocolos más importantes son el TCP (Transmission Control Protocol por sus siglas en
inglés o Protocolo de Control de Transmisión) y el IP (Internet Protocol por sus siglas en
inglés o Protocolo Interner), que son los que dan nombre al conjunto. La arquitectura del
TCP/IP consta de cinco niveles o capas en las que se agrupan los protocolos, y que se
relacionan con los niveles OSI de la siguiente manera:
130
CAPITULO 7. TCP y UDP
• Transporte: Coincide con el nivel de transporte del modelo OSI. Los protocolos de este
nivel, tales como TCP y UDP, se encargan de manejar los datos y proporcionar la
fiabilidad necesaria en el transporte de los mismos.
• Internet: Es el nivel de red del modelo OSI. Incluye al protocolo IP, que se encarga de
enviar los paquetes de información a sus destinos correspondientes. Es utilizado con
esta finalidad por los protocolos del nivel de transporte.
• Red: Es la interfaz de la red real. TCP/IP no especifica ningún protocolo concreto, así es
que corre por las interfaces conocidas, como por ejemplo: 802.2, CSMA/CD, X.25.
El TCP/IP necesita funcionar sobre algún tipo de red o de medio físico que
proporcione sus propios protocolos para el nivel de enlace de Internet. Por este motivo hay
que tener en cuenta que los protocolos utilizados en este nivel pueden ser muy diversos y no
forman parte del conjunto TCP/IP. Sin embargo, esto no debe ser problemático puesto que
una de las funciones y ventajas principales del TCP/IP es proporcionar una abstracción del
medio de forma que sea posible el intercambio de información entre medios diferentes y
tecnologías que inicialmente son incompatibles.
Para transmitir información a través de TCP/IP, ésta debe ser dividida en unidades de
menor tamaño. Esto proporciona grandes ventajas en el manejo de los datos que se
transfieren y, por otro lado, esto es algo común en cualquier protocolo de comunicaciones.
131
CAPITULO 7. TCP y UDP
• SMTP (Simple Mail Transfer Protocol). Es una aplicación para el correo electrónico.
• NFS (Network File System). Permite la utilización de archivos distribuidos por los
programas de la red.
• La tarea de IP es llevar los datos a granel (los paquetes) de un sitio a otro. Las
computadoras que encuentran las vías para llevar los datos de una red a otra
132
CAPITULO 7. TCP y UDP
• Las líneas de comunicación se pueden compartir entre varios usuarios. Cualquier tipo de
paquete puede transmitirse al mismo tiempo, y se ordenará y combinará cuando llegue a
su destino. Compare esto con la manera en que se transmite una conversación
telefónica. Una vez que establece una conexión, se reservan algunos circuitos, que no
puede emplear en otra llamada, aun si deja esperando a su interlocutor por veinte
minutos.
• Los datos no tienen que enviarse directamente entre dos computadoras. Cada paquete
pasa de computadora en computadora hasta llegar a su destino. Éste, claro está, es el
secreto de cómo se pueden enviar datos y mensajes entre dos computadoras aunque no
estén conectadas directamente entre sí. Lo que realmente sorprende es que sólo se
necesitan algunos segundos para enviar un archivo de buen tamaño de una máquina a
otra, aunque estén separadas por miles de kilómetros y pese a que los datos tienen que
pasar por múltiples computadoras. Una de las razones de la rapidez es que, cuando algo
anda mal, sólo es necesario volver a transmitir un paquete, no todo el mensaje.
• Los paquetes no necesitan seguir la misma trayectoria. La red puede llevar cada paquete
de un lugar a otro y usar la conexión más idónea que esté disponible en ese instante. No
todos los paquetes de los mensajes tienen que viajar, necesariamente, por la misma ruta,
ni necesariamente tienen que llegar todos al mismo tiempo.
• La flexibilidad del sistema lo hace muy confiable. Si un enlace se pierde, el sistema usa
otro. Cuando usted envía un mensaje, el TCP divide los datos en paquetes, ordena éstos
en secuencia, agrega cierta información para control de errores y después los lanza
hacia fuera, y los distribuye. En el otro extremo, el TCP recibe los paquetes, verifica si
hay errores y los vuelve a combinar para convertirlos en los datos originales. De haber
error en algún punto, el programa TCP destino envía un mensaje solicitando que se
vuelvan a enviar determinados paquetes.
133
CAPITULO 7. TCP y UDP
Muchas grandes redes han sido implementadas con estos protocolos, incluyendo
DARPA Internet "Defense Advanced Research Projects Agency Internet", en español, Red
de la Agencia de Investigación de Proyectos Avanzados de Defensa. De igual forma, una
gran variedad de universidades, agencias gubernamentales y empresas de computadoras,
están conectadas mediante los protocolos TCP/IP. Cualquier máquina de la red puede
comunicarse con otra distinta y esta conectividad permite enlazar redes físicamente
independientes en una red virtual llamada Internet. Las máquinas en Internet son
denominadas "hosts" o nodos.
TCP/IP proporciona la base para muchos servicios útiles, incluyendo correo electrónico,
transferencia de ficheros y login remoto.
El correo electrónico está diseñado para transmitir ficheros de texto pequeños. Las
utilidades de transferencia sirven para transferir ficheros muy grandes que contengan
programas o datos. También pueden proporcionar chequeos de seguridad controlando las
transferencias.
El login remoto permite a los usuarios de un ordenador acceder a una máquina remota y
llevar a cabo una sesión interactiva.
El módulo UDP (User Datagram Protocol por sus siglas en inglés o Protocolo de
Datagramas de Usuario) [RFC768] es un fino recubrimiento a la capa IP que cumple las
funciones equivalentes al nivel OSI de Transporte de datagramas. Proporciona un servicio
sin conexión y, por ello, de baja fiabilidad.
134
CAPITULO 7. TCP y UDP
TCP (Transport Control Protocol) o algún esquema similar, como la familia de protocolos TPx
de OSI.
Al igual que los protocolos TCP, utiliza puertos y sockets y, también permite la
multiplexación.
135
CAPITULO 7. TCP y UDP
136
CAPITULO 7. TCP y UDP
Interfaz.
La interfaz de este módulo está constituida por procesos y por subrutinas ejecutadas
en el contexto del llamante. Su utilización es muy simple.
PROC_UDP_BC
Este proceso es el encargado de inicializar este módulo. Debe ser invocado con un
mensaje "MSG_INIT" o "MSG_QUIT". La inicialización de este módulo debe ser posterior a la
del módulo IP.
PROC_UDP_SUP
137
CAPITULO 7. TCP y UDP
mientras que si vale uno será destruido si excede el MTU de alguna de las redes
intermedias. El valor de "dummy" es arbitrario.
Campo1. Contiene la dirección IP fuente (una de las nuestras), mientras que en campo3 se
envía la dirección IP del destino. Ambos valores deben estar en formato HOST.
PROC_UDP_INF
Este es el proceso que procesa los datagramas UDP recibidos por la capa IP, y
gestiona los mensajes de control provenientes de ICMP.
o MSG_MBUF
Este es el tipo de mensaje más normal que este proceso espera recibir. Contiene un
datagrama UDP según el formato definido por la capa IP.
Este proceso también envía mensajes "MSG_MBUF" hacia arriba. En ese caso campo1
contiene una cabecera UDP interfaz y el datagrama en sí (en dos MBUFs, respectivamente).
campo2. Contiene la dirección origen y campo3 la dirección destino del datagrama. Los
campos "dont_fragment" y "dummy" de la cabecera UDP interfaz contendrán valores
indefinidos.
o MSG_ICMP_SOURCE_QUENCH
o MSG_ICMP_DEST_UNREACHABLE
Si el proceso recibe este mensaje proveniente de la capa ICMP, envía hacia arriba, al
proceso que gestiona el puerto fuente original, otro mensaje
"MSG_ICMP_DEST_UNREACHABLE" con campo1 obedeciendo al formato UDP interfaz,
mientras que campo2 proporciona información adicional (ver el capítulo ICMP) y campo3
contiene la dirección IP de la máquina a la que no se puede llegar (formato HOST).
138
CAPITULO 7. TCP y UDP
Esta rutina da de alta un puerto UDP para escucha. Cualquier datagrama que llegue
al puerto "puerto" será enviado al proceso cuyo identificador sea "proc_retorno". Esta rutina
retorno "OK" si todo fue bien, "ERR_EN_USO" si el puerto especificado ya ha sido declarado
con anterioridad y "ERR_OVERFLOW" si hay demasiados puertos declarados.
Esta rutina es idéntica a la anterior pero asigna un puerto cualquiera que esté libre.
Por compatibilidad con posibles servicios superiores, el puerto asignado será siempre mayor
o igual que 1024. Retorna el valor del puerto asignado, o cero si hay demasiados puertos
declarados.
Aún cuando el control de flujo esté cerrado, la capa UDP se hará cargo de cualquier
datagrama que se envíe. Esto es así para simplificar ciertos protocolos, pero no debería
abusarse de esta característica si no se está completamente seguro de sus implicaciones.
139
CAPITULO 7. TCP y UDP
Implementación.
Todos los datagramas salientes, por tanto, incluyen una suma de control. No
obstante, por compatibilidad, se admiten datagramas UDP entrantes tanto con suma de
control como sin ella.
Cualquier datagrama UDP que se reciba hacia un puerto no declarado será destruido
y se generará un mensaje "MSG_ICMP_DEST_UNREACHABLE" con el código
"ICMP_NO_PUERTO" para informar a la máquina fuente de que el puerto especificado no
existe. Si lo que llega es un datagrama con una suma de control errónea (si tiene suma de
control), se elimina sin ninguna acción adicional. No se puede arriesgar a generar un
mensaje ICMP porque el datagrama estaba corrupto y no se puede contar con que la
información de encaminamiento recibida sea correcta.
140
CAPITULO 7. TCP y UDP
Note la violación estricta de capa (UDP es un protocolo de capa 4); usa información
de la capa
A pesar de su sencillez y de haber sido opacado por TCP, poderosas y muy utilizadas
aplicaciones se basan en UDP. Entre ellas están:
• NFS (Network File System): permite utilizar discos de estaciones remotas como si
fueran propios.
• DNS (Domain Name Server): servicio de nombres
• SNMP (Simple Network ManagementProtocol)
141
CAPITULO 7. TCP y UDP
Puerto de fuente: Este valor identifica el puerto del proceso de aplicación remitente. Este
campo es opcional. Si no se utiliza. Se pone a 0.
Longitud: Este valor indica la longitud del datagrama de usuario. Incluyendo la cabecera y
los datos. La longitud mínima es de 8 octetos.
Checksum: Este valor contiene el valor del complemento a 1 en 16 bits del complemento a 1
de la suma de la seudocabecera de IP, la cabecera de UDP y los datos. Se realiza también
el checksum de los campos de relleno (si es necesario que el mensaje contenga un número
de octetos que sea un múltiplo de dos).
Poco más se puede decir de UDP. Representa el nivel de servicio mínimo que utilizan
muchos sistemas de aplicación basados en transacciones. Es, sin embargo, muy útil en los
casos en los que no son necesarios los servicios de TCP.
7.7.- Conclusión.
Al igual que los protocolos TCP, utilizan puertos sockets y, también permiten la
multiplexación.
142
CAPITULO 7. TCP y UDP
TCP al ser un protocolo orientado a conexión se utiliza para el envio de datos para controlar
las peticiones de servicio y para enviar comandos sobre sucesos en la videovigilancia.
UDP al ser un protocolo no orientado a conexión se utiliza para enviar el audio y video
codificado ya que no es importante reenviar datagramas perdidos.
143
CAPITULO 8. REDES PRIVADAS
VIRTUALES (VPN).
144
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
8.1 Introducción.
Sin embargo, las VLAN siguen compartiendo las características de los grupos de
trabajos físicos, en el sentido de que todos los usuarios comparten sus dominios de
broadcast, la diferencia principal con la agrupación física, es que los usuarios de las VLAN
pueden estar distribuidos a través de una red LAN, incluso situándose en distintos
concentradores de la misma.
Así los usuarios pueden, a través de la red, mantener su propia pertenencia al grupo de
trabajo lógico.
Por otro lado, al distribuir a los usuarios de un mismo grupo lógico, a través de diferentes
segmentos, se logra, como consecuencia directa, el incremento del ancho de banda en dicho
grupo de usuarios.
Además al poder distribuir a los usuarios en diferentes segmentos de red, se puede situar
puentes y ruteadores entre ellos, separando segmentos con diferentes topologías y
protocolos.
Se puede autorizar o negar que el tráfico de una VLAN entre y salga desde y hacia
otras redes, pero se puede llegar aún más lejos. Las redes virtuales permiten que la
ubicación geográfica no se limite a diferentes concentradores o plantas de un mismo edificio,
sino a diferentes oficinas intercomunicadas por medio de redes WAN (Redes de Área
Amplia), a lo largo de países y continentes sin ninguna limitación mas que la que impone el
propio administrador de dichas redes.
145
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Las redes privadas virtuales crean un túnel o conducto de un sitio a otro para
transferir datos a esto se le conoce como encapsulación además los paquetes van
encriptados de forma que los datos son ilegibles para los extraños.
El servidor busca mediante un ruteador la dirección IP del cliente VPN y en la red de transito
se envian los datos sin problemas.
Hace algún tiempo existía el modelo de red basado en ruteadores, en el que se poseían
segmentos independientes y delimitados por cada usuario. Estos ruteadores aparte de ser
multiprotocolo podían detener las tormentas de broadcast, pero la desventaja era su sistema
compartido.
Las VLAN (Virtual Local Area Networks; Redes virtuales de área local) forman grupos
lógicos para definir los dominios de broadcast. De esta forma existe el dominio de los rojos,
donde el broadcast que genera el rojo solo le afectara a este color y el broadcast que
genera el amarillo solamente afectara a esta parte de la red.
146
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Anteriormente existía la red plana, donde el broadcast se repetía en los puertos y esto
provocaba una situación critica. Ahora con las VLAN existe una segmentación lógica o
virtual.
Clases de VLAN.
Un problema actual de las VLAN implícitas es que aun son propietarias y las
explícitas son abiertas. Ambas clases de VLAN deberán utilizar los métodos de Networking,
Inter-Domain e Inter-VLAN para realizar sus funciones de forma más simple.
147
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
frames puedan dar QoS, para que dentro de las VLAN el usuario pueda indicar la prioridad
de sus paquetes y de esta forma eficientar el ancho de banda.
Las VLAN deben ser rápidas, basadas en switchs para que sean interoperables
totalmente – porque los routers no dan la velocidad requerida- , su información deberá viajar
a través del backbone y deberán ser movibles, es decir, que el usuario no tenga que
reconfigurar la maquina cada vez que se cambie de lugar.
3. De aplicación y servicios: aquí se encuentran los grupos multicast y las VLAN definidas
por el usuario.
4. Servicios avanzados: ya se cumple con los tres criterios antes de realizar alguna
asignación a la VLAN; se puede efectuar por medio de DHCP (Dynamic Host Configuration
Protocol; Protocolo de configuración dinámica) o por AVLAN (Authenticate Virtual Local Area
Networks; Redes virtuales autenticadas de área local).
Este tipo es el más sencillo ya que un grupo de puertos forma una VLAN -un puerto
solo puede pertenecer a una VLAN, el problema se presenta cuando se quieren hacer MAC
ya que la tarea es compleja.
Se basa en MAC Address, por lo que se realiza un mapeo para que el usuario
pertenezca a una determinada VLAN. Obviamente dependerá de la política de creación.
Este tipo de VLAN ofrece mayores ventajas, pero es complejo porque hay que meterse con
148
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
las direcciones MAC y si no se cuenta con un software que las administre, será muy
laborioso configurar cada una de ellas.
Aparte de la división que ejecuta la VLAN por protocolo, existe otra subdivisión dentro
de este para que el usuario – aunque este conectado a la VLAN del protocolo IP – sea
asignado en otra VLAN -subred- que pertenecerá al grupo 10 o 20 dentro del protocolo.
Generalmente son las direcciones de clase D las que ayudan a formular la VLAN. El
mapeo o la asignación a la VLAN se basa o referencia en la dirección multicast.
En esta política de VLAN se puede generar un patrón de bits, para cuando llegue el
frame. Si los primeros cuatro bits son 1010 se irán a la VLAN de ingeniería, sin importar las
características del usuario – protocolo, dirección MAC y puerto -.
Si el usuario manifiesta otro patrón de bits, entonces se trasladara a la VLAN que le
corresponda; aquí el usuario define las VLAN.
VLAN Binding.
149
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
También puede ser puerto, protocolo y dirección MAC, pero lo importante es cubrir los tres
requisitos previamente establecidos, ya que cuando se cumplen estas tres condiciones se
coloca al usuario en la VLAN asignada, pero si alguno de ellos no coincide, entonces se
rechaza la entrada o se manda a otra VLAN.
Aquí ya no es necesario proporcionar una dirección IP, sino que cuando el usuario
enciende la computadora automáticamente el DHCP pregunta al servidor para que tome la
dirección IP y con base en esta acción asignar al usuario a la VLAN correspondiente. Esta
política de VLAN es de las últimas generaciones.
Por lo general cuando se desea implantar una VPN hay que asegurarse que esta
proporcione:
• Identificación de usuario.
• Administración de direcciones.
• Codificación de datos.
• Administración de claves.
• Soporte a protocolos múltiples.
• Identificación de usuario.
• La VPN debe ser capaz de verificar la identidad de los usuarios y restringir el acceso
a la VPN a aquellos usuarios que no estén autorizados. Así mismo, debe
proporcionar registros estadísticos que muestren quien acceso, que información y
cuando.
150
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Administración de direcciones.
La VPN debe establecer una dirección del cliente en la red privada y debe cerciorarse
que las direcciones privadas se conserven así.
Codificación de datos.
Los datos que se van a transmitir a través de la red pública deben ser previamente
encriptados para que no puedan ser leídos por clientes no autorizados de la red.
Administración de claves.
La VPN debe generar y renovar las claves de codificación para el cliente y el servidor.
Soporte a protocolos múltiples.
La VPN debe ser capaz de manejar los protocolos comunes que se utilizan en la red pública.
Estos incluyen el protocolo de Internet (IP), el intercambio de paquete de Internet (IPX) entre
otros.
-VPN Gateway.
- Software.
- Firewall.
- Router.
- VPN Gateway.
- Dispositivos con un software y hardware especial para proveer de capacidad a la VPN.
- Software.
- Esta sobre una plataforma PC o Workstation, el software desempeña todas las funciones
de la VPN.
151
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
- Reducción de costos.
- Sencilla de usar.
- Sencilla instalación del cliente en cualquier PC Windows.
- Control de Acceso basado en políticas de la organización
- Herramientas de diagnostico remoto.
- Los algoritmos de compresión optimizan el tráfico del cliente.
Evita el alto costo de las actualizaciones y mantenimiento a las PC´s remotas.
PTP fue diseñado para permitir a los usuarios conectarse a un servidor RAS desde
cualquier punto en Internet para tener la misma autenticación, encriptación y los mismos
accesos de LAN como si discaran directamente al servidor. En vez de discar a un modem
conectado al servidor RAS, los usuarios se conectan a su proveedor y luego "llaman" al
servidor RAS a través de Internet utilizando PPTP.
152
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Para el primero de los escenarios, el usuario remoto estable una conexión PPP con el
ISP, que luego establece la conexión PPTP con el servidor RAS. Para el segundo escenario,
el usuario remoto se conecta al ISP mediante PPP y luego "llama" al servidor RAS mediante
PPTP. Luego de establecida la conexión PPTP, para cualquiera de los dos casos, el usuario
remoto tendrá acceso a la red corporativa como si estuviera conectado directamente a la
misma.
El paquete PPTP está compuesto por un header de envío, un header IP, un header
GREv2 y el paquete de carga. El header de envío es el protocolo enmarcador para
cualquiera de los medios a través de los cuales el paquete viaja, ya sea Ethernet, frame
relay, PPP. El header IP contiene información relativa al paquete IP, como ser, direcciones
de origen y destino, longitud del datagrama enviado, etc. El header GREv2 contiene
información sobre el tipo de paquete encapsulado y datos específicos de PPTP
concernientes a la conexión entre el cliente y servidor. Por último, el paquete de carga es el
paquete encapsulado, que, en el caso de PPP, el datagrama es el original de la sesión PPP
que viaja del cliente al servidor y que puede ser un paquete IP, IPX, NetBEUI, entre otros.
Para la autenticación, PPTP tiene tres opciones de uso: CHAP, MS-CHAP y aceptar
cualquier tipo, inclusive texto plano. Si se utiliza CHAP, Standard en el que se intercambia un
"secreto" y se comprueba ambos extremos de la conexión coincidan en el mismo, se utiliza la
contraseña de Windows NT, en el caso de usar este sistema operativo, como secreto. MS-
CHAP es un Standard propietario de Microsoft y resulta ser una ampliación de CHAP. Para
la tercer opción, el servidor RAS aceptará CHAP, MS-CHAP o PAP (Password
Autenthication Protocol), que no encripta las contraseñas.
153
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Para la encriptación, PPTP utiliza el sistema RC4 de RSA, con una clave de sesión de 40
bits.
El escenario típico L2TP, cuyo objetivo es la creación de entunelar marcos PPP entre el
sistema remoto o cliente LAC y un LNS ubicado en una LAN local.
Un L2TP Network Server (LNS) actúa como el otro extremo de la conexión L2TP y es
el otro par del LAC. El LNS es la terminación lógica de una sesión PPP que está siendo
puesta en un túnel desde el sistema remoto por el LAC.
Un cliente LAC, una máquina que corre nativamente L2TP, puede participar también en el
túnel, sin usar un LAC separado. En este caso, estará conectado directamente a Internet.
L2TP utiliza dos tipos de mensajes: de control y de datos. Los mensajes de control
son usados para el establecimiento, el mantenimiento y el borrado de los túneles y las
llamadas. Utilizan un canal de control confiable dentro de L2TP para garantizar el envío. Los
mensajes de datos encapsulan los marcos PPP y son enviados a través del túnel.
154
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Se requiere que haya números de secuencia en los paquetes de control, que son
usados para proveer el envío confiable en el canal de control. Los mensajes de datos
pueden usar los números de secuencia para reordenar paquetes y detectar paquetes
perdidos.
Al correr sobre UDP/IP, L2TP utiliza el puerto 1701. El paquete entero de L2TP,
incluyendo la parte de datos y el encabezado, viaja en un datagrama UDP. El que inicia un
túnel L2TP toma un puerto UDP de origen que esté disponible, pudiendo ser o no el 1701 y
envía a la dirección de destino sobre el puerto 1701. Este extremo toma un puerto libre, que
puede ser o no el 1701, y envía la respuesta a la dirección de origen, sobre el mismo puerto
iniciador. Luego de establecida la conexión, los puertos quedan estáticos por el resto de la
vida del túnel.
En la autenticación de L2TP, tanto el LAC como el LNS comparten un secreto único.
Cada extremo usa este mismo secreto al actuar tanto como autenticado como autenticador.
Sobre la seguridad del paquete L2TP, se requiere que el protocolo de transporte de L2TP
tenga la posibilidad de brindar servicios de encriptación, autenticación e integridad para el
paquete L2TP en su totalidad. Como tal, L2TP sólo se preocupa por la confidencialidad,
autenticidad e integridad de los paquetes L2TP entre los puntos extremos del túnel, no entre
los extremos físicos de la conexión.
IPSec trata de remediar algunas fallas de IP, tales como protección de los datos
transferidos y garantía de que el emisor del paquete sea el que dice el paquete IP. Si bien
estos servicios son distintos, IPSec da soporte a ambos de una manera uniforme.
155
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Por confidencialidad se entiende que los datos transferidos sean sólo entendidos por los
participantes de la sesión.
El header de ESP permite rescribir la carga en una forma encriptada. Como no considera los
campos del header IP, no garantiza nada sobre el mismo, sólo la carga.
Una división de la funcionalidad de IPSec es aplicada dependiendo de dónde se realiza la
encapsulación de los datos, si es la fuente original o un gateway:
• El modo de transporte es utilizado por el host que genera los paquetes. En este modo,
los headers de seguridad son antepuestos a los de la capa de transporte, antes de que el
header IP sea incorporado al paquete. En otras palabras, AH cubre el header TCP y
156
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
algunos campos IP, mientras que ESP cubre la encriptación del header TCP y los datos,
pero no incluye ningún campo del header IP.
Los enlaces seguros de IPSec son definidos en función de Security Associations (SA).
Cada SA está definido para un flujo unidireccional de datos y generalmente de un punto
único a otro, cubriendo tráfico distinguible por un selector único. Todo el tráfico que fluye a
través de un SA es tratado de la misma manera. Partes del tráfico puede estar sujeto a
varios SA, cada uno de los cuales aplica cierta transformación. Grupos de SA son
denominados SA Bundles. Paquetes entrantes pueden ser asignados a un SA específico por
los tres campos definitorios: la dirección IP de destino, el índice del parámetro de seguridad y
el protocolo de seguridad. El SPI puede ser considerado una cookie que es repartido por el
receptor del SA cuando los parámetros de la conexión son negociados. El protocolo de
seguridad debe ser AH o ESP. Como la dirección IP de destino es parte de la tripleta antes
mencionada, se garantiza que este valor sea único.
Como ESP no puede autentificar el header IP más exterior, es muy útil combinar un header
AH y ESP para obtener lo siguiente:
IPhdr AH ESP TCPhdr Data
157
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Sin embargo, no es mencionado en las RFC que definen estos protocolos. Como en
Transport Adjacency, esto autenticaría el paquete completo salvo algunos pocos campos del
header IP y también encriptaría la carga. Cuando un header AH y ESP son directamente
aplicados como en esta manera, el orden de los header debe ser el indicado. Es posible, en
el modo de túnel, hacer una encapsulación arbitrariamente recursiva para que el orden no
sea el especificado.
IPSec hace posible la creación de “túneles” seguros entre dos gateways –típicamente
un router, cortafuegos o, incluso, software sobre un PC conectado a la red privada del
usuario a través de redes públicas. Los túneles IPSec son establecidos dinámicamente y
libera d o s cuando no están en uso. Para establecer un túnel, los dos gateways IPSec han
de autenticarse entre sí y definir cuáles serán los algoritmos de seguridad y las claves que
utilizarán. Así, IPsec proporciona comunicaciones seguras y la separación lógica entre los
flujos del tráfico de la red privada virtual (VPN) frente al resto de las transmisiones que
cursan la red IP compartida.
IPSec es el nuevo marco de seguridad IP, definido con el advenimiento del IPv6.
Aunque IPv6 está muy poco difundido en este momento, la tecnología marco IPSec se está
utilizando ya, lo que asegura, entre otras cosas, la interoperatividad entre sistemas de
diversos fabricantes y sistemas operativos, como Linux, windows Macintosh, firewalls y
routers comerciales. IPSec integra confidencialidad, integridad y autentificación en un mismo
marco interoperante por lo que esta será la opción escogida para la implementación de las
VPN. Además, como trabaja a nivel IP, es transparente a la aplicación, ya que esta no
necesita modificación alguna, y ni siquiera se entera de la existencia de criptografía
intermedia, a diferencia de protocolos de nivel de transporte, como son los túneles sobre
TCP (SSL, SSH).
Ipsec es una tecnología que protege los paquetes IP de la capa de red, así se forma
una capa segura de un nodo de la red a otro. IPsec utiliza dos protocolos para la protección
de los paquetes IP: “Cabecera de Autenticación” (AH: Authentication Header) y “Cargo de
158
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Todo el flujo de tráfico sobre un SA se trata del mismo modo. El tráfico puede ser
entre dos hosts, entre un host y una pasarela de seguridad (Security Gateway) o entre dos
pasarelas de seguridad.
AH en modo túnel:
New IP Header AH Header IP Header Carga
159
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Cada paquete IP se asigna a una SA mediante tres campos: Dirección IP del Destino,
Índice del Parámetro de Seguridad (SPI: Security Parameter Index) y Protocolo de Seguridad
(AH o ESP). Sin embargo, el protocolo no estipula cómo se han de autentificar los pares ni
cómo se intercambian las claves de sesión. Estas tareas son gestionadas por el protocolo de
intercambio de claves de Internet IKE (Internet Key Exchange).
IKE permite que dos puntos extremos puedan establecer conexiones seguras,
utilizando la infraestructura de llaves precompartidas o llaves públicas (PKI), certificados
digitales administrados por una autoridad certificadora---un servicio externo o interno que
registra las llaves públicas. IKE permite también que una red privada virtual (VPN) pueda
ampliarse a cientos de puntos extremos, mediante el uso del equivalente a una tarjeta de
identificación digital que identifica cada punto extremo.
8.6. Conclusión.
Se puede transmitir video por VPN con el sistema “Ojovigilante 1.0” el ancho de banda debe
ser alto para que la calidad del video sea aceptable.
160
PRUEBAS Y RESULTADOS
En este capítulo se detallan las pruebas realizadas para demostrar el funcionamiento del
sistema, obteniendo resultados cuantitativos y cualitativos para valorar la eficiencia del
sistema.
161
Cámaras instaladas localmente.
Se intento instalar varias cámaras en puerto USB 1.1 y 2.0 en la misma computadora
siendo el siguiente resultado:
Sólo se pueden ver dos cámaras locales al mismo tiempo ya que con tres cámaras el
sistema operativo manda un mensaje de escaso ancho de banda.
Es posible que en un futuro cercano con el desarrollo del USB 3.0 se puedan
conectar localmente varias cámaras ya que se presume que la velocidad de transmisión será
mucho mayor que la versión 2.0.
El sistema “Ojovigilante 1.0” se probó en varias ocasiones en una red WAN, para ello
se utilizó una IP pública del centro de computo de la presidencia de Cd. Guzmán y otra en
las instalaciones del Instituto tecnológico de Cd. Guzmán.
En el primer intento la transmisión fue de poca calidad ya que había mucho retraso, atribuido
al gran tráfico de red que tienen ambas IPs, fue necesario bajar los frames por segundo de
30 hasta 5 y la transmisión se realizó con éxito.
En un segundo intento se eligió un día y momento en que no hay tanto tráfico de red en las
IPs públicas utilizadas y la transmisión se realizó sin problemas a 30 frames por segundo
que es el máximo.
162
Instalaciones del sistema para pruebas piloto.
Una de las pruebas más importantes es la instalación del sistema para ver su eficiencia y sus
defectos de detenerlos.
El sistema se instaló en CoBaEJ (Colegio de Bachilleres del Estado de Jalisco) y ahí más
que errores aparecieron sugerencias por parte de los usuarios para que el sistema tuviera
algunas características, las cuales fueron implementadas posteriormente, fue una
retroalimentación favorable al desarrollo del sistema.
CONCLUSION.
163
BIBLIOGRAFÍA.
E.R. Davies, machine vision: Theory, Algorithms, Practicalities, Academy Press, London,
1997.
L.J. Glaciate, Machine vision and digital image processing Fundamentals, Prentice-Hall,
Englewood cliffs, NJ, 1990.
R.C. Gonzáles and R.E Woods, Digital image processing, Addison-Wesley, Reading, MA,
1993
A. Low, Computer Vision and Image Processing, McGraw-Hill, New York, 1991.
Weeks, Fundamentals of Electronic Image Processing, IEEE Press, New York, 1996.
M.R. Leek, V. Summers, “Reduced frequency selectivity and the preservation of spectral
contrast in noise”, Journal of the Acoustic Society of America, 1996.
164
Scott, Charly, Wolfe, Paul, Erwin, Mike: "Virtual Private Networks", 2° edición, O’Reilly &
Associates, Enero 1999.
Gutiérrez González, Ma. Nieves, Sancho Buzón, Ana Rosa, Casas Cuadrado, Amadeo:
Estudio sobre las VPN (Redes Privadas Virtuales),
165
GLOSARIO.
ANCHO DE BANDA. Bandwidth en inglés. Cantidad de bits que pueden viajar por un medio
físico (cable coaxial, par trenzado, fibra óptica, etc.) de forma que mientras mayor sea el
ancho de banda más rápido se obtendrá la información. Se mide en millones de bits por
segundo (Mbps). Una buena analogía es una autopista. Mientras más carriles tenga la calle,
mayor cantidad de tráfico podrá transitar a mayores velocidades. El ancho de banda es un
concepto muy parecido. Es la cantidad de información que puede transmitirse en una
conexión durante una unidad de tiempo elegida.
BITRATE. Término bastante utilizado al hablar de calidades de video y audio. Define cuánto
(o el promedio) de espacio físico (en bits) toma un segundo de audio o video. Por ejemplo, 3
minutos de audio MP3 a 128kBit/sg CBR, toma 2,81 MegaBytes de espacio físico (1,024 x
128 / 1,024 / 1,024 x 180 / 8). En donde: 128kbit = 128 x 1024 bits 1 byte = 8 bits 1 kilobyte =
1,024 bytes 1 megabyte = 1,024 kilobytes 3 minutos = 180 segundos. Algunos ejemplos:
BPS. Bits por Segundo. Velocidad a la que se transmiten los bits en un medio de
comunicación.
BROADBAND. Se refiere generalmente a conexiones a Internet con mucho más ancho de
banda que con un modem de "dial-up" convencional. No hay una especificación sobre la
velocidades, pero por lo general Cable Modem, DSL o ADSL.
166
CIF. Formato Intermedio Común utilizado por el codec H.261 para resolución de video de
352x288 pixeles
FIREWALLS. Es un dispositivo o grupo de dispositivos colocados entre una red segura (su
red interna) y una red no segura (Internet). Las diversas tareas del muro de fuego incluyen
autentificación de usuarios, limitar el tráfico entrante y saliente, registrar la información de
tráfico, producir reportes de tráfico y prevenir el acceso no deseado a sus servicios.
167
GATEWAY. Conexión compartida entre una red de área local (LAN) y un sistema grande,
como un computador mainframe o una red de paquetes conmutados, cuyos protocolos de
comunicación son diferentes. Por lo general además de ser más lento que un puente o un
enrutador, un gateway es una combinación de equipo y programas con su propio procesador
y memoria que se utilizan para ejecutar conversaciones de protocolo.
H.264. También conocido como MPEG-4 AVC (Advanced Video Coding), es un estándar de
compresión de video que ofrece significativa mayor compresión que sus predecesores. Se
espera que de hasta el doble de compresión que MPEG-4 ASP (Advanced Simple Profile).
H.264 puede proporcionar video con calidad DVD a menos de 1 Mbps.
H.320. Estándar del CCITT para la videoconferencia, que es el más utilizado en los equipos
comerciales basados en PC y RDSI Son especificaciones que definen cómo se comunican
los sistemas de videoconferencia a través de medios de circuitos switcheados, como las
líneas RDSI, T-1 fraccional o Switched-56. El algoritmo de compresión H.261 define dos
resoluciones de video: el CIF (Formato Intermedio Común), de 352x288 y el QCIF (un cuarto
del Formato Intermedio Común) de 176x144. El H.320 también posee tres codecs
(codificadores - decodificadores) de audio: el G.711, que usa un ancho de banda de 64 Kbps
para proporcionar audio de 3 KHz de calidad telefónica; el G.722, un algoritmo de mejor
calidad que produce audio de 7.5 KHz pero consume un ancho de banda de hasta 64 Kbps;
y el G.728 que, a pesar de proporcionar audio de calidad casi telefónico, sólo requiere de 16
Kbps.
H.310 y H.321. Adaptan al H.320 a las topologías de la siguiente generación, como ATM y
SDM de banda ancha. El H.321 proporciona la máxima capacidad hacia atrás, y conserva la
capacidad del H.320 y algunos de sus componentes, incluido el H.261. El H.310 añade el
algoritmo de compresión de video MPEG-2 de ISO, que proporciona calidad de video clase
HDTV (televisión de alta definición).
H.322. Es una versión mejorada del H.320, optimizada para redes que garantizan Calidad de
Servicio (QoS) para tráfico isocrónico, como el video en tiempo real.
H.323. extiende al H.320 a Ethernet, Token-Ring y otras redes de paquetes switcheados que
no garantizan QoS. Soporta operaciones punto a punto y multipunto. Además del codec de
168
video H.261 y el codec de audio G.711 del H.320, las implantaciones del H.323 también
pueden incluir componentes del H.320 y el H.324, como H.263, G.722, G.723 y G.728. Los
temas de QoS se han manejado por un componente de portero centralizado que permite que
los administradores de LAN administren el tráfico de video en la espina dorsal. Otra parte
integral de la especificación define una compuerta LAN/H.320, que permite que cualquier
nodo H.323 interopere con productos H.320.
H.324. lleva a la videoconferencia de tipo H.320 a las líneas telefónicas análogas de la RTC.
Puede incorporar codificación H.261, pero la mayor parte de las implantaciones usarán el
H.263, una versión escalable del H.261 que añade un formato sub-QCIF (SQCIF) de 128x96.
Debido al diseño eficiente del H.263, puede producir velocidades de cuadro muy parecidas a
la de los sistemas RDSI H.320 actuales, pero mediante módems baratos asistidos por
hardware
HIPERMEDIA. Documentos al estilo hipertexto que no se limitan a texto, sino que pueden
contener gráficos, vídeo o sonido.
169
documentos en la Red. Es un tipo de SGML. Existen las versiones HTML 1.0, HTML 2.0,
HTML+ y HTML 3.0, aparte de las extensiones propias de algunos navegadores.
IMS Research. fundada en 1989 y ahora es uno de los principales proveedores a la industria
global de electrónica.
INTRANET. Aquellas redes que aprovechan el uso de la red Internet para fines privados. La
gran diferencia entre Internet e Intranet es simplemente la forma de utilizar la red de redes.
Internet es para todo público, mientras que Intranet es sólo para los usuarios autorizados. En
el caso de redes privadas que utilizan la tecnología Internet para el intercambio de
información pero que no están conectadas a la red Internet, también se dice que forman un
Intranet particular. Sin embargo, el auténtico Intranet hace siempre uso de la red pública
conocida como Internet. Si utilizamos los mismos elementos de Internet, los instalamos
dentro de nuestra red local exclusivamente para acceso al personal de nuestra empresa, sin
necesidad de tener una conexión al exterior, tenemos en este momento una Intranet.
IRC (INTERNET RELAY CHAT). Cuando un usuario se conecta a un servidor de IRC puede
elegir entre numerosos "canales" con distintos temas de conversación. Una vez que se
170
selecciona el canal, se puede dialogar en tiempo real, en público o en privado, con todos los
participantes de dicho canal.
LAN. Local Area Network. Red de área local. Red de computadoras personales ubicadas
dentro de un área geográfica limitada que se compone de servidores, estaciones de trabajo,
sistemas operativos de redes y un enlace encargado de distribuir las comunicaciones. Por
ejemplo, computadoras conectadas en una oficina, en un edificio o en varios. Se pueden
optimizarse los protocolos de señal de la red hasta alcanzar velocidades de transmisión de
100 Mbps
A diferencia del HTTP, que no define precisamente el género de archivos que vienen
trasladados, el RTSP controla los datos con funcionalidades conceptualmente similares a las
de un aparato de vídeo: Play, fast-forward, pause, stop y record.
171
combina la potencia del PC con el alcance global de Internet, para convertir una llamada
telefónica normal en una experiencia de comunicación y colaboración multimedia más rica y
eficaz.
QCIF. Resolución de video que utiliza una cuarta parte del Formato Intermedio Común con
tamaño de 176x144. Es utilizado por el codec H.261.
QOS (QUALITY OF SERVICE). Calidad del servicio para tráfico asincrónico, como el video
en tiempo real, utilizado por el estándar H.322.
RTCP. Real-time Transport Control Protocol (RTCP) [Protocolo de control de tiempo real]
proporciona un stream de control que está asociado con un stream de datos para una
aplicación multimedia.
RTP. Real Time Protocol. [Protocolo de Tiempo Real]. Protocolo utilizado para la transmisión
de información en tiempo real como por ejemplo audio y video en una video-conferencia.
172
RTSP. Real-Time Streaming Protocol (RTSP) [Protocolo de Streaming en tiempo real] Es un
protocolo, es decir la serie de procedimientos genéricos para la comunicación entre dos
máquinas, que optimiza el flujo de datos.
SERVIDOR. Computador o sistema que comparte sus recursos con otras máquinas,
denominadas clientes, que se los solicitan.
SERVIDOR WEB. Servidor que corre el protocolo HTTP y que permite que los clientes que
se conectan puedan traerse y acceder a las páginas HTML que contiene.
173
TEOREMA DE NYQUIST. Es un teorema fundamental de la teoría de la información, de
especial interés en las telecomunicaciones.
El teorema trata con el muestreo, que no debe ser confundido o asociado con la
cuantificación, proceso que sigue al de muestreo en la digitalización de una señal y que, al
contrario del muestreo, no es reversible (se produce una pérdida de información en el
proceso de cuantificación, incluso en el caso ideal teórico, que se traduce en una distorsión
conocida como error o ruido de cuantificación y que establece un límite teórico superior a la
relación señal-ruido). Dicho de otro modo, desde el punto de vista del teorema, las muestras
discretas de una señal son valores exactos que aún no han sufrido redondeo o truncamiento
alguno sobre una precisión determinada, esto es, aún no han sido cuantificadas.
UNICAST. Comunicación entre un emisor y un solo receptor en una red. Por ejemplo: Un
correo electrónico enviado de una persona a otra.
VIDEO CONFERENCIA. Sistema que permite la transmisión en tiempo real de video, sonido
y texto a través de una red; ya sea en una red de área local (LAN) o global (WAN). El
hardware necesario se compone de a) tarjeta de sonido y vídeo, vídeo cámara, micrófono y
174
bocinas. La velocidad de transmisión lograda actualmente es de 10 cuadros por segundo y
se incluye un soporte vía módem.
WWW (World Wide Web). Es una herramienta de recuperación de información que está en
hipermedios y cuyo objetivo es proveer acceso fácil a cualquier tipo de información vía
servidores de hipertexto.
175