Anda di halaman 1dari 175

SUBSECRETARÍA DE EDUCACIÓN SUPERIOR

INSTITUTO TECNOLÓGICO
DIRECCIÓN GENERAL DE EDUCACIÓN SUPERIOR
TECNOLÓGICA DE CD.GUZMAN

INSTITUTO TECNOLÓGICO DE CD GUZMÁN

TESIS

TEMA:

SUPERVISIÓN Y MONITORIZACIÓN REMOTA


VISUAL / AUDITIVA A TRAVÉS DE RED IP

PARA OBTENER EL GRADO DE:


MAESTRO EN SISTEMAS COMPUTACIONALES

PRESENTA:
ALEJANDRO CÁRDENAS NÚÑEZ

DIRECTOR DE TESIS:
FRANCISCO MANUEL GONZÁLEZ SOLARES

Cd. Guzmán Jalisco, México a Diciembre de 2011


2
RESUMEN

SUPERVISIÓN Y MONITORIZACIÓN REMOTA VISUAL / AUDITIVA A TRAVÉS DE


RED IP.

El objetivo de esta tesis está orientado a la generación de un sistema de Software


que sea capaz de capturar y transmitir video de una o varias cámaras a través de la LAN
(Local Area Network o red de área local por sus siglas en inglés) e Internet para monitorear
diferentes espacios (casa, oficina, escuela, guardería, etc.) con el objetivo de que además de
vigilar de forma remota, sea capaz de grabar de forma manual o bien de forma automática
cuando ocurra un evento relacionado con la detección de movimiento y/o ruido.

En la actualidad las personas tienen la necesidad de observar en tiempo real lo que ocurre
en otros lugares para tomar decisiones al respecto.

En la tesis se estudian los diferentes codificadores y decodificadores de audio y video, así


como los protocolos para transmitir audio y video por red IP.

Se consideró que este producto y/o servicio, debe ser de bajo costo y asequible a cualquier
persona que desee monitorear un lugar en particular.

Actualmente existen pocas empresas que ofrecen sistemas de monitoreo a través de


Internet, siendo muy alto el costo de servicios de video streaming en tiempo real, por lo que
resulta ser inaccesible para el consumidor común,

El avance en la capacidad y velocidad de transmisión de video y audio en el sector de las


telecomunicaciones está provocando que aparezcan en el mercado nuevas y más eficaces
soluciones de vídeo vigilancia.

El sistema se compone elementalmente de dos partes: Software y Hardware, el objetivo de


la tesis radica en la parte del software que se encargará básicamente de procesar y
comprimir la información para ser transmitida por LAN y por Internet usando VPN (Virtual
Private Network o red privada virtual por sus siglas en inglés), ya que el resto de los
componentes de hardware, serán adquiridos dentro de los que se ofrecen en el mercado,
solo se controlará y adaptará su manipulación a través del software que se desarrolle el cual
será llamado posteriormente como Ojovigilante 1.0.

3
ÍNDICE GENERAL.

ANTECEDENTES ...............................................................................................................8
DEFINICIÓN DEL PROBLEMA. .........................................................................................9
JUSTIFICACIÓN. ..............................................................................................................11
OBJETIVO. ........................................................................................................................12
HIPÓTESIS........................................................................................................................12
Limitaciones y delimitaciones............................................................................................12
MARCO DE REFERENCIA. ..............................................................................................13
MÉTODO. ..........................................................................................................................15
DESARROLLO. .................................................................................................................17
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO ....................41
1.1.- FORMATOS DE IMAGEN. ...........................................................................................41
1.1.1.- Introducción. ...........................................................................................41
1.1.2.- Tipos de Imágenes. ................................................................................41
1.1.3.- Formato JPEG. .......................................................................................43
1.1.4.- Formato BMP..........................................................................................44
1.1.5.- Formato GIF. ..........................................................................................44
1.1.6.- Formato TIFF. .........................................................................................44
1.1.7.- Formato PNG..........................................................................................45
1.2.- Formatos de audio. ...................................................................................................46
1.2.1.- Introducción. ...........................................................................................46
1.2.2.- Formato MP3. .........................................................................................49
1.2.3.- Formato RA. ...........................................................................................50
1.2.4.- Formato WAV. ........................................................................................50
1.2.5.- Formato GSM 6.10. ................................................................................51
1.2.6.- Windows Media Audio (WMA). ..............................................................52
1.3.- FORMATOS DE VIDEO. .........................................................................................53
1.3.1.- Introducción. ...........................................................................................53
1.3.2.- Formato AVI............................................................................................55
1.3.3.- Formato Mpeg. .......................................................................................57
1.3.4.- Formato Microsoft Video 1. ....................................................................60
1.3.5.- Formato Cinepak by radius. ...................................................................60

4
1.3.6.- Formato Intel Indeo 5.05. .......................................................................61
1.3.7.- Formato Microsoft RLE. .........................................................................61
1.3.8.- Formato Windows Media Video (WMV). ................................................61
1.3.9.- Formato H.261........................................................................................62
1.3.10.- Formato H.263......................................................................................63
1.3.11.- Formato H.264......................................................................................63
1.3.12.- Conclusiones. .......................................................................................64
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA......................................................67
2.1.- INTRODUCCIÓN. .....................................................................................................67
2.2.- ESTÁNDAR H.320. VIDEOCONFERENCIA SOBRE RDSI. ...................................67
2.3.- ESTÁNDAR H.321. VIDEOCONFERENCIA SOBRE ATM. ....................................69
2.4.- ESTÁNDAR H.322. ...................................................................................................70
2.5.- ESTÁNDAR H.323.VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
...........................................................................................................................................70
2.6.- ESTÁNDAR H.324. VIDEOCONFERENCIA SOBRE POTS. ..................................72
2.7.- ESTÁNDAR H.310. VIDEOCONFERENCIA SOBRE ATM –MPEG-2. ...................73
2.8.- CONCLUSIONES. ....................................................................................................73
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP..........75
3.1.- INTRODUCCIÓN. .....................................................................................................75
3.2.- DESCRIPCIÓN OFICIAL DEL H. 323. .....................................................................76
3.3.- ESTRUCTURA DEL H. 323. .....................................................................................77
3.4.- IMPORTANCIA DEL H. 323. ...................................................................................78
3.5.- IMPLEMENTACIÓN DE LOS PRODUCTOS H.323. ...............................................79
3.6.- ARQUITECTURA H.323. ..........................................................................................80
3.6.1.- Terminales. .............................................................................................81
3.6.2.- Gateways. ...............................................................................................82
3.6.3.- Gatekeepers. ..........................................................................................83
3.6.4.- Unidad Control Multipunto (MCU). .........................................................86
CAPITULO 4. STREAMING. .....................................................................................................90
4.1.- INTRODUCCIÓN. .....................................................................................................90
4.2.- STREAMING BAJO DEMANDA. ..............................................................................91
4.3.- STREAMING EN VIVO. ............................................................................................91
4.4.- FORMATOS DEL STREAMING MEDIA. .................................................................92

5
4.5.- STREAMING MEDIA UNICAST. ..............................................................................93
4.6.- STREAMING MEDIA MULTICAST...........................................................................94
4.7.- DISTRIBUCIÓN DE CONTENIDO. ..........................................................................96
4.8.- FUNCIONAMIENTO DEL STREAMING. .................................................................99
4.9.- VENTAJAS DE STREAMING. ..................................................................................99
4.10.- TECNOLOGÍAS STREAMING. ............................................................................100
4.10.1.- Componentes de las tecnologías Streaming. ....................................101
4.10.2.- Servidores de Streaming. ...................................................................101
4.11.- CONCLUSIÓN. .....................................................................................................108
CAPITULO 5. RTSP Y RTP. ...................................................................................................110
5.1.- INTRODUCCIÓN. ...................................................................................................110
5.2. - RTSP (REAL TIME STREAMING PROTOCOL). ..................................................110
5.3.- CARACTERÍSTICA DEL RSTP. .............................................................................110
5.4.- PROPIEDADES DEL PROTOCOLO RTSP. ..........................................................112
5.5.- VENTAJAS DE RTSP. ............................................................................................113
5.6.- DESVENTAJAS DE RTSP. ....................................................................................114
5.7.- RTSP VS. HTTP. ....................................................................................................114
5.8.- RTP (REAL TIME PROTOCOL). ............................................................................115
5.9.- RTCP (REAL TIME CONTROL PROTOCOL). ......................................................115
5.10.- TRANSMISIÓN EN TIEMPO REAL. ....................................................................116
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED. ......................................................120
6.1.- INTRODUCCIÓN. ..................................................................................................120
6.2.- TRADUCCIÓN DE DIRECCIONES (NAT). ............................................................120
6.3.- MANIPULACIÓN DE CABECERAS. ......................................................................126
6.4.- NAT CON MÚLTIPLES DIRECCIONES. ..............................................................128
6.5.- CONCLUSIÓN. ......................................................................................................128
CAPITULO 7. TCP Y UDP. .....................................................................................................130
7.1.- INTRODUCCIÓN. ...................................................................................................130
7.2.- ARQUITECTURA TCP/IP. ......................................................................................130
7.3.- PROTOCOLOS TCP/IP. .........................................................................................132
7.4.- CARACTERÍSTICAS DE TCP/IP. .........................................................................132
7.5.- EN QUE SE UTILIZA TCP/IP. ................................................................................134
7.6.- PROTOCOLO UDP.................................................................................................134

6
7.6.1.- Encabezado de UDP. ...........................................................................140
7.6.2.- Formato del mensaje UDP. ..................................................................141
7.7.- CONCLUSIÓN. .......................................................................................................142
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN). ........................................................145
8.1 INTRODUCCIÓN. .....................................................................................................145
8.2. PROTOCOLO PPTP. ...............................................................................................152
8.3. PROTOCOLO L2TP. ................................................................................................154
8.4. PROTOCOLO IPSEC...............................................................................................155
8.5. PROTOCOLO MPLS................................................................................................160
8.6. CONCLUSIÓN..........................................................................................................160
PRUEBAS Y RESULTADOS ..................................................................................................161
BIBLIOGRAFÍA........................................................................................................................164
GLOSARIO. .............................................................................................................................166

7
ANTECEDENTES

La videovigilancia es cada vez más necesaria debido al gran número de robos y


maltrato a niños y ancianos por lo que los sistemas de videovigilancia han evolucionada
enormemente en los últimos años.

El avance en la capacidad y velocidad de transmisión de video y audio en el sector de


las telecomunicaciones está provocando que aparezcan en el mercado nuevas y más
eficaces soluciones de vídeo vigilancia.

La utilización de sistemas de vigilancia han crecido exponencialmente en la última


década, la preocupación por la seguridad (especialmente como consecuencia de los delitos
de robo y abuso de confianza cometidos frecuentemente) hace que se necesiten sistemas de
videovigilancia mas eficaces e inteligentes.

Actualmente los sistemas de videovigilancia no pueden ni deben basarse sólo en la


observación directa de lo que las cámaras están capturando, Sino de un software que en
base a eventos como detección de movimiento realice tareas automáticamente como grabar
video.

A finales de los años noventa, muchos centros de investigación en todo el mundo


desarrollaron algunos algoritmos informáticos sobre el procesamiento de vídeo inteligente y
diseñaron sistemas específicos para aplicaciones de seguridad.

Otro hecho que contribuyó al avance de la videovigilancia de forma notable fue que
en 1997, la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA) iniciara
un proyecto de tres años para desarrollar un sistema de Monitorización y Vigilancia de vídeo
(VSAM). El objetivo del proyecto VSAM fue el desarrollo de tecnología automática de análisis
de vídeo para su uso en aplicaciones urbanas y militares.

Recientemente, en uno de sus informes el analista Simon Harris del IMS Research,
argumenta que el uso de los sistemas de vídeo inteligente es sumamente urgente. Dice:

8
“Los operadores de CCTV están siendo sobrecargados con un contenido de vídeo
que no pueden vigilar de forma eficiente. Los experimentos han demostrado que después de
22 minutos, los operadores que visualizan simultáneamente varios monitores de vídeo
pueden pasar por alto acciones peligrosas que suceden en las escenas vigiladas.
Necesitamos vídeo inteligente para mejorar la efectividad de los sistemas de vigilancia y
aliviar la carga de los operadores”.
Borrmart, (Ed.). Seguritecnia, Revista independiente de seguridad.

DEFINICIÓN DEL PROBLEMA.

Una de las aplicaciones más usada en estos días es la vigilancia de la vivienda, con
una cámara IP. Es decir una cámara cuyo video y audio podemos acceder desde cualquier
lugar en el que tengamos acceso a Internet

Actualmente existen en el mercado, pocas empresas que ofrecen sistemas de


monitoreo a través de Internet, siendo muy alto el costo de servicios de video streaming en
tiempo real, por lo que resulta ser inaccesible para el consumidor común, por lo cual. Lo que
se pretende con el presente proyecto está directamente relacionado con el desarrollo de un
sistema de monitoreo visual y auditivo en tiempo real por LAN y por Internet usando VPN
(Virtual Private Network, red privada virtual por sus siglas en inglés) también se hará bajo
demanda, es decir, solicitar video previamente grabado para descargarlo y visualizarlo
localmente. Resultando un producto que sea funcional y de bajo costo, para que de esta
manera pueda ser adquirido por aquellas personas que requieran de este tipo de servicios.

Una de las razones principales en que está fundamentado el origen de este


problema, reside básicamente en el hecho de que en la actualidad existe un auge cada vez
mayor de personas que laboran o permanecen fuera de su hogar durante largas jornadas
que van desde el alba hasta después del anochecer ya sea debido a la ubicación de su lugar
de trabajo o bien a que viajan continuamente como parte de su misma tarea.

Actualmente las personas trabajan en lugares muy distantes de donde viven lo que impide a
mucha gente estar cerca de sus familiares y/o propiedades, por horas, días, semanas y
hasta meses. Esta ausencia por periodos prolongados de un lugar específico, representa sin

9
duda alguna, una maravillosa oportunidad para identificar aquellos que se dedican a cometer
ilícitos en contra de terceros, ya que contando con la identificación de casas habitación o
negocios en donde no hay moradores y/o vigilancia de forma frecuente, disponen del tiempo
necesario para efectuar sus tropelías.

Uno de los ejemplos más representativos de este tipo de sucesos es el robo a casas
habitación y negocios, el cual se efectúa con mayor índice de frecuencia durante los fines de
semana y/o periodos vacacionales. Eso es tan solo un ejemplo de lo que podría ser evitado
con el uso de un proyecto como el que aquí se pretende realizar; aunque también, es
necesario mencionar el hecho de que existen otros muchos lugares en donde podría ser
aplicado, ya que como es de todos conocido a través de los medios informativos, se
encuentran los actos relacionados con el robo de infantes que se dan en hospitales, los
cuales son sustraídos de manera ilícita por personas ajenas a la institución; de igual forma
se han dado a conocer los hechos relacionados al maltrato a que son sometidos algunos
infantes dentro de las instalaciones de casas habitación e instituciones de cuidado infantil, en
donde, según se ha reportado a través de los medios de comunicación, la forma en que
dichos menores son abusados por parte del personal a quienes los padres les confían a sus
hijos.

Por consecuencia, se tiene como objetivo el realizar la construcción de un sistema,


que pueda ser utilizado por parte del usuario que en potencia es vulnerable a sufrir los
efectos de hechos como los arriba mencionados. Solo que debe de tomarse en
consideración que este producto y/o servicio, debe ser de bajo costo y asequible a cualquier
persona que se pueda considerar así misma dentro de ese grupo mencionado, para que
desde cualquier sitio en que se encuentre y desde su computadora personal, pueda realizar
una revisión ocular (a través de una cámara) del lugar que le es de interés y así poder
constatar que sus propiedades o infantes se encuentran de acuerdo a lo deseado.

El sistema se compone elementalmente de dos partes: Software y Hardware, el


objetivo de la tesis radica en la parte del software que se encargará básicamente de
procesar el video y transmitirlo por red IP.

10
Los componentes de hardware, serán adquiridos dentro de los que se ofrecen en el
mercado, según las necesidades particulares.

JUSTIFICACIÓN.

En la actualidad las personas tienen la necesidad de saber que esta ocurriendo en


tiempo real en otro lugar que es de su interés personal o de su propiedad, entre los cuales se
pueden mencionar los siguientes ejemplos:

• En la oficina: Para verificar que los empleados cumplan realmente con sus funciones o
bien para controlar el tiempo que invierte el personal en desarrollar la actividad para la
que fue contratado y el número de visitas que recibe durante el transcurso de la jornada
laboral y todas las actividades relevantes al cuidado de los bienes materiales.
• Educación: Seguridad y monitorización remota de áreas de recreo de colegios, pasillos,
aulas y salas, así como seguridad de los edificios. Para evitar actos de vandalismo o
incluso evitar la venta de drogas a estudiantes.
• Transporte: Monitorización remota de estaciones de tren y vías, autopistas, aeropuertos,
etc. Para evitar actos de terrorismo e identificar a los delincuentes.
• Administración: En aplicaciones de vigilancia de seguridad, a menudo integradas con
sistemas de control de accesos nuevos o existentes. Para garantizar el acceso a
personas autorizadas.
• En casa: para detectar posibles intrusos a la hora que ellos (los propietarios) se
encuentran ausentes, para verificar el estado y trato que tiene el infante que se deja al
cuidado de otra persona.
• En la guardería: para ver el trato y cuidados que reciben los niños, así como el
comportamiento que tienen los mismos.
• Industria: Monitorización de procesos de fabricación, almacenes, para supervisar las
actividades de los obreros, verificar controles de nivel, etc.
• En los bancos: para detectar posibles actos delictivos en que puedan incurrir sus
propios empleados.
• En el hospital: para evitar el robo de niños por parte de personal no autorizado.

11
• En cualquier lugar que se desee verificar el orden, como son el caso de los accesos a
las empresas, almacenes, etc.
Por lo anterior, es que con el presente proyecto, se pretende desarrollar un sistema,
el cual será capaz de permitir verificar las situaciones antes descritas.

OBJETIVO.

Diseñar un sistema de videovigilancia para procesar y transmitir video en tiempo real


por LAN que sea eficiente y de bajo costo, de esta manera las personas pueden estar más
tranquilas al cuidar sus bienes y el bienestar de su familia.

HIPÓTESIS.

Con el uso del software denominado “Ojovigilante 1.0” se podrán vigilar en tiempo
real los lugares donde sea instalado, para cuidar bienes inmuebles, el abuso y maltrato de
infantes y personas de la tercera edad.
.

LIMITACIONES Y DELIMITACIONES.

LIMITACIONES.
El sistema de videovigilancia sólo funciona en ambiente windows (windows 98,
windows milenium, windows 2000, windows XP).

DELIMITACIONES.
El sistema no puede evitar robos sólo graba la evidencia y desalienta a cometer
ilícitos mediante el uso de alarmas sonoras.
El sistema no tiene reconocimiento de rostros humanos.

12
MARCO DE REFERENCIA.

Para el desarrollo e implementación del presente proyecto, se contemplan todos los


elementos que formarán parte del mismo, ya que del uso y acoplamiento que se realice con
ellos se podrá obtener un resultado con mayor o menor grado de confiabilidad.

Además, se debe de tomar en consideración que dentro del mundo computacional las
aplicaciones que pueden ser realizadas o llevadas a la práctica, dependen en demasía en:
las necesidades de los usuarios en potencia, los adelantos tecnológicos que se realicen en el
área de electrónica de estado sólido y de comunicaciones.

En la sección correspondiente a la forma en que se habrá de entablar la


comunicación vía remota, se incluirá una investigación detallada sobre el protocolo TCP
(Transfer Control Protocol por sus siglas en ingles o Protocolo de Control de Transferencia)
/IP (Internet Protocol por sus siglas en ingles o Protocolo de Internet) y el UDP (User
Datagram Protocol por sus siglas en ingles o Protocolo de Datagramas de Usuario).
Sus características tales como:

o Funcionamiento en el modelo OSI.


o Diferencias en el encabezado de datos.
o Ventajas y desventajas de ambos protocolos.

Además los protocolos HTTP (Hipertext Transfer Protocol por sus siglas en inglés o
Protocolo de transferencia de Hipertexto),
RTP (Real Time Protocol por sus siglas en inglés o Protocolo de Tiempo Real), y
RTSP (Real Time Streaming Protocol por sus siglas en inglés o Protocolo de flujos en
Tiempo Real).

De igual forma, se requiere de una investigación relacionada con los formatos de imágenes,
Audio y video.

13
Servicio de video vigilancia en el mercado.

Una investigación hecha sobre las empresas que ofrecen servicio de videovigilancia nos
indica lo siguiente:

Telmex (Video Vigilancia Administrada) Servicio de video monitoreo basado en tecnología


IP.
Esta empresa ofrece servicio de video vigilancia con un cobro mensual por cámara.
La cual ofrece los siguientes beneficios.

• Reduce al máximo la inversión en equipamiento.


• Mejora la eficiencia operativa.
• Monitorear y supervisar de manera confiable, la operación de su empresa.
• Seguridad en su operación y en el resguardo de su información.
• Simplifica cualquier investigación o análisis de las imágenes en vivo o grabadas.
• Permite atender proactivamente incidentes, en lugar de reaccionar ante ellos.
• Integra y utiliza equipos ya existentes, protegiendo las inversiones ya realizadas y
bajando costos.
• La renta del servicio le permitirá una actualización permanente tanto en software y
hardware, bajo las políticas de contrato.
• Servicio de visualización remota 1, 2, 4 y 7 CPS (cuadros por segundo) con 120
horas de grabación centralizada por cámara.
• Diseño y configuración de la solución de acuerdo a necesidades del cliente.

Se requiere el servicio RPV Multiservicios Uninet de Telmex (Servicio de Transporte), el cual


se diseña y se cobra por separado.

Es un servicio exclusivo para clientes Infinitum que te permite monitorear tu casa a través de
Internet mediante el uso de cámaras IP compatibles.

ServiGuard.
Al igual que Telmex se debe pagar una renta mensual por cámara instalada.

14
Avantel.
También con este servicio se debe pagar una renta mensual por cámara instalada.

Video Guardián.
Es una empresa mexicana que ofrece servicio de video vigilancia incluye el software y el
hardware.

MÉTODO.

Para llevar a cabo el diseño del sistema de videovigilancia se investigarán las


diferentes técnicas y tecnologías existentes como son:

• Protocolos de transmisión de audio y video.


o Características.
o Ventajas.
o Desventajas.
• Algoritmos de codificación y decodificación.
o Características.
o Ventajas.
o Desventajas.
• Hardware disponible en el mercado.
• Sistemas de videovigilancia existentes en el mercado
• Para desarrollar el software del proyecto, se utilizará el lenguaje de programación Visual
Basic 6.0, así como HTML y JavaScrip para la interfaz en Internet.

Para crear un sistema de videovigilancia se investigarán los estándares de señales


digitales de audio y video (formatos de imagen, audio y video), estándares de
videoconferencia, videoconferencia sobre IP, métodos de streaming, protocolos RTSP y
RTP, traducción de dirección de red (NAT), protocolo TCP y UDP, redes privadas virtuales
(VPN). Para determinar las posibilidades de desarrollar un sistema de videovigilancia IP.

15
Se hará una investigación de sistemas de videovigilancia existentes en el mercado
para conocer sus características (servicios, precio, etc.)
Para de esta manera determinar si es conveniente desarrollar un sistema de videovigilancia
mejor y a bajo costo.

16
DESARROLLO DEL PROYECTO.

El proyecto se desarrollo en lenguaje Visual basic 6.0. Utilizando una red de área local (LAN
) con tres computadoras:

- Pentium II a 300 mhz con windows 98


- Pentium 4 a 1.3 ghz con windows 2000
- Laptop pentium 4 a 2.4 ghz con windows xp sp2
- Un switch Linksys.
- Conexión a Internet a 2 mbs.
- y tres cámaras web.

La interfaz para internet se desarrollo utilizando HTML, ASP y JavaScript utilizando IIS
(Internet Information Server) como servidor web.

Interfaz para ver el sistema vía internet.

Para poder utilizar el navegador web y acceder al sistema de videovigilancia es necesario


que se activen las opciones de activex en el navegador.

17
INTERFACES DEL SISTEMA DE VIDEOVIGILANCIA.

• Pantalla principal.

Esta es la interfaz principal en donde se muestran cuatro pantallas, las dos pantallas
superiores pueden transmitir video local y remoto y las dos pantallas inferiores son sólo para
video remoto.
- La pantalla superior-izquierda es para conectar la cámara local principal y es la única que
puede transmitir video por la red.

Conectar a dirección IP. Aquí se introduce la dirección IP del servidor de video al cual
desea conectarse para poder acceder a la cámara.

Contraseña. Algunos servidores de video tienen contraseña para enviar video teclee aquí la
contraseña de lo contrario se negará el servicio de transmisión.
Botón (Conectar). Una vez que haya tecleado la dirección IP y la contraseña oprima este
botón, la petición se enviará al servidor y si es correcto empezará a recibir video.

18
Cámaras locales y remotas. En este cuadro se encuentran todas las cámaras disponibles
para recibir video, elija la cámara que desea con la contraseña y haga clic en el botón
conectar.

• Cámara principal.

Interfaz que muestra lo que esta transmitiendo la cámara principal

Caja de texto para elegir tamaño de imagen. En esta caja se encuentran todos los
tamaños de imagen soportados por la cámara conectada.

Alarma video. Seleccione este cuadro haciendo click dentro del el, si desea que la pantalla
active la alarma de detección de movimiento.

Alarma audio. Seleccione este cuadro haciendo click dentro del el, si desea que la pantalla
active la alarma de detección de audio.

Mover cámara. Muestra una interfaz para mover la cámara al ángulo deseado.

Grabar Video. Muestra una interfaz para grabar video.

19
Zoom. Muestra una interfaz para hacer zoom a la imagen.

Propiedades. Muestra una interfaz para aplicarle varias propiedades a la imagen como
(brillo, contraste, matiz, etc.).

Desconectar. Desconecta la cámara principal (si existen clientes recibiendo video les manda
un mensaje de desconexión).

• Grabar audio y video.

Con esta interfaz podemos grabar video en formato WMV o AVI hasta que se oprima
el botón “Parar captura” o durante el tiempo indicado en minutos y segundos.

Cuando se graba en formato WMV puede elegir el perfil de grabación, es decir las
características predefinidas con las que se grabará como son: tamaño de la imagen, cuadros
por segundo, codificador de audio y video.

La grabación en formato AVI será con el codec de audio y video que tengamos configurado
en el sistema de videofigilancia.

20
La grabación por alarma siempre será en formato WMV con el perfil y el tiempo
seleccionado.

Para la grabación remota el cliente manda una solicitud para iniciar la grabación de video, el
servidor empieza a grabar el video, cuando el cliente manda la solicitud de terminar
grabación de video el servidor envía vía TCP una copia del archivo grabado.

• Capturar imágenes en formato JPG.

Con esta interfaz se puede grabar una imagen en cualquier momento para copiarla al
portapapeles o grabarla en un archivo, se hace doble click sobre la pantalla y aparecerá la
interfaz, para refrescar la imagen basta con dar click sobre ella.
En la detección de audio o movimiento se manda una imagen vía FTP para verla
posteriormente si está activa la opción de envio, también se puede mandar un aviso junto
con la imagen por SMTP sobre el evento ocurrido.

21
• Configurar propiedades del video.

Con esta interfaz podemos configurar las propiedades de video e imagen de nuestra cámara
como son: brillo, contraste, matiz, saturación, nitidez, gama, habilitar color, equilibrio de
color, luz de fondo, ganancia, etc.

• Agregar cámaras remotas.

22
Esta interfaz nos permite agregar, eliminar o modificar nuevas cámaras, el sistema una vez
que se inicia busca cámaras conectadas en un rango de IPs, después busca las cámaras
que tenemos dadas de alta en el sistema.

• Visor de fotografías.

Esta interfaz nos permite ver las imágenes grabadas manualmente o por alarmas.

• Control de cámara PTZ (Pan, Tilt, Zoom).

Esta interfaz nos permite manipular la cámara para ver el ángulo deseado, horizontal, vertical
y acercamiento.

23
Pan la cámara permanece en una misma posición, pero gira sobre su mismo eje, barriendo
todo el campo visual.

Tilt es un movimiento vertical de la cámara en la que la cámara apunta hacia arriba o hacia
abajo desde una ubicación fija.

• Chat de voz y escritura.

Esta Interfaz sirve para realizar una comunicación escrita y oral con otros clientes
conectados, también puede enviar archivos por TCP.

Seleccione el usuario para chatear. En este cuadro aparecen todos los usuarios
conectados, también aparece el usuario “Todos” si elige este usuario le enviará el mensaje a
todos los clientes conectados.

24
Computadora remota IP. Aquí veremos los mensajes que nos son enviados.

Computadora local. En este cuadro escribimos los mensajes que enviaremos al usuario
que indiquemos.

Botón (Enviar archivo). Muestra una interfaz para poder enviar un archivo a otra
computadora.

CHAT DE VOZ.
Conectar con IP. Si conoce la IP y esta no aparece en la lista de cámaras escriba aquí la IP
y presione el botón “Marcar/Colgar”.

Lista de cámaras. Nos muestra todas las cámaras con las que podemos comunicarnos elija
una y presione el botón “Marcar/Colgar”.

Cuando se presiona el botón “Marcar” el sistema lanza una petición de comunicación, si es


aceptada el botón cambia la leyenda a “Colgar”, para hablar mantenga presionado el botón
con la imagen de celular.

• Transferir archivo.

25
Esta interfaz nos permite enviar un archivo a otra computadora por TCP.
Elegimos la IP o la computadora remota y presionamos el botón conectar, buscamos el
archivo que queremos enviar, y presionamos el botón “Enviar archivo”.

El sistema la usa automáticamente si esta habilitada la opción “Transferir archivo grabado


por alarma a otra computadora” esto es con fines de respaldo y de seguridad ya que podrían
destruir la evidencia en el equipo local.

• Correo electrónico (SMTP).

Con esta interfaz podemos mandar un correo electrónico manualmente, el sistema también
la utiliza para enviar un archivo de video al detectar audio y/o movimiento al destinatario que
le indiquemos.
El sistema envía automáticamente un archivo de video si esta habilitada la opción “Enviar
correo electrónico si detecta movimiento” esto con fines de respaldo y seguridad.

El servidor SMTP debe ser un servidor válido de correo, generalmente nuestro proveedor de
internet nos otorga este servicio, aunque actualmente existen estos servicios gratuitos como
los que otorga Hotmail, Yahoo, Gmail entre otros.

26
• Transferencia remota de archivos (FTP).

Con esta interfaz podemos enviar un archivo manualmente, para alojarlo en un servidor
remoto vía FTP.
El sistema envía automáticamente un archivo de video al detectar audio y/o movimiento si
esta habilitada la opción “Subir video local a Internet”.

Datos de conexión. Nos pide el servidor FTP donde alojaremos nuestro archivo de video,
el usuario y contraseña de autenticación.

Tipo de conexión.
Modo activo. Se llama modo activo porque la transmisión de datos es iniciada como proceso
distinto desde el servidor, hacia el puerto que le hemos indicado.
Modo pasivo. En modo pasivo es siempre el programa cliente el que inicia la conexión con el
servidor.

Tipo de transferencia.
Binaria. Este tipo es usado cuando se trata de ficheros comprimidos, ejecutables para PC,
imágenes, archivos de audio, archivos de video.

27
ASCII. Adecuado para transferir ficheros que sólo contengan caracteres imprimibles (ficheros
ASCII, no ficheros resultantes de un procesador de texto), por ejemplo páginas HTML.

• Reproductor de video.

Interfaz para reproducir el video grabado o recibido de otras cámaras.

• Eliminar videos almacenados.

Con esta interfaz puede eliminar los videos históricos que ya no desee conservar y tener
más espacio en disco duro.

28
• Configurar cámara remota.

Esta interfaz es muy especial y nos pide clave de acceso para poder utilizarla, con
ella podemos configurar muchas de las propiedades de las cámaras remotas como:
cambiar de cámara para transmitir video, Codificador de audio y video, apagar y encender
cámara, apagar el sistema de videovigilancia, sensibilidad de detección de audio y
movimiento, programar hora de detección automática, activar alarmas de audio y
movimiento, etc.

29
• Configurar servidor web IIS.

Si deseamos transmitir por Internet es necesario crear y configurar el servidor web IIS
(Internet Information Server), debemos tener instalado el servidor web, entramos a esta
interfaz y presionamos el botón “Crear directorio virtual” si existe un servidor web, se crea el
servicio con éxito de lo contrario nos indica que no existe un servidor web instalado..

• Eliminar registros de sucesos.

Cuando ya no queramos el histórico de registros de sucesos entramos a esta interfaz y


presionamos el botón “Eliminar registros”.

30
• Opciones del panel 1.

Clientes conectados. Muestra los clientes que están


recibiendo video.
Clientes Web. Muestra los clientes conectados vía
Internet.
Sensibilidad de movimiento. Ajuste la sensibilidad del
0 al 100 entra más alto el valor más movimiento se
necesita para que se active la alarma.
Sensibilidad de audio. Igual que la sensibilidad de
video, 0 al 100.
Grabar video local por alarma. Si está habilitada
graba un archivo de video en formato WMV con una
duración indicada en segundos.
Grabar audio en video. Si está habilitada graba audio
y video de lo contrario sólo graba video.
Subir video a Internet. Si está habilitada sube el video
grabado por alarma a un sitio FTP.
Enviar correo electrónico si detecta movimiento. Si
está habilitada manda un correo electrónico, indicando
la cámara y el suceso ocurrido.
Grabación continúa cámara 1. Si está habilitada graba
el video de forma continua en archivos de una hora
cada uno.
Grabar video remoto por alarma. Si está habilitada le
indica al servidor de video del cual estamos conectados
que si se activo una alarma nos mande una copia del
video grabado.
Seguir movimiento de personas. Esta opción es muy especial si está habilitada le indica a
todos los servidores que si detectan movimiento le transmitan video en tiempo real, de esta
manera cuando una persona va pasando por las cámaras de video estas empiezan a
mandar video al solicitante.

31
• Opciones del panel 2.

Entrada de video. Muestra todas las entradas de video


que tiene la tarjeta.

Codificador de video. Muestra todos los codificadores de


video instalados en el sistema operativo.

Dispositivos de audio. Muestra todos los dispositivos de


audio conectados en la computadora.

Entrada de audio. Muestra todos los dispositivos


conectados para enviar audio.

Codificador de audio. Muestra todos los codificadores de


audio instalados en el sistema operativo.

Tipo de audio. Podemos elegir si queremos audio mono o


stereo de 8 o 16 bits, la frecuencia es de 8000, 11025,
22050 y 44100 Hz.

Activar alarmas de audio y movimiento. Si está


habilitada, se activan las alarmas a la hora indicada, si las
alarmas no estaban activadas y se desactivan a la hora
indicada si las alarmas están configuradas como
desactivadas.

Cuadros por segundo. Puede elegir los cuadros por segundo a los cuales transmitirá video
en un rango de 5 a 30 cps. Entre mayor sea el valor más ancho de banda consumirá.

32
• Opciones del panel 3.

Elija una opción. En este cuadro se encuentran todas las


interfaces manejadas por el sistema, elija una dando click.

Activa sistema al iniciar windows. Si está habilitada el


sistema de videovigilancia empezará a funcionar al
encender la computadora.

Mostrar fecha en video. Si desea que la fecha se grabe en


la transmisión de video habilite está opción.

Duración de la alarma de audio. Indique aquí la duración


de la alarma de audio en segundos.

Archivo de audio. Elija el archivo que se reproducirá al


activarse la alarma de audio.

Datos de la cámara. Escriba los datos de su cámara de


video, la dirección IP es tomada de la computadora, el
nombre y ubicación de la cámara.

Posición de la imagen. Si la cámara permite esta función


puede elegir la posición de la imagen.

33
Estructura funcional del sistema.

Cámara 2
Cámara 1

Servidor y
Cliente 2

Servidor y
Cliente 1

Cliente 3 Cliente 4

Para conectarse al sistema de videovigilancia hay dos formas:

-Tener instalado el sistema de videovigilancia en la computadora.


- Mediante un navegador de Internet (Internet Explorer).

En la primera forma se tiene acceso al 100% de la funcionalidad del sistema, si no se tiene


instalado el sistema y se entra mediante un navegador web solo podrá usar las opciones
básicas del sistema.

34
Análisis y pruebas de codificadores de video.

El sistema utiliza los codificadores y decodificadores de video y audio que tiene


instalado el sistema operativo, también podemos instalar manualmente otros codificadores
que queramos para que sean utilizados por el sistema de videovigilancia.

Los codificadores de video más comunes de windows son:

o Microsoft MPEG-4 video codec V1


o Microsoft MPEG-4 video codec V2
o Microsoft MPEG-4 video codec V3
o Microsoft Windows Media Video 9
o Microsoft Video 1
o Indeo video 5.1.0
o Indeo video 5.10 compression filter
o Intel indeo video R.3.2
o Intel indeo video 4.5
o Intel I.263 Video Driver 2.55.016
o Codec intel IYUV
o Cinepak codec by radius
o Microsoft RLE
o DVVideo encoder
o VP60 Simple Profile
o VP61 Advanced Profile
o VP62 Heightned Sharpness Profile
o X264-H264/AVC encoder

A continuación veremos las principales características y los resultados de los codificadores


de video en una grabación de 15 segundos, 5 cuadros por segundo, 352 x 288 pixeles y
velocidad de transmisión 128 kbs.

35
Resultados de las pruebas a los codecs de video más populares.
Tamaño
Promedio
Codec de video Calidad Conclusión
En 5
muestras
Microsoft MPEG-4 video codec V1 495 Kb Excelente Ideal para transmitir stream por
Internet.
Ideal para transmitir stream por
Microsoft MPEG-4 video codec V2 475 Kb Excelente
Internet.

Microsoft MPEG-4 video codec V3 470 Kb Excelente Ideal para transmitir stream por
Internet.
Ideal para transmitir por internet
Microsoft Windows Media Video 9 148 Kb Excelente
por el tamaño.
No se recomienda para transmitir
Microsoft Video 1 2682 Kb Regular
por internet.
Aceptable para transmitir por
Indeo video 5.1.0 460 Kb Bueno
internet.
Aceptable para transmitir por
Indeo video 5.10 compression filter 440 Kb Bueno
Internet.
Aceptable para transmitir por
Intel indeo video R.3.2 500 Kb Bueno
Internet.
Aceptable para transmitir por
Intel indeo video 4.5 510 Kb Bueno
Internet.
Aceptable para transmitir por
Intel I.263 Video Driver 2.55.016 178 Kb Bueno Internet.
Por el tamaño no se recomienda
Codec intel IYUV 11960 Kb Bueno
para transmitir por Internet.
Cumple para transmitir por
Cinepak codec by radius 1450 Kb Bueno Internet.

Mala calidad y un tamaño


Microsoft RLE 6468 Kb Mala
demasiado alto.
No es ideal para Internet, por el
DVVideo encoder 9122 Kb Regular
tamaño, y porque aplica zoom.
Ideal para transmitir por Internet,
VP60 Simple Profile 170 Kb Excelente se necesita instalar manualmente
el codec.
Ideal para transmitir por Internet,
VP61 Advanced Profile 165 Kb Excelente se necesita instalar manualmente
el codec.
Ideal para transmitir por Internet,
VP62 Heightned Sharpness Profile 165 Kb Excelente se necesita instalar manualmente
el codec.
x264-H264/AVC encoder 172 Kb Excelente Ideal para transmitir por Internet.

36
Los codecs Cinepak y los de la familia Indeo son muy comunes en las versiones de windows
y tienen una calidad aceptable para transmitir stream por internet.

Los codificadores Microsoft MPEG-4 video codec versión V1, V2 y V3 también tienen una
alta calidad de compresión y se encuentran presentes en las versiones de windows con la
aplicación windows media player.

Los codificadores VP60 Simple Profile, VP61 Advanced Profile y VP62 Heightned Sharpness
Profile generan un video de tamaño reducido con una calidad aceptable, el inconveniente es
que hay que instalarlos manualmente, ya que no vienen en las versiones del sistema
operativo windows.

37
Análisis y pruebas de codificadores de audio.

Los codificadores de audio más comunes de windows son:

o IAC2
o IMA ADPCM
o PCM
o ACELP.net
o Windows Media Audio V1
o Windows Media Audio V2
o Microsoft G.723.1
o Ley A CCITT
o Ley u de CCITT
o AC-3 ACM Codec
o MPEG Layer 3
o Vorbis encoder

A continuación veremos las principales características y los resultados de los codificadores


de audio en una grabación de 15 segundos.

Tamaño
Velocidad de
Codec de audio Promedio Calidad
transmisión
En 5 muestras

IAC2 415 Kb Buena 32 Kbps

IMA ADPCM 626 Kb Buena 128 Kbps

PCM 325 Kb Buena 32 Kbps

ACELP.net 295 Kb Buena 8 Kbps

Windows Media Audio V1 265 Kb Buena 8 Kbps

Windows Media Audio V2 270 Kb Buena 13 Kbps

Messenger audio codec 255 Kb Buena 6 Kbps

38
Microsoft G.723.1 405 Kb Buena 64 Kbps

Ley A CCITT 410 Kb Buena 64 Kbps

Ley u CCITT 275 Kb Buena 16 Kbps

MPEG Layer 3 515 Kb Excelente 128 Kbps

Vorbis encoder 510 Kb Excelente 128 Kbps

Todos los codificadores de audio tuvieron un buen desempeño tomando en cuenta la


velocidad de transmisión.

Los codificadores que transmiten a 128 Kbps fueron:

o IMA ADPCM tamaño promedio 626 Kb.


o MPEG Layer 3 tamaño promedio 515 Kb.
o Vorbis encoder tamaño promedio 510 Kb.

Si se tiene ancho de banda suficiente se recomienda MPEG Layer 3 y Vorbis encoder.

Si no tiene suficiente ancho de banda se recomienda un codificador con una velocidad


menor de transmisión de 16 Kbps como:

o Windows Media Audio V1 tamaño promedio 265 Kb, 8 Kbps.


o Windows Media Audio V2 tamaño promedio 270 Kb, 13 Kps.

39
CAPITULO 1.

ESTÁNDARES DE SEÑALES
DIGITALES DE AUDIO Y VIDEO.

40
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO

1.1.- FORMATOS DE IMAGEN.

1.1.1.- Introducción.

Existe una amplia gama de formatos de video como son: bmp, gif, jpg, etc. Pero no
todos estos formatos son adecuados para una web, debido a que pueden ocupar mucha
memoria o a que no son compatibles con algunos navegadores.

Eso hace difícil el escoger el formato adecuado a las necesidades del usuario. A
partir del trabajo con herramientas gráficas, el desarrollo de formatos se ha enfocado a la
capacidad y calidad de la compresión de los archivos, ya que el archivo de imagen debe ser
comprimido, porque el espacio que ocupará y su tiempo de transferencia serán menores, la
combinación ideal residen en buena calidad de la imagen y tamaño reducido de archivo, y,
los formatos más cercanos a esos estándares, son: GIF y JPEG, lo que es debido a las
opciones de compresión que utilicen.

1.1.2.- Tipos de Imágenes.

Para manipular los datos de un archivo de imagen, existen dos modos o formatos que
permiten visualizarlas, éstos son: mapas de bits y vectoriales.

Mapas de Bits.

Las imágenes de mapa de bits (bitmaps) están formadas por una rejilla de celdas. A
cada una se le denomina píxel y se le asigna un valor de color y luminancia propios. Al ver
un conjunto de celdas, se crea la ilusión de una imagen de tono continuo. El píxel es una
unidad de información y puede ser muy pequeño (0.1 mm.) o muy grande (1 cm.).
Cuando se crea una imagen de mapa de bits se genera una rejilla específica de
píxeles y al modificar su tamaño, se transforma simultáneamente la distribución y coloración

41
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

de los píxeles, y los objetos de la imagen, se deforman por la pérdida o ganancia de


píxeles que los definen. Por lo cual, las imágenes de mapa de bits se crean con un tamaño
determinado y pierden calidad si se modifican sus dimensiones.

Imágenes Vectoriales.

Los elementos constituyentes del vector, en una imagen vectorial, son las curvas de
Bézier (desarrolladas por Pierre Bézier por encargo de la empresa Renault); cada una se
define por los puntos: inicial y final de la curva (nodos o puntos de anclaje) y dos de control
(manecillas o manejadores), estos últimos sirven para definir la forma de la curva y no
aparecerán en la imagen final, y, para modificar la curva sólo se tiene que mover alguno de
los nodos.

Estas curvas muy estilizadas y versátiles, son fáciles de manejar, ya que adoptan
curvaturas muy suaves (casi líneas rectas) o muy fuertes (curvas complejas) que pueden
adaptarse a infinitud de formas (por ejemplo iconos y logotipos) siendo útiles en el diseño y
manipulación de fuentes de texto.

En la imagen vectorial, cada objeto esta definido por sus propias fórmulas matemáticas
y se puede manipular independientemente y cada objeto esta dividido en elementos
independientes, por lo que no hay que modificar todo el objeto sino sólo una parte,
controlando con gran precisión la forma, orientación y ordenación de los elementos de la
imagen. La imagen vectorial también acepta la inserción de bitmaps, ya sea para rellenos de
formas, o bien, como elementos separados. Sin embargo, se tiene la posibilidad de exportar
los gráficos vectoriales a formatos estándar de mapa de bits.

42
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

Los gráficos vectoriales son muy eficaces en el manejo de texto, ya que admiten
fuentes TrueType que son reconocidas como objetos vectoriales. A cada letra se le pueden
asignar contornos editables y descomponer el texto en objetos. De esta manera, ya no hará
falta tener instalada la fuente para seguir editando los contornos, porque ya no serán
tratadas como fuentes.

1.1.3.- Formato JPEG.

El formato Joint Photographic Experts Group (JPEG por sus siglas en inglés o
Conjunto de Grupos de Expertos en Fotografía) se utiliza normalmente para mostrar
imágenes de tono continuo en documentos de lenguaje marcado como hipertexto (HTML) en
World Wide Web (WWW) y otros servicios electrónicos. El formato admite los modos de color
CMYK, RGB y escala de grises. A diferencia del formato GIF, conserva toda la información
del color de la imagen RGB, aunque comprime el tamaño del archivo mediante la eliminación
selectiva de datos.

Al abrir una imagen con formato JPEG, se descomprime automáticamente; un nivel


elevado de compresión produce una baja calidad de imagen, un nivel bajo, una calidad
mejor. En la mayoría de los casos, al comprimir una imagen utilizando la opción de calidad
máxima, se obtiene un resultado muy parecido al original.

JPEG es un estándar ISO (Internacional Standard Organization por sus siglas en


inglés o Organización Internacional de Estándares) aprobado en 1992 para la compresión de
imágenes fijas con y sin pérdida de información. El estándar se desarrolló para facilitar la
transmisión y almacenamiento de archivos de imágenes estáticas. Una imagen de alta
resolución y de alta calidad fácilmente puede necesitar 75 Mbytes o más de espacio en
disco.

43
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

1.1.4.- Formato BMP.

El formato BMP (BitMaP por sus siglas en inglés o Mapa de Bits) es el formato de las
imágenes de Windows. Su uso fue muy extendido, pero los archivos son muy grandes dado
la escasa compresión que alcanzan.

Admite los modos de color RGB, color indexado, escala de grises y mapa de bits.
Puede escoger entre los formatos de Microsoft® Windows o de OS/2® y especificar una
profundidad de bit para la imagen. En imágenes de 4 y 8 bits con formato Windows, también
se puede especificar la compresión RLE.

1.1.5.- Formato GIF.

Graphics Interchange Format (GIF por sus siglas en inglés o formato de intercambio
de gráficos) es el más utilizado para mostrar gráficos de color indexado e imágenes en
documentos de lenguaje marcado como hipertexto en la World Wide Web y otros servicios
electrónicos. Es un formato con compresión LZW (desarrollado en 1997 por A. Lempel, J. Zif
y Terry Welch) diseñado para minimizar el tamaño de los archivos y la duración de las
transferencias electrónicas.

1.1.6.- Formato TIFF.

El formato TIFF (Tagged Image File Format por sus siglas en inglés o formato de
archivo de imagen encadenado) fue desarrollado por Aldus Corporation en 1986, para
guardar imágenes desde el escáner y programas para creación de imágenes y retoque
fotográfico, su uso se basa en imágenes de mapa de bits. Es probablemente el formato de
mapa de bits más versátil, seguro y con mayor soporte, ya que es capaz de describir los
datos de una imagen desde 2 colores hasta color completo en varios espacios de tonos.

44
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

Se utiliza para intercambiar archivos entre aplicaciones y plataformas de


computadoras y sistemas operativos. Es un formato flexible de imágenes de mapa de bits
admitido por prácticamente todas las aplicaciones de pintura, edición de imágenes y diseño
de páginas. Además, casi todos los escáneres de escritorio generan imágenes TIFF. El
formato admite archivos CMYK, RGB y de escala de grises y archivos Lab, de color indexado
y de mapas de bits, también admite compresión LZW.

1.1.7.- Formato PNG.

PNG (Portable Network Graphics) es un formato gráfico basado en un algoritmo de


compresión sin pérdida para bitmaps no sujeto a patentes. Este formato fue desarrollado en
buena parte para solventar las deficiencias del formato GIF y permite almacenar imágenes
con una mayor profundidad de color y otros importantes datos.

El PNG es un formato gráfico cada vez más usado en lugar de GIF. Se muestra
correctamente en los navegadores, su uso está libre de derechos y permite una alta
compresión así como una reproducción progresiva de imágenes con hasta 16,7 millones de
colores.

45
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

1.2.- FORMATOS DE AUDIO.

1.2.1.- Introducción.

Existen básicamente dos formatos que son tomados en consideración para ser
manipulados e incorporados como parte del mundo análogo y digital, los cuales son el
monoaural (o de un solo canal) y el estereofónico (o de dos canales), lo cual implica que al
usar el formato monoarual no existe la separación de sonido, ya que independientemente de
si son tonos agudos o graves se conjuntan en una sola vía o canal, mientras en el formato
estereofónico, se separan los tonos agudos (por un canal) de los graves (por el otro canal).
Éstos requieren por lo menos del doble de espacio que los primeros para su manipulación.

Los archivos de audio estéreo sin comprimir y con calidad de CD requieren unos 150
kilobytes (KB) de espacio en disco duro por cada segundo de sonido. El tamaño de un
archivo de sonido depende de la frecuencia de muestreo (frecuencia), del número de bits por
muestra (calidad o riqueza del sonido) y de si el sonido es monoaural o estereofónico. Por
ejemplo, una muestra de música mono de 16 bits a 22 kilohertz (kHz) requiere una velocidad
de datos de 2.65 megabytes (MB) por minuto para reproducirlo tal como se grabó
originalmente.

Comprimir un archivo de sonido mediante un codec de audio es la mejor forma de


almacenar archivos de audio en el disco duro del equipo o reproducir archivos de audio a
través de una red con un ancho de banda limitado.

Hay codecs de audio para distintos usos, algunos están optimizados para voz,
mientras que otros son adecuados para sonidos y muestras de música con una velocidad de
bits de baja a alta. Los codecs de audio orientados a voz (como DSP Group TrueSpeech o
Microsoft Groupe Spécial Mobile -GSM 6.10- por sus siglas en francés Grupo Especial Móvil
de Microsoft) permiten una compresión eficaz de los datos de voz. Los codecs de audio
orientados a música (tales como Fraunhofer Institut Integrierte Schaltungen IIS (FhG) MPEG
Layer-3 o Voxware MetaSound) permiten que el sonido con calidad cercana al CD se
comprima a una cuarta parte de su tamaño original.

46
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

Existe una gran variedad de técnicas de codificación de audio, muchas no


normalizadas y se emplean en diversos ámbitos. Aquí sólo se revisan brevemente algunas
de las técnicas empleadas con más frecuencia, junto con las técnicas de transmisión de
imágenes, que forman parte de estándares internacionales.

Las técnicas de codificación de audio pueden dividirse en dos grandes grupos: las
orientadas a sistemas de telefonía (transmiten señales vocales) o a la reproducción o
transmisión de señales más genéricas que abarquen un espectro más amplio. En el primer
caso, se acepta cierta limitación en las prestaciones del codificador para obtener una calidad
que permita oír con comodidad la voz humana. En el segundo, se trata de optimizar los
codificadores, de manera que cualquier distorsión o ruido añadido quede por debajo del
umbral de percepción del oído humano.

Al igual que en las técnicas de codificación de vídeo, una de las funcionalidades que
históricamente se han buscado con más interés ha sido la compresión de las señales, con
objeto de reducir la cantidad de información que es necesaria almacenar o enviar. Sin
embargo, los factores de compresión que se consiguen son más limitados, debido
posiblemente a que, en este caso, no existe tanta redundancia en la información.

Los sistemas de codificación de audio con calidad musical parten generalmente de


señales digitales obtenidas mediante el muestreo a 44.1 kHz, con resolución de 16 bits por
muestra de las señales originales, con lo que se consigue un margen de frecuencias de
20Hz a 20 kHz y un margen dinámico de 90 dB, que se adapta bien a la capacidad de
percepción del oído humano.

Este formato, sin otra codificación adicional, es el empleado en los CDs y requiere un
flujo de datos de 705 kbit/s por canal. Es posible reducir este flujo disminuyendo sólo la
resolución de las muestras, con lo que se aumenta el ruido, o la frecuencia de muestreo, con
lo que se reduce el margen de frecuencias.
Los sistemas de codificación de audio utilizan técnicas para reducir la redundancia de la
señal y emplean técnicas psicoacústicas para eliminar los sonidos que el oído humano no
puede percibir. En la actualidad se consigue un buen nivel de calidad con alrededor de 1 bit

47
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

por muestra para señales vocales y 2 bits por muestra para señales musicales.
Probablemente estos valores se reduzcan a la mitad en un futuro no muy lejano.

Los códecs de audio se caracterizan por los siguientes parámetros:

Número de canales: un flujo de datos codificado puede contener una o más señales
de audio simultáneamente. De manera que puede tratarse de audiciones "mono" (un canal),
"estéreo" (dos canales, lo más habitual) o multicanal. Los códec de audio multicanal se
suelen utilizar en sistemas de entretenimiento "cine en casa" ofreciendo seis (5.1) u ocho
(7.1) canales.

Frecuencia de muestreo: de acuerdo con el teorema de Nyquist determina la


calidad percibida a través de la máxima frecuencia que es capaz de codificar, que es
precisamente la mitad de la frecuencia de muestreo. Por tanto, cuanto mayor sea la
frecuencia de muestreo, mayor será la fidelidad del sonido obtenido respecto a la señal de
audio original. Por ejemplo, para codificar sonido con calidad CD nunca se usan frecuencias
de muestreo superiores a 44,1 kHz, ya que el oído humano no es capaz de escuchar
frecuencias superiores a 22 kHz.

Número de bits por muestra. Determina la precisión con la que se reproduce la


señal original y el rango dinámico de la misma. Se suelen utilizar 8 (para un rango dinámico
de hasta 45 dB), 16 (para un rango dinámico de hasta 90 dB como el formato CD) o 24 bits
por muestra (para 109 a 120 dB de rango dinámico). El más común es 16 bits.

Pérdida. Algunos códecs pueden eliminar frecuencias de la señal original que,


teóricamente, son inaudibles para el ser humano. De esta manera se puede reducir la
frecuencia de muestreo. En este caso se dice que es un códec con pérdida o lossy codec (en
inglés). En caso contrario se dice que es un códec sin pérdida o lossless codec (en inglés).

El parámetro tasa de bits o bit-rate es el número de bits de información que se procesan


por unidad de tiempo, teniendo en cuenta la frecuencia de muestreo resultante, la
profundidad de la muestra en bits y el número de canales. A causa de la posibilidad de
utilizar compresión (con o sin pérdidas), la tasa de bits no puede deducirse directamente de
los parámetros anteriores.

48
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

1.2.2.- Formato MP3.

Fue creado por el Moving Picture Expert Group, (diseñadores y programadores de


normas de compresión de audio y video) trabajando bajo la dirección de ISO (International
Standards Organization por sus siglas en inglés u Organización Internacional de Estándares)
Se identifican con la extensión MP3, esta norma fue lanzada el año 1995 a Internet,
actualmente se trabaja en el sucesor que será el MP4 con una compresión de 40 a 1.

La calidad de sonido del MP3 y su pequeño tamaño lo ha hecho muy popular en


Internet, su algoritmo se basa en la forma de escuchar que tiene el oído humano, pues las
frecuencias que quedan fuera de la audición no son registradas en el archivo (las mayores
de 20khz y las menores de 20hz). Esto se traduce en archivos mucho más pequeños, sin
una perdida de la calidad del sonido.

Al usar el formato a MP3 se puede reducir la pista de un CD a un factor de 12 a 1, (1


minuto de calidad CD en formato MP3 equivale a 1MB aprox.) pero lo mas importante es que
no pierde calidad de sonido. Factores de incluso 24 a 1 son aceptables.

El uso mas corriente que se la da a estos formatos es el de almacenamiento de


música por lo que primero se debe grabar el CD en el disco duro del computador para luego
pasarlo al formato MP3, para esto se debe tener un Ripeers que cumple la función de pasar
desde formato CDA (CD) a Wav, (existen algunos CD que no aceptan ripeado), luego se
debe tener un encoder estos programas pasan de formato Wav a MP3. Se debe tener en
cuenta la calidad que se desea, a mayor tamaño de archivo mayor calidad. Esto se
específica eligiendo los Kbps (512, 256, 128, 64, 32, 20, 16), los Khz (48000, 44100, 32000,
24000, 22050, 16000, 11025, 8000) y si es estéreo o mono y como es la calidad del Wav que
se está trabajando.

La desventaja de estos archivos es que se necesita una máquina potente pues usan
a fondo el procesador, pues al igual que los formatos Zip deben descomprimirse para poder
escucharse.

49
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

1.2.3.- Formato RA.

(Real Audio por sus siglas en inglés o Audio Real): Es el formato más usado en
Internet por su capacidad de reproducción en tiempo real, esto significa que mientras el
archivo es bajado se escucha el sonido y cuando se termina de bajar el ya fue reproducido.
Este formato fue desarrollado por RealNetworks.

Esta empresa a puesto a disposición de los usuarios software para recibir y enviar en
tiempo real (Tanto video como Sonido), La empresa es reconocida como una de las mas
importantes en el mundo informático pues a puesto a su formato RA a la altura del Wav o del
MIDI en popularidad.

El problema mas grave que tiene es que puede cortarse la reproducción del audio
cuando hay interrupción en la señal de datos, esto ocurre cuando el usuario usa un modem
muy lento o hay mucho tráfico en la red.

Real Audio desarrolla una mejora en su formato (RealSystemG2), que incrementa la


frecuencia de audio en un 80% logrando en modem de 28,8 Kbps una mejora en la calidad
del audio. El problema surge en el almacenaje pues producirá archivos demasiado grandes
sobretodo para el envió por correo electrónico.

Este producto puede tocar archivos antiguos de RA, Wav. Puede ser usado por Mac y PC.
Programa Real Player para escuchar o ver videos desde Internet, sin la necesidad de
almacenar en el disco duro. Es el más usado por su rapidez, el sonido tiene mejor calidad en
las versiones nuevas.

1.2.4.- Formato WAV.

(Waveform Audio File por sus siglas en inglés o Archivo de Audio en forma de onda).
Uno de los formatos de fichero más utilizados para almacenar sonidos es el formato WAV.
Se trata de almacenar las muestras una tras otra (a continuación de la cabecera del fichero,

50
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

que entre otras cosas indica la frecuencia de muestreo), sin ningún tipo de compresión de
datos, con cuantificación uniforme. La sencillez de este formato lo hace ideal para el
tratamiento digital del sonido.

El formato WAV, es un formato de archivo originario de Microsoft Windows 3.1, tiene


normalmente la extensión Wav. Es el formato para almacenar sonidos mas utilizado por los
usuarios de Windows, lo flexible de este formato lo hace muy usado para el tratamiento del
sonido pues puede ser compreso y grabado en distintas calidades y tamaños los Khz. van
desde 11025, 22050, 44100).

Aunque los archivos Wav pueden tener un excelente sonido comparable a la del CD
(16 bits y 44,1 Khz. estéreo) el tamaño necesario para esa calidad es demasiado grande
(especialmente para los usuarios de Internet) una canción convertida a Wav puede ocupar
fácilmente entre 20 y 30 Mb. La opción mas pequeña es grabar a 4 bits y los Khz lo mas bajo
posible, el problema es la baja calidad del sonido, los ruidos, la estática, incluso cortes en el
sonido, por esta razón casi siempre se usa para muestras de sonido. La ventaja mas grande
es la de su compatibilidad para convertirse en varios formatos por medio del software
adecuado, un ejemplo de ello es pasar de Wav a Mp3.

1.2.5.- Formato GSM 6.10.

El códec (Microsoft Groupe Spécial Mobile GSM por sus siglas en francés o Grupo
Especial Móbil) está diseñado para la compresión eficaz de voz y resulta adecuado para el
sonido orientado a voz con velocidades de bits de media a alta. GSM proporciona
compresión 2:1 en tiempo real (siempre que el hardware sea lo suficientemente rápido para
admitirlo), lo que convierte a este códec en una buena opción para grabar voz con la
grabadora de sonidos. Si utiliza GSM para comprimir música puede obtener una calidad de
sonido deficiente. GSM es conforme a la recomendación 6.10 del European
Telecommunications Standards Institute (Instituto de estándares de telecomunicación
europeo).
El Sistema Global para las Comunicaciones Móviles (GSM) es un sistema estándar
para comunicación utilizando teléfonos móviles que incorporan tecnología digital. Por ser

51
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

digital cualquier cliente de GSM puede conectarse a través de su teléfono con su ordenador
y puede hacer, enviar y recibir mensajes por e-mail, faxes, navegar por Internet, acceso
seguro a la red informática de una compañía (LAN/Intranet), asi como utilizar otras funciones
digitales de transmisión de datos, incluyendo el Servicio de Mensajes Cortos (SMS).

1.2.6.- Windows Media Audio (WMA).

Windows Media Audio o WMA es un formato de compresión de audio con pérdida,


aunque recientemente se ha desarrollado de compresión sin pérdida, es propiedad de
Microsoft.

A diferencia del MP3, este formato posee una infraestructura para proteger el Copyright y así
hacer más difícil el "tráfico ilegal" de música.

WMA es un codec de audio con pérdida basado en el estudio de la psicoacústica.


Las señales de audio que se considera que resultaría imperceptible para el oído humano son
codificadas con la resolución reducida durante el proceso de compresión.
WMA puede codificar las señales de audio en la muestra de hasta 48.000 veces por segundo
(48 kHz) con un máximo de dos canales (estéreo).

52
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

1.3.- FORMATOS DE VIDEO.

1.3.1.- Introducción.

En el caso del video digitalizado se hace especial hincapié en el tema de la


compresión, ya que en el área de la informática siempre es un problema el tamaño que
ocupan los archivos. El programa controlador que comprime y descomprime un archivo de
video se denomina CODEC, término compuesto derivado de la expresión inglesa
compressor/decompressor, y es un algoritmo utilizado por la tarjeta de vídeo para capturar y
almacenar el video en el disco duro del computador.

Todos los codecs usan técnicas de compresión eliminando datos para salvar espacio
en disco, sacrificando, en mayor o menor grado, la imagen original. La consecuente
disminución de la calidad de la imagen es aceptable, pues los algoritmos de codificación
están diseñados para descartar la información redundante o que no es perceptible por el ojo
humano.

La compresión se realiza analizando similitudes entre imágenes sucesivas, usando


información de las imágenes ya enviadas. Cuando se usa esta técnica, sólo es necesario
enviar la diferencia entre las imágenes, es decir las zonas de la imagen que han variado
entre dos fotogramas consecutivos, lo que elimina la necesidad de transmitir la imagen
completa. Este tipo de compresión es conocido como "compresión temporal". El otro método
de compresión de video elimina los datos que no cambian entre píxeles adyacentes y es
conocido como "compresión espacial".

Los CODECs utilizan distintos sistemas para comprimir el video pero, se pueden distinguir
básicamente dos tipos:

• CODECs sin pérdida, es decir, los que conservan los datos originales y aseguran que las
imágenes sean las mismas después de la compresión y posterior descompresión. Estos
CODECs usan normalmente el sistema RLE (Run Length Encoding por sus siglas en
inglés). Éste consiste en descartar regiones o bloques de similares colores entre imagen

53
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

e imagen. Esta técnica funciona bien con imágenes generadas por ordenador, donde
existen áreas de color uniforme. Sin embargo, las técnicas de compresión sin pérdida no
son, en general, muy efectivas con el video digital, ya que éste tiene pocas áreas de color
continuo y está formado por numerosas variaciones de color. El ratio típico de estos
CODECs es de 1:2.

• CODECs con pérdidas, intentan eliminar información de las imágenes de forma que sea
lo más inapreciable posible por el espectador. Estos sistemas eliminan información que
no puede ser recuperada. La cantidad de información perdida depende del grado de
compresión y es proporcional a la disminución de calidad, es decir

Máxima calidad máximo tamaño de archivo = mínima compresión


Mínima calidad = mínimo tamaño de archivo máxima compresión

Dentro de los algoritmos de compresión con pérdida se puede distinguir, a su vez,


dos tipos básicos:

o Algoritmos de compresión espacial. Estos sistemas comprimen cada imagen


independiente del video, es decir, cada cuadro del mismo sin tener en cuenta el resto.

o Algoritmos de compresión temporal. Son parecidos al sistema RLE antes


mencionado, ya que se basa en la variación entre un cuadro y el siguiente. Pero con
la gran diferencia de qué esta variación (comparación entre un frame y el siguiente)
no se almacena en su totalidad, sino que se le aplica una compresión con pérdida.
Este tipo de algoritmo utiliza los llamados Keyframes, que son cuadros del video que
se almacenan con poca o ninguna compresión para que sirvan de referencia para
generar los siguientes, que son llamados Deltaframes.

Por tanto, al usar algún codec para editar un video con un programa de edición de
VFW (Video For Windows por sus siglas en inglés o Video Para Windows) se encontrará con
el fenómeno de la recompresión. Ésta genera pérdida aditiva de datos en casi todos los
sistemas de compresión con pérdida, esto quiere decir que, cada vez que se vuelve a
comprimir un video se pierde más y más calidad, aunque en la recompresión se ajuste la

54
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

calidad al máximo. Afortunadamente, esto ha sido previsto, y existen CODECs


especialmente diseñados para disminuir al máximo esta pérdida aditiva.
Por último, hay que mencionar la llamada simetría del CODEC, y es tal cuando las
velocidades de codificación y descodificación son iguales. De la misma manera, es
altamente asimétrico cuando las velocidades son diferentes.

La transmisión de video es la parte medular de un sistema de videovigilancia por lo que es


necesario tener en cuenta el tipo de video CODEC a elegir, tomando en cuenta sus ventajas
y desventajas.

En los siguientes capítulos se verán los video CODECs mas utilizados.

1.3.2.- Formato AVI.

(Audio Video Interleave por sus siglas en inglés o Audio Video Intercalado) Son un
caso especial de archivos RIFF (Resource Interchange File Format por sus siglas en inglés o
Formato de Archivos para el Intercambio de Recursos) un formato de propósito general para
el intercambio de datos multimedia que fue definido por Microsoft e IBM tiempo atrás.

De hecho RIFF es un clon del formato IFF inventado por Electronic Arts in 1984 para
Deluxe Paint en plataforma AMIGA. IFF se erigió enseguida como un estándar de
intercambio en esta plataforma y fue mantenido por Commodore hasta su desaparición. Al
decidir Electronics Arts cambiar a la plataforma PC, trajo consigo el formato IFF.

En los primeros momentos de la popularización del DV doméstico existió mucha


confusión sobre los tipos de AVI que empleaba la captura de vídeo digital (DV). Se ha
hablado largo y tendido de AVI1 y AVI2 y en parte el error surgía de lo comentado más arriba
de mezclar la denominación del formato AVI con VfW y los codecs empleados para
almacenar en dicho formato.

En algunos casos se hablaba de AVI 1 refiriéndose en orden cronológico al primer


formato aparecido y AVI 2 al segundo. De ello se deducía erróneamente que el formato

55
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

empleado para DV era AVI tipo 2 cuando en realidad dentro del segundo formato
cronológicamente hablando, hay a su vez una división denominadas por la propia Microsoft
como AVI DV Tipo-1 y AVI DV tipo-2, siendo las diferencias el tipo de codecs empleados
para su manejo y la forma en que se guardan los flujos de datos internamente.

Así pues, ciñéndose a la realidad, sólo existen dos tipos generales de AVI, Los
basados en Video para Windows (los primeros en aparecer) y los basados en DirectShow
(originalmente ActiveMovie). Y como se ha mencionado, un AVI no es más que un formato
de archivo que puede guardar datos en su interior codificados de diversas formas y con la
ayuda de diversos codecs que aplican diversos factores de compresión, también existe la
posibilidad de almacenar los ficheros en un formato AVI "raw" o crudo, es decir, sin
compresión y muchos fabricantes aportan su granito de arena con codecs particulares, Los
formatos de AVI basados en Video para Windows son los que ahora forman el núcleo de los
denominados AVI DV Tipo-2 mientras que los basados en DirectShow (y por extensión en
DirectX) son los denominados AVI DV tipo-1.

Hasta este punto, convendría decir que en realidad, cualquier tipo de imagen grabada
en cinta y mucho más pesada al ordenador, se puede considerar como digital, dado que no
existe una imagen real, analógica, visible a simple vista como en las películas de cine o en
los carretes de fotos.

Sin embargo, se considera convencionalmente imagen analógica toda la anterior a


los actuales sistemas de grabación de datos digitales. Es decir, las grabaciones efectuadas
en VHS, 8mm., Hi8, SVHS... en el aspecto doméstico y U-matic o BetaCam, en la vertiente
profesional por poner algún ejemplo.

Aunque un AVI puede tener n número de flujos, lo más común es un flujo de vídeo
(vids) y otro de audio (auds).

Datos de Vídeo AVI (vids)


AVI Header
Datos de Audio AVI (auds)

56
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

Las cabeceras (o headers) del formato del flujo definen todo el formato (incluida la
compresión usada) de cada flujo. El formato estándar de un AVI basado en VfW contempla
la existencia de un flujo de video, uno de audio o ambos. Así un AVI en VfW puede
almacenar sólo audio, sólo vídeo o ambos pero en flujos separados para cada tipo.

1.3.3.- Formato Mpeg.

MPEG es el "Grupo de Expertos de Imágenes en Movimiento", por sus siglas en


ingles. MPEG es un grupo de personas que se encuentran dentro de la Organización
Internacional de Estándares (ISO, por sus siglas en inglés) para generar estándares para
video digital (secuencias de imágenes en tiempo) y compresión de audio. En particular, ellos
definen una trama de bits comprimida, la cual implícitamente define un descomprimidor.
Como cada empresa tiene sus propios algoritmos de compresión, es ahí donde recae la
importancia de contar con un estándar internacional. MPEG se reúne cuatro veces al año
durante una semana completa. En medio de las reuniones un gran trabajo es hecho por los
miembros, así que no todo ocurre en las reuniones.

MPEG clasifica los estándares multimedia en:

• MPEG-1 "Codificación de Imágenes de Movimiento y Audio Asociado para Medios de


Almacenamiento Digital a 1,5 Mbits/s".

• MPEG-2 "Codificación Genérica de Imágenes de Movimiento e Información de Audio


Asociada".

• MPEG-3 Originalmente planeada para aplicaciones de HDTV (Televisión de Alta


Definición), pero finalmente fue incluida en MPEG-2.

• MPEG-4 "Codificación de Objetos de Audio-Visual".

Tanto MPEG-1 como MPEG-2 son estándares aprobados por ISO (también está en fase de
estudio MPEG-4). Las principales ventajas de este sistema son:

57
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

- Orientado a la compresión de vídeo (incluyendo el audio), no como M-JPEG.


- La compresión se basa en predicciones matemáticas complejas que dependen de la
variación de las imágenes en el tiempo.
- La codificación admite frecuencias de 4 a 100 Mbps.

MPEG-1 fue diseñado para la transmisión de vídeo con frecuencias de 1.5 Mbps, la
velocidad nominal de CD-ROMs de velocidad simple y de líneas T1. MPEG-2, en cambio se
diseñó para soportar aplicaciones de televisión con varios formatos, incluyendo la televisión
de alta definición (HDTV). Aunque MPEG-2 es una norma reciente, ha sido aceptada
rápidamente por las industrias de la televisión por cable y vía satélite.

Las frecuencias de compresión conseguidos con MPEG hacen de esta norma el


estándar ideal para la transmisión de vídeo digital. En cambio, para la edición sigue siendo
más adecuado M-JPEG. La solución más adecuada es utilizar M-JPEG en la edición y
MPEG en la transmisión.

En esta sección se comienza introduciendo conceptos básicos de video analógico,


adentrándose en el proceso de muestreo y el problema de la señal digital, para continuar
tratando la compresión MPEG-1 y MPEG-2.

El grupo MPEG sigue trabajando en la elaboración de la recomendación MPEG-2 (o


H.262, o IS-13818) para la compresión de vídeo y ha terminado sus partes principales en
1995. Esta recomendación utiliza algoritmos para la compresión de la información basados
en la DCT (Discrete Cosine Transform por sus siglas en inglés) y en la compresión del
movimiento, similares a los de MPEG-1. MPEG-2 pretende mejorar la calidad de las
imágenes comprimidas respecto a MPEG-1, mediante una velocidad de distribución superior
de 6-15 Mbit/s (depende del tipo de secuencia y del codificador utilizado).

Está concebido para la distribución de vídeo e introduce los conceptos de


escalabilidad espacial y temporal, y de jerarquía de datos dentro del stream. Permite una
mayor variedad de formatos de entrada, codifica los dos campos de las imágenes
entrelazadas, presta mayor atención a las componentes de color que en MPEG-1 e incorpora
otras mejoras de algoritmia y sintaxis. Incluye la posibilidad de codificar TV de alta definición

58
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

y señales con calidad de estudio. Admite la opción de escalabilidad en resolución, según la


capacidad del codificador o de la red de transmisión.

Durante mucho tiempo en el campo de la digitalización de videos se tuvo solamente


dos opciones al escoger: CINEPAK o INDEO, pero con la aparición de MPG I en el mercado
se marcó la pauta para la visualización de videos desde discos compactos CD. MPG I es un
codec diseñado para posibilitar el almacenamiento de videos de hasta 30 cuadros por
segundo y tamaño de ventana de 320x240. A un costo de digitalización muy económico.

MPG I es un formato que trabaja eliminando la redundancia de pixeles entre cuadros


de una película, muy similar al compresor de imágenes JPEG usado para la transferencia de
fotos por Internet. La compresión con la que MPG I trabaja consta de 10 pasos; 6 de los
cuales son exclusivamente dedicados a comprimir y reducir datos redundantes.

Es un formato de compresión que permite ver el video en una ventana pequeña (320 por
240 píxeles). Ocupa bastante espacio en el disco duro, pero tiene la ventaja de que puede
ser reproducido incluso en PC anticuados. Es una buena opción para distribuir videos en CD-
ROM, ya que se tiene la certeza de que un PC poco potente no se va a ‘colgar’ al
reproducirlos.

La principal diferencia entre MPEG I y MPEG II, es la forma en que comprime el


video. MPEG-II hace un mejor trabajo que su antecesor MPG I en lo referente a la
compresión y principalmente no degrada notoriamente la imagen a tal punto de ser el
estándar para los videos del tipo DVD. MPG I fue siempre señalado con la imposibilidad de
presentar películas en ventanas mayores a 320x240, MPG II presenta ventanas hasta
704x480 a 30 cuadros por segundo; es decir el doble de tamaño que su antecesor.

Es un formato de compresión muy popular, utilizado principalmente en los DVD.


Ofrece buena calidad en video de pantalla completa, sonido estéreo y ocupa una cantidad
razonable de espacio en el disco duro. Muchas cámaras digitales económicas o de no muy
reciente fabricación utilizan este formato. Es una buena opción para capturar y almacenar
video.

59
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

Por otro lado, se tiene que MPEG-3 Fue una propuesta de estándar para la TV de
alta resolución, pero se ha demostrado que MPEG-2 con mayor ancho de banda cumple con
este cometido.

De igual forma, se considera que MPEG-4 es una evolución de MPEG-2. Es más


avanzado y ofrece numerosas opciones de configuración y muy alta calidad, sin embargo, su
edición exige hardware potente.

1.3.4.- Formato Microsoft Video 1.

Es un compresor con pérdida que utiliza algoritmo de compresión espacial. Soporta


profundidades de color de 8 bits (256 colores) y 16 bits (64.000 colores).

Video 1 es un algoritmo bastante simple. El algoritmo funciona en bloques de 4x4


píxeles, lo que implica que la fuente de datos para ser comprimido debe ser divisible por 4,
tanto en su anchura y altura.
Codec de video de movimiento completo y calidad moderada en imágenes de 320 x 240
píxel o menores a una velocidad de 15 marcos por segundo o menor.

1.3.5.- Formato Cinepak by radius.

Es muy usado para la compresión de video de 24 bits (color real), creado para
visualizar posteriormente el video en CD-ROM o para descargarlo de Internet. Este codec
trabaja con ratios altos de compresión y permite diversos tamaños de ventana al momento
de visualizarlo; está siempre presente en toda versión de Microsoft Windows. (Compatible
con Quicktime de Apple) Compresor temporal de alta calidad. Está diseñado para producir
mínimas pérdidas en la recompresión. Es altamente asimétrico, siendo muy rápido
decodificando (reproducción) y lento codificando. Trabaja con 16 millones de colores.

60
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

1.3.6.- Formato Intel Indeo 5.05.

Muy usado para distribuir video por Internet en computadoras provistas con
procesadores MMX. Este codec emplea un sistema progresivo de descarga que se adapta al
ancho de banda y flujos de señal.

1.3.7.- Formato Microsoft RLE.

Usado para comprimir cuadros que contengan áreas de color plano, como los dibujos
animados. Este codec usa un codificador espectral de 8 bits que degrada la imagen al
comprimirla hasta el 2% del original.

1.3.8.- Formato Windows Media Video (WMV).

Tal como RV, ha tenido un desarrollo vertiginoso. Se puede configurar para cualquier
tipo de uso, desde pequeños videos que se envían junto a mensajes de correo electrónico,
hasta transmisiones de televisión en vivo a través de Internet. Incluso sirve para grabar una
película completa en CD-ROM. Para codificarlo se puede utilizar una herramienta gratuita,
muy eficiente: el Codificador de Windows Media 9.0.

El vídeo WMV se empaqueta normalmente en algún contenedor multimedia, como


pueden ser AVI o ASF. Los ficheros resultantes reciben la extensión .avi si el contenedor es
de este tipo, .wmv si es un fichero de sólo video (.wma sería el equivalente para sonido) o
.asf si se trata de un contenedor ASF, con contenido de audio y vídeo.

61
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

1.3.9.- Formato H.261.

Es un formato de compresión de vídeo para ser usado en canales que vayan de 64


Kbits a 2 Mbits. También llamado px64 donde p es un rango comprendido entre 1 y 30 (los
múltiplos que puede tener un canal B. Este algoritmo utiliza la codificación tanto intratrama
como intertrama. La primera utiliza DCT (Discrete Cosine Transform por sus siglas en inglés
o Transformada de Coseno Discreto), similar a la utilizada por JPEG. La segunda por su
parte utiliza un esquema de codificación basado en las diferencias entre bloques.

H.261 define a su vez dos tamaños de ventana CIF (Common Intermediate Format
por sus siglas en inglés o Formato Intermedio Común) con una resolución de 352 x 288 y
QCIF (Quarter CIF) con una resolución de 176 x 144.

El estándar H.261 fue desarrollado (antes que MPEG) para satisfacer la compresión
de video para transmisiones de bajo ancho de banda y su aplicación más extendida es la de
videoconferencia Conocido también como px64, es considerado como un compresor del tipo
lossy (con pérdida) que soporta velocidades de transmisión con múltiplos de 64 Kbps, de ahí
su gran difusión en videoconferencia sobre RDSI (Red Digital de Servicios Integrados).
Consta básicamente de cinco etapas:

• Etapa de compensación del movimiento,


• Etapa de transformación (DCT),
• Etapa de cuantificación "lossy" (con pérdidas) y
• Dos etapas de codificación del tipo sin pérdidas (codificación run-length y codificación
de Huffman).

H.261 es la recomendación de ITU (Unión Internacional de Telecomunicaciones,


antes CCITT) para la compresión de video en sistemas de videoconferencia, siguiendo el
estándar internacional H.320. Esta norma permite la utilización de anchos de banda múltiplos
de 56 Kbps o 64 Kbps. H.261 tan sólo acepta dos tamaños de pantalla (CIF y QCIF) y
métodos de codificación adecuados para la videoconferencia.

62
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

Está basado en la estructura básica de 64 Kbps de RDSI. Esta da nombre al título de


la recomendación H.261 "Video Codec para servicios audiovisuales a PX64 Kbps", donde P
es igual a 1, 2,..., etc. Aunque tomará varios años para que RDSI esté disponible
globalmente, los video codecs que cumplen con el estándar H.261 pueden ya operar sobre
las redes de comunicaciones actualmente.

1.3.10.- Formato H.263.

Este estándar ofrece mejoras respecto a H.261 desde dos aspectos:

- Soporta más formatos de imagen, como son: 16CIF, 4CIF, CIF, QCIF y Sub-QCIF (para
transmisiones en Internet de baja velocidad como módems de 28.8 Kbps).

- Mejora la técnica de redundancia temporal, ya que tiene en cuenta no sólo los fotogramas
pasados sino también los siguientes esperados, y además ofrece mayor calidad al ampliar la
zona en la que busca el macrobloque en la imagen siguiente a 32 puntos en lugar de los 16
que usa H.261.

De forma que para una determinada velocidad de transferencia, H.263 ofrece mayor calidad
de imagen que H.261 con resoluciones que van desde Sub-QCIF a 4xFCIF.

1.3.11.- Formato H.264.

H.264 o MPEG-4 es una norma que define un códec de vídeo de alta compresión,
desarrollada conjuntamente por el ITU-T Video Coding Experts Group.

La intención del proyecto H.264/AVC fue la de crear un estándar capaz de


proporcionar una buena calidad de imagen con tasas binarias notablemente inferiores a los
estándares previos (MPEG-2, H.263 o MPEG-4 parte 2), además de no incrementar la
complejidad de su diseño.

63
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

El uso inicial del MPEG-4 AVC estuvo enfocado hacia el vídeo de baja calidad para
videoconferencia y aplicaciones por Internet, basado en 8 bits/muestra.

El H.264 es uno de los mejores códecs para emisión/recepción de vídeo. Se utiliza


actualmente para videoconferencia por su alta calidad y velocidad.

1.3.12.- Conclusiones.

Elegir un formato de imagen, audio y video no es tarea fácil depende de los reccursos
computacionales y del ancho de banda.
En las pruebas realizadas se obtuvieron los siguientes resultados:

Formato de imagen:
El formato JPG tiene una calidad y tamaño ideal para transmitir se puede ver con cualquier
navegador y es un formato universalmente aceptado.

Formato de audio:
Los formatos de audio más eficientes probados en el sistema “Ojovigilante 1.0” fueron:

GSM 6.10
MPEG Layer 3
Ogg Vorbis
Windows Media Audio V1 y V2

Formato de video:
El formato de video elegido en un sistema de videovigilancia es lo más importante ya que
utiliza la mayoría del ancho de banda en la transmisión.

en el sistema de video vigilancia Ojovigilante 1.0 se probaron varios formatos con los
siguientes resultados:

64
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.

El formato Microsoft MPEG-4 video codec V1, V2 y V3 obtuvo los mejores resultados
es ideal para streamig.

Otros formatos que tuvieron buenos resultados fueron:


Cinepack by radius e Indeo video 5.10

El formato Microsoft RLE tiene una calidad pobre, pero util en poco ancho de banda.

65
CAPITULO 2.

ESTÁNDARES DE
VIDEOCONFERENCIA.

66
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.

CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.

2.1.- Introducción.

En los últimos años se ha asistido a una evolución muy importante de las técnicas de
codificación de contenidos audiovisuales que ha sentado las bases para el desarrollo de una
nueva generación de servicios multimedia interactivos, el principal cambio producido por
estas técnicas ha sido la gran reducción en las capacidades requeridas para el
almacenamiento o transmisión de la información, gracias al empleo de técnicas de
compresión. Esto modificó de forma muy importante las previsiones de ancho de banda que
se manejaban para las nuevas redes de comunicaciones haciendo mucho más asequible la
introducción de contenidos multimedia.

Videoconferencia: Es una modalidad de la teleconferencia que permite la


comunicación interactiva entre personas ubicadas en diferentes regiones geográficas
utilizando equipos especiales compatibles que transmiten el vídeo, el audio y los datos de
computadoras a través de un canal de comunicaciones entre ellos, lo que hace posible
compartir información, intercambiar puntos de vistas, mostrar y ver todo tipo de documentos,
dibujos, gráficos, imágenes de computadoras, etc.

2.2.- Estándar H.320. Videoconferencia sobre RDSI.

El estándar H.320, que define la implementación de videoconferencia sobre RDSI


(Red Digital de Servicios Integrados) ha estado vigente durante una década y hoy día es
muy común implementarla sobre RDSI, esto es debido a que RDSI permite la transmisión de
videoconferencia en diversos niveles de calidad. RDSI es capaz de proveer una elevada
calidad de transmisión de videoconferencia, primeramente por su carácter síncrono, que
permite el transporte de vídeo con una baja tasa de retardo.

Las características de transporte de RDSI permiten proveer a la videoconferencia de


la sensibilidad que ésta demanda, además es capaz de implementarla en una gran variedad

67
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.

de velocidades de transmisión: desde 64 kilobits por segundo (kbps) hasta 2 Megabits por
segundo (Mbps). Hasta 128 kbps la videoconferencia es considerada de baja calidad, no
siendo apropiada para aplicaciones de negocios. Sin embargo, a velocidades iguales o
superiores a 384 kbps, RDSI provee una muy buena calidad de transmisión, ideal para
aplicaciones de negocios.

La velocidad de transmisión de la videoconferencia está directamente relacionada con las


aplicaciones que se le dan a esta:

• 64 kbps: Generalmente para aplicaciones recreacionales, donde la baja resolución y


los desfases entre el audio y el video son aceptables.
• 128 kbps: Utilizada en conferencias dentro de empresas y organizaciones (cortas
distancias).
• 384 kbps: Calidad para aplicaciones de negocios. El audio y el video están
sincronizados y los movimientos son uniformes.
• 512 kbps: Alta calidad para aplicaciones de negocios. Alta resolución y movimientos
muy uniformes; el desfase entre audio y vídeo es prácticamente indetectable.
• 768 kbps ó más: Excelente calidad de transmisión de videoconferencia. Ideal para
aprendizaje a distancia, aplicaciones médicas, entre otros.

RDSI permite obtener una buena calidad en la transmisión de videoconferencia a


velocidades iguales o superiores a 384 kbps; sin embargo, es muy costoso y presenta ciertas
complejidades. Por ejemplo, es necesario implementar tres interfaces de 128 kbps y llevarlas
a cada uno de los dispositivos de videoconferencia. Estas líneas deben entonces conectarse
formando un solo canal a través de un multiplexor (MUX). Además es necesario disponer de
tarjetas V.35 y RS-366 para cada estación de trabajo.

El algoritmo de compresión H.261 define dos resoluciones de vídeo: el CIF (Formato


Intermedio Común), de 352x288 y el QCIF (un cuarto del Formato Intermedio Común) de
176x144. El H.320 también posee tres codecs (codificadores - decodificadores) de audio: el
G.711, que usa un ancho de banda de 64 Kbps para proporcionar audio de 3 KHz de calidad
telefónica; el G.722, un algoritmo de mejor calidad que produce audio de 7.5 KHz pero
consume un ancho de banda de hasta 64 Kbps; y el G.728 que, a pesar de proporcionar
audio de calidad casi telefónico, sólo requiere de 16 Kbps.

68
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.

2.3.- Estándar H.321. Videoconferencia sobre ATM.

Para implementar las características del estándar H.320 en cuanto a calidad de


transmisión, con un costo y una complejidad menores, el estándar H.320 ha sido adaptado y
ha surgido el estándar H.321. El estándar H.321 describe los métodos para implementar
videoconferencia sobre ATM (Modo de Transferencia Asíncrono) con ventajas sobre el
modelo RDSI, y totalmente compatible con el estándar H.320.

El estándar H.321 basado en ATM implementa la videoconferencia en el mismo estilo que


RDSI, con los mismos incrementos en velocidad de transmisión (128 kbps, 384 kbps, 768
kbps, etc.). La diferencia fundamental es que la videoconferencia sobre ATM es más fácil y
más barata de implementar. ATM logra esto debido a aspectos como los siguientes:

• Las tarjetas V.35 y RS-366 son sustituidas por una tarjeta ATM a 25 Mbps. La tarjeta
ATM en costo, es unas cuantas veces mucho menor que los componentes V.35.
• Se utiliza una pasarela RDSI-ATM como punto de acceso centralizado para la red
WAN RDSI. Esta metodología permite el acceso fuera de la red y sirve también de
centro de multiplexaje, sustituyendo los multiplexores para cada estación utilizados
en la implementación RDSI. Esto proporciona un ahorro importante.
• Se utilizan switches ATM en lugar de RDSI, disminuyendo costos en la
implementación.
• La topología ATM no necesita de múltiple cableado como ocurre con la
implementación RDSI, que requiere de tres cables UTP individuales.

La implementación de ATM no sólo proporciona beneficios en cuanto a la


disminución de costos para implementar la transmisión de videoconferencia, sino que provee
las bases de una arquitectura de red que puede utilizarse para el transporte de voz y datos
en adición a la videoconferencia. Esta capacidad está haciendo de ATM la elección
tecnológica en un amplio espectro de aplicaciones.

Adaptan al H.320 a las topologías de la siguiente generación, como ATM y SDM de


banda ancha. El H.321 proporciona la máxima capacidad hacia atrás, y conserva la
capacidad del H.320 y algunos de sus componentes, incluido el H.261. El H.310 añade el

69
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.

algoritmo de compresión de video MPEG-2 de ISO, que proporciona calidad de video clase
HDTV (televisión de alta definición).

2.4.- Estándar H.322.

Es una versión mejorada del H.320, optimizada para redes que garantizan Calidad de
Servicio (QoS) para tráfico isocrónico, como el video en tiempo real. Fue el primer estándar
usado con la norma IEEE 802.9 para redes LAN Ethernet.

2.5.- Estándar H.323. Videoconferencia sobre redes utilizando TCP/IP.

Extiende al H.320 a Ethernet, Token Ring y otras redes de paquetes switcheados que
no garantizan QoS (Quality of Service o Calidad de servicio por sus siglas en inglés). Soporta
operaciones punto a punto y multipunto. Además del Codec de video H.261 y el Codec de
audio G.711 del H.320, las implantaciones del H.323 también pueden incluir componentes
del H.320 y el H.324, como H.263, G.722, G.723 y G.728.

Los temas de QoS se han manejado por un componente de portero centralizado que
permite que los administradores de LAN administren el tráfico de video en la espina dorsal.
Otra parte integral de la especificación define una compuerta LAN/H.320, que permite que
cualquier nodo H.323 interopere con productos.

Hace poco tiempo se han concluido los trabajos relacionados con un nuevo estándar,
el H.323. Este nuevo estándar fue diseñado para establecer videoconferencia sobre redes
basadas en arquitecturas como Ethernet, Token Ring, FDDI, etc., utilizando los protocolos
TCP/IP. H.323 no tiene las características que poseen los estándares H.320 y H.321, que
fueron diseñados para aprovechar las ventajas de RDSI y ATM, para proporcionar una
videoconferencia de alta calidad. El estándar H.323 es independiente del transporte,
permitiendo la implementación de cualquier arquitectura de transporte, como por ejemplo
ATM.

70
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.

Los estándares para transmisión de videoconferencia sobre redes IP/Ethernet


comienzan a ser una realidad. La diferencia básica con los anteriores es que esta
videoconferencia, basada en este tipo de redes, no posee en su arquitectura una capa
dedicada a la calidad del servicio, en la cual basar el transporte del vídeo. Como resultado
de esta implementación se obtiene una videoconferencia con desfases entre voz y audio y
con baja calidad. Esta videoconferencia no puede ser considerada para aplicaciones de
negocios serias.

El transporte de vídeo sobre redes Ethernet también tiene el desafortunado efecto de


permitir la interacción entre el tráfico de datos y vídeo. Esto hace que el ancho de banda
disponible para el tráfico de datos se vea disminuido por el tráfico de vídeo.

En este sentido, este tipo de videoconferencia podría utilizarse, por ejemplo, para
establecer discusiones entre los individuos participantes en un proyecto; sin embargo, para
establecer videoconferencia con alta calidad y con características multipunto es necesario
utilizar ATM o ISDN.

Debido a la carencia de calidad de servicio en estas arquitecturas Ethernet, los


diseñadores de los sistemas de transporte han propuesto un nuevo protocolo, RSVP.
(Resource ReSerVation Protocol o Protocolo de Reserva de Recursos por sus siglas en
inglés), actúa sobre la red para canalizar su comportamiento y hacerlo compatible con las
necesidades del transporte en tiempo real.

RSVP se integra en una evolución hacia una nueva arquitectura, que pretende
asegurar las comunicaciones multipunto en tiempo real conservando la filosofía del mejor
esfuerzo (best effort) y la arquitectura IP. Esta evolución prevé los siguientes puntos:

• Establecer y mantener un camino único para un flujo de datos gracias a los protocolos de
encaminamiento multipunto. Este mantenimiento del camino es indispensable para el
funcionamiento de RSVP.
• Establecer un módulo de control que gestione los recursos de la red.
• Instaurar un sistema de ordenación de paquetes en la cola de espera para satisfacer la
calidad de servicio solicitada.

71
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.

En general, RSVP es un protocolo de control que permitirá obtener el nivel de calidad de


servicio optimizado para un flujo de datos.

2.6.- Estándar H.324. Videoconferencia sobre POTS.

El estándar H.324 para transmisión de videoconferencia define una metodología para


su transporte a través de la red telefónica ó lo que se conoce como POTS (Plain Old
Telephone Systems). Específicamente el estándar H.324 describe terminales para
comunicaciones multimedia trabajando a bajas velocidades, utilizando módems V.34. Estos
terminales pueden transmitir voz, datos y vídeo en cualquier combinación en tiempo real.

Puede incorporar codificación H.261, pero la mayor parte de las implantaciones


usarán el H.263, una versión escalable del H.261 que añade un formato sub-QCIF (SQCIF)
de 128x96. Debido al diseño eficiente del H.263, puede producir velocidades de cuadro muy
parecidas a la de los sistemas RDSI, actuales, pero mediante módems baratos asistidos.

El estándar H.324 está diseñado para optimizar la calidad de la transmisión de


videoconferencia sobre los enlaces de baja velocidad asociados con los POTS, típicamente
estas velocidades están en el rango de 28.8 kbps a 56 kbps. Estas bajas velocidades de
transmisión sumadas a la naturaleza impredecible del medio de transmisión, restringe este
tipo de videoconferencia a unos pocos cuadros por segundo.

Sin embrago, se espera que el estándar H.324 tenga cierta aceptación entre el
mercado de consumidores. Primero, porque este tipo de videoconferencia está orientada a
aplicaciones recreacionales donde no se requiere de una elevada calidad y en segundo lugar
debido a la facilidad de implementación donde sólo se requiere de un PC equipado con un
módem y utilizar la red telefónica convencional (POTS).

72
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.

2.7.- Estándar H.310. Videoconferencia sobre ATM –MPEG-2.

Mientras los estándares H.320 y H.321 pueden proporcionar una elevada calidad de
videoconferencia, especialmente cuando se utilizan elevadas velocidades de transmisión
(768 kbps ó mas), el estándar H.310 define una metodología para implementar
videoconferencia basada en MPEG-2 (estándar del ISO) sobre ATM a velocidades que van
entre 8 y 16 Mbps. La videoconferencia basada en el estándar H.310 provee una
elevadísima calidad en la transmisión de audio y vídeo, estando este tipo de
videoconferencia orientada a aplicaciones como la transmisión de procedimientos quirúrgicos
en vivo, donde el grupo de médicos asesores están ubicados a grandes distancias.

Estas elevadas velocidades de transmisión ofrecidas por este estándar permiten el


establecimiento de una videoconferencia con elevada interactividad entre los participantes.
Aplicaciones como el establecimiento de procesos educativos, donde existen expertos
situados a distancia y donde el nivel de calidad de la videoconferencia debe ser máximo
requieren del uso de este estándar. La siguiente figura muestra una comparación entre los
estándares estudiados, en cuanto a la calidad de servicio que cada uno permite.

2.8.- Conclusiones.

El sistema de vigilancia “Ojovigilante 1.0” realiza videoconferencia utilizando el


estándar H.323 Videoconferencia sobre redes utilizando TCP/IP. Para aprovechar la
infraestructura ya existente para Internet.

73
CAPITULO 3.

H.323. VIDEOCONFERENCIA SOBRE


REDES UTILIZANDO TCP/IP.

74
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

3.1.- Introducción.

El H.323 es un nuevo estándar muy importante para comunicación de audio, video y


datos. Este describe especialmente cómo las comunicaciones multimedia ocurren entre
terminales, equipos de redes y servicios en redes de Área Local (LAN), las cuales no
proveen una calidad de servicio garantizada. La recomendación H. 323 ha tenido una amplia
aceptación.

Las actividades de desarrollo en torno al H. 323 son muy altas debido al soporte
unificado de una coalición global entre fabricantes de computadores personales, fabricantes
de sistemas de comunicación y diseñadores de sistemas operativos. Si bien para el H.323 es
muy importante el consenso y el apoyo que se le pueda dar, su potencia no se manifestará
hasta que éste esté implantado en el usuario final del producto y los servicios asociados.

Empresas con planes para incluir el estándar H.323 – amigable en sus productos y
servicios necesitan desarrollar su propio software basado en la recomendación Study Group
15 o bajo una licencia del H.323 Protocol Snack.

De acuerdo con el documento ITU editado en fecha 28-05-96, "La Recomendación H.


323 describe terminales, equipos y servicios para comunicación multimedia en una Red de
Área Local (LAN), la cual no provee una calidad de servicio garantizada. Los terminales H.
323 y equipos pueden transportar voz, video, y datos en tiempo real o alguna combinación
de ellos incluyendo videoteléfono".

El estándar H.323 proporciona una base para las comunicaciones de audio, video y
datos a través de una red IP como Internet. Los productos que cumplen con el estándar
H.323 pueden ínteroperar con los productos de otros, permitiendo de esta manera que los
usuarios puedan comunicarse sin preocuparse con problemas de compatibilidad.
H.323 es un estándar bajo el amparo de la ITU, es un conjunto de estándares para la
comunicación multimedia sobre redes que no proporcionan calidad de servicio (QoS). Estas
redes son las que predominan hoy en todos los lugares, como redes de paquetes

75
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

conmutadas TCP/IP e IP sobre Ethernet, Fast Ethernet y Token Ring. Por esto, los
estándares H.323 son bloques importantes de construcción para un amplio rango de
aplicaciones basadas en redes de paquetes para la comunicación multimedia y el trabajo
colaborativo.

El estándar tiene amplitud e incluye desde dispositivos específicos hasta tecnologías


embebidas en ordenadores personales, además de servir para comunicación punto-punto o
conferencias multi-punto. H.323 habla también sobre control de llamadas, gestión multimedia
y gestión de ancho de banda, además de los interfaces entre redes de paquetes y otras
redes (RTC p.e.)

H.323 forma parte de una gran serie de estándares que permiten la videoconferencia
a través de redes. Conocidos como H.32X, esta serie incluye H.320 y H.324, que permiten
las comunicaciones RDSI y RTC respectivamente.

3.2.- Descripción oficial del H. 323.

La red LAN sobre la cual los terminales H.323 se comunican puede ser un solo
segmento o un anillo, o puede ser múltiples segmentos con topologías complejas. Se hace
notar que la operación de los terminales H.323 sobre segmentos múltiples de una red LAN
(incluyendo Internet) puede resultar con un pobre performance. Los posibles recursos
mediante los cuales la calidad del servicio puede ser garantizada en estos tipos de redes
LAN y redes Internet, están más allá del alcance de esta recomendación.

Los terminales H.323 pueden ser integrados en los computadores personales o


implementados en equipos individuales tales como videoteléfonos. El software para voz es
obligatorio mientras que los datos y video son opcionales. Si estos últimos son incluidos se
requiere que el terminal H.323 tenga la capacidad o habilidad de usar un módulo común de
operaciones de tal manera que todos los terminales que soporten este tipo de opciones
(datos o video) puedan trabajar en redes múltiples. El terminal H.323 permite más de un
canal para cada una de las modalidades de uso.

76
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

3.3.- Estructura del H. 323.

El H.323 es considerado algunas veces como una especificación parteaguas, dando


a entender que hace referencia a otras recomendaciones. La serie H.323 incluye otras
recomendaciones tales como el H.225.0 Packet and Synchronization, el H.245 Control, los
H.261 y H.263 Video Codecs, los G.711, G.722, G.723 G.728 y G.729 Audio Codecs y la
serie T.120 de protocolos de comunicaciones multimedias. Todas estas especificaciones
juntas definen un número de nuevos componentes de redes (H.323 Terminal, H.323 MCU,
H.323 Gatekeeper y H.323 Gateway), los cuales, interoperan en el extremo final del usuario
con otros estándares amigables y redes, mediante el H.323 Gateway tal como está
representado en la figura.

Figura 3.3 1 Interoperatividad de los terminales H. 3.2.3.

77
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

3.4.- Importancia del H. 323.

Esto puede apreciarse en base a los siguientes aspectos:

a) Cooperación Entre la Industria de las Telecomunicaciones y la Industria de la


Computación:

En el pasado los diseñadores y fabricantes de productos de computación estaban


poco influenciados por la industria de las telecomunicaciones. La especificación del diseño
de las telecomunicaciones ha evolucionado gradualmente en el transcurso de
aproximadamente 100 años y en los últimos tiempos han tenido el soporte y dirección de las
regulaciones gubernamentales.

Los clientes de los productos en telecomunicación requieren de un 99,9% de


confiabilidad e interoperatividad de los equipos en el extremo final del usuario. En contraste,
la industria de la computación tiene la característica de sacar al mercado nuevos productos
bajo condiciones de prueba, en los cuales los clientes toleran un bajo nivel de confiabilidad e
interoperatividad. Solamente en algunos casos los clientes exigen un estándar cuando ello
es indispensable. Antes de la adopción, por parte de la industria, del estándar H.323 para
comunicación multimedia en redes ISDN, los fabricantes de sistemas de computación y
periféricos habían tomado muy poco en consideración las especificaciones establecidas por
el instituto de los estándares de las telecomunicaciones internacionales.

b) Innovaciones se realizan más rápidamente:

Durante el desarrollo de las especificaciones H.324 y H.323 para comunicación de


multimedia, la colaboración entre la industria de la telecomunicación y la industria de la
computación creció enormemente. El resultado de todo esto es que estas especificaciones
han progresado más rápidamente que las precedentes y por otra parte las experiencias e
innovaciones de ambas industrias convergen cada vez más hacia un objetivo común que es
el usuario final.

78
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

c) Potencial del Mercado:

Se basa en el hecho de que el H.323 promete que los productos y servicios en una
red de calidad de servicio no garantizada tenderán a tener una mayor demanda. El protocolo
Internet para redes de calidad de servicio no garantizada ofrece ubicuidad en comparación
con los protocolos de las redes más primitivas. Ubicuidad y uso fácil han creado un
fenómeno de mercado masivo con una velocidad de crecimiento sin precedentes. El tamaño
del mercado potencial y los avances de innovación en este ambiente incrementan
adicionalmente la importancia del H.323.

3.5.- Implementación de los productos H.323.

La respuesta más corta es que se debe incluir el H.23 stack y cualquier otro
componente que el usuario pueda requerir en el software de aplicación de tal manera que
permita generar todas las opciones apropiadas de la aplicación. Un ejemplo de un terminal
H.323 se muestra en la siguiente figura. "El diagrama muestra las interfaces del equipo del
usuario, video codec, audio codec, equipo telemático, H.225 Layer, sistemas de control de
funciones y la interfaz a la red LAN.

Todos los terminales H.323 deben tener una Unidad de Control del sistema, H.225.0
Layer, Interfaces de Redes y una Unidad de Audio Codec. La Unidad Video Codec y la
Aplicación de datos del usuario son opcionales. Específicamente la recomendación H.323
requiere que todos los puntos extremos soporten la sintaxis, semánticas y procedimientos de
las entidades de protocolo siguientes:

• Master/Slave determination
• Capability Exchange
• Logical Channel Signaling
• Bidireccional Logical Channel Signaling
• Mode Request
• Round Trip Delay Determination.
• Maintenance loop Signaling.

79
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

Figura 3.5 1 Estándar H.323.

Además del software de aplicación, los diseñadores deben tener en cuenta que la interface
de red es generalmente considerada fuera del alcance de la recomendación H.323, sin
embargo ésta a menudo es incluida con el producto H.323 amigable.

3.6.- Arquitectura H.323.

La Recomendación H.323 cubre los requerimientos técnicos para los servicios de


comunicaciones entre Redes Basadas en Paquetes (PBN, packet based network) que
pueden no proporcionar calidad de servicio (QoS). Estas redes de paquetes pueden incluir
Redes de Área Local (LAN’s), Redes de Área Extensa (WAN’s), Intra-Networks y Inter-
Networks (incluyendo Internet). También incluye conexiones telefónicas o punto a punto
sobre RTC o ISDN que usan debajo un transporte basado en paquetes como PPP. Esas
redes pueden consistir de un segmento de red sencillo, o pueden tener topologías complejas

80
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

que pueden incorporar muchos segmentos de red interconectados por otros enlaces de
comunicación.

La recomendación describe los componentes de un sistema H.323, estos son:


Terminales, Gateways, Gatekeepers, Controladores Multipunto (MC), Procesadores
Multipunto (MP) y Unidades de Control Multipunto (MCU)

3.6.1.- Terminales.

Los terminales son puntos finales de la comunicación. Proporcionan comunicación en


tiempo real bidireccional. Los componentes de un terminal se pueden ver a continuación:

Para permitir que cualesquiera terminales ínter operen se define que todos tienen que
tener un mínimo denominador que es, soportar voz y con un codec G.711. De esta manera el
soporte para video y datos es opcional para un terminal H.323.

Todos los terminales deben soportar H.245, el cual es usado para negociar el uso del
canal y las capacidades. Otros tres componentes requeridos son: Q.931 para señalización
de llamada y configuración de llamada, un componente llamado RAS
(Registrantion/Admisión/Status), este es un protocolo usado para comunicar con el
Gatekeeper; y soporte para RTP / RTCP (Real Time Protocol / Real Time Control Protocol
por sus siglas en inglés) para secuenciar paquetes de audio y video.
Otros componentes opcionales de los terminales H.323 son: los codec de video, los
protocolos T.120 para datos y las capacidades MCU.

81
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

3.6.2.- Gateways.

El Gateway (o Pasarela) es un elemento opcional de una conferencia H.323. Es


necesario solo si se necesita comunicar con un terminal que está en otra red (por ejemplo
RTC) Los Gateways proporcionan muchos servicios, el más común es la traducción entre
formatos de transmisión (por ejemplo H.225.0 a H.221) y entre procedimientos de
comunicación (por ejemplo H.245 a H.242). Además el Gateway también traduce entre los
codecs de video y audio usados en ambas redes y procesa la configuración de la llamada y
limpieza de ambos lados de la comunicación.

El Gateway es un tipo particular de terminal y es una entidad llamable (tiene una


dirección). En general, el propósito del Gateway es reflejar las características del terminal en
la red basada en paquetes en el terminal en la Red de Circuitos Conmutados (SCN) y al
contrario. Las principales aplicaciones de los Gateways son:

 Establece enlaces con terminales telefónicos analógicos conectados a la RTB (Red


Telefónica Básica)
 Establecer enlaces con terminales remotos que cumple H.320 sobre redes RDSI
basadas en circuitos conmutados (SCN)
 Establecer enlaces con terminales remotos que cumple H.324 sobre red telefónica
básica (RTB)

Los Gateways no se necesitan si las conexiones son entre redes basadas en paquetes.

Muchas funciones del Gateway son dejadas al diseñador. Por ejemplo, el número de
terminales H.323 que pueden comunicar a través del Gateway no es asunto de
estandarización. De la misma manera el número e conexiones con la SCN, el número de
conferencias individuales soportadas, las funciones de conversión de audio/video/datos, y la
inclusión de funciones multipuntos son dejadas al diseñador. Debido a la incorporación de
los Gateways a la especificación H.323, la ITU posicionó H.323 como el pegamento que
junta todos los terminales para conferencias funcionando juntos.

82
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

3.6.3.- Gatekeepers.

Son un elemento opcional en la comunicación entre terminales H.323. No obstante,


son el elemento más importante de una red H.323. Actúan como punto central de todas las
llamadas dentro de una zona y proporcionan servicios a los terminales registrados y control
de las llamadas. De alguna forma, el gatekeeper H.323 actúa como un conmutador virtual.
Los Gatekeepers proporcionan dos importantes funciones de control de llamada:

 Traducción de direcciones desde alias de la red H.323 a direcciones IP o IPX, tal y


como está especificado en RAS.
 Gestión de ancho de banda, también especificado en RAS. Por ejemplo, si un
administrador de red ha especificado un umbral para el número de conferencias
simultáneas, el Gatekeeper puede rechazar hacer más conexiones cuando se ha
alcanzado dicho umbral. El efecto es limitar el ancho de banda total de las
conferencias a alguna fracción del total existente para permitir que la capacidad
remanente se use para e-mail, transferencias de archivos y otros protocolos.

A la colección de todos los Terminales, Gateways y MCU’s gestionados por un


gatekeeper se le conoce como Zona H.323.

Una característica opcional, pero valiosa de los gatekeepers es la habilidad para


enrutar llamadas. Si se enruta la llamada por un gatekeeper, esta puede ser controlada más
efectivamente. Los proveedores de servicio necesitan esta característica para facturar por
las llamadas realizadas a través de su red. Este servicio también puede ser usado para re-
enrutar una llamada a otro terminal en caso de estar no disponible el llamado.

Además con esta característica un gatekeeper puede tomar decisiones que


involucren el balanceo entre varios gateways. Por ejemplo, si una llamada es enrutada por
un gatekeeper, ese gatekeeper puede re-enrutar la llamada a uno de varios gateways
basándose en alguna lógica de enrutamiento propietaria.

83
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

Mientras que un Gatekeeper está lógicamente separado de los extremos de una


conferencia H.323, los fabricantes pueden elegir incorporar la funcionalidad del Gatekeeper
dentro de la implementación física de Gateways y MCU’s.

A pesar de que el Gatekeeper no es un elemento obligatorio, si existe, los terminales


deben usarlo. RAS define para estos la traducción de direcciones, control de admisión,
control de ancho de banda y gestión de zonas.

Los Gatekeepers juegan también un rol en las conexiones multipunto. Para soportar
conferencias multipunto, los usuarios podrían emplear un Gatekeeper para recibir los
canales de control H.245 desde dos terminales en una conferencia punto-punto. Cuando la
conferencia cambia a multipunto, el Gatekeeper puede redireccionar el Canal de Control
H.245 a un controlador multipunto, el MC.

El Gatekeeper no necesita procesar la señalización H.245, solo necesita pasarla


entre los terminales o entre los terminales y el MC.
Las redes que posean un Gateway pueden también tener un Gatekeeper para traducir
llamadas entrantes E.164 (número de teléfonos convencionales) a direcciones de transporte.

Debido a que una Zona está definida por su Gatekeeper, las entidad H.323 que
contengan un Gatekeeper interno necesitan de un mecanismo para desactivar su
funcionamiento cuando hay varias entidades H.323 que contiene un Gatekeeper dentro de la
red, las entidades pueden ser configuradas para estar en la misma Zona.

Existen dos formas para que un terminal se registre en un gatekeeper, sabiendo su IP


y enviando entonces un mensaje de registro unicast a esta dirección o bien enviando un
mensaje multicast de descubrimiento del gatekeeper (GRQ) que pregunta ¿quién es mi
gatekeeper?
Funciones obligatorias Gatekeeper.

• Traducción de Direcciones: Traducción de alias a direcciones de transporte, usando


para ello una tabla que es modificada con mensajes de Registration. Se permiten
otros métodos de modificar la tabla.

84
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

• Control de Admisión: El Gatekeeper debería autorizar el acceso a la red usando


mensajes H.225.0 ARQ/ACF/ARJ. Esto puede basarse en autorización de llamada,
ancho de banda, o algún otro criterio que es dejado al fabricante. También puede ser
una función nula que admita todas las peticiones.
• Control de Ancho de Banda: El Gatekeeper debería soportar mensajes
BRQ/BRJ/BCF. Esto puede usarse para gestión del ancho de banda. También se
puede aceptar todas las peticiones de ancho de banda.
• Gestión de Zona: El Gatekeeper debería suministrar la funciones anteriores a: todos
los terminales, MCU’s y Gateways que se encuentren registrados en su Zona de
control.

Funciones opcionales del Gatekeeper:

• Señalización de control de llamada: El Gatekeeper puede elegir completar la


señalización de llamada con los extremos y procesar la señalización de llamada el
mismo. Alternativamente, puede elegir que los extremos conecten directamente sus
señalizaciones de llamada. De esta manera el Gatekeeper puede evitar gestionar las
señales de control H.225.0.
• Autorización de llamada: El Gatekeeper puede rechazar una llamada desde un
terminal basándose en la especificación Q.931. (H.225.0) Las razones para rechazar
la llamada pueden ser, pero no están limitadas a, acceso restringido desde o hacia un
terminal particular o Gateway, y acceso restringido durante un periodo de tiempo. El
criterio para determinar si se pasa la autorización o falla, está fuera del alcance de
H.323.
• Gestión de llamada: El Gatekeeper puede mantener una lista de las llamadas en
curso, esta información puede ser usada para indicar si un terminal está ocupado o
para dar información a la función de gestión de ancho de banda.
• Otros como: Estructura de datos de información para la gestión, reserva de ancho
de banda y servicios de directorio.

85
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

3.6.4.- Unidad Control Multipunto (MCU).

La MCU soporta conferencias entre tres o más extremos. En terminología H.323, el


MCU se compone de: Controlador Multipunto (MC) que es obligatorio, y cero o más
Procesadores Multipunto (MP). El MC gestiona las negociaciones H.245 entre todos los
terminales para determinar las capacidades comunes para el procesado de audio y video.

El MC también controla los recursos de la conferencia para determinar cuales de los


flujos, si hay alguno, serán multicast. Las capacidades son enviadas por el MC a todos los
extremos en la conferencia indicando los modos en los que pueden transmitir. El conjunto de
capacidades puede variar como resultado de la incorporación o salida de terminales de la
conferencia.

El MC no trata directamente con ningún flujo de datos, audio o video. Esto se lo deja
el MP, este mezcla, conmuta y procesa audio, video y/o bits de datos. Las capacidades del
MC y MP pueden estar implementadas en un componente dedicado o ser parte de otros
componentes H.323, en concreto puede ser parte de un Gatekeeper, un Gateway, un
terminal o una MCU.

El MP recibe flujos de audio, video o datos desde los extremos, estos pueden estar
involucrados en una conferencia centralizada, descentralizada o híbrida. El MP procesa esos
flujos y los devuelve a los extremos.
La comunicación entre el MC y el MP no es asunto de estandarización.

Conferencias Multipunto.

Existen una variedad de métodos de gestionar las conferencias multipunto. La


Recomendación hace uso de los conceptos de conferencia centralizada y descentralizada.
Las conferencias centralizadas requieren de una MCU. Todos los terminales envían audio,
video, datos y flujos de control a la MCU en un comportamiento punto-punto. La MC gestiona
de forma centralizada la conferencia usando las funciones de control H.245 que también
definen las capacidades de cada terminal. El MP mezcla el audio, distribuye los datos y

86
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

mezcla/conmuta el video y envía los resultados en flujos de vuelta a cada terminal


participante.

En conferencias multipunto descentralizadas se puede hacer uso de tecnología


multicast. Los terminales H.323 participantes envían audio y video a otros terminales
participantes sin enviar los datos a una MCU. Sin embargo el control de los datos multipunto
sigue siendo procesado de forma centralizada por la MCU, y la información del canal de
control H.245 sigue siendo transmitida de modo unicast a un MC.

Son los terminales que reciben múltiples flujos de audio y video los responsables de
procesarlos. Los terminales usan los canales de control H.245 para indicar a un MC cuantos
flujos simultáneos de video y audio son capaces de decodificar. El número de capacidades
simultáneas de un terminal no limita el número de flujos de audio y video que son enviados
por multicast en una conferencia.

Las conferencias multipunto híbridas usan una combinación de características de las


centralizadas y descentralizadas. Las señalizaciones y cualquier flujo de audio o video son
procesados a través de mensajes punto a punto enviados a la MCU. Las restantes señales
(audio o video) son enviadas a los participantes a través de multicast.

Una ventaja de las conferencias centralizadas es que todos los terminales soportan
comunicaciones punto a punto. La MCU puede sacar varios flujos unicast a los participantes
y no se requiere ninguna capacidad de la red especial. También es posible que la MCU
reciba varios flujos unicast, mezcle el audio, y conmute el video, y saque un flujo multicast,
conservando de esta manera el ancho de banda de la red.
H.323 también soporta conferencias multipunto mixtas en las cuales algunos
terminales están en una conferencia centralizada, mientras otros están en una
descentralizada, y una MCU proporciona el puente entre los dos tipos. Al terminal le es
transparente la naturaleza mixta de la conferencia, solo tiene en cuenta el modo en que
envía o recibe.

Multicast hace más eficiente el uso del ancho de banda de la red, pero supone una
más alta carga computacional en los terminales que tienen que mezclar y conmutar entre los

87
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.

flujos de audio y video que reciben. Además, el soporte multicast es necesario en elementos
de la red como routers y switches.
Un MC puede estar localizado en un Gatekeeper, un Gateway, un terminal o una MCU.

88
CAPITULO 4. STREAMING.

89
CAPITULO 4. STREAMING.

CAPITULO 4. STREAMING.

4.1.- Introducción.

El streaming media es una tecnología desarrollada para poder emitir audio y video
por Internet de manera instantánea. Antes del streaming media era necesario dedicar varios
minutos a la descarga de un archivo que contenía el video para poder verlo. Por otro lado el
streaming permite transmisiones de audio y video en vivo por la Red.

La tecnología de streaming se utiliza para aligerar la descarga y ejecución de audio y


vídeo en la web, ya que permite escuchar y visualizar los archivos mientras se están
descargando.

La diferencia con los servicios de descarga es clara, ya que en este se produce


primero el envío de datos y sólo después se accede a los contenidos, por el contrario, el
streaming permite ver o escuchar el contenido durante la descarga; es decir, el transporte y
el tratamiento de datos producen en forma simultánea.

Existen dos formas de streaming: Stream en Directo y Stream Bajo Demanda.

• Directo: El "stream" se codifica en el acto, es retransmitido instantáneamente hacia


Internet y se visualiza en tiempo real.

• Bajo Demanda: El "stream" una vez grabado, se aloja en un servidor multimedia y


puede ser visualizado bajo demanda en cualquier instante.

El elemento más importante a la hora de hacer una transmisión Streaming es el Codec,


ya que elimina los elementos constantes de las imágenes reduciendo la cantidad de
información a transportar por las redes. El Codec codifica y decodifica de manera continua
los pequeños paquetes de datos en los que es dividida la información a enviar, para poder
lograr una reproducción sin interrupciones.

90
CAPITULO 4. STREAMING.

4.2.- Streaming bajo demanda.

El streaming "bajo demanda" u on-demand, por su nombre en inglés, consiste en


archivos de video que descansan en un servidor esperando ser solicitados por el internauta.
Un ejemplo de esto es un site con archivos de noticias, o un site de videos musicales.

4.3.- Streaming en vivo.

El streaming en vivo o webcast, consiste en transmitir audio o video por la red en el


instante que se está emitiendo. En este formato se tiene lo que es la transmisión de la señal
de una estación de radio o un canal de televisión.

Actualmente el streaming ha orientado sus aplicaciones en la Red a los sites de


noticias, música y entretenimiento. En cuanto a las aplicaciones corporativas el streaming se
utiliza con gran impulso para el entrenamiento a personal ya que el trabajador puede ver en
video una y otra vez sus charlas de capacitación.

Cada día son más los sites que están incorporando video y audio en su contenido.
Convirtiendo en realidad a la web en una verdadera experiencia multimedia. Una pequeña
empresa puede colocar un video corporativo, una escuela de danza puede transmitir sus
presentaciones, una agencia de modelos puede presentar sus desfiles y no hay límites para
su aplicación.

• Redes de banda ancha. El desarrollo del streaming y las redes de banda ancha van
de la mano. Mientras mayor velocidad tenga la conexión a Internet se puede
transmitir video de mejor calidad. En el mediano plazo se espera que ver un video por
Internet sea tan igual como disfrutar de la televisión.

• Dispositivos móviles. Otra tendencia del streaming es su uso en dispositivos


móviles como teléfonos celulares. En este caso el streaming está en una etapa
incipiente explorando las necesidades de los usuarios.

91
CAPITULO 4. STREAMING.

• Equipos. El auge del video digital y la explosión de la edición de video en las


computadoras personales permiten que se pueda producir streaming relativamente a
bajo costo. Con una cámara de video digital MiniDV, una tarjeta FireWire y un
programa de edición como el Adobe Premiere se puede incursionar en este mundo.
Dependiendo la calidad del producto final de nuestro profesionalismo y conocimiento
de las herramientas.

• Flujo de contenido. Una vez que se ha producido el streaming debe ser colocado en
un Hosting especial con las capacidades para administrar la concurrencia simultánea,
el flujo de ancho de banda y codificación en vivo, teniendo la inteligencia para atender
a un pequeño grupo o a miles de usuarios simultáneamente.

• Interactividad. Finalmente, es necesario integrar el streaming en websites que


incentiven al usuario a interactuar con el contenido. De este modo se rompe la
tradicional pasividad inherente a los medios tradicionales como la prensa, la TV y la
radio.

4.4.- Formatos del Streaming Media.

Hoy en día se dispone de tres plataformas para crear streaming: Windows Media,
Quicktime y Real. Son arquitecturas que compiten entre si por brindar una solución que
abarque desde los aspectos de creación hasta la visualización del audio o video streaming.
El criterio para su elección depende mucho de la orientación del proyecto, de los que verán
el contenido o de cómo éste se despachará. En algunos casos los proyectos de streaming
producen los tres formatos de un mismo contenido.

Streaming media.
Existen 2 tipos de servicios de streaming media:
El que por ahora prevalece es el llamado UNICAST, que distribuye archivos multimedia
(audio / video) desde un servidor a cada computadora individualmente.

92
CAPITULO 4. STREAMING.

Para difundir archivos multimedia de manera similar a como un canal de televisión o estación
de radio emiten su señal se utiliza MULTICAST.

4.5.- Streaming media Unicast.

La mayoría de los archivos de audio y video que se ven en el computador, cual sea el
reproductor que se utilice (Real, Windows Media), proviene de un servicio UNICAST. Este
servicio consiste en un servidor que envía paquetes de datos a cada computador que solicita
un stream.

Unicast es una buena opción para recibir transmisiones en vivo, pero tiene sus
desventajas. El servidor debe enviar el flujo de datos individualmente a todo aquel que quiere
recibir la transmisión. Si se tiene un puñado de personas recibiendo el stream está bien; pero
si se trata de difundir el stream a miles de usuarios se debe de considerar 2 inconvenientes
con el proceso unicast.

Demasiadas peticiones. Con unicast el servidor tiene que procesar cada solicitud de stream
y despacharla. Cada stream toma una pequeña porción de poder de procesamiento del
servidor. Si se obtienen muchas solicitudes el servidor no podrá sostener la sobrecarga y
muchas personas no podrán recibir la transmisión.

Demasiados paquetes. El segundo problema con unicast, y un gran número de solicitantes


simultáneos de stream, es que una serie separada de paquetes de datos debe ser enviada a
cada persona. Incluso si el servidor pudiera hacer esta tarea, el número de paquetes de
datos en tránsito haría "flooding", es decir, inundaría el sistema entero haciendo que la
transmisión se torne muy lenta, o hasta se detenga. Considere que a mayor cantidad de
transmisión (por ejemplo, un evento en vivo que dure una hora) los paquetes pueden
desbordar la red de manera similar a cuando los automóviles se congestionan en una
autopista a la hora pico. En Internet, a estos congestionamientos se les llama "Traffic Jams".

93
CAPITULO 4. STREAMING.

4.6.- Streaming media MULTICAST.

Multicast hace su trabajo de transmisión de manera similar a como funcionan los


canales de televisión o las estaciones de radio: El programa (archivo de audio / video) se
emite desde la estación hacia los transmisores (servidores conectados a la red) quienes se
encargan de distribuir la señal (el stream) a los televidentes. Cuando el espectro de
televidentes (usuarios, visitantes) se extiende, se agregan repetidores (servidores).

Sintonía fina. Todos los paquetes se mueven a través de una red a gran velocidad. Estos
son dirigidos por routers hasta que encuentran la dirección para la que han sido proyectados.
Un computador / servidor "mira" en el canal y graba cualquier paquete direccionado a él.
Este convierte los paquetes a información útil y marca los paquetes así estos no serán
examinados por ningún router más.

Con multicast su computador es configurado para que aparte de "escuchar" por paquetes
direccionados a él también esté atento a paquetes que estén direccionados a una dirección
específica de multicast, llamada estación. Multicast reserva una serie de direcciones para
transmisión que no pueden ser asignadas a ninguna computadora. Si su computadora está
configurada para multicast ésta permanecerá pendiente de paquetes de datos sobre una
particular "estación".

Cuando ésta reciba un paquete de esa estación lo convertirá en información útil y aprobará
su reproducción en el player de streaming media. Al mismo tiempo, todas las otras
computadoras que se encuentren recibiendo la transmisión estarán obteniendo los mismos
paquetes desde la misma estación.

Multicast es muy eficiente. Una simple serie de paquetes de datos puede ser usada para
transmitirá a la Internet entera.

Recibiendo multicast. Desde el punto de vista del usuario, recibir multicast o unicast
es casi lo mismo. Se hace click en el enlace debido, el reproductor de streaming media es
conectado al servidor, se abre el archivo de audio / video y comienza el show. La única

94
CAPITULO 4. STREAMING.

diferencia es que el servidor podrá colgarse o no, se obtendrá la transmisión deseada, y la


Internet entera estará menos abarrotada de paquetes de datos en tanto más servicios
multicast sean usados.

Debido a que multicast es transmisión por envío de una serie de paquetes de datos,
no hay una manera sencilla de que el reproductor solicite un paquete de datos para que sea
enviado de nuevo. Esto quiere decir que algunos paquetes son perdidos, incluso antes de
que se pueda notar debido en parte a la manera en que el reproductor codifica los archivos.

Multicast puede ser una solución a largo plazo para los "traffic jams" de la Internet,
pero aún falta camino por recorrer.

Multicast todavía no ha reemplazado a Unicast en la Internet porque algunas partes


de la Internet no han sido conectadas a routers que entiendan el proceso multicast. La
mayoría de los nuevos routers pueden manejar multicasts eficientemente, pero los sistemas
de educación y de gobierno obsoletos que enlazan piezas de la Internet están usando
tecnología desactualizada.

Del lado del usuario, la mayoría de las tarjetas de red en los equipos más recientes
también entienden el funcionamiento de multicast. Aún así llevará un par de años cerrar la
brecha.

Sin embargo existe un área donde multicast se está haciendo popular: las intranets.
Debido a que el equipamiento tecnológico de las compañías está modernizado (en términos
generales) es posible interconectar muchos equipos donde es hoy posible trabajar con
multicast, por ejemplo, con fines de capacitación. Multicast también puede ser utilizado
exitosamente en una gran ciudad.

Desde hace un tiempo no se necesita mantener archivos de audio y video en su PC;


se tiene la posibilidad de hacer stream de lo que quiera en cualquier momento del día o la
noche. No importa cómo se elija recibir los "mediafiles" desde la Internet, la tecnología está
disponible y es accesible para todo el mundo.

95
CAPITULO 4. STREAMING.

4.7.- Distribución de Contenido.

Si el objetivo es distribuir contenidos multimedia a una o varias personas, se debe


conocer varias tecnologías que facilitaran la tarea de hacer llegar la información de forma
eficaz a los destinatarios que se desee. Entre estas tecnologías cabe destacar:

 Streaming de Multimedia: La estrategia se basa en la entrega de información


utilizando streaming, lo cual consiste en reproducir bits a medida en que se reciben
desde el servidor, de esta forma no hay tiempo de descarga. Para poder realizar
streaming es necesario que el bit rate sea menor que el ancho de banda de la red. Bit
rate es la velocidad a la que se envían los datos (datos/seg). Por ejemplo en vídeo de
alta resolución se utiliza 128 Mbis/seg: 1 segundo a 28 Kbits/seg es 1 hora y 14
minutos.

• Métodos de Entrega: se puede diferenciar entre 5 métodos de entrega diferentes,


dependiendo de diferentes características (unidifusión/multidifusión, cliente
activo/pasivo, etc.):

o On-Demand (A petición - cliente activo): El contenido media es posible que se


entregue mediante streaming, bien por la demanda de un usuario o bien por la
solicitud de un servidor Windows Media. Con Windows Media Encoder se puede
realizar el streaming tanto si el contenido procede de un servidor como si es
contenido es en vivo. Es un método de distribución Unidifusión.

o Unicast (Bajo demanda o broadcast): Por medio de una conexión cliente/servidor, el


cliente recibe bajo demanda un stream de contenido previamente almacenado o un
contenido en directo, de forma que ningún otro cliente tiene acceso a dicho stream.

o Broadcast (Cliente pasivo): Un stream broadcast puede ser multicast o unicast. En


una conexión broadcast, el cliente es pasivo y no controla cuando el stream empieza
o termina. Por el contrario, en una conexión bajo demanda, el cliente es activo y
controla cuando el stream empieza o para. A causa de la interacción del cliente, es
un método de distribución unidifusión.

96
CAPITULO 4. STREAMING.

o Broadcast Unicast: Es una conexión punto a punto que un cliente Windows Media
Player inicia a un servidor Windows Media. Es similar a una llamada de teléfono,
donde se establece una conexión continua entre cada cliente y el servidor.

o Multicast (Multidifusión de un stream en tiempo real - solo broadcast): Consiste en la


distribución de un stream a muchos clientes que escuchan monitorizando una
dirección IP multicast.

• Codecs: Como Codec se entiende la forma de codificación de la información que se


desea transmitir, Existen tres subapartados:

o Codecs para contenido ASF (Advanced Streaming Format). ha sido desarrollado por
un consorcio de empresas (Microsoft, Vivo, Real NetwWorks, etc.) para media
servers, servidores HTTP y reproducción local. ASF es un formato de transporte
independiente diseñado para audio, video, imágenes, texto y comandos de script.
Con ASF se consigue que un único stream de entrada pueda ser codificado en
múltiples streams de salida en un mismo archivo Windows Media (multi-bit-rate -
MBR).

Cada stream escalado difiere en la velocidad en que puede ser entregado, y sólo
puede reproducirse uno a la vez, de forma que son el reproductor y el servidor los que
negocian la velocidad más adecuada. Los Codecs para contenido ASF son: MS Audio,
MPEG 4, Screen Capture (640X480), MPEG 1 and 2,TrueMotion RT, (Duck), ClearVideo 1.3
(Real Video),H.263 (Vivo), H.261 (Intel), VideoFlash, (WebTV), VFOWave, Real Video
Standard, RLE, RT24 MetaVoice (Voxware), MetaSound (Voxware), MetaVoice (Voxware),
MPEG Layer 3 (FhG), G.723 (Vivo + Lucent), Siren (Vivo), L&H, RealAudio (14.4/28.8),
DolbyNet, ACELP (Sipro), etc..

o Audio: Microsoft Audio es un Codec de audio desarrollado por Microsoft que ofrece
gran calidad utilizando pocos recursos. Así por ejemplo un Streaming de una señal
FM-setéreo se retransmite a 20 Kbps. Otra característica es que ofrece un amplio
rango, desde 6 Kbps a 160 Kps en mono y estéreo. También cabe destacar su alto

97
CAPITULO 4. STREAMING.

rendimiento de compresión, así cabe decir que es posible reducir a la mitad el


tamaño de un fichero MP3 obteniendo la misma calidad.

Web server vs. Media Server streaming:

Con un servidor web el cliente de streaming empieza a reproducir el contenido


mientras se descarga, tras unos segundos de buffering (proceso de almacenar la primera
parte de un archivo multimedia antes de reproducir). El cliente recibe los datos tan
rápidamente como el servidor Web, red y cliente puedan, sin tener en cuenta el parámetro
bit-rate del stream comprimido.

A través de un servidor Multimedia especializado (Media server) los datos son


inteligentemente enviados al cliente, de forma que el servidor distribuye el contenido a la
velocidad de datos asociados con los streams de audio y vídeo. El servidor y el cliente están
en contacto durante el proceso de distribución, y el servidor de streaming puede responder a
cualquier información del cliente.

o Las ventajas más importantes de un Media Server son:

 Throughput de red más eficiente


 Mejor calidad de audio y video al usuario
 Características avanzadas (Controles de reproducción)
 Escalabilidad rentable a un mayor número de usuarios (Especialización, Soporte
de Multicast)
 Protección de los derechos de contenido
 Múltiples opciones de distribución (UDP, TCP, HTTP+TCP, multicast,...)

98
CAPITULO 4. STREAMING.

4.8.- Funcionamiento del Streaming.

El cliente se conecta con el servidor y éste le empieza a mandar el archivo. El


cliente comienza a recibir el archivo y construye un buffer donde empieza a guardar la
información. Cuando se ha llenado el buffer con una pequeña parte del archivo, el cliente lo
empieza a mostrar y a la vez continúa con la descarga.

El sistema está sincronizado para que el archivo se pueda ver mientras que se
descarga, de modo que cuando éste acaba de descargarse también ha acabado de
visualizarse. Si en algún momento la conexión sufre descensos de velocidad se utiliza la
información que hay en el buffer, de modo que se puede aguantar un poco ese descenso. Si
la comunicación se corta demasiado tiempo, el buffer se vacía y la ejecución el archivo se
cortaría también hasta que se restaurase la señal.

4.9.- Ventajas de Streaming.

• La reproducción puede empezar inmediatamente, sin necesidad de esperar una larga


descarga.
• No se necesita espacio de almacenamiento en el cliente, salvo un buffer relativamente
pequeño.
• El transmisor (servidor) puede adaptar la tasa de envío a las condiciones de la red y la
capacidad del cliente.
• Interactividad, pues los datos de los archivos trasferidos en tiempo real pueden registrar
variaciones debido a una respuesta por parte del cliente.
• Los datos a transmitir pueden ser creados en el momento de ser transmitidos, de manera
que el cliente obtiene una transmisión "en vivo" de acontecimientos ocurridos en otro
lugar pero simultáneos al momento de la transmisión.

99
CAPITULO 4. STREAMING.

4.10.- Tecnologías Streaming.

La técnica de Streaming aparece en contraposición a la tradicional técnica de


conmutación de paquetes bajo el protocolo HTTP. Ésta última queda obsoleta en éste nuevo
tipo de transmisión debido a dos causas principales:

• Los archivos con contenidos multimedia suponen un importante flujo de datos en el


medio.

• Éstos archivos son "fragmentados" en pequeños lotes cuyo tamaño viene definido por
el tipo de red por la cual van a ser difundidos. Para que los archivos puedan ser
reproducidos en el destino han de ser recibidos completamente, es decir, han de
recopilarse todos los fragmentos de datos y recomponer el fichero.

A mediados de los '90, surgieron las primeras tecnologías de Streaming para redes IP
(Protocolos de Internet), introduciendo el nuevo protocolo RTSP o Real Time Streaming
Protocol, que tiene en cuenta los problemas con los que contaba HTTP. Este protocolo será
analizado posteriormente.

Entre estas tecnologías destaca con rapidez la desarrollada por Real Networks. Ésta
permite transmitir audio y vídeo desde los servidores hacia los clientes usando simples
módem y con una pequeñísima diferencia temporal entre la solicitud del archivo y su
reproducción.

Otra tecnología a destacar es la desarrollada por Apple, Quicktime, optima en


sistemas Mac OS. Trabaja con los dos protocolos principales de reproducción multimedia,
HTTP para transmisiones convencionales a través de servidores Apache y RTSP para
transmisiones Streaming. Este software de servidor ha de unirse al Sistema Operativo Mac
Os X Server, para conseguir la máxima optimización de la transmisión con productos Apple
en Sistemas Mac Os. Su última versión, que incluye el servidor Quick Time Server 2, aporta
soporte para sistemas Linux.

100
CAPITULO 4. STREAMING.

4.10.1.- Componentes de las tecnologías Streaming.

• Un servidor Web, que soporta el software necesario para poder servir información
multimedia en tiempo real, el cual es llamado Stream. Este software permite al
servidor ofrecer conexiones multitudinarias. Ante una solicitud de información, el
servidor divide y comprime la información en pequeños paquetes para ser transmitida
por la Red.

• Un reproductor de contenidos multimedia, un software que procesa un flujo medial


que entra en la máquina destino a través del sitio web. El reproductor contiene el
decodificador que permitirá al usuario visualizar los contenidos Streaming de manera
eficiente. Se caracteriza porque no es necesaria la recepción completa de los datos
para que éste pueda comenzar la reproducción

• Plug-ins para el navegador. Si lo que se desea es reproducir documentos multimedia


sin necesidad de instalarse nuevos programas, se tiene la posibilidad de activar los
plug-ins del navegador.

4.10.2.- Servidores de Streaming.

En principio no es necesario contar con un servidor especial para colocar archivos de


audio o vídeo con descarga streaming en nuestras webs. Cualquier servidor normal puede
mandar la información y es el cliente el que se encarga de procesarla para poder mostrarla a
medida que la va recibiendo.

Sin embargo, existen servidores especiales preparados para transmitir streaming.


Aunque en muchas ocasiones no es necesario utilizarlos, pueden ofrecer importantes
prestaciones como mandar un archivo de mayor o menor calidad dependiendo de la
velocidad de nuestra línea.

101
CAPITULO 4. STREAMING.

En determinados casos, como la puesta en marcha de una radio o la transmisión de


un evento en directo, si será imprescindible contar con un servidor de streaming al que se
mandará la señal y con ella, la enviará a todos los clientes a medida que la va recibiendo.

Se entiende por streaming la capacidad de distribución de contenido multimedia, con


la característica de poder visualizar estos contenidos mientras esa información está siendo
trasmitida por la red. Este sistema tiene la ventaja frente al sistema existente anteriormente,
(era necesario bajar completamente el vídeo para comenzar su visualización) pero necesita
que tanto el servidor de vídeo como las redes de datos sean capaces de mantener un flujo
constante de esa información. Básicamente cualquier sistema de streaming estará formado
por: Compresión, transmisión y buffering.

Las configuraciones de este tipo de servicios, pueden variar desde un número


pequeño de usuarios y contenidos, hasta un gran número de ellos y mucho volumen de
información. Evidentemente, el planteamiento será distinto según la solución a tratar. Aquí la
red de comunicaciones también es importante, tanto en su ancho de banda como en la
posibilidad de manejar tráfico multicast. A la hora de dimensionar una solución de streaming,
es necesario tener en cuenta varios factores: número de usuarios simultáneos, número de
horas de almacenamiento y cómo se va a utilizar el servicio. Cuando el almacenamiento
crece, es necesario plantearse el incorporar a la solución un sistema, tanto de catalogación,
como de recuperación de esa información. Así como un sistema que permita manejar todo
ese volumen de datos.

Además, es importante tener en cuenta otros factores como: formatos de vídeo


soportados por el servidor de streaming (Real, MPEG-1, MPEG-2, MPEG-4, QT,…),
protocolos utilizados para el transporte (RTP, RTSP, soluciones propietarias), soporte de
multicast (real o simulado).

En relación a los servidores de streaming se pueden dividir en dos tipos: Intranet


video servers e Internet video servers.

Los primeros, suelen utilizar formatos de vídeo de más calidad y más ancho de
banda. Aquí se habla de MPEG-1 (1 a 3 Mbits) con una calidad similar al VHS, MPEG-2 (3 a

102
CAPITULO 4. STREAMING.

10 Mbits) con calidad DVD. Además se necesitan las tarjetas capturadoras (encoders) que
generen esta salida. Aquí el precio variará dependiendo del formato que se elija. La elección
de un formato u otro dependerá de varios factores: uso que se la dará a esos contenidos,
disponibilidad de ancho de banda en la red, calidad y tipo del material (master), lugar de
visualización de contenidos,…

Como ejemplo de ancho de banda/calidad se dice que una ventana pequeña con
calidad VHS se puede estar hablando de (80 Kbits para una solución propietaria y hasta 0.5
Mbits para MPEG-1). Una pantalla grande con calidad S-VHS se necesita de 1 a 2 Mbits
para MPEG-1. Para una mayor calidad como Betacam-SP. Evidentemente con este volumen
de información se tiene que plantear la elección de un sistema de almacenamiento acorde a
las necesidades.

El segundo tipo de servidores se utilizarán para dar servicio a Internet. Aquí los
anchos de banda (a Día de hoy) son considerablemente menores a 1. Se hable de velocidad
que va desde los 28-56 Kbits.a 128 o 384 kbits. Con formatos como Realvideo o ASF
(Advanced Stream Format). Evidentemente, las necesidades de almacenamiento cambian
radicalmente con el primer tipo de servidores, y los precios de la solución final (incluyendo
estaciones de codificación) también.

En cuanto a la forma de trabajar y planificar el trabajo, es independiente del tipo de


servidor que se tenga (Internet o Intranet).
Por último, como elementos a resaltar en una solución de streaming existen:

• Servidor de streaming: estará formado por el software de streaming y sistema de


catalogación en caso de ser necesario.

• Estación de captura (codificación): permite realizar la captura de la señales de audio y


vídeo para trabajar de cualquiera de las formas vistas anteriormente.

• Sistema de almacenamiento: se dimensiona según las necesidades.

103
CAPITULO 4. STREAMING.

• Herramientas de producción: En algunos casos puede ser interesante disponer de


software adicional que permita generar contenidos más elaborados.

Servidor RealServer:

Solución ofrecida por RealNetworks para la distribución de contenidos vía streaming


tanto en directo como en diferido. El software es multiplataforma y puede ser instalado tanto
en Windows como en sistemas Unix (Linux y Solaris, HP-UX, IRIX,). Se puede instalar una
versión de demo que permite la conexión de hasta 25 usuarios simultáneos. Esta solución
viene limitada en algunas de sus funcionalidades (mutlicast y splitting).
Como herramientas para producir están:
RealProducer (codificación en formato RealVideo tanto en directo como en diferido),
RealPresenter (para realizar presentaciones de audio, vídeo con PowerPoint y WWW),
RealSlideShow (presentaciones con gráficos y audio).
Como características de este conjunto de software se puede resaltar:

o Facilidad de instalación y configuración.


o Multiplataforma en Servidor, codificación y visualizadores.
o Administración y configuración vía WWW.
o Se apoya en estándares (SMIL, RTP/RTCP, RTSP, etc).
o Soporte multicast (real y simulado).
o Soporta protocolos de sesión como SAP/SDP para su comunicación con las
herramientas típicas de videoconferencia multicast (sdr).
o Herramientas de control y estadísticas de uso (JAVA).
o Control de acceso (por dirección IP).Soporta formatos como: AVI, MOV, QT, MP3,
RealVideo8, MPEG-1, MPEG-21

Servidor Windows Media.

Es la tecnología perteneciente a Microsoft engloba una serie de herramientas para la


generación de elementos audiovisuales y su difusión por intranets o Internet.

104
CAPITULO 4. STREAMING.

Soporta video bajo demanda (VoD), emisión en vivo y programada. La emisión puede ser
entregada de múltiples formas al receptor:

• Multicast: si la red lo soporta y es un contenido en vivo o diferido.


• UDP: si no soporta multicast.
• TCP: si los puertos UDP están filtrados
• HTTP: Si las conexiones TCP están filtradas puede ser entregado por HTTP, a
través de proxies.

Windows Media es una solución propietaria que aporta sus propios protocolos. La
conexión entre cliente y servidor se negocia usando el protocolo MMS (Multi Media Server) o
también se puede hacer streaming sobre HTTP. MMS funciona encima de TCP, usa el
puerto 1755 y con él se negocian las características de velocidad de la conexión así como el
modo de entrega que en particular puede ser sobre HTTP. Los servidores que sirven
contenidos de Windows Media usan urls del tipo MMS://, o bien MMSU:// (para forzar UDP) o
bien MMST:// (para forzar TCP). La negociación de la forma de entrega es la siguiente:
primero se intenta Multicast (sí el servidor está configurado para hacerlo), después UDP,
TCP y HTTP.

Los contenidos de Windows Media pueden ser difundidos desde un servidor web por HTTP.
Comparado con un servidor Web, el Windows Media Service aporta varias ventajas:

• Uso más eficiente del ancho de banda. El Windows Media Service puede hacer uso
como ya se indicó de varios transportes que hacen más eficiente la entrega.
• Mejor calidad para el usuario
• Envió de flujos multistream. Para que según el ancho de banda del cliente se envié
con distintas calidades.
• Protección de contenidos con copyright
• Escalabilidad. Soporta más clientes.
• Control del ancho de banda en uso.

105
CAPITULO 4. STREAMING.

Por lo que se conoce, MMS es equivalente a RTP, RTCP y RTSP.


Los formatos de archivo propios de Windows Media son asf, wmv y wma. En realidad los
archivos wmv y wma (video y audio respectivamente) pueden ser renombrados a asf ya que
su estructura es idéntica. En ciertos sitios puede demandarse un archivo de tipo asf y tener
uno codificado que sea wmv por ejemplo, en cuyo caso solo se tiene que renombrar a asf.

Una de las ventajas de esta solución de streaming frente a otros productos es la


calidad de sus CODEC. Actualmente se soportan los siguientes CODEC para video: MPEG4
v3 (no cumple el estándar), MPEG4 ISO, Windows Media V7, Windows Media V8.

Otro punto fuerte a favor de esta solución es el precio, Microsoft lo distribuye desde
su Web de forma gratuita.

Codificación.

Para la generación de archivos en formatos asf, wmv y wma se pueden utilizar dos
soluciones:

• Batch Encode Utility: para generar archivos asf, wmv y wma a partir de archivos en
otros formatos (por ejemplo avi, mp3, wav, mpg, etc.

• Windows Media Encoder: Se puede usar para lo mismo que el anterior pero además
permite tomar como fuente una captura audio y/o video que es codificada en tiempo
real. En este se pueden especificar varias fuentes (por ejemplo un video de entrada,
un anuncio, un gráfico, etc.) e ir pasando de unas a otras. Se pueden generar eventos
que son generados en el reproductor del cliente.

El contenido que está siendo generado puede almacenarse en un archivo,


difundirse a Media Players por HTTP o bien difundirse a un Windows Media Services
también por HTTP y que sea este el que lo distribuya a los clientes. No se aconseja más
de 30 clientes conectados directamente al Windows Media Encoder. El inconveniente
principal de conectar de esta forma a los clientes es que sólo se pueden entregar los
contenidos por HTTP.

106
CAPITULO 4. STREAMING.

Difusión.

Para la difusión del contenido multimedia como ya se dijo además de un servidor web
se pueden utilizar los Windows Media Services. Estos son administrados desde una interface
web simple.

Una vez instalado el servicio, que puede funcionar tanto en NT como en Windows
2000 (en este viene en el CD-ROM de instalación), habrá que instalar los puntos de
publicación de unidifusión a petición. Esto es equivalente a dar la raíz en un servidor WEB.
Una vez hecho esto cualquier archivo asf colocado en dicho directorio será servido bajo
demanda usando la sintaxis mms://nombreservidor/archivo.asf. También se puede dar un
alias al punto de montaje y entonces sería mms://nombreservidor/alias/archivo.asf. Esta url la
entienden Explorer o Media Player, en el caso del Explorer lanza el Media Player para que la
use.

Con lo explicado en el párrafo anterior se tendría video bajo demanda. Otras


posibilidades son: emisora difundiendo contenidos en vivo (desde un Encoder) o contenidos
grabados, ambas distribuidas por unicast o multicast. Todas ellas se encuentran
extensamente documentadas en la ayuda.

Puesto que una url de tipo mms:// solo es entendida por Internet Explorer, se usa un
formato de archivo denominado asx que además sirve para definir el comportamiento del
Media Player. Este archivo se baja por HTTP y está asociado al Media Player. Dentro de
este archivo se encuentra la url mms:// o http:// del contenido a visualizar, también se pueden
poner banners, y metainformación sobre el contenido en emisión, además de listas de
reproducción y más características interesantes.

El video puede ser visualizado embebido dentro de una página web en cuyo caso la
apariencia del video puede ser cambiada, por ejemplo con botones o sin ellos, etc.

107
CAPITULO 4. STREAMING.

4.11.- Conclusión.

Para poder transmitir video por red IP es necesario codificar el video con un codificador
que soporte el streaming por ejemplo: (Windows Media Video, MPEG, Cinepak by radius,
Indeo video 5.10).

Si deseamos transmitir video de calidad por Internet a una gran audiencia es necesario
contar con IP público, ademas de un ancho de banda mayor a 512 kps.

108
CAPITULO 5. PROTOCOLOS

RTSP y RTP

109
CAPITULO 5. PROTOCOLOS RTSP Y RTP

CAPITULO 5. RTSP Y RTP.

5.1.- Introducción.

RealNetworks, Netscape Communications y la Columbia University han desarrollado


Real-Time Streaming Protocol (RTSP). Es un protocolo, es decir la serie de procedimientos
genéricos para la comunicación entre dos máquinas, que optimiza el flujo de datos. A
diferencia del HTTP, que no define precisamente el género de archivos que vienen
trasladados, el RTSP controla los datos con funcionalidades conceptualmente similares a las
de un aparato de vídeo: Play, fast-forward, pause, stop y record.

5.2. - RTSP (Real Time Streaming Protocol).

Real Time Streaming Protocol es un protocolo a nivel de aplicación de presentación


multimedia cliente/servidor, que permite controlar el flujo de audio y video sobre la red IP.

No existe la noción de una conexión RTSP. El servidor mantiene etiquetada cada


sesión por medio de un identificador, durante esta el cliente puede abrir y cerrar varias
conexiones confiables con el servidor.

5.3.- Característica del RSTP.

• RTSP introduce nuevos métodos y tiene un diferente identificador de protocolo.


• Un servidor de RTSP necesita mantener el estado por defecto en casi todos los casos.
• Tanto el servidor RTSP como el cliente pueden realizar peticiones.
• RTSP se define para utilizar ISO 10646 (Utf-8).

110
CAPITULO 5. PROTOCOLOS RTSP Y RTP

El protocolo soporta las siguientes operaciones:

• Recuperación de datos del servidor. El Cliente pide la descripción de una presentación


vía HTTP o cualquier otro método y le pide al servidor que establezca la sesión para
enviar los datos solicitados

• Invitación al servidor de medios a una conferencia. El servidor de medios puede ser


invitado a una conferencia para reproducir o para grabar una presentación.

• Añadir datos multimedia a una presentación existente: El servidor y el cliente puede


notificarse uno a otro la disponibilidad de datos adicionales.

En RTSP cada presentación y cada stream multimedia es identificado por un URL


RTSP. La presentación completa y las propiedades de los medios se definen en un fichero
de descripción de presentación, entre la información se incluye el tipo de codificación, el
idioma, las URLs RTPS, las direcciones de destino, los puertos y otros parámetros.

Los modos de operación que utiliza el servidor para enviar el audio y/o video a la
dirección de destino son:

• Unicast: la información (audio y video) es trasmitido a la fuente de la petición RTSP, con


el número de puerto escogido por el usuario. Alternativamente, las información es
transmitida por es el mismo flujo confiable de RTSP.

• Multicast, dirección escogida por el usuario: el servidor de los medios escoge la


dirección y el puerto del multicast. Este es un caso típico de la transmisión en vivo o por
demanda.

• Multicast, dirección escogida por el cliente: si el servidor está participando en un


multicast conferencia, la dirección multicast, el puerto y la clave de encriptación es dada
en la descripción de la conferencia

111
CAPITULO 5. PROTOCOLOS RTSP Y RTP

5.4.- Propiedades del Protocolo RTSP.

• Extensible: Nuevos métodos y parámetros pueden ser fácilmente agregados al


protocolo.

• Fácil de Analizar lexicográficamente: Su estructura lexicográfica es similar a HTTP y a


MIME.

• Seguro: RTSP reutiliza mecanismos de seguridad de la web en el nivel de transporte o


dentro del protocolo en si. Todos los mecanismos de autentificación de HTTP tales como
autentificación básica o de resumen son directamente aplicables.

• Independiente del protocolo de transporte utilizado: RTSP puede utilizar cualquier


protocolo no fiable de datagramas (UDP), protocolo fiable de datagrama (RCP) o un
protocolo confiable como TCP.

• Permite multi-server: cada flujo de datos puede residir en diferentes servidores. El


cliente automáticamente establece varias sesiones de control concurrentes, con
diferentes servidores de medios. La sincronización de los medios se lleva a cabo en el
nivel de transporte.

• Control de dispositivos de grabación: el protocolo puede controlar tanto la grabación


como la retroceder de dispositivos.

• Convenientes para aplicaciones profesionales.

• Presentación de una descripción neutral: el protocolo no impone una descripción


particular de la presentación o un formato particular de metafile. Sin embargo, esta debe
contener al menos un RTSP URI.

112
CAPITULO 5. PROTOCOLOS RTSP Y RTP

• Proxy y un firewall amigable: El protocolo debe ser de fácil manejo para la aplicación y
el firewall. Un firewall debe comprender el método SETUP para crear un canal para el
flujo de UDP.

• HTTP-amigable: RSTP reusa conceptos de HTTP y reutiliza la infraestructura del mismo


protocolo. Entre esta estructura, se encuentra PIC (Platform for Internet Content
Selection).

• Negociación de transporte: El cliente puede negociar el método de transporte antes de


necesitar enviar un flujo continuo de datos.

• Control apropiado del Servidor: Si un cliente inicia la solicitud de flujo de datos, este
debe ser capaz de detener el mismo. Por otra parte, el servidor no debe transmitir el flujo
de datos de manera tal que impida al usuario detenerlo.

• Capacidad de negociación: si las características básicas son deshabilitadas, deben


existir mecanismos claros para determinar cuales métodos van a ser implementados.

5.5.- Ventajas de RTSP.

• Única manera de transmitir en vivo.


• Compresión del vídeo digital, descartando cuadros y detalles redundantes.
• Transmisión de los datos en paquetes que son leídos por el cliente mientras llegan.
• Utilización de buffers o memorias de reserva para aminorar los retardos y demoras
inherentes a la red.
• No requiere almacenamiento en el cliente.
• No hay desperdicio de ancho de banda.
• Difusiones en multicast.
• Pueden comprimirse pistas individuales en un film a partir de un servidor, no importa
donde se encuentre geográficamente.
• Escalable.

113
CAPITULO 5. PROTOCOLOS RTSP Y RTP

5.6.- Desventajas de RTSP.

• Un video se detiene si la tasa de datos excede la velocidad de conexión.


• Puede ser detenido por firewalls o el NAT.
• Requiere un servidor Streaming o un broadcaster.
• No puede usar interactividad.

5.7.- RTSP vs. HTTP.

RTSP pretende proporcionar, para presentaciones multimedia, los mismos servicios


que HTTP proporciona para textos y gráficos, de hecho se ha diseñado intencionalmente con
una sintaxis similar, de tal modo que la mayor parte de los mecanismos de extensión de
HTTP se puedan añadir a RTSP.

RTSP difiere de HTTP en muchos aspectos. Entre estos pueden destacarse:

• HTTP es un protocolo sin estados y RTSP ha de mantener los estados de la sesión


para enlazar las peticiones con los streams relacionados.
• HTTP es asimétrico, cuando el cliente realiza una petición el servidor responde; mientras
que en RTSP ambos (Cliente y servidor) pueden realizar peticiones.

• HTTP y RTSP poseen diferentes identificadores de protocolo.

• HTTP no permite transmisión en vivo.

• Cuando se utiliza HTTP no es posible observar el contenido de los archivos mientras


estos son descargados, por tanto es necesario que los mismos residan en disco. En
consecuencia, el tamaño del video vendrá limitado por el espacio en disco y la memoria
RAM del cliente.

114
CAPITULO 5. PROTOCOLOS RTSP Y RTP

5.8.- RTP (Real Time Protocol).

Con el avance arrollador del internet, cada día se ha hecho más necesaria la
transmisión de voz, video e información en tiempo real. TCP no fue diseñado para este fin
por lo que no cumple con las expectativas y necesidades de las nuevas aplicaciones. Así
surge RTP, un protocolo que viene a llenar el vacío para la transmisión en tiempo real.

RTP proporciona el transporte peer to peer para aplicaciones con necesidad de


transmisión en tiempo real en redes unicast o multicast, como por ejemplo
videoconferencias, difusión de audio/vídeo, simulaciones.

El protocolo RTP se creó específicamente para la transmisión de audio y vídeo,


gracias a que incluye en su cabecera informaciones que sincronizan imagen y sonido, al
tiempo que es capaz de determinar si se han perdido paquetes y si éstos han llegado en el
orden correcto.

Por otra parte, las cabeceras del RTP también especifican el tipo de emisión que se
realiza, por lo que permiten diferentes tipos de compresión de datos. Cuando se realiza una
conexión a través de RTP, se definen dos direcciones diferentes que son controladas desde
dos puertos distintos, de forma que audio y vídeo viajan por separado controlados por el
RTCP. Además, el RSVP, tiene como objetivo añadir información feedback desde el cliente
hacia el servidor para garantizar una calidad de servicio. En contra, se tiene que el RTP no
asegura ni la entrega continua de información, ni la de todos los paquetes y ni siquiera puede
evitar la entrega desordenada de los mismos, aunque sí los controla.

5.9.- RTCP (Real Time Control Protocol).

RTCP es un protocolo que permite mantener información de control sobre una sesión de
RTP, la idea es reservar y garantizar la calidad de servicio. Para mantener el control de la
sesión, cuenta con varios tipos de paquetes:

115
CAPITULO 5. PROTOCOLOS RTSP Y RTP

• Sender Report: paquetes emitidos, datos para sincronización de varios streams.


• Receiver Report: paquetes perdidos, último recibido, timestamp para RTT.
• Source Description: Canonical Name (CNAME), email, etc.
• Bye.
• Específicos de la aplicación.

Cuando se establece una conexión se establece un puerto para RTP y el siguiente puerto
se le asigna a RTCP. El tráfico de RTCP no debe exceder el 5% del ancho de banda de la
sesión.

5.10.- Transmisión en Tiempo Real.

“Se denomina transmisión en tiempo real a la comunicación en la que el receptor


puede manipular los datos al mismo tiempo que el emisor los está enviando”.

Para la transmisión de información en tiempo real se requiere un sistema de


comunicaciones que proporcione a las aplicaciones los servicios y el control necesario para
la gestión de la calidad de servicio (QoS). En particular, la comunicación de audio o video
requiere la provisión de cierto nivel de calidad, garantizándolo durante el tiempo de la
transmisión.

Tráfico Multimedia.

Se suele denominar tráfico multimedia aquel compuesto por vídeo y audio. Los
requerimientos para la transmisión de audio y vídeo, se describen en los siguientes puntos:

Ancho de banda.

El tráfico multimedia maneja grandes volúmenes de información. Por ejemplo, un CD-


ROM, que son 72 minutos de sonido estéreo, requiere 648 Mbytes y una película de 90
minutos ocuparía 120 Gbytes, ambos sin comprimir. Por ello, la información multimedia se

116
CAPITULO 5. PROTOCOLOS RTSP Y RTP

trata casi exclusivamente de forma comprimida. El ancho de banda dependerá por tanto del
tipo de compresión y de la calidad con que se quiera transmitir.
Los tres estándares más difundidos para compresión de vídeo: ISO Moving Pictures
Expert Group (MPEG), Intel’s Digital Video Interactive (DVI) e International
Telecommunications Union (ITU) H.261; requieren un ancho de banda de 1.2 a 40 Mbps
para MPEG y MPEG-2, 1.2 a 1.8 Mbps para DVI, y de 0.064 a 2 Mbps para H.261.

En el caso de audio, con calidad telefónica el ancho de banda varía de 4 a 32 kbps


(dependiendo de la codificación ADPCM o CELP) y con calidad CD y usando compresión
MP3 varía de 32 a 256 kbps.

Retraso de transmisión.

Estos requerimientos son más estrictos que los de ancho de banda. La experiencia
con los sistemas de conferencia multimedia y los estándares ITU sugieren un retraso
máximo de 150 ms en las aplicaciones de vídeo interactivas.

En general, se pueden identificar los siguientes componentes de retraso:


• retraso en la compresión y descomposición de paquetes.
• retraso de transmisión en la red.
• almacenamiento en el destino y retraso de sincronización.

El vídeo debe tener de 25 a 30 imágenes por segundo. Esto deja un tiempo máximo
de compresión-descompresión de 33 a 40 ms (30-1 a 25-1) para evitar el solapamiento en la
compresión de las imágenes. Restando a 150 ms tanto el tiempo de la compresión como el
de descompresión deja un retraso máximo de 70 a 84 ms para la transmisión en la red.
Asumiendo que una ruta de tres saltos LAN-WAN-LAN es una topología frecuente, y
teniendo en cuenta que los elementos de enlace (gateways, routers, etc.) también
contribuyen al retraso, quedando un retraso máximo aceptable de 10 a 15 ms por salto.

Aunque estos cálculos son aproximativos y dependerían de muchos otros factores, nos
Sirve como una aproximación a los problemas de la transmisión.

117
CAPITULO 5. PROTOCOLOS RTSP Y RTP

Fiabilidad.

Los protocolos de transmisión tienen sistemas de control de errores y de reenvío de


paquetes que aseguran que la fiabilidad entre emisor y receptor sea transparente a los
niveles superiores.

Para la transmisión en tiempo real esta gestión de errores puede ser negativa, debido
al retraso que produciría la retransmisión de un paquete de nuevo. Para evitar este problema
se plantea que el tratamiento y gestión de los errores sea a niveles superiores. En una red
en tiempo real, la pérdida de paquetes puede ocurrir debido a la saturación de memoria en
los nodos o al superar el retraso máximo exigido.

Las prestaciones de una transmisión multimedia pueden ser medidas en dos


dimensiones: latencia y fidelidad. La latencia puede ser vital para aplicaciones interactivas
como conferencias mientras que para la transmisión de una película no lo es. La fidelidad de
la transmisión es variable. Hay aplicaciones que no toleran ninguna variación en la fidelidad
de la imagen como podría ser la transmisión de imágenes médicas y otras en que esta
variación sólo produce una cierta distorsión tolerable como la transmisión de películas o
música.

Sincronización de canales y multicast.

Cuando audio, vídeo y otros datos vienen por distintos canales, se necesitan
mecanismos para la sincronización de los distintos flujos en el destino. Esto se puede
conseguir usando una combinación de asignación de tiempos y almacenamiento antes de su
visualización. Esto en general no afecta a la red y es un problema del destino.

Multicast es la habilidad de la red para enviar eficientemente información a múltiples


destinos. Esto es una característica común al tráfico multimedia en el que una película puede
ser vista por varios espectadores a la vez. Esto permite el ahorro de recursos en la red al
utilizar un único canal siempre que sea posible compartirlo por todos los receptores.

118
CAPITULO 6.

TRADUCCIÓN DE DIRECCIÓN DE RED

(NAT)

119
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)

CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED.

6.1.- Introducción.

El uso de redes de computadoras en las empresas ha crecido y continúa creciendo


drásticamente, en la mayoría de estos casos estas redes son de uso exclusivo interno,
requiriendo que una mínima cantidad de terminales tengan acceso a redes externas.
Además, el rápido agotamiento de las direcciones IP públicas hace que adquirirlas sea
costoso, razón por la cuál las redes privadas utilizan un direccionamiento basado en
direcciones IP reservadas que son inválidas para su uso fuera de la red interna.

Para que estas empresas puedan tener un acceso a redes externas o a Internet se
requiere de una traducción de direcciones que permita que con una sola conexión a la red de
redes y unas cuantas direcciones IP válidas, de esta manera se puede tener un buen control
sobre la seguridad de la red y sobre el tipo de información intercambiada con redes externas.

La topología de red fuera de un dominio local puede cambiar de muchas maneras.


Los clientes pueden cambiar proveedores, los backbones (conexiones de Internet con gran
ancho de banda) de las compañías pueden ser reorganizados o los proveedores pueden
unirse o separarse. Siempre que la topología externa cambie, la asignación de dirección para
nodos en el dominio local puede también cambiar para reflejar los cambios externos. Este
tipo de cambios deben ser implementados en el router de acceso a Internet y de esta
manera, pueden ser ocultados a los usuarios de la red interna de la organización.

6.2.- Traducción de direcciones (NAT).

La “Traducción de Direcciones de Red”, Network Address Translation (NAT), es un


método mediante el que las direcciones IP son mapeadas desde un dominio de direcciones a
otro, proporcionando encaminamiento transparente a las máquinas finales. Existen muchas
variantes de traducción de direcciones que se prestan a distintas aplicaciones. Sin embargo
todas las variantes de dispositivos NAT debería compartir las siguientes características:

120
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)

• Asignación transparente de direcciones.


• Encaminamiento transparente mediante la traducción de direcciones (aquí el
encaminamiento se refiere al reenvío de paquetes, no al intercambio de información
de encaminamiento).
• Traducción de la carga útil de los paquetes de error ICMP (Internet Control Message
Protocol o Protocolo de Mensajes de Control de Internet por sus siglas en inglés).

Aplicación.

La traducción de la dirección de red, se aplica en redes que fueron implementadas


con direcciones IP privadas y necesitan tener un acceso a Internet, se debe solicitar a un
proveedor un rango de direcciones válidas para poder asociar dichas direcciones válidas con
los hosts que tengan direcciones inválidas y necesiten salida a Internet.

Esta situación ocurre frecuentemente en las empresas que tienen redes internas
grandes, también puede darse el caso que el proveedor sólo asigne una dirección válida a la
empresa, en esta situación se configura a NAT para que diferentes hosts dentro de la
empresa puedan acceder a Internet mediante esta única IP válida asignada por el proveedor,
en este caso la configuración del router con NAT asocia además de la dirección IP, un puerto
para direccionar correctamente los paquetes a los diferentes hosts .

Estos problemas también pueden presentarse en redes caseras más pequeñas y son
una solución factible para habilitar una conexión a Internet sin tener que hacer una
reconfiguración de la red interna, además que el proceso de traducción de direcciones IP es
transparente al usuario final que no se da cuenta de lo que pasa.

Operación básica.

Para que una red privada tenga acceso a Internet, el acceso debe ser por medio de un
dispositivo ubicado en la frontera de las dos redes que tenga configurado NAT para la
traducción de direcciones, en estos casos lo más conveniente es poner a un router para que
los paquetes sean enviados hacia él.

121
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)

Existen dos tipos de asignación de direcciones:

• Asignación estática de direcciones, en el caso de asignación estática de


direcciones, existe un mapeo uno a uno de direcciones para las máquinas entre una
dirección privada de red y una dirección externa de red durante el tiempo en
funcionamiento del NAT. La asignación estática de direcciones asegura que NAT no tiene
que administrar la gestión de direcciones con los flujos de sesión.

Cuando el host 192.168.0.2 envía un paquete al servidor 207.28.194.84 tiene en la


cabecera de sus paquetes los datos mostrados en “A”, al pasar estos paquetes por el router
NAT, los datos son modificados y llegan al servidor con los datos mostrados en “B”. Las
relaciones de direcciones de la tabla del router son puestas estáticamente

• Asignación dinámica de direcciones, en este caso, las direcciones externas son


asignadas a las máquinas de la red privada, o viceversa, de manera dinámica,
basándose en los requisitos de uso y el flujo de sesión que el NAT determine
heurísticamente.

Cuando la última de las sesiones que use una dirección asociada termine, NAT
liberará la asociación para que la dirección global pueda ser reciclada para su posterior uso.
La naturaleza exacta de la asignación de direcciones es específica de cada implementación
de NAT.

En este caso sucede lo mismo que en el anterior con las cabeceras de los
paquetes que salen de “A”, en este caso la tabla muestra una lista con las direcciones
válidas disponibles para ser usadas, estas direcciones son asignadas dinámicamente a los
hosts.

122
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)

NAT tradicional.

La operación de Traducción de Dirección a analizar se denomina “NAT Tradicional”,


existen otras variantes de NAT.

En un NAT tradicional, las sesiones son unidireccionales, salientes de la red privada.


Las sesiones en la dirección opuesta pueden ser permitidas en una base excepcional
usando mapeos de dirección estáticos para hosts preseleccionados. Existen dos variantes
del NAT Tradicional: NAT Básico y NAPT (Network Address Port Translation).

NAT Básico.

La operación de NAT Básico es como se describe a continuación: una zona con un


conjunto de direcciones de red privadas puede ser habilitada para comunicarse con una red
externa mapeando dinámicamente el conjunto de direcciones privadas a un conjunto de
direcciones de red válidas globalmente, cada dirección tiene garantizada una dirección global
para ser mapeada a ella. De lo contrario, los nodos habilitados para tener acceso simultáneo
a la red externa son limitados por el número de direcciones en el conjunto global.

Direcciones locales individuales pueden ser estáticamente mapeadas a direcciones


globales específicas para asegurarse acceso garantizado hacia fuera o para permitir acceso
al host local desde hosts externos mediante una dirección pública fija. Sesiones múltiples
simultáneas pueden ser iniciadas desde un nodo local, usando el mismo mapeo de dirección.

Las direcciones dentro de la zona son locales para este dominio y no son válidas
fuera de él. De este modo, las direcciones dentro de la zona pueden ser reusadas por alguna
otra. Por ejemplo, una sola dirección de clase A puede ser usada por muchas zonas. En
cada punto de salida entre una zona y el backbone, NAT está instalado. Si hay más de un
punto de salida es de gran importancia que cada NAT tenga la misma tabla de traducción.
En el ejemplo de la siguiente gráfica la red tiene las direcciones de clases A 10.0.0.0,
en 1 una máquina ubicada en una red externa con dirección 130.57.52.13 envía un paquete
a la dirección 130.57.199.13, en 2 el paquete llega al router NAT el cuál traduce la dirección
de destino 130.57.199.13 por la dirección 10.0.0.1 que es la dirección verdadera del host

123
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)

destino, esto se ve en 3, en 4 la máquina envía una respuesta con dirección fuente 10.0.0.1,
al pasar por el router NAT la dirección de fuente de la respuesta es modificada por la
dirección 130.57.199.13 que es una dirección global única.

Se puede ver la tabla de traducción que tiene el router, en la cuál se observa la asociación
de direcciones locales con las direcciones que usarán en Internet.

A cada host de la red se le asigna una dirección global única.


Todo este proceso no requiere cambios en el host o en el router, las traducciones de
dirección son transparentes para los hosts finales.

Traducción de Dirección de Red y Puerto – NAPT.

Digamos, una organización tiene una red IP privada y una conexión WAN a un
proveedor de servicio. El router de zona de la red privada es asignado a una dirección válida
globalmente en la conexión WAN y los demás nodos en la organización usan direcciones IP
que tienen sólo significado local. En este caso, a los nodos en la red privada se les puede
permitir acceder simultáneamente a la red externa, usando la única dirección IP registrada
con la ayuda de NAPT. NAPT permitiría mapeos de tuplas del tipo (direcciones IP local,
número de puerto TU local) a tipos del tipo (dirección IP registrada, número de puerto TU
asignado).

Este modelo es adecuado para muchos grupos de redes pequeñas para acceder a
redes externas usando una sola dirección IP asignada del proveedor de servicio. Este
modelo debe ser extendido para permitir acceso entrante mapeando estáticamente un nodo
local por cada puerto de servicio TU de la dirección IP registrada.

En el ejemplo de la siguiente gráfica la red interna maneja el rango de direcciones


192.168.0.0 de clase C, la interface del router que se comunica con Internet tiene asignada
la dirección 206.245.160.1.

Cuando el host con dirección 192.168.0.2 envía un paquete HTTP (puerto destino 80)
al servidor 207.28.194.84, en la cabecera de los paquetes se envía la información mostrada

124
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)

en “A” donde se indica la dirección fuente como Src y la dirección destino como Dst estos
paquetes son enviados al router NAT ubicado al centro del gráfico.

El router tiene configurado NAPT y lo que sucede es que se traduce la tupla de


dirección de origen 192.168.0.2 y puerto origen 1108 en los encabezados IP y TCP por la
tupla 206.245.160.1 que es una dirección globalmente única y al puerto 61001 antes de
reenviar al paquete, es decir los paquetes salen del router con los datos mostrados en “B”.

Los paquetes de regreso que sean enviados por el servidor web, pasan por una
traducción de dirección y puerto similar por la dirección IP de destino y puerto TCP de
destino. Se observa que esto no requiere de cambios en los hosts o en los routers. La
traducción es completamente transparente para los usuarios.

En el gráfico se muestra la tabla de asignación de los hosts con las direcciones de los
hosts de la red interna con sus respectivos puertos y la asociación de puertos con los que
será enviada la información afuera.

Ejemplo de funcionamiento de NAPT, se usa una sola dirección IP válida y se conectan


diferentes hosts de la red interna hacia Internet por diferentes puertos.

Fases de Traducción.

• Ligando la dirección, con NAT Básico, una dirección privada es ligada a una dirección
externa, cuando la primera sesión saliente es iniciada desde el host privado. Después de
esto, todas las otras sesiones salientes originadas desde la misma dirección privada
usarán la misma dirección unida por la traducción de paquete.

En el caso de NAPT, donde muchas direcciones privadas son mapeadas a un sola


dirección globalmente única, la unión sería desde la tupla de (dirección privada, puerto
TU privado) a la tupla de (dirección asignada, puerto TU asignado). Como con NAT
Básico, esta unión es determinada cuando la primera sesión saliente es iniciada por la
tupla de (dirección privada, puerto TU privado) en el host privado.

125
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)

• Búsqueda y traducción de dirección, Después de que una unión de dirección o unión


de tupla (dirección, puerto TU) en el caso de NAPT es establecida, se puede mantener
un estado para cada una de las conexiones usando la unión. Los paquetes
pertenecientes a la misma sesión estarán sujetos a la búsqueda de sesión para
propósitos de traducción. La naturaleza exacta de la traducción es discutida en la sección
siguiente.

• Desligando la dirección, Cuando la última sesión basada en una unión de dirección o


de tupla (dirección, puerto TU) es terminada, su unión puede ser terminada.

6.3.- Manipulación de cabeceras.

En el modelo NAT Básico, el encabezado IP de todos los paquetes debe ser


modificado. Esta modificación incluye la dirección IP (dirección IP origen para paquetes
salientes y dirección IP destino para paquetes entrantes) y la suma de control IP.
Para las sesiones TCP y UDP, las modificaciones deben incluir actualización de la
suma de control en los encabezados TCP/UDP. Esto es porque la suma de control de
TCP/UDP también cubre un pseudoencabezado que contiene las direcciones IP origen y
destino. Como una excepción, los encabezados UDP con suma de control 0 no deben ser
modificados. Como para los paquetes de petición ICMP, no son requeridos cambios
adicionales en el encabezado ICMP como la suma de control en el encabezado ICMP que no
incluye las direcciones IP.

En el modelo NAPT, las modificaciones al encabezado IP son similares a las del


modelo NAT Básico. Para las sesiones TCP/UDP, las modificaciones deben ser extendidas
para incluir la traducción del puerto TU (puerto TU origen para paquetes salientes y puerto
TU destino para paquetes entrantes) en el encabezado TCP/UDP. El encabezado ICMP en
los paquetes de petición ICMP deben también ser modificados para reemplazar el ID de
petición y la suma de control del encabezado ICMP. La suma de control del encabezado
ICMP debe ser corregida para contar la traducción del ID de petición.

126
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)

Estas son algunas de las modificaciones efectuadas:

• Ajuste de la suma de control, las modificaciones de NAT son por paquete y puede ser
un cómputo muy intensivo, ello involucra una o más modificaciones a la suma de control,
inclusive para traducciones de un sólo campo.

• Modificaciones al paquete de error ICMP, los cambios al mensaje de error ICMP


incluirán cambios a los encabezados IP e ICMP en la capa saliente como bien cambios a
los encabezados de los paquetes embebidos en la carga útil del mensaje ICMP-error.

El método para NAT debe ser transparente para el host-final, la dirección IP del
encabezado IP embebido en la carga útil del mensaje ICMP-error debe ser modificado, el
campo de suma de control del encabezado IP embebido debe ser modificado, y finalmente,
la suma de control del encabezado ICMP debe también ser modificada para reflejar los
cambios a la carga útil.

• Manipulando la opción IP, un datagrama IP con una de las opciones IP de Registrar


Ruta, Encaminamiento de Origen Fijo o Encaminamiento de Origen No Estricto
involucraría registro o uso de direcciones IP de routers intermedios. Un router NAT
intermedio puede elegir no soportar estas opciones o dejar las direcciones sin traducir
mientras que si procesa las opciones. El resultado de dejar las direcciones sin traducir
sería que direcciones privadas a lo largo del encaminamiento origen son expuestas de
extremo a extremo. Esto no debe poner en peligro la ruta atravesada por el paquete, de
hecho, como cada router se supone que mira sólo al próximo salto.

En general, NAT no debería trabajar con ninguna aplicación que envíe direcciones IP
o puertos como datos. Por ejemplo, cuando dos programas usan FTP mantienen una
conexión TCP entre ellos. Como parte del protocolo, un programa obtiene un número de
puerto en la máquina local, y envía los datos por la conexión TCP al otro programa.

Si la conexión entre los programas pasa por medio de un router configurado con
NAPT, el puerto podría ser cambiado y reemplazado por el puerto que NAPT le asigne. Así,

127
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)

si NAT falla al cambiar el número de puerto, el protocolo podría fallar. Las implementaciones
de NAT fueron creadas para reconocer puertos conocidos como el de FTP y hacer los
cambios necesarios en el flujo de datos. Pero existen aplicaciones que no pueden ser
usadas con NAT.

6.4.- NAT con múltiples direcciones.

La configuración NAT con múltiples direcciones se refiere al NAPT mediante el cuál,


un grupo de hosts en una red privada pueden tener salida a redes externas con una sola
dirección global mediante la asociación de direcciones IP y puertos TU. Se pueden tener
varias direcciones globales asignadas a la red y por cada dirección pueden salir grupos de
hosts a redes externas.

En la configuración NAT Básico, cuando los nodos de la red privada agotan las
direcciones globales disponibles para el mapeo, el acceso a la red externa para algunos de
los nodos locales es abruptamente cortado cuando la última dirección IP válida de la lista fue
asignada.

Esto es un inconveniente y puede ser evitado permitiendo que el router NAT Básico
pueda conmutar a una configuración NAPT para la última dirección global de la lista de
direcciones. Haciendo esto asegurará que los hosts de la red privada tengan continuidad en
el acceso a los nodos externos y servicios para la mayoría de las aplicaciones.

6.5.- Conclusión.

El problema de la asignación de direcciones IP válidas esta cerca, ya que pronto se


agotarán, pero con el creaciónón de NAT se resolvió el problema por algunos años.

Si el sistema de videovigilancia está detrás de un router este debe ser capaz de hacer NAT
para entregar el video al cliente correcto.

128
CAPITULO 7.

TCP y UDP

129
CAPITULO 7. TCP y UDP

CAPITULO 7. TCP Y UDP.

7.1.- Introducción.

El Protocolo de Internet (IP) y el Protocolo de Transmisión (TCP), fueron


desarrollados inicialmente en 1973 por el informático estadounidense Vinton Cerf como parte
de un proyecto dirigido por el ingeniero norteamericano Robert Kahn y patrocinado por la
Agencia de Programas Avanzados de Investigación (ARPA) del Departamento
Estadounidense de Defensa. Internet comenzó siendo una red informática de ARPA (llamada
ARPAnet) que conectaba redes de ordenadores de varias universidades y laboratorios en
investigación en Estados Unidos. World Wibe Web se desarrolló en 1989 por el informático
británico Timothy Berners-Lee para el Consejo Europeo de Investigación Nuclear (CERN,
siglas en francés).

7.2.- Arquitectura TCP/IP.

TCP/IP es el protocolo común utilizado por todos los ordenadores conectados a


Internet, de manera que éstos puedan comunicarse entre sí. Hay que tener en cuenta que en
Internet se encuentran conectados ordenadores de clases muy diferentes y con hardware y
software incompatibles en muchos casos, además de todos los medios y formas posibles de
conexión. Aquí se encuentra una de las grandes ventajas del TCP/IP, pues este protocolo se
encargará de que la comunicación entre todos sea posible. TCP/IP es compatible con
cualquier sistema operativo y con cualquier tipo de hardware.

TCP/IP no es un único protocolo, sino que es en realidad lo que se conoce con este
nombre es un conjunto de protocolos que cubren los distintos niveles del modelo OSI. Los
dos protocolos más importantes son el TCP (Transmission Control Protocol por sus siglas en
inglés o Protocolo de Control de Transmisión) y el IP (Internet Protocol por sus siglas en
inglés o Protocolo Interner), que son los que dan nombre al conjunto. La arquitectura del
TCP/IP consta de cinco niveles o capas en las que se agrupan los protocolos, y que se
relacionan con los niveles OSI de la siguiente manera:

130
CAPITULO 7. TCP y UDP

• Aplicación: Se corresponde con los niveles OSI de aplicación, presentación y sesión.


Aquí se incluyen protocolos destinados a proporcionar servicios, tales como correo
electrónico (SMTP), transferencia de ficheros (FTP), conexión remota (TELNET) y otros
más recientes como el protocolo HTTP (Hypertext Transfer Protocol por sus siglas en
inglés o Protocolo de Transferencia de HiperTexto).

• Transporte: Coincide con el nivel de transporte del modelo OSI. Los protocolos de este
nivel, tales como TCP y UDP, se encargan de manejar los datos y proporcionar la
fiabilidad necesaria en el transporte de los mismos.

• Internet: Es el nivel de red del modelo OSI. Incluye al protocolo IP, que se encarga de
enviar los paquetes de información a sus destinos correspondientes. Es utilizado con
esta finalidad por los protocolos del nivel de transporte.

• Físico: Análogo al nivel físico del OSI.

• Red: Es la interfaz de la red real. TCP/IP no especifica ningún protocolo concreto, así es
que corre por las interfaces conocidas, como por ejemplo: 802.2, CSMA/CD, X.25.

El TCP/IP necesita funcionar sobre algún tipo de red o de medio físico que
proporcione sus propios protocolos para el nivel de enlace de Internet. Por este motivo hay
que tener en cuenta que los protocolos utilizados en este nivel pueden ser muy diversos y no
forman parte del conjunto TCP/IP. Sin embargo, esto no debe ser problemático puesto que
una de las funciones y ventajas principales del TCP/IP es proporcionar una abstracción del
medio de forma que sea posible el intercambio de información entre medios diferentes y
tecnologías que inicialmente son incompatibles.

Para transmitir información a través de TCP/IP, ésta debe ser dividida en unidades de
menor tamaño. Esto proporciona grandes ventajas en el manejo de los datos que se
transfieren y, por otro lado, esto es algo común en cualquier protocolo de comunicaciones.

131
CAPITULO 7. TCP y UDP

En TCP/IP cada una de estas unidades de información recibe el nombre de "datagrama"


(datagram), y son conjuntos de datos que se envían como mensajes independientes.

7.3.- Protocolos TCP/IP.

• FTP (File Transfer Protocol). Se utiliza para transferencia de archivos.

• SMTP (Simple Mail Transfer Protocol). Es una aplicación para el correo electrónico.

• TELNET: Permite la conexión a una aplicación remota desde un proceso o terminal.

• RPC (Remote Procedure Call). Permite llamadas a procedimientos situados


remotamente. Se utilizan las llamadas a RPC como si fuesen procedimientos locales.

• SNMP (Simple Network Management Protocol). Se trata de una aplicación para el


control de la red.

• NFS (Network File System). Permite la utilización de archivos distribuidos por los
programas de la red.

• X-Windows. Es un protocolo para el manejo de ventanas e interfaces de usuario.

7.4.- Características de TCP/IP.

Ya que dentro de un sistema TCP/IP los datos transmitidos se dividen en pequeños


paquetes, éstos resaltan una serie de características.

• La tarea de IP es llevar los datos a granel (los paquetes) de un sitio a otro. Las
computadoras que encuentran las vías para llevar los datos de una red a otra

132
CAPITULO 7. TCP y UDP

(denominadas enrutadores) utilizan IP para trasladar los datos. En resumen IP mueve


los paquetes de datos a granel, mientras TCP se encarga del flujo y asegura que los
datos estén correctos.

• Las líneas de comunicación se pueden compartir entre varios usuarios. Cualquier tipo de
paquete puede transmitirse al mismo tiempo, y se ordenará y combinará cuando llegue a
su destino. Compare esto con la manera en que se transmite una conversación
telefónica. Una vez que establece una conexión, se reservan algunos circuitos, que no
puede emplear en otra llamada, aun si deja esperando a su interlocutor por veinte
minutos.

• Los datos no tienen que enviarse directamente entre dos computadoras. Cada paquete
pasa de computadora en computadora hasta llegar a su destino. Éste, claro está, es el
secreto de cómo se pueden enviar datos y mensajes entre dos computadoras aunque no
estén conectadas directamente entre sí. Lo que realmente sorprende es que sólo se
necesitan algunos segundos para enviar un archivo de buen tamaño de una máquina a
otra, aunque estén separadas por miles de kilómetros y pese a que los datos tienen que
pasar por múltiples computadoras. Una de las razones de la rapidez es que, cuando algo
anda mal, sólo es necesario volver a transmitir un paquete, no todo el mensaje.

• Los paquetes no necesitan seguir la misma trayectoria. La red puede llevar cada paquete
de un lugar a otro y usar la conexión más idónea que esté disponible en ese instante. No
todos los paquetes de los mensajes tienen que viajar, necesariamente, por la misma ruta,
ni necesariamente tienen que llegar todos al mismo tiempo.

• La flexibilidad del sistema lo hace muy confiable. Si un enlace se pierde, el sistema usa
otro. Cuando usted envía un mensaje, el TCP divide los datos en paquetes, ordena éstos
en secuencia, agrega cierta información para control de errores y después los lanza
hacia fuera, y los distribuye. En el otro extremo, el TCP recibe los paquetes, verifica si
hay errores y los vuelve a combinar para convertirlos en los datos originales. De haber
error en algún punto, el programa TCP destino envía un mensaje solicitando que se
vuelvan a enviar determinados paquetes.

133
CAPITULO 7. TCP y UDP

7.5.- En que se utiliza TCP/IP.

Muchas grandes redes han sido implementadas con estos protocolos, incluyendo
DARPA Internet "Defense Advanced Research Projects Agency Internet", en español, Red
de la Agencia de Investigación de Proyectos Avanzados de Defensa. De igual forma, una
gran variedad de universidades, agencias gubernamentales y empresas de computadoras,
están conectadas mediante los protocolos TCP/IP. Cualquier máquina de la red puede
comunicarse con otra distinta y esta conectividad permite enlazar redes físicamente
independientes en una red virtual llamada Internet. Las máquinas en Internet son
denominadas "hosts" o nodos.

TCP/IP proporciona la base para muchos servicios útiles, incluyendo correo electrónico,
transferencia de ficheros y login remoto.

El correo electrónico está diseñado para transmitir ficheros de texto pequeños. Las
utilidades de transferencia sirven para transferir ficheros muy grandes que contengan
programas o datos. También pueden proporcionar chequeos de seguridad controlando las
transferencias.

El login remoto permite a los usuarios de un ordenador acceder a una máquina remota y
llevar a cabo una sesión interactiva.

7.6.- Protocolo UDP.

El módulo UDP (User Datagram Protocol por sus siglas en inglés o Protocolo de
Datagramas de Usuario) [RFC768] es un fino recubrimiento a la capa IP que cumple las
funciones equivalentes al nivel OSI de Transporte de datagramas. Proporciona un servicio
sin conexión y, por ello, de baja fiabilidad.

No se garantiza la entrega de los datagramas, ni su llegada en orden o no


duplicación. Los servicios que requieran un sistema de transporte fiable deben emplear el

134
CAPITULO 7. TCP y UDP

TCP (Transport Control Protocol) o algún esquema similar, como la familia de protocolos TPx
de OSI.

UDP (User Datagram Protocol) es un protocolo que se basa en el intercambio de


datagramas. UDP permite el envío de datagramas a través de la red sin que se haya
establecido previamente una conexión, ya que el propio datagrama incorpora suficiente
información de direccionamiento en su cabecera.

El inconveniente de esta forma de actuación es que no hay confirmación de recepción


ni de haber recibido los datagramas en el orden adecuado, debiendo ser la aplicación la que
se encargue de controlarlo.

Al igual que los protocolos TCP, utiliza puertos y sockets y, también permite la
multiplexación.

El protocolo de datagramas de usuario (UDP) puede ser la alternativa al TCP en


algunos casos en los que no sea necesario el gran nivel de complejidad proporcionado por el
TCP. Puesto que UDP no admite numeración de los datagramas, éste protocolo se utiliza
principalmente cuando el orden en que se reciben los mismos no es un factor fundamental, o
también cuando se quiere enviar información de poco tamaño que cabe en un único
datagrama.

Cuando se utiliza UDP la garantía de que un paquete llegue a su destino es mucho


menor que con TCP debido a que no se utilizan las señales de confirmación. Por todas estas
características la cabecera del UDP es bastante menor en tamaño que la de TCP. Esta
simplificación resulta en una mayor eficiencia en determinadas ocasiones.

Un ejemplo típico de una situación en la que se utiliza el UDP es cuando se pretende


conectar con un ordenador de la red, utilizando para ello el nombre del sistema. Este nombre
tendrá que ser convertido a la dirección IP que le corresponde y, por tanto, tendrá que ser
enviado a algún servidor que posea la base de datos necesaria para efectuar la conversión.
En este caso es mucho más conveniente el uso de UDP.

135
CAPITULO 7. TCP y UDP

A pesar de todo existen servicios perfectamente válidos en un entorno de


funcionamiento poco fiable y, por otra parte, en una red local por ejemplo la sobrecarga
asociada a un protocolo más seguro puede resultar inaceptable. La calidad de servicio
intrínseca es ya lo bastante elevada.

Las características de este módulo son:

• Transmisión y recepción de datagramas aislados, sin el concepto de conexión


o Servicio no fiable: posibles pérdidas, duplicaciones y llegada desordenada de
datagramas
o Posibilidad de esperar la recepción de datagramas dirigidos a ciertos canales
específicos, denominados "puertos"
En cuanto a los servicios que utilizan este módulo, destacan:

• Servidores de Dominios de Nombres (DNS) [RFC1034] [RFC1035].


Estos sistemas proporcionan una funcionalidad básica en el mundo Internet. Su
principal tarea consiste en efectuar la traducción entre una dirección simbólica y su dirección
IP correspondiente. También son utilizados masivamente para el encaminamiento del correo
electrónico.

• Protocolos ECHO y DISCARD [RFC862] [RFC863].


El fin primordial de estos protocolos es el chequeo y diagnóstico de sistemas.

• Llamadas a procedimientos remotos (RPC) [RFC1057] [RFC1831].


Se trata de un protocolo diseñado para la implementación de arquitecturas cliente-
servidor y la programación de sistemas distribuidos. Constituye la base de multitud de otros
protocolos, como el NFS.

• Sistema de ficheros en red (NFS) [RFC1094] [RFC1813].


Gracias a este protocolo se implementa una arquitectura de ficheros estándar,
accesible a través de una red telemática. Tiene un uso masivo en las redes locales, a
través de los "servidores de ficheros".

136
CAPITULO 7. TCP y UDP

• Distribución de las tablas de enrutado.

Para que la red en su conjunto ofrezca una imagen homogénea y coherente es


necesario que las diferentes pasarelas dispongan de información actualizada sobre su
topología. Esto se consigue mediante el intercambio de información de encaminamiento
entre los diferentes sistemas, vía los servicios UDP y TCP.

Interfaz.

La interfaz de este módulo está constituida por procesos y por subrutinas ejecutadas
en el contexto del llamante. Su utilización es muy simple.
PROC_UDP_BC

Este proceso es el encargado de inicializar este módulo. Debe ser invocado con un
mensaje "MSG_INIT" o "MSG_QUIT". La inicialización de este módulo debe ser posterior a la
del módulo IP.
PROC_UDP_SUP

Este proceso se hace cargo de la transmisión de datagramas. Espera mensajes


"MSG_MBUF". campo1 contiene una cadena de dos o más MBUFs, el primero de ellos
conteniendo una cabecera UDP interfaz y el resto los datos en sí. La cabecera UDP interfaz
se define como:
typedef struct {
uint16 puerto_fuente;
uint16 puerto_destino;
uint16 dont_fragment;
uint16 dummy;
} udp_header;

Los campos "puerto_fuente" y "puerto_destino" identifican el puerto UDP al cual va


dirigido el datagrama dentro de la máquina destino, y el puerto al cual tendrá que dirigir su
posible respuesta. Si "dont_fragment" vale cero se admite la fragmentación del datagrama,

137
CAPITULO 7. TCP y UDP

mientras que si vale uno será destruido si excede el MTU de alguna de las redes
intermedias. El valor de "dummy" es arbitrario.

Campo1. Contiene la dirección IP fuente (una de las nuestras), mientras que en campo3 se
envía la dirección IP del destino. Ambos valores deben estar en formato HOST.
PROC_UDP_INF

Este es el proceso que procesa los datagramas UDP recibidos por la capa IP, y
gestiona los mensajes de control provenientes de ICMP.

o MSG_MBUF

Este es el tipo de mensaje más normal que este proceso espera recibir. Contiene un
datagrama UDP según el formato definido por la capa IP.
Este proceso también envía mensajes "MSG_MBUF" hacia arriba. En ese caso campo1
contiene una cabecera UDP interfaz y el datagrama en sí (en dos MBUFs, respectivamente).

campo2. Contiene la dirección origen y campo3 la dirección destino del datagrama. Los
campos "dont_fragment" y "dummy" de la cabecera UDP interfaz contendrán valores
indefinidos.

o MSG_ICMP_SOURCE_QUENCH

El proceso recibe este mensaje de la capa ICMP. El formato es el definido en el capítulo


dedicado a ICMP. No se informa a la aplicación superior.

o MSG_ICMP_DEST_UNREACHABLE

Si el proceso recibe este mensaje proveniente de la capa ICMP, envía hacia arriba, al
proceso que gestiona el puerto fuente original, otro mensaje
"MSG_ICMP_DEST_UNREACHABLE" con campo1 obedeciendo al formato UDP interfaz,
mientras que campo2 proporciona información adicional (ver el capítulo ICMP) y campo3
contiene la dirección IP de la máquina a la que no se puede llegar (formato HOST).

138
CAPITULO 7. TCP y UDP

En cuanto a rutinas, se tiene:

estado udp_alta_puerto (uint16 puerto, proc_id proc_retorno);

Esta rutina da de alta un puerto UDP para escucha. Cualquier datagrama que llegue
al puerto "puerto" será enviado al proceso cuyo identificador sea "proc_retorno". Esta rutina
retorno "OK" si todo fue bien, "ERR_EN_USO" si el puerto especificado ya ha sido declarado
con anterioridad y "ERR_OVERFLOW" si hay demasiados puertos declarados.

uint16 udp_alta_puerto_arbitrario (proc_id proc_retorno);

Esta rutina es idéntica a la anterior pero asigna un puerto cualquiera que esté libre.
Por compatibilidad con posibles servicios superiores, el puerto asignado será siempre mayor
o igual que 1024. Retorna el valor del puerto asignado, o cero si hay demasiados puertos
declarados.

void udp_baja_puerto (uint16 puerto);

Esta rutina da de baja un puerto previamente declarado. Cualquier datagrama UDP


que se reciba hacia ese puerto será rechazado con un error ICMP.
estado udp_flujo (uint32 ip, uint16 tamanho);

Esta rutina proporciona un mecanismo de control de flujo UDP. Cuando algún


proceso desea enviar un datagrama utilizando este protocolo debe pedir permiso antes
mediante el empleo de esta llamada. "ip" contiene una de nuestras direcciones origen y
"tamanho" es el número de bytes que se desea transmitir. Retorna "OK" si se tiene el flujo
abierto, "FLUJO_LLENO" si se prohíbe la transmisión y "ERR_INVALID" si la dirección
especificada no es nuestra. Si el control de flujo está cerrado se puede reintentar otra vez
tras un tiempo prudencial (una décima de segundo, por ejemplo).

Aún cuando el control de flujo esté cerrado, la capa UDP se hará cargo de cualquier
datagrama que se envíe. Esto es así para simplificar ciertos protocolos, pero no debería
abusarse de esta característica si no se está completamente seguro de sus implicaciones.

139
CAPITULO 7. TCP y UDP

Implementación.

Este módulo sigue escrupulosamente todas las guías definidas en [RFC768],


implantándolo completamente. Aunque el protocolo original tiene la posibilidad de no
emplear suma de control en los datagramas, se ha decidido implementarla debido a que ello
no supone una pérdida de eficiencia detectable.

Todos los datagramas salientes, por tanto, incluyen una suma de control. No
obstante, por compatibilidad, se admiten datagramas UDP entrantes tanto con suma de
control como sin ella.

En la implementación actual los mensajes de control de flujo,


"MSG_ICMP_SOURCE_QUENCH", son ignorados. La razón de ello es que no resulta
sencillo definir un mecanismo de control de flujo y congestión en un sistema de datagramas.
Por otra parte el protocolo UDP no suele suponer una carga apreciable y los esquemas de
temporización y reintentos de las capas superiores suelen ser suficientes para reducir este
problema.

Cualquier datagrama UDP que se reciba hacia un puerto no declarado será destruido
y se generará un mensaje "MSG_ICMP_DEST_UNREACHABLE" con el código
"ICMP_NO_PUERTO" para informar a la máquina fuente de que el puerto especificado no
existe. Si lo que llega es un datagrama con una suma de control errónea (si tiene suma de
control), se elimina sin ninguna acción adicional. No se puede arriesgar a generar un
mensaje ICMP porque el datagrama estaba corrupto y no se puede contar con que la
información de encaminamiento recibida sea correcta.

7.6.1.- Encabezado de UDP.

El encabezado de UDP proporciona:

• Puerto de origen: número de puerto de 16 bits


• Puerto de destino: número de puerto de 16 bits

140
CAPITULO 7. TCP y UDP

• Longitud (del encabezado de UDP + los datos): octetos de 16 bits en el datagrama


de UDP
• Checksum de UDP (16 campos de 16 bits); si es 0, no hay ningún checksum, sino
hay un checksum sobre el pseudo-encabezado + área de datos de UDP
El pseudo encabezado incluye las direcciones IP de origen y destino (garantizando
así que el mensaje ha llegado a la máquina y puerto correcto).

Note la violación estricta de capa (UDP es un protocolo de capa 4); usa información
de la capa

A pesar de su sencillez y de haber sido opacado por TCP, poderosas y muy utilizadas
aplicaciones se basan en UDP. Entre ellas están:

• NFS (Network File System): permite utilizar discos de estaciones remotas como si
fueran propios.
• DNS (Domain Name Server): servicio de nombres
• SNMP (Simple Network ManagementProtocol)

¿Cómo saber a cuál puerto enviar?

Existen números de puerto UDP Reservados y Disponibles. Asignación universal


(asignaciones del puerto "bien conocido") vs. Atado Dinámico
Internet usa una mezcla de estos dos con 255 puertos reservados:

Demultiplexado basado en los puertos de protocolo (o simplemente "puertos") por UDP:

7.6.2.- Formato del mensaje UDP.

La mejor forma de explicar este protocolo es examinar el mensaje y los campos


que lo componen. El formato es muy simple e incluye los siguientes campos:

141
CAPITULO 7. TCP y UDP

Puerto de fuente: Este valor identifica el puerto del proceso de aplicación remitente. Este
campo es opcional. Si no se utiliza. Se pone a 0.

Puerto de destino: Este valor identifica el proceso de recepción en el computador de


destino.

Longitud: Este valor indica la longitud del datagrama de usuario. Incluyendo la cabecera y
los datos. La longitud mínima es de 8 octetos.

Checksum: Este valor contiene el valor del complemento a 1 en 16 bits del complemento a 1
de la suma de la seudocabecera de IP, la cabecera de UDP y los datos. Se realiza también
el checksum de los campos de relleno (si es necesario que el mensaje contenga un número
de octetos que sea un múltiplo de dos).

Poco más se puede decir de UDP. Representa el nivel de servicio mínimo que utilizan
muchos sistemas de aplicación basados en transacciones. Es, sin embargo, muy útil en los
casos en los que no son necesarios los servicios de TCP.

7.7.- Conclusión.

Con esta investigación se puede llegar a la conclusión de que el protocolo de


datagramas de usuario (UDP) proporciona un servicio sin conexión y por ello, baja su
fiabilidad.

El inconveniente de usar datagramas sin establecer una conexión previamente es


que no existe una confirmación de recepción ni de haber recibido los datagramas en el orden
adecuado, debiendo ser la aplicación la que se encargue de controlarlo.

Al igual que los protocolos TCP, utilizan puertos sockets y, también permiten la
multiplexación.

142
CAPITULO 7. TCP y UDP

El sistema de videovigilancia utiliza los dos protocolos:

TCP al ser un protocolo orientado a conexión se utiliza para el envio de datos para controlar
las peticiones de servicio y para enviar comandos sobre sucesos en la videovigilancia.

UDP al ser un protocolo no orientado a conexión se utiliza para enviar el audio y video
codificado ya que no es importante reenviar datagramas perdidos.

143
CAPITULO 8. REDES PRIVADAS
VIRTUALES (VPN).

144
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

8.1 Introducción.

Una VLAN se encuentra conformada por un conjunto de dispositivos de red, los


cuales funcionan de igual manera como lo hacen los de una LAN, pero con la diferencia de
que las estaciones que constituyen la VLAN no necesariamente deberán estar ubicadas en
el mismo segmento físico.

Sin embargo, las VLAN siguen compartiendo las características de los grupos de
trabajos físicos, en el sentido de que todos los usuarios comparten sus dominios de
broadcast, la diferencia principal con la agrupación física, es que los usuarios de las VLAN
pueden estar distribuidos a través de una red LAN, incluso situándose en distintos
concentradores de la misma.

Así los usuarios pueden, a través de la red, mantener su propia pertenencia al grupo de
trabajo lógico.

Por otro lado, al distribuir a los usuarios de un mismo grupo lógico, a través de diferentes
segmentos, se logra, como consecuencia directa, el incremento del ancho de banda en dicho
grupo de usuarios.

Además al poder distribuir a los usuarios en diferentes segmentos de red, se puede situar
puentes y ruteadores entre ellos, separando segmentos con diferentes topologías y
protocolos.

Se puede autorizar o negar que el tráfico de una VLAN entre y salga desde y hacia
otras redes, pero se puede llegar aún más lejos. Las redes virtuales permiten que la
ubicación geográfica no se limite a diferentes concentradores o plantas de un mismo edificio,
sino a diferentes oficinas intercomunicadas por medio de redes WAN (Redes de Área
Amplia), a lo largo de países y continentes sin ninguna limitación mas que la que impone el
propio administrador de dichas redes.

145
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

Las redes privadas virtuales crean un túnel o conducto de un sitio a otro para
transferir datos a esto se le conoce como encapsulación además los paquetes van
encriptados de forma que los datos son ilegibles para los extraños.

El servidor busca mediante un ruteador la dirección IP del cliente VPN y en la red de transito
se envian los datos sin problemas.

VLAN (Redes Virtuales de Área Local).

• Una buena alternativa para transportar datos


• Bajo el mismo equipo físico , diferentes agrupamientos lógicos

Hace algún tiempo existía el modelo de red basado en ruteadores, en el que se poseían
segmentos independientes y delimitados por cada usuario. Estos ruteadores aparte de ser
multiprotocolo podían detener las tormentas de broadcast, pero la desventaja era su sistema
compartido.

Posteriormente surgió un nuevo modelo en donde se involucraba la parte de switch.


Aquí ya no existía contención ni colisión, pero ahora el problema consistía en la expansión
del dominio de broadcast por la red.
Como respuesta a estos problemas se creo una red con agrupamientos lógicos
independientes del nivel físico, con lo cual si un usuario se encontraba en el piso uno y debía
moverse al piso dos ya no tenia que reconfigurar la maquina ni darle una nueva dirección
IP(Internet Protocol; Protocolo de Internet) del piso dos, sino que ahora era una acción
automática.

Las VLAN (Virtual Local Area Networks; Redes virtuales de área local) forman grupos
lógicos para definir los dominios de broadcast. De esta forma existe el dominio de los rojos,
donde el broadcast que genera el rojo solo le afectara a este color y el broadcast que
genera el amarillo solamente afectara a esta parte de la red.

146
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

Aunque físicamente estén conectadas las maquinas al mismo equipo, lógicamente


pertenecerán a una VLAN distinta dependiendo de sus aplicaciones con lo que se logra un
esquema mas enfocado al negocio.

Anteriormente existía la red plana, donde el broadcast se repetía en los puertos y esto
provocaba una situación critica. Ahora con las VLAN existe una segmentación lógica o
virtual.

Clases de VLAN.

Existen dos clases de VLAN: implícitas y explícitas.

• Las implícitas no necesitan cambios en el frame, pues de la misma forma que


reciben información la procesan, ejemplo de ello son las VLAN basadas en puertos.
En esta clase de VLAN el usuario no modifica ni manipula el frame, ya que solo
posee una marca y por lo tanto el sistema se vuelve propietario.
• Las VLAN explícitas si requieren modificaciones, adiciones y cambios (MAC) al
frame, por lo que sacaron los estándares 802.1p y 802.1q, en donde se colocan
ciertas etiquetas o banderas en el frame para manipularlo.

Esta clase surge ante la necesidad de interoperar en un ambiente con diferentes


marcas, pero basadas en estándares. Por ejemplo: si requieren transportar información de la
VLAN uno con equipo Alcatel a la VLAN dos que funcionan con equipo Cabletron, se debe
utilizar un protocolo estándar para lograrlo.

Un problema actual de las VLAN implícitas es que aun son propietarias y las
explícitas son abiertas. Ambas clases de VLAN deberán utilizar los métodos de Networking,
Inter-Domain e Inter-VLAN para realizar sus funciones de forma más simple.

Otro de los problemas de las VLAN es la Calidad de Servicios (QoS; Quality of


service), ya que con ATM (Asinchronous Transfer Mode; Modo de transferencia asincrona)
sé tenia garantizada la calidad de forma intrínseca, pero ahora se busca que las redes de

147
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

frames puedan dar QoS, para que dentro de las VLAN el usuario pueda indicar la prioridad
de sus paquetes y de esta forma eficientar el ancho de banda.

Las VLAN deben ser rápidas, basadas en switchs para que sean interoperables
totalmente – porque los routers no dan la velocidad requerida- , su información deberá viajar
a través del backbone y deberán ser movibles, es decir, que el usuario no tenga que
reconfigurar la maquina cada vez que se cambie de lugar.

Las generaciones de las VLAN.

1. Basadas en puertos y direcciones MAC

2. Internet Working; se apoya en protocolo y dirección capa tres.

3. De aplicación y servicios: aquí se encuentran los grupos multicast y las VLAN definidas
por el usuario.

4. Servicios avanzados: ya se cumple con los tres criterios antes de realizar alguna
asignación a la VLAN; se puede efectuar por medio de DHCP (Dynamic Host Configuration
Protocol; Protocolo de configuración dinámica) o por AVLAN (Authenticate Virtual Local Area
Networks; Redes virtuales autenticadas de área local).

VLAN por Puerto.

Este tipo es el más sencillo ya que un grupo de puertos forma una VLAN -un puerto
solo puede pertenecer a una VLAN, el problema se presenta cuando se quieren hacer MAC
ya que la tarea es compleja.

VLAN por MAC.

Se basa en MAC Address, por lo que se realiza un mapeo para que el usuario
pertenezca a una determinada VLAN. Obviamente dependerá de la política de creación.
Este tipo de VLAN ofrece mayores ventajas, pero es complejo porque hay que meterse con

148
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

las direcciones MAC y si no se cuenta con un software que las administre, será muy
laborioso configurar cada una de ellas.

VLAN por Protocolo.

Lo que pertenezca a IP sé enrutará a la VLAN de IP e IPX se dirigirá a la VLAN de


IPX , es decir, se tendrá una VLAN por protocolo. Las ventajas que se obtienen con este tipo
de VLAN radican en que dependiendo del protocolo que use cada usuario, este se conectara
automáticamente a la VLAN correspondiente.

VLAN por subredes de IP o IPX.

Aparte de la división que ejecuta la VLAN por protocolo, existe otra subdivisión dentro
de este para que el usuario – aunque este conectado a la VLAN del protocolo IP – sea
asignado en otra VLAN -subred- que pertenecerá al grupo 10 o 20 dentro del protocolo.

VLAN por direcciones IP multicast.

Generalmente son las direcciones de clase D las que ayudan a formular la VLAN. El
mapeo o la asignación a la VLAN se basa o referencia en la dirección multicast.

VLAN definidas por el usuario.

En esta política de VLAN se puede generar un patrón de bits, para cuando llegue el
frame. Si los primeros cuatro bits son 1010 se irán a la VLAN de ingeniería, sin importar las
características del usuario – protocolo, dirección MAC y puerto -.
Si el usuario manifiesta otro patrón de bits, entonces se trasladara a la VLAN que le
corresponda; aquí el usuario define las VLAN.

VLAN Binding.

Se conjugan tres parámetros o criterios para la asignación de VLAN: si el usuario es


del puerto x, entonces se le asignara una VLAN correspondiente.

149
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

También puede ser puerto, protocolo y dirección MAC, pero lo importante es cubrir los tres
requisitos previamente establecidos, ya que cuando se cumplen estas tres condiciones se
coloca al usuario en la VLAN asignada, pero si alguno de ellos no coincide, entonces se
rechaza la entrada o se manda a otra VLAN.

VLAN por DHCP.

Aquí ya no es necesario proporcionar una dirección IP, sino que cuando el usuario
enciende la computadora automáticamente el DHCP pregunta al servidor para que tome la
dirección IP y con base en esta acción asignar al usuario a la VLAN correspondiente. Esta
política de VLAN es de las últimas generaciones.

Fuente: Revista RED


La comunidad de expertos en redes
Junio 2001 Edición 129

Requerimientos básicos de una VPN.

Por lo general cuando se desea implantar una VPN hay que asegurarse que esta
proporcione:
• Identificación de usuario.
• Administración de direcciones.
• Codificación de datos.
• Administración de claves.
• Soporte a protocolos múltiples.
• Identificación de usuario.
• La VPN debe ser capaz de verificar la identidad de los usuarios y restringir el acceso
a la VPN a aquellos usuarios que no estén autorizados. Así mismo, debe
proporcionar registros estadísticos que muestren quien acceso, que información y
cuando.

150
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

Administración de direcciones.

La VPN debe establecer una dirección del cliente en la red privada y debe cerciorarse
que las direcciones privadas se conserven así.
Codificación de datos.

Los datos que se van a transmitir a través de la red pública deben ser previamente
encriptados para que no puedan ser leídos por clientes no autorizados de la red.
Administración de claves.

La VPN debe generar y renovar las claves de codificación para el cliente y el servidor.
Soporte a protocolos múltiples.

La VPN debe ser capaz de manejar los protocolos comunes que se utilizan en la red pública.
Estos incluyen el protocolo de Internet (IP), el intercambio de paquete de Internet (IPX) entre
otros.

Herramientas de una VPN.

-VPN Gateway.
- Software.
- Firewall.
- Router.
- VPN Gateway.
- Dispositivos con un software y hardware especial para proveer de capacidad a la VPN.
- Software.
- Esta sobre una plataforma PC o Workstation, el software desempeña todas las funciones
de la VPN.

Ventajas de una VPN.

- Dentro de las ventajas más significativas podremos mencionar la integridad,


confidencialidad y seguridad de los datos.

151
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

- Reducción de costos.
- Sencilla de usar.
- Sencilla instalación del cliente en cualquier PC Windows.
- Control de Acceso basado en políticas de la organización
- Herramientas de diagnostico remoto.
- Los algoritmos de compresión optimizan el tráfico del cliente.
Evita el alto costo de las actualizaciones y mantenimiento a las PC´s remotas.

8.2. Protocolo PPTP.

PPTP (Point-to-Point Tunneling Protocol o Protocolo de túnel punto a punto) fue


desarrollado por ingenieros de Ascend Communications, U.S. Robotics, 3Com Corporation,
Microsoft, y ECI Telematics para proveer entre usuarios de acceso remoto y servidores de
red una red privada virtual.

Como protocolo de túnel, PPTP encapsula datagramas de cualquier protocolo de red


en datagramas IP, que luego son tratados como cualquier otro paquete IP. La gran ventaja
de este tipo de encapsulamiento es que cualquier protocolo puede ser ruteado a través de
una red IP, como Internet.

PTP fue diseñado para permitir a los usuarios conectarse a un servidor RAS desde
cualquier punto en Internet para tener la misma autenticación, encriptación y los mismos
accesos de LAN como si discaran directamente al servidor. En vez de discar a un modem
conectado al servidor RAS, los usuarios se conectan a su proveedor y luego "llaman" al
servidor RAS a través de Internet utilizando PPTP.

Existen dos escenarios comunes para este tipo de VPN:

• El usuario remoto se conecta a un ISP que provee el servicio de PPTP hacia el


servidor RAS.

152
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

• El usuario remoto se conecta a un ISP que no provee el servicio de PPTP hacia el


servidor RAS y, por lo tanto, debe iniciar la conexión PPTP desde su propia máquina
cliente.

Para el primero de los escenarios, el usuario remoto estable una conexión PPP con el
ISP, que luego establece la conexión PPTP con el servidor RAS. Para el segundo escenario,
el usuario remoto se conecta al ISP mediante PPP y luego "llama" al servidor RAS mediante
PPTP. Luego de establecida la conexión PPTP, para cualquiera de los dos casos, el usuario
remoto tendrá acceso a la red corporativa como si estuviera conectado directamente a la
misma.

La técnica de encapsulamiento de PPTP se basa en el protocolo Generic Routing


Encapsulation (GRE), que puede ser usado para realizar túneles para protocolos a través de
Internet. La versión PPTP, denominada GREv2, añade extensiones para temas específicos
como Call Id y velocidad de conexión.

El paquete PPTP está compuesto por un header de envío, un header IP, un header
GREv2 y el paquete de carga. El header de envío es el protocolo enmarcador para
cualquiera de los medios a través de los cuales el paquete viaja, ya sea Ethernet, frame
relay, PPP. El header IP contiene información relativa al paquete IP, como ser, direcciones
de origen y destino, longitud del datagrama enviado, etc. El header GREv2 contiene
información sobre el tipo de paquete encapsulado y datos específicos de PPTP
concernientes a la conexión entre el cliente y servidor. Por último, el paquete de carga es el
paquete encapsulado, que, en el caso de PPP, el datagrama es el original de la sesión PPP
que viaja del cliente al servidor y que puede ser un paquete IP, IPX, NetBEUI, entre otros.

Para la autenticación, PPTP tiene tres opciones de uso: CHAP, MS-CHAP y aceptar
cualquier tipo, inclusive texto plano. Si se utiliza CHAP, Standard en el que se intercambia un
"secreto" y se comprueba ambos extremos de la conexión coincidan en el mismo, se utiliza la
contraseña de Windows NT, en el caso de usar este sistema operativo, como secreto. MS-
CHAP es un Standard propietario de Microsoft y resulta ser una ampliación de CHAP. Para
la tercer opción, el servidor RAS aceptará CHAP, MS-CHAP o PAP (Password
Autenthication Protocol), que no encripta las contraseñas.

153
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

Para la encriptación, PPTP utiliza el sistema RC4 de RSA, con una clave de sesión de 40
bits.

8.3. Protocolo L2TP.

Layer-2 Tunneling Protocol (L2TP) facilita el entunelamiento de paquetes PPP a


través de una red de manera tal que sea lo más transparente posible a los usuarios de
ambos extremos del túnel y para las aplicaciones que éstos corran.

El escenario típico L2TP, cuyo objetivo es la creación de entunelar marcos PPP entre el
sistema remoto o cliente LAC y un LNS ubicado en una LAN local.

Un L2TP Access Concentrator (LAC) es un nodo que actúa como un extremo de un


túnel L2TP y es el par de un LNS. Un LAC se sitúa entre un LNS y un sistema remoto y
manda paquetes entre ambos. Los paquetes entre el LAC y el LNS son enviados a través del
túnel L2TP y los paquetes entre el LAC y el sistema remoto es local o es una conexión PPP.

Un L2TP Network Server (LNS) actúa como el otro extremo de la conexión L2TP y es
el otro par del LAC. El LNS es la terminación lógica de una sesión PPP que está siendo
puesta en un túnel desde el sistema remoto por el LAC.

Un cliente LAC, una máquina que corre nativamente L2TP, puede participar también en el
túnel, sin usar un LAC separado. En este caso, estará conectado directamente a Internet.

El direccionamiento, la autenticación, la autorización y el servicio de cuentas son proveídos


por el Home LAN’s Management Domain.

L2TP utiliza dos tipos de mensajes: de control y de datos. Los mensajes de control
son usados para el establecimiento, el mantenimiento y el borrado de los túneles y las
llamadas. Utilizan un canal de control confiable dentro de L2TP para garantizar el envío. Los
mensajes de datos encapsulan los marcos PPP y son enviados a través del túnel.

154
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

Los marcos PPP son enviados a través de un canal de datos no confiable,


encapsulado primero por un encabezado L2TP y luego por un transporte de paquetes como
UDP, Frame Relay o ATM. Los mensajes de control son enviados a través de un canal de
control L2TP confiable que transmite los paquetes sobre el mismo transporte de paquete.

Se requiere que haya números de secuencia en los paquetes de control, que son
usados para proveer el envío confiable en el canal de control. Los mensajes de datos
pueden usar los números de secuencia para reordenar paquetes y detectar paquetes
perdidos.

Al correr sobre UDP/IP, L2TP utiliza el puerto 1701. El paquete entero de L2TP,
incluyendo la parte de datos y el encabezado, viaja en un datagrama UDP. El que inicia un
túnel L2TP toma un puerto UDP de origen que esté disponible, pudiendo ser o no el 1701 y
envía a la dirección de destino sobre el puerto 1701. Este extremo toma un puerto libre, que
puede ser o no el 1701, y envía la respuesta a la dirección de origen, sobre el mismo puerto
iniciador. Luego de establecida la conexión, los puertos quedan estáticos por el resto de la
vida del túnel.
En la autenticación de L2TP, tanto el LAC como el LNS comparten un secreto único.
Cada extremo usa este mismo secreto al actuar tanto como autenticado como autenticador.
Sobre la seguridad del paquete L2TP, se requiere que el protocolo de transporte de L2TP
tenga la posibilidad de brindar servicios de encriptación, autenticación e integridad para el
paquete L2TP en su totalidad. Como tal, L2TP sólo se preocupa por la confidencialidad,
autenticidad e integridad de los paquetes L2TP entre los puntos extremos del túnel, no entre
los extremos físicos de la conexión.

8.4. Protocolo IPSec.

IPSec trata de remediar algunas fallas de IP, tales como protección de los datos
transferidos y garantía de que el emisor del paquete sea el que dice el paquete IP. Si bien
estos servicios son distintos, IPSec da soporte a ambos de una manera uniforme.

155
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

IPSec provee confidencialidad, integridad, autenticidad y protección a repeticiones mediante


dos protocolos, que son Authentication Protocol (AH) y Encapsulated Security Payload
(ESP).

Por confidencialidad se entiende que los datos transferidos sean sólo entendidos por los
participantes de la sesión.

Por integridad se entiende que los datos no sean modificados en el trayecto de la


comunicación.

Por autenticidad se entiende por la validación de remitente de los datos.


Por protección a repeticiones se entiende que una sesión no pueda ser grabada y repetida
salvo que se tenga autorización para hacerlo.

AH provee autenticación, integridad y protección a repeticiones pero no así confidencialidad.


La diferencia más importante con ESP es que AH protege partes del header IP, como las
direcciones de origen y destino.

ESP provee autenticación, integridad, protección a repeticiones y confidencialidad de los


datos, protegiendo el paquete entero que sigue al header.

AH sigue al header IP y contiene diseminaciones criptográficas tanto en los datos como en la


información de identificación. Las diseminaciones pueden también cubrir las partes
invariantes del header IP.

El header de ESP permite rescribir la carga en una forma encriptada. Como no considera los
campos del header IP, no garantiza nada sobre el mismo, sólo la carga.
Una división de la funcionalidad de IPSec es aplicada dependiendo de dónde se realiza la
encapsulación de los datos, si es la fuente original o un gateway:

• El modo de transporte es utilizado por el host que genera los paquetes. En este modo,
los headers de seguridad son antepuestos a los de la capa de transporte, antes de que el
header IP sea incorporado al paquete. En otras palabras, AH cubre el header TCP y

156
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

algunos campos IP, mientras que ESP cubre la encriptación del header TCP y los datos,
pero no incluye ningún campo del header IP.

• El modo de túnel es usado cuando el header IP entre extremos está ya incluido en el


paquete, y uno de los extremos de la conexión segura es un gateway. En este modo,
tanto AH como ESP cubren el paquete entero, incluyendo el header IP entre los
extremos, agregando al paquete un header IP que cubre solamente el salto al otro
extremo de la conexión segura, que, por supuesto, puede estar a varios saltos del
gateway.

Los enlaces seguros de IPSec son definidos en función de Security Associations (SA).
Cada SA está definido para un flujo unidireccional de datos y generalmente de un punto
único a otro, cubriendo tráfico distinguible por un selector único. Todo el tráfico que fluye a
través de un SA es tratado de la misma manera. Partes del tráfico puede estar sujeto a
varios SA, cada uno de los cuales aplica cierta transformación. Grupos de SA son
denominados SA Bundles. Paquetes entrantes pueden ser asignados a un SA específico por
los tres campos definitorios: la dirección IP de destino, el índice del parámetro de seguridad y
el protocolo de seguridad. El SPI puede ser considerado una cookie que es repartido por el
receptor del SA cuando los parámetros de la conexión son negociados. El protocolo de
seguridad debe ser AH o ESP. Como la dirección IP de destino es parte de la tripleta antes
mencionada, se garantiza que este valor sea único.

Un ejemplo de paquete AH en modo túnel es:


IPhdr AH Iphdr2 TCPhdr Data

Un ejemplo de paquete AH en modo transporte es:


IPhdr AH TCPhdr Data

Como ESP no puede autentificar el header IP más exterior, es muy útil combinar un header
AH y ESP para obtener lo siguiente:
IPhdr AH ESP TCPhdr Data

157
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

Este tipo de paquete se denomina Transport Adjacency.


La versión de entunelamiento sería:
IPhdr AH ESP Iphdr2 TCPhdr Data

Sin embargo, no es mencionado en las RFC que definen estos protocolos. Como en
Transport Adjacency, esto autenticaría el paquete completo salvo algunos pocos campos del
header IP y también encriptaría la carga. Cuando un header AH y ESP son directamente
aplicados como en esta manera, el orden de los header debe ser el indicado. Es posible, en
el modo de túnel, hacer una encapsulación arbitrariamente recursiva para que el orden no
sea el especificado.

IPSec hace posible la creación de “túneles” seguros entre dos gateways –típicamente
un router, cortafuegos o, incluso, software sobre un PC conectado a la red privada del
usuario a través de redes públicas. Los túneles IPSec son establecidos dinámicamente y
libera d o s cuando no están en uso. Para establecer un túnel, los dos gateways IPSec han
de autenticarse entre sí y definir cuáles serán los algoritmos de seguridad y las claves que
utilizarán. Así, IPsec proporciona comunicaciones seguras y la separación lógica entre los
flujos del tráfico de la red privada virtual (VPN) frente al resto de las transmisiones que
cursan la red IP compartida.

IPSec es el nuevo marco de seguridad IP, definido con el advenimiento del IPv6.
Aunque IPv6 está muy poco difundido en este momento, la tecnología marco IPSec se está
utilizando ya, lo que asegura, entre otras cosas, la interoperatividad entre sistemas de
diversos fabricantes y sistemas operativos, como Linux, windows Macintosh, firewalls y
routers comerciales. IPSec integra confidencialidad, integridad y autentificación en un mismo
marco interoperante por lo que esta será la opción escogida para la implementación de las
VPN. Además, como trabaja a nivel IP, es transparente a la aplicación, ya que esta no
necesita modificación alguna, y ni siquiera se entera de la existencia de criptografía
intermedia, a diferencia de protocolos de nivel de transporte, como son los túneles sobre
TCP (SSL, SSH).
Ipsec es una tecnología que protege los paquetes IP de la capa de red, así se forma
una capa segura de un nodo de la red a otro. IPsec utiliza dos protocolos para la protección
de los paquetes IP: “Cabecera de Autenticación” (AH: Authentication Header) y “Cargo de

158
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

Seguridad Encapsulado” (ESP: Encapsulated Security Payload). AH provee autenticación,


integridad y protección a la réplica, mientras que ESP provee además confidencialidad
(mediante cifrado). Una Asociación de Seguridad (SA: Security Association) es un enlace
seguro de IPsec definido por un único flujo unidireccional de datos desde un único punto
hasta otro. Consiste en el acuerdo de las dos partes comunicantes en el método utilizado
para la comunicación segura.

Todo el flujo de tráfico sobre un SA se trata del mismo modo. El tráfico puede ser
entre dos hosts, entre un host y una pasarela de seguridad (Security Gateway) o entre dos
pasarelas de seguridad.

Si el enlace es entre dos hosts, la SA es de modo transporte. En este modo de


funcionamiento de SA, las cabeceras de seguridad se añaden entre la cabecera de la capa
de red IP y la cabecera de transporte (TCP o UDP), garantizando la seguridad al paquete IP
sin cabecera.
AH en modo transporte:
IP Header AH Header TCP Header Carga

ESP en modo transporte:


IP Header ESP Header TCP Header ESP Trailer ESP Authen

Si alguno de los extremos del enlace es una pasarela de seguridad, se utiliza el


modo túnel de SA. En este caso, las cabeceras de seguridad engloban también a la
cabecera IP original del paquete IP, teniendo que añadir una nueva cabecera IP que cubre
solamente el salto al otro extremo de la conexión segura.

AH en modo túnel:
New IP Header AH Header IP Header Carga

ESP en modo túnel:


New IP Header ESP Header IP Header Carga ESP cifrado ESP Authen

159
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).

Cada paquete IP se asigna a una SA mediante tres campos: Dirección IP del Destino,
Índice del Parámetro de Seguridad (SPI: Security Parameter Index) y Protocolo de Seguridad
(AH o ESP). Sin embargo, el protocolo no estipula cómo se han de autentificar los pares ni
cómo se intercambian las claves de sesión. Estas tareas son gestionadas por el protocolo de
intercambio de claves de Internet IKE (Internet Key Exchange).

IKE permite que dos puntos extremos puedan establecer conexiones seguras,
utilizando la infraestructura de llaves precompartidas o llaves públicas (PKI), certificados
digitales administrados por una autoridad certificadora---un servicio externo o interno que
registra las llaves públicas. IKE permite también que una red privada virtual (VPN) pueda
ampliarse a cientos de puntos extremos, mediante el uso del equivalente a una tarjeta de
identificación digital que identifica cada punto extremo.

8.5. Protocolo MPLS.

MPLS (Multi protocol label switching) consiste en un método de enrutamiento IP


estándar abierto que permite a los proveedores de servicios priorizar distintos tipos de tráfico
de aplicaciones y ofrecer por tanto garantías de calidad de servicio (QoS, Quality of Service).

En efecto, permite etiquetar paquetes de datos procedentes de distintas aplicaciones


de conformidad con su urgencia y enrutarlos a continuación sobre sus LSPs (Label Switched
Paths) predestinados de la red IP privada de una empresa de telecomunicaciones. En la
práctica, lo anterior significa que los datos sensibles a retardos, como la telefonía IP o el
tráfico de misión crítica procedente de aplicaciones CRM, ERP y SCM, puede llegar a su
destino con prioridad sobre aplicaciones menos críticas.

8.6. Conclusión.

Se puede transmitir video por VPN con el sistema “Ojovigilante 1.0” el ancho de banda debe
ser alto para que la calidad del video sea aceptable.

160
PRUEBAS Y RESULTADOS

En este capítulo se detallan las pruebas realizadas para demostrar el funcionamiento del
sistema, obteniendo resultados cuantitativos y cualitativos para valorar la eficiencia del
sistema.

Instalación del sistema de videovigilancia IP en diferentes sistemas operativos.

Microsoft windows 98.


En este sistema operativo es necesario instalar manualmente el componente MDAC
(Microsoft Data Access Components) 2.5 o superior y DirectX 9 o superior para que funcione
correctamente el sistema de videovigilancia.

Microsoft windows XP.


Funciona correctamente, , usa los codecs de audio y video instalados en el propio sistema
operativo.

Microsoft windows 2000.


Funciona correctamente, usa los codecs de audio y video instalados en el propio sistema
operativo.

Microsoft windows millenium edition


Funciona correctamente, usa los codecs de audio y video instalados en el propio sistema
operativo.

Microsoft windows server 2003


Funciona correctamente, usa los codecs de audio y video instalados en el propio sistema
operativo.

Microsoft windows vista.


Para este sistema operativo se requiere una traducción de algunos componentes OCX para
su correcto funcionamiento.

161
Cámaras instaladas localmente.

Se intento instalar varias cámaras en puerto USB 1.1 y 2.0 en la misma computadora
siendo el siguiente resultado:

Sólo se pueden ver dos cámaras locales al mismo tiempo ya que con tres cámaras el
sistema operativo manda un mensaje de escaso ancho de banda.

Es posible que en un futuro cercano con el desarrollo del USB 3.0 se puedan
conectar localmente varias cámaras ya que se presume que la velocidad de transmisión será
mucho mayor que la versión 2.0.

Cámaras instaladas remotamente.

Se pueden ver hasta cuatro cámaras remotas simultáneamente ya que estas


transmiten y reciben la señal por la interfaz RJ45 la cual tiene más ancho de banda que el
puerto USB.
Para ver otras cámaras, se elige la cámara deseada, sustituyendo una de las
cámaras activas.

Prueba del sistema en WAN.

El sistema “Ojovigilante 1.0” se probó en varias ocasiones en una red WAN, para ello
se utilizó una IP pública del centro de computo de la presidencia de Cd. Guzmán y otra en
las instalaciones del Instituto tecnológico de Cd. Guzmán.

En el primer intento la transmisión fue de poca calidad ya que había mucho retraso, atribuido
al gran tráfico de red que tienen ambas IPs, fue necesario bajar los frames por segundo de
30 hasta 5 y la transmisión se realizó con éxito.

En un segundo intento se eligió un día y momento en que no hay tanto tráfico de red en las
IPs públicas utilizadas y la transmisión se realizó sin problemas a 30 frames por segundo
que es el máximo.

162
Instalaciones del sistema para pruebas piloto.

Una de las pruebas más importantes es la instalación del sistema para ver su eficiencia y sus
defectos de detenerlos.

• El sistema fue instalado en las oficinas del CoBaEJ, Guadalajara, Jalisco.

El sistema se instaló en CoBaEJ (Colegio de Bachilleres del Estado de Jalisco) y ahí más
que errores aparecieron sugerencias por parte de los usuarios para que el sistema tuviera
algunas características, las cuales fueron implementadas posteriormente, fue una
retroalimentación favorable al desarrollo del sistema.

• El sistema también fue instalado en el laboratorio de cómputo del Instituto Tecnológico de


Cd. Guzmán.
Aquí también hubo sugerencias para agregarle algunas características al sistema, lo cual fue
muy favorable para mejorar las prestaciones del sistema.

CONCLUSION.

Actualmente los proveedores de internet ofrecen un ancho de banda enorme a un precio


asequible, con lo que es posible usar un sistema de videovigilancia IP en tiempo real.
Resultando un producto práctico y útil para la videovigilancia.

163
BIBLIOGRAFÍA.

Gonzalo Pajares, Imágenes digitales, Procesamiento práctico con Java


Alfa omega Ra-Ma.

Jesús Bernal Bermúdez, Reconocimiento de voz y fonética acústica,


Alfa omega Ra-Mi

A.D Ajenjo, Tratamiento digital de imágenes, Anaya Madrid 1993.

E.R. Davies, machine vision: Theory, Algorithms, Practicalities, Academy Press, London,
1997.

L.J. Glaciate, Machine vision and digital image processing Fundamentals, Prentice-Hall,
Englewood cliffs, NJ, 1990.

R.C. Gonzáles and R.E Woods, Digital image processing, Addison-Wesley, Reading, MA,
1993

Z. Hussain, Digital Image Processing, Ellis Horwood, Chichester, 1991.

A. Low, Computer Vision and Image Processing, McGraw-Hill, New York, 1991.

S. Marchand-Maillet and Y.M. Sharaiha, Binary Digital Image Processing: A discrete


approach, Academic Press, London, 1999.

Watt, 3D Computer Graphics, Addison-Wesley, Reading: MA, 1994.

Weeks, Fundamentals of Electronic Image Processing, IEEE Press, New York, 1996.

M.R. Leek, V. Summers, “Reduced frequency selectivity and the preservation of spectral
contrast in noise”, Journal of the Acoustic Society of America, 1996.

164
Scott, Charly, Wolfe, Paul, Erwin, Mike: "Virtual Private Networks", 2° edición, O’Reilly &
Associates, Enero 1999.

Gutiérrez González, Ma. Nieves, Sancho Buzón, Ana Rosa, Casas Cuadrado, Amadeo:
Estudio sobre las VPN (Redes Privadas Virtuales),

165
GLOSARIO.

ANCHO DE BANDA. Bandwidth en inglés. Cantidad de bits que pueden viajar por un medio
físico (cable coaxial, par trenzado, fibra óptica, etc.) de forma que mientras mayor sea el
ancho de banda más rápido se obtendrá la información. Se mide en millones de bits por
segundo (Mbps). Una buena analogía es una autopista. Mientras más carriles tenga la calle,
mayor cantidad de tráfico podrá transitar a mayores velocidades. El ancho de banda es un
concepto muy parecido. Es la cantidad de información que puede transmitirse en una
conexión durante una unidad de tiempo elegida.

ATM (MODO DE TRANSFERENCIA ASÍNCRONO). Tecnología de transmisión de datos que


ofrece el potencial de revolucionar el modo en que se construyan las redes de
computadores.

AUDIOCONFERENCIA: Conferencia realizada mediante señales de audio.

BACKBONE. Conjunto de equipos de cómputo y de redes que forman la parte original y


medular del INTERNET.

BITRATE. Término bastante utilizado al hablar de calidades de video y audio. Define cuánto
(o el promedio) de espacio físico (en bits) toma un segundo de audio o video. Por ejemplo, 3
minutos de audio MP3 a 128kBit/sg CBR, toma 2,81 MegaBytes de espacio físico (1,024 x
128 / 1,024 / 1,024 x 180 / 8). En donde: 128kbit = 128 x 1024 bits 1 byte = 8 bits 1 kilobyte =
1,024 bytes 1 megabyte = 1,024 kilobytes 3 minutos = 180 segundos. Algunos ejemplos:

BPS. Bits por Segundo. Velocidad a la que se transmiten los bits en un medio de
comunicación.
BROADBAND. Se refiere generalmente a conexiones a Internet con mucho más ancho de
banda que con un modem de "dial-up" convencional. No hay una especificación sobre la
velocidades, pero por lo general Cable Modem, DSL o ADSL.

BROADCAST. Es un modo de transmisión de información donde un nodo emisor envía


información a una multitud de nodos receptores de manera simultánea, sin necesidad de
reproducir la misma transmisión nodo por nodo.

166
CIF. Formato Intermedio Común utilizado por el codec H.261 para resolución de video de
352x288 pixeles

DIRECCIÓN IP. El concepto de números o direcciones IP se puede entender mejor si se


establece una analogía entre computadores y teléfonos. Del mismo modo como un teléfono
tiene asignado un único número en la telefónica, cada computador tiene un único número IP,
asignado a escala mundial

DOMINIO. Es un conjunto de datos que permite identificar cada equipo de cómputo


conectado a la red de Internet en forma única. En forma análoga a la de la Dirección Internet,
el dominio de cada equipo consta de cuatro partes escritas en minúsculas y separadas por
puntos, a saber:

E-MAIL. Es un sistema de intercambio de mensajes entre usuarios o grupos de personas.


Cada persona dispone de una dirección de correo que le identifica de forma unívoca como
perteneciente a un determinado sistema dentro de la red.

ETHERNET. Sistema de red creado originalmente por Xerox, pero desarrollado


conjuntamente como estándar en 1980 por Digital Equipment Corporation, Intel y Xerox. El
estándar 802.3 de la IEEE define una red similar, pero algo distinta, que utiliza un formato de
trama alternativo (La trama es la estructura y la codificación de una cadena de bits
transmitidos a través de un enlace). Ethernet tiene un rendimiento de 10 Mbits/seg. y utiliza
un método de acceso por detección de portadora en el que las estaciones comparten un
cable de red, pero solo una estación puede utilizar el cable en un instante determinado. El
método de acceso CSMA/CD (acceso múltiple por detección de portadora/detección de
colisiones) se utiliza para arbitrar el acceso al cable.

FTP (TRANSFERENCIA DE ARCHIVOS). Intercambio de software y archivos entre usuarios


de la red.

FIREWALLS. Es un dispositivo o grupo de dispositivos colocados entre una red segura (su
red interna) y una red no segura (Internet). Las diversas tareas del muro de fuego incluyen
autentificación de usuarios, limitar el tráfico entrante y saliente, registrar la información de
tráfico, producir reportes de tráfico y prevenir el acceso no deseado a sus servicios.

167
GATEWAY. Conexión compartida entre una red de área local (LAN) y un sistema grande,
como un computador mainframe o una red de paquetes conmutados, cuyos protocolos de
comunicación son diferentes. Por lo general además de ser más lento que un puente o un
enrutador, un gateway es una combinación de equipo y programas con su propio procesador
y memoria que se utilizan para ejecutar conversaciones de protocolo.

H.264. También conocido como MPEG-4 AVC (Advanced Video Coding), es un estándar de
compresión de video que ofrece significativa mayor compresión que sus predecesores. Se
espera que de hasta el doble de compresión que MPEG-4 ASP (Advanced Simple Profile).
H.264 puede proporcionar video con calidad DVD a menos de 1 Mbps.

H.320. Estándar del CCITT para la videoconferencia, que es el más utilizado en los equipos
comerciales basados en PC y RDSI Son especificaciones que definen cómo se comunican
los sistemas de videoconferencia a través de medios de circuitos switcheados, como las
líneas RDSI, T-1 fraccional o Switched-56. El algoritmo de compresión H.261 define dos
resoluciones de video: el CIF (Formato Intermedio Común), de 352x288 y el QCIF (un cuarto
del Formato Intermedio Común) de 176x144. El H.320 también posee tres codecs
(codificadores - decodificadores) de audio: el G.711, que usa un ancho de banda de 64 Kbps
para proporcionar audio de 3 KHz de calidad telefónica; el G.722, un algoritmo de mejor
calidad que produce audio de 7.5 KHz pero consume un ancho de banda de hasta 64 Kbps;
y el G.728 que, a pesar de proporcionar audio de calidad casi telefónico, sólo requiere de 16
Kbps.

H.310 y H.321. Adaptan al H.320 a las topologías de la siguiente generación, como ATM y
SDM de banda ancha. El H.321 proporciona la máxima capacidad hacia atrás, y conserva la
capacidad del H.320 y algunos de sus componentes, incluido el H.261. El H.310 añade el
algoritmo de compresión de video MPEG-2 de ISO, que proporciona calidad de video clase
HDTV (televisión de alta definición).

H.322. Es una versión mejorada del H.320, optimizada para redes que garantizan Calidad de
Servicio (QoS) para tráfico isocrónico, como el video en tiempo real.

H.323. extiende al H.320 a Ethernet, Token-Ring y otras redes de paquetes switcheados que
no garantizan QoS. Soporta operaciones punto a punto y multipunto. Además del codec de

168
video H.261 y el codec de audio G.711 del H.320, las implantaciones del H.323 también
pueden incluir componentes del H.320 y el H.324, como H.263, G.722, G.723 y G.728. Los
temas de QoS se han manejado por un componente de portero centralizado que permite que
los administradores de LAN administren el tráfico de video en la espina dorsal. Otra parte
integral de la especificación define una compuerta LAN/H.320, que permite que cualquier
nodo H.323 interopere con productos H.320.

H.324. lleva a la videoconferencia de tipo H.320 a las líneas telefónicas análogas de la RTC.
Puede incorporar codificación H.261, pero la mayor parte de las implantaciones usarán el
H.263, una versión escalable del H.261 que añade un formato sub-QCIF (SQCIF) de 128x96.
Debido al diseño eficiente del H.263, puede producir velocidades de cuadro muy parecidas a
la de los sistemas RDSI H.320 actuales, pero mediante módems baratos asistidos por
hardware

HIPERENLACES (HYPERLINKS). Una forma de relacionar una palabra o frase que ve el


usuario con una dirección oculta a la que se conectará el programa cuando realicemos un
"clic" en él.

HIPERMEDIA. Documentos al estilo hipertexto que no se limitan a texto, sino que pueden
contener gráficos, vídeo o sonido.

HIPERTEXTO. Es un texto que contiene referencias al mismo u otros textos, liberando de la


restricción de una lectura lineal.

HOST (ANFITRIÓN) Máquina en Internet o en una red en general, usualmente accesible


desde las demás. El número de hosts servía para medir el crecimiento de Internet, pero hoy
la mayoría de usuarios lo hacen por conexiones eventuales (ad hoc) por teléfono por lo que
no se contabilizan como hosts.

HOSTNAME. Nombre dado a una máquina en una red.

HTML (HYPERTEXT MARKUP LANGUAGE). Implementación concreta del SGML, que


define un formato hipermedia utilizado en el WWW que permite incluir hiperenlaces a otros

169
documentos en la Red. Es un tipo de SGML. Existen las versiones HTML 1.0, HTML 2.0,
HTML+ y HTML 3.0, aparte de las extensiones propias de algunos navegadores.

HTTP. En inglés Hypertext Transfer Protocol. Protocolo de Transferencia de Hipertexto.


HTTP es un protocolo con la ligereza y velocidad necesaria para distribuir y manejar
sistemas de información hipermedia. HTTP ha sido usado por los servidores World Wide
Web desde su inicio en 1993.

INTERNET. Es una red interconectada de redes de computadores, de carácter internacional


e intercontinental, que une a más de un millón de servidores de todo el mundo y que se
comunica a través de los medios más diversos, desde el cable coaxial, microondas, fibra
óptica y los satélites, hasta las líneas telefónicas.

IIS. Microsoft Internet Information Services. Servicios de Información de Internet de


Microsoft. IIS es un conjunto de servicios basados en Internet, para maquinas con Windows.
Originalmente se proporcionaba como opcional en Windows NT, pero posteriormente fue
integrado a Windows 2000 y Windows Server 2003. Incluye servidores para FTP, SMTP,
NNTP y HTTP/HTTPS.

IMS Research. fundada en 1989 y ahora es uno de los principales proveedores a la industria
global de electrónica.

INTRANET. Aquellas redes que aprovechan el uso de la red Internet para fines privados. La
gran diferencia entre Internet e Intranet es simplemente la forma de utilizar la red de redes.
Internet es para todo público, mientras que Intranet es sólo para los usuarios autorizados. En
el caso de redes privadas que utilizan la tecnología Internet para el intercambio de
información pero que no están conectadas a la red Internet, también se dice que forman un
Intranet particular. Sin embargo, el auténtico Intranet hace siempre uso de la red pública
conocida como Internet. Si utilizamos los mismos elementos de Internet, los instalamos
dentro de nuestra red local exclusivamente para acceso al personal de nuestra empresa, sin
necesidad de tener una conexión al exterior, tenemos en este momento una Intranet.

IRC (INTERNET RELAY CHAT). Cuando un usuario se conecta a un servidor de IRC puede
elegir entre numerosos "canales" con distintos temas de conversación. Una vez que se

170
selecciona el canal, se puede dialogar en tiempo real, en público o en privado, con todos los
participantes de dicho canal.

IP (INTERNET PROTOCOL). Es responsable de mover los paquetes de datos ensamblados,


ya sea por el TCP o el UDP a través de las redes. Usa un conjunto de direcciones únicas
para cada dispositivo en la red, a fin de determinar el enrutamiento y los destinos.

LAN. Local Area Network. Red de área local. Red de computadoras personales ubicadas
dentro de un área geográfica limitada que se compone de servidores, estaciones de trabajo,
sistemas operativos de redes y un enlace encargado de distribuir las comunicaciones. Por
ejemplo, computadoras conectadas en una oficina, en un edificio o en varios. Se pueden
optimizarse los protocolos de señal de la red hasta alcanzar velocidades de transmisión de
100 Mbps

LOGIN. Corresponde al nombre de la empresa o persona que adquiere los servicios de


conexión a Internet.

MULTICAST. [Multidifusión]. Técnica de transmisión de datos a través de Internet en la que


se envían paquetes desde un punto a varios simultáneamente.

NAT. (Network Address Translation - Traducción de Dirección de Red) es un estándar


creado por la Internet Engineering Task Force (IETF) el cual utiliza una o más direcciones IP
para conectar varios computadores a otra red (normalmente a Internet), los cuales tiene una
dirección IP completamente distinta Por lo tanto, se puede utilizar para dar salida a redes
públicas a computadores que se encuentran con direccionamiento privado o para proteger
máquinas públicas.

A diferencia del HTTP, que no define precisamente el género de archivos que vienen
trasladados, el RTSP controla los datos con funcionalidades conceptualmente similares a las
de un aparato de vídeo: Play, fast-forward, pause, stop y record.

NETMEETING. Cliente de comunicaciones telefónicas en tiempo real para Internet que es


compatible con los estándares internacionales para conferencias y permite compartir
aplicaciones entre múltiples usuarios y establecer conferencias de datos. NetMeeting

171
combina la potencia del PC con el alcance global de Internet, para convertir una llamada
telefónica normal en una experiencia de comunicación y colaboración multimedia más rica y
eficaz.

PASSWORD. Es la clave de acceso privada para ingresar a Internet, proporcionada por el


proveedor del servicio, pero que puede ser modificada por el usuario. Su finalidad es limitar
el acceso a otras personas al servicio en línea.

PROTOCOLO. Conjunto de normas establecidas para que los ordenadores puedan


comunicarse entre sí. Es un acuerdo para los procedimientos de comunicación entre redes
que hace referencia a la forma en que se envían los paquetes de datos, y a la forma en que
se transmiten las señales

POTS (PLAIN OLD TELEPHONE SYSTEMS). Metodología para transporte de la


videoconferencia a través de la red telefónica.

QCIF. Resolución de video que utiliza una cuarta parte del Formato Intermedio Común con
tamaño de 176x144. Es utilizado por el codec H.261.

QOS (QUALITY OF SERVICE). Calidad del servicio para tráfico asincrónico, como el video
en tiempo real, utilizado por el estándar H.322.

RDSI (RED DIGITAL DE SERVICIOS INTEGRADOS). Es un cableado especial que soporta


transmisiones de datos a alta velocidad y que se rige por una estructura de manejo similar a
las de las líneas telefónicas habituales. Se tiene entonces que toda la señal desde el lugar
de instalación hasta la central telefónica RDSI es digital.

RED. Al conjunto de equipos conectados a un servidor se le conoce como una red.

RTCP. Real-time Transport Control Protocol (RTCP) [Protocolo de control de tiempo real]
proporciona un stream de control que está asociado con un stream de datos para una
aplicación multimedia.
RTP. Real Time Protocol. [Protocolo de Tiempo Real]. Protocolo utilizado para la transmisión
de información en tiempo real como por ejemplo audio y video en una video-conferencia.

172
RTSP. Real-Time Streaming Protocol (RTSP) [Protocolo de Streaming en tiempo real] Es un
protocolo, es decir la serie de procedimientos genéricos para la comunicación entre dos
máquinas, que optimiza el flujo de datos.

RSVP (RESOURCE RESERVATION PROTOCOL). Protocolo emergente estándar IETF,


cuya mision es construir un camino tipo "conmutación de circuitos" sobre una red de
conmutación de paquetes.

SERVIDOR. Computador o sistema que comparte sus recursos con otras máquinas,
denominadas clientes, que se los solicitan.

SERVIDOR WEB. Servidor que corre el protocolo HTTP y que permite que los clientes que
se conectan puedan traerse y acceder a las páginas HTML que contiene.

STREAMING. El streaming consiste en la distribución de audio o video por Internet. La


palabra streaming se refiere a que se trata de una corriente continua (sin interrupción). El
usuario puede escuchar o ver en el momento que quiera. No es necesario estar suscrito para
escuchar o ver. Este tipo de tecnología permite que se almacenen en un búfer lo que se va
escuchando o viendo. El streaming hace posible escuchar música o ver videos sin necesidad
de ser descargados previamente.

STREAMING MEDIA. Archivos de audio o video que se reproducen mientras se están


descargando de Internet, sin tener que esperar a que termine la descarga para escucharlo y
verlo. Requiere de un programa media reproductor.

TCP/IP. Transfer Control Protocol/Internet Protocol. [Protocolo de control de transmisiones /


Protocolo Internet]. Es el protocolo estándar de comunicaciones en red y transporte del
modelo OSI, utilizado para conectar sistemas informáticos a través de Internet

T.120: es una especificación de conferencia de documentos que permite a los usuarios


compartir documentos durante cualquier videoconferencia H.32x. Las sesiones T.120 de sólo
datos cuando no se requiere de comunicación por video, y el estándar también permiten
reuniones multipunto que incluyen participantes con diferentes medios de transmisión.

173
TEOREMA DE NYQUIST. Es un teorema fundamental de la teoría de la información, de
especial interés en las telecomunicaciones.

El teorema trata con el muestreo, que no debe ser confundido o asociado con la
cuantificación, proceso que sigue al de muestreo en la digitalización de una señal y que, al
contrario del muestreo, no es reversible (se produce una pérdida de información en el
proceso de cuantificación, incluso en el caso ideal teórico, que se traduce en una distorsión
conocida como error o ruido de cuantificación y que establece un límite teórico superior a la
relación señal-ruido). Dicho de otro modo, desde el punto de vista del teorema, las muestras
discretas de una señal son valores exactos que aún no han sufrido redondeo o truncamiento
alguno sobre una precisión determinada, esto es, aún no han sido cuantificadas.

El teorema demuestra que la reconstrucción exacta de una señal periódica continua en


banda base a partir de sus muestras es matemáticamente posible si la señal está limitada en
banda y la tasa de muestreo es superior al doble de su ancho de banda.

UDP. User Datagram Protocol. Protocolo de servicios de Internet. Se utiliza cuando es


necesario transmitir voz o vídeo, y resulta más importante transmitir con velocidades que
garanticen la correcta recepción.

UNICAST. Comunicación entre un emisor y un solo receptor en una red. Por ejemplo: Un
correo electrónico enviado de una persona a otra.

URL (UNIFORM RESOURCE LOCATOR). Es un procedimiento para identificar de un modo


unívoco un fichero en Internet. Básicamente consta de la indicación del tipo de servicio, el
nombre del ordenador en que reside, y la ruta completa de acceso, incluyendo directorios,
subdirectorios, en su caso, y nombre del fichero. Los siguientes ejemplos muestran los URLs
respectivos de un documento texto, un servidor gopher, un documento hipertexto servido
desde un web y un servicio telnet.

VIDEO CONFERENCIA. Sistema que permite la transmisión en tiempo real de video, sonido
y texto a través de una red; ya sea en una red de área local (LAN) o global (WAN). El
hardware necesario se compone de a) tarjeta de sonido y vídeo, vídeo cámara, micrófono y

174
bocinas. La velocidad de transmisión lograda actualmente es de 10 cuadros por segundo y
se incluye un soporte vía módem.

WEBCAST. Un webcast es similar a un 'programa de televisión' pero diseñado para ser


transmitido por Internet.

WWW (World Wide Web). Es una herramienta de recuperación de información que está en
hipermedios y cuyo objetivo es proveer acceso fácil a cualquier tipo de información vía
servidores de hipertexto.

175

Anda mungkin juga menyukai