Anda di halaman 1dari 83

INSTITUTO POLITÉCNICO NACIONAL

ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y


ELÉCTRICA
UNIDAD CULHUACAN

SEMINARIO DE TITULACIÓN
“SEGURIDAD DE LA INFORMACIÓN”

TESINA
“ESQUEMA DE FORENSIA EN RED”

QUE PRESENTAN PARA OBTENER EL TÍTULO DE


INGENIERÍO EN INFORMÁTICA

CANIZAL ZÚÑIGA JOSÉ CARLOS

LICENCIADO EN CIENCIAS DE LA INFORMÁTICA

DE LA CRUZ SAMAYOA ALVARO HUMBERTO


DIONICIO NIÑO CARLOS ALEJANDRO
ROMERO MARTÍNEZ JUAN ANTONIO

INGENIERO EN COMUNICACIONES Y ELECTRÓNICA

FUENTES JIMENEZ DAVID

Asesores:
DR. GABRIEL SANCHEZ PÉREZ
M. EN C. MARCOS ARTURO ROSALES GARCÍA

VIGENCIA: DES/ESIME-CUL/23/08

México, D.F., Junio 2009


AGRADECIMIENTOS

A NUESTROS PADRES Y COMPAÑEROS:

Por el apoyo que nos proporcionaron en todo momento, desde los


mejores hasta nuestros peores momentos ya que, gracias a ustedes
hemos tenido la oportunidad de estudiar y llegar a ser profesionistas.

AL INSTITUTO POLITÉCNICO NACIONAL:

Por ser la institución que por cortos pero valiosos años nos mostró cómo
la ética, moral, y el profesionalismo son virtudes invaluables, y que se
demuestran día con día.
ÍNDICE GENERAL

PRELIMINARES Pág.
INTRODUCCIÓN I
OBJETIVO II
ALCANCE III
ESQUEMA IV

CAPÍTULO I. ATAQUES EN RED 1


1.1 Clasificación de los ataques en la red 2
1.1.1 Clasificación por Lista de Términos 2
1.1.2 Clasificación por Lista de Categorías 2
1.1.3 Clasificación por Resultado de Categorías 3
1.1.4 Listas Empíricas 3
1.1.5 Clasificación de Ataques Basados en la Acción 3
1.2 Taxonomía de los Incidentes 4
1.2.1 Eventos 4
1.2.2 Acciones 5
1.2.3 Objetivos 6
1.2.4 Ataques 7
1.2.5 Herramientas 8
1.2.6 Vulnerabilidad 8
1.2.7 Resultado No Autorizado 9
1.2.8 Incidentes 9
1.2.9 Los Atacantes y sus Propósitos 10

CAPÍTULO II. INFORMATICA FORENSE 11


2.1 Objetivos de la Forensia 12
2.2 Tipos de Forensia Informática 13
2.2.1 Forensia Basada en Host 13
2.2.2 Forensia Basada en Red 14
2.3 Análisis Forense 14
2.4 Evidencia Digital 15
2.4.1 Clasificación de la Evidencia Digital 16
2.4.2 Criterios de Admisibilidad 16
2.5 Procedimiento Forense Computacional 17
2.6 Documentos de Informática Forense 19
2.6.1 RFC 3227 20
2.6.2 Guía de la IOCE 20
2.6.3 Investigación de la escena del crimen electrónico 20
2.6.4 Exámen forense de evidencia digital 20
2.6.5 Computación Forense: Mejores prácticas 20
2.6.6 Guía de buenas prácticas para evidencia basadas en 21
computadoras
2.6.7 Guía para el manejo de evidencia en IT 21

CAPÍTULO III. PROTOCOLOS DE RED Y SU MONITOREO 25


3.1 Tipos de Protocolos 25
3.2 Protocolo TCP/IP 31
3.2.1 Protocolo IP 32
3.2.2 Protocolo TCP 35
3.3 SMNP 39
3.3.1 MIB 40
3.3.2 RMON 41
3.4 Esquema típico de monitoreo 42
3.4.1 Monitoreo Activo 44
3.4.2 Monitoreo Pasivo 44
3.4.3 Elementos de Interconectividad 44
3.4.4 Controles de Seguridad en Red 48
3.5 Monitoreo de una red TCP/IP 52

CAPÍTULO IV. CASO PRÁCTICO 56


4.1 Wireshark/Tshark 56
4.1.1 Simulando un DoS en Windows 57
4.1.2 Tshark 63
4.2 Tcpdump 66
4.3 Elección de Herramienta 68

CONCLUSIONES 69

REFERENCIAS BIBLIOGRÁFICAS 70
GLOSARIO 71
ÍNDICE DE FIGURAS

Figura Nombre Página

Figura 1.1 Espectro de las actividades en una red 5


Figura 1.2 Ataques basados en la experiencia 7
Figura 1.3 Diagrama general de los incidentes de seguridad 9
Figura 2.1 Cuadro comparativo de documentos de Informática
Forense 22
Figura 3.1 Representación del modelo OSI 27
Figura 3.2 Arquitectura del protocolo TCP/IP 32
Figura 3.3 Datagrama IP 33
Figura 3.4 Segmento TCP 37
Figura 4.1 Uso de Windows según Xitimonitor durante enero
de 2007 56
Figura 4.2 Comparativo de los sistemas operativos y su uso en
la red según Xitimonitor 57
Figura 4.3 Esquema básico de conectividad entre dos equipos 58
Figura 4.4 Elementos por defecto en Wireshark 59
Figura 4.5 Gráfica de entrada/salida 60
Figura 4.6 Un ping por tiempo indefinido 61
Figura 4.7 Demostración de ICMP iniciado por ping 61
Figura 4.8 Tráfico de red cuando inicia el ping 62
Figura 4.9 Tráfico cuando el ping finalizo 62
Figura 4.10 Tshark a la espera de tráfico ICMP 64
Figura 4.11 Tshark Capturando y registrando el trafico ICMP 65
Figura 4.12 Paquetes ICMP capturados por Tshark 65
Figura 4.13 Tcpdump escuchando los paquetes icmp a través 67
de la interfaz eth0
Figura 4.14 Tcpdump resumen de paquetes capturados 67
Figura 4.15 Archivo donde se registro el tráfico del protocolo 68
icmp
INTRODUCCIÓN

Hoy día un aspecto clave para el éxito de las empresas es la seguridad de la


información que genera, procurando mantener la confidencialidad, disponibilidad e
integridad de la misma, de igual manera la necesidad de compartir información a
través de la red corporativa hacen que esta deba tener un nivel de seguridad alto ya
que los ataques dirigidos a protocolos, sistemas operativos y dispositivos de red
están incrementándose a causa de la aparición de nuevas y más complejas
herramientas que automatizan los ataques y aprovechan con mayor eficiencia las
vulnerabilidades existentes en la organización, por lo cual surge la necesidad de
plantear políticas y un esquema de seguridad. A pesar de todas estas medidas
muchas veces un mal diseño del esquema de seguridad o imposición de criterios
económicos por sobre los de seguridad de la empresa dan lugar a que se susciten
ataques, y por ende perdidas para la empresa

Lo que sucede actualmente en las pequeñas y medianas empresas (PyMe)


nacionales es que no cuentan con un sistema de respuesta a incidentes ni mucho
menos con alguno de forensia y, una vez sufrido algún tipo de ataque, éstas
empresas se preocupan más por recuperar la información y que no afecte este
evento en sus operaciones diarias.

La ciencia forense aplicada a la informática se encuentra en pleno auge y


actualmente existen diferente metodologías dependiendo el enfoque que se tome,
pero básicamente se trata de localizar y/o generar la evidencia a priori (forensia en
red) antes de que se presente un ataque para después poder analizar la secuencia
de eventos que dieron lugar al ataque aplicando metodologías reproducibles y
estandarizadas, de tal manera que tengan validez y puedan ser presentados como
pruebas fehacientes.

La presente tesina pretende mostrar al lector un esquema de forensia causal, es


decir, se centra en conocer los hechos únicamente, utilizando una combinación de
las distintas metodologías existentes, además de justificarse en base a datos
estadísticos de los distintos ataques en red arrojados por instituciones normativas
sobre la forensia y seguridad informática.

I
OBJETIVO

Proponer herramientas de monitoreo para obtener evidencia y así tener elementos


para aplicar forensia en una red TCP/IP.

II
ALCANCE

La presente investigación se centra en establecer los procesos de monitoreo para


obtener evidencia digital, y así contar con elementos para aplicar forensia en una red
TCP/IP.

III
ESQUEMA

Un esquema de forensia en red es una serie de elementos teóricos que pretende dar
una visión de lo que puede ser puesto a prueba en la realidad, en el presente
documento se muestran los fundamentos teóricos de una red LAN y cómo funcionan
en un caso práctico.

Es importante diferenciar tres conceptos básicos modelo, esquema y arquitectura,


para conocer por que se presenta un esquema de forensia y no un modelo o una
arquitectura.

Modelo: Es el resultado del proceso de generar una representación abstracta,


conceptual, grafica o visual para analizar, describir, explicar, simular y predecir
fenómenos o procesos.
Esquema: Es un sistema de ideas, un conjunto organizado de conceptos
universales que permiten una aproximación a un objeto particular. Se trata de
un paquete teórico abierto que puede ser puesto a prueba en la vida cotidiana.
Arquitectura: La arquitectura es el diseño conceptual y la estructura
operacional fundamental de un sistema.

Como se muestra un modelo pretende simular un fenómeno o proceso, en este


documento no se pretende simular procesos de forensia, ni hacer un diseño
conceptual como lo indica la Arquitectura. Se muestra una serie de fundamentos
teóricos aplicables a casos reales.

IV
CAPÍTULO I. ATAQUES EN LA RED

En la actualidad el activo más importante de una empresa, institución pública, o de


un individuo es la información. La información que una empresa posee es de vital
importancia para llevara a cabo sus operaciones, es lo que le permite tomar
decisiones, que hacer, como hacerlo y para qué hacerlo. No se puede imaginar a un
banco sin la información de estados financieros, o a una empresa de publicidad sin la
cartera de clientes. La información que es relevante para una empresa puede no
serlo para otra. Más importante aún, la información que posee una empresa puede
colocarle en una posición más adelantada que la de la competencia, aquí es donde
inician muchos de los problemas de seguridad de la información, robo y venta de la
información confidencial de los clientes, vender secretos industriales a la
competencia, son algunos ejemplos.

Para las empresas o instituciones que ofrecen servicios, los mas importante es la
calidad del mismo, si los servicios que ofrecen son de calidad, difícilmente un cliente
va requerir nuevamente de sus servicios. ¿Qué pasa si la competencia evita que la
empresa ofrezca un servicio de calidad, o en el extremo, evita que la empresa
ofrezca el servicio?, con seguridad la empresa perderá gran cantidad de clientes;
¿quién gana?: la competencia.

Hasta este momento no se ha hablado de procesos automatizados de información,


son casos generales de problemas con el manejo de la información y los servicios en
las empresas. Como se sabe en la actualidad, la mayoría de las empresas utilizan
algún medio informático -entendiendo como medio informático a herramientas como
computadoras, lectores, escáneres, redes de computadoras- para el manejo de su
información o para la administración de sus servicios. En este punto es donde entra
la seguridad en las redes y los equipos de cómputo. Cuando ocurre un incidente de
seguridad se dice que el sistema sufrió uno o varios ataques.

Un ataque en la red se puede definir como una parte de una serie de pasos
intencionados para intentar obtener un resultado no autorizado [1].

Pero para llevar a cabo un ataque en la red es necesario que exista una
vulnerabilidad, es decir, una debilidad en la red que puede ser explotada. Por lo tanto
se puede definir un ataque en la red como:

1
“El intento intencionado de obtener un resultado no autorizado en la red
aprovechando una vulnerabilidad existente”.

1.1 Clasificación de los Ataques en la Red

Existen diversos autores que clasifican a los ataque en la red de diversas maneras
de acuerdo a la perspectiva que tiene cada uno de dichos ataques.

1.1.1 Clasificación por Lista de Términos

Esta clasificación no es satisfactoria ya que los términos no forzosamente


independientes; por ejemplo, en la lista se puede encontrar el término virus y
bomba lógica, pero un virus puede contener una bomba lógica. Y el problema
fundamental con esta clasificación es que la lista puede llegar a ser muy grande
y en consecuencia difícil de aplicar, además del problema que implicaría la
correcta comprensión y aplicación de cada uno de los términos.

1.1.2 Clasificación por Lista de Categorías

Ésta es una variante de la clasificación por lista de términos, esta clasificación


la presenta Cheswick en su texto firewalls [2], aquí se presenta una
clasificación de ataques en siete categorías:

Robo de contraseñas: se refiere a cualquier método para robar la contraseña de


un usuario.

Ingeniería social: Técnicas para que los propios usuarios proporcionen la


información confidencial de sus cuentas.
Puertas traseras: Aprovecharse de hoyos de seguridad para poder
realizar los ataques.
Errores de autenticación: Utilizar métodos para vencer los mecanismos
de autenticación.
Errores de protocolo: Cuando los protocolos por si mismos contienen
errores ya que fueron mal diseñados o implementados.
Fuga de información: Cuando información de los administradores de la
red se hace pública y es utilizada para ataques.
Negación de servicio: evitar que los usuarios utilicen los servicios
disponibles.

2
Esta clasificación es una mejora respecto a la lista de términos, por que
presenta una estructura, pero presenta los mismos problemas que la lista de
términos.

1.1.3 Clasificación por Resultado de Categorías

Russell y Gangemi [3] utilizan una clasificación que agrupa la lista de términos
en categorías que describen el resultado del ataque:

Confidencialidad: Como resultado del ataque la información fue vista por


persona no autorizado para ello.
Integridad y autenticidad: Como resultado del ataque ya no se puede confiar en
la que la información sea correcta y que provenga de donde dice venir.
Disponibilidad: Que la información o los servicios puedan ser utilizados en
cualquier momento que se requiera.

El problema de esta clasificación radica en que proporciona información muy


limitada de los ataques, y gran parte de ellos cae en una sola categoría.

1.1.4 Listas Empíricas

Neumann y Parker [4] clasifican los ataques de acuerdo a los datos empíricos
que se han obtenido de los mismos.

Robo de información desde un lugar externo (de manera remota).


Abuso de los recursos.
Registro de las transmisiones en la red.
Instalación de programas maliciosos.
Salto de métodos de autenticación.
Abuso de autoridad suplantando identidad.
Mala administración intencional.
Abuso Indirecto: utilizar otros sistemas para crear programas maliciosos.

El problema de estas categorías es que un ataque generalmente puede ser


clasificado en más de una categoría, además de no existir un conector lógico
entre las diversas categorías.

1.1.5 Clasificación de Ataques Basados en la Acción

Stallings [5] presenta un modelo basado en la acción el cual se enfoca en la


información en tránsito.

3
Interrupción: La información no está disponible o es destruida antes de
llegar a su destino.
Intercepción: La información es tomada por una entidad no autorizada y
evita que llegue a su destino.
Modificación: La información es alterada.
Fabricación: La información es creada por una entidad no autorizada y es
insertada en el sistema.

Esta clasificación es muy simple y tiene una utilidad muy limitada.

1.2 Taxonomía de los Incidentes

1.2.1 Eventos

En general una computadora o una red genera una innumerable cantidad de


eventos. Un evento es un cambio discreto en el estado de un sistema o
dispositivo (según el IEEE96:373), desde el punto de vista de seguridad en
redes, los cambios de estado generados por un evento son el resultado de
acciones realizadas contra un objetivo en especifico. Dado lo anterior se puede
decir que:

“Un evento de seguridad en la red es una acción dirigida a un objetivo


especifico con el fin de cambiar el estado de dicho objeto”.

Es importante resaltar diversos aspectos de la definición anterior: inicialmente si


ocurre un evento de seguridad contra un objetivo en específico con el propósito
de cambiar su estado (y si hasta este momento el cambio de estado no ha
tenido éxito), se puede afirmar que ha ocurrido un evento de seguridad, más sin
embargo el cambio de estado pudo o no haber sucedido.

Otra parte importante es que el evento de seguridad no discrimina entre


acciones autorizadas y las no autorizadas, esto es, si se están registrando los
eventos que suceden en la red, se registran ambos. Para tener más clara la
definición de evento es importante dejar en claro a que se refieren los términos
acción y objetivo:

Acción: Una acción se define como una serie de pasos para obtener un
resultado.

Objetivo: Se refiere una entidad lógica en la red (cuentas de usuario,


procesos, información, datos, servicios) o a entidades físicas de la red
(computadoras, redes, intranet) del cual se quiere obtener un resultado.

4
1.2.2 Acciones.

Las acciones en la figura 1.1 representan un espectro de las actividades que


pueden llegar a suceder en una red. El evento inicia con una acción que se
ejecuta sobre un blanco del ataque, existen diversas acciones así como
diversos blancos del ataque, los cuales se detallan a continuación.

Figura 1.1 Espectro de las actividades en una red

Existen dos acciones para obtener información del objetivo, nombradas en


ingles probe (sondeo) y scan (exploración). Probe es utilizado para conocer las
características especificas del objetivo, mientras que scan es utilizado para
verificar en un rango de objetivos cuales cumplen con características
particulares. Ambos pueden ser utilizados de manera combinada para reunir
mayor información.

Otra acción es la nombrada en ingles flood (inundación) en esta acción no se


trata de obtener información acerca del objetivo si no saturar o sobrecargar la
capacidad del objetivo, accediendo a el de manera repetida.

Autentificación es una acción tomada apara asumir una identidad, la


autentificación generalmente requiere de un nombre de usuario y una
contraseña, y no solo es utilizada para acceder a una cuenta si no también a
procesos u objetos.

5
Existen dos formas de realizar una autentificación no autorizada: la primera
consiste en obtener credenciales validas para la autentificación, es decir, utilizar
herramientas para obtener el nombre usuario y contraseña de algún usuario y
autentificarte con sus credenciales. La segunda es aprovechar vulnerabilidades
en el proceso de autentificación para con ello saltarla, esto es, no autentificarte
si no saltar el proceso de autentificación. A esta acción se le llama en ingles
bypass (salto).

El llamado Spoofin (engaño) es una acción en donde una entidad se hace


pasar por otra, para manipular la comunicación que existe en la red.

Existen otras acciones que se encuentran asociadas con la información y datos


que se pueden encontrar en los equipos de cómputo o las redes estas acciones
son: la lectura, copiado, modificación, robo y borrado de datos.

1.2.3 Objetivos

Los objetivos se pueden clasificar en siete categorías, las tres primeras lógicas
(cuentas, procesos y datos) y las cuatro restantes físicas (componentes,
computadoras, redes e intranet).

Objetivos Lógicos:

Cuentas: Un usuario utiliza los servicios e información de una red


mediante información que contiene su nombre de cuenta, contraseña y
privilegios.
Procesos: Programas en ejecución, así como datos del programa y la
memoria y la información necesaria para ejecutar un programa.
Datos: Representa hechos, conceptos o instrucciones de una manera
apropiada para la comunicación, interpretación o proceso por los
humanos. Pueden ser datos almacenados en memoria volátil o no volátil.

Objetivos Físicos:

Componentes: Cualquier elemento que conforma una computadora o red.


Computadoras: Dispositivo que consiste en uno o más componentes
asociados, como unidades de procesamiento, periféricos, unidad
aritmética lógica, puede encontrarse sola o interconectada con otras
computadoras.
Red: Grupo de computadoras interconectadas o interrelacionadas.
Internet: Red que interconecta redes del todo el mundo.

6
1.2.4 Ataques

Algunas veces cuando sucede un evento en un red es parte de varios pasos


para lograr un resultado no autorizado en la red. Este evento es considerado
parte de un ataque, un ataque se conforma de distintos elementos. Un ataque
sucede cuando un atacante hace uso de una herramienta para explotar una o
varias vulnerabilidades en la red atacando a un objetivo y así tratar lograr un
resultado no autorizado, el ataque puede o no tener éxito. En la figura 1.2 se
presenta una matriz de posibles ataques basados en la experiencia.

Figura 1.2 Ataques basados en la experiencia

En las dos primeras etapas del ataque, la herramienta y la vulnerabilidad son


usadas para generar un evento en la red, el final lógico de tener éxito el ataque
es el resultado no autorizado.

La diferencia entre resultado autorizado y uno no autorizado es:

Autorizado: Es aprobado por el administrador de la red.


No Autorizado: No es aprobado por el administrador de la red.

7
1.2.5 Herramientas

Una herramienta desde el punto de vista del atacante, es un medio para


explotar una vulnerabilidad en la red.

Las herramientas las se pueden clasificar en:

Ataque físico: Dañar o robar físicamente computadoras o componentes


de la red.
Intercambio de información: Obtener información de otros atacantes o
de las personas que serán atacadas, a esto se le llama ingeniería social.
Comandos del usuario: Explotar una vulnerabilidad ingresando
comandos a un proceso, utilizando de manera directa la interfaz del
usuario.
Programa: Explotar una vulnerabilidad ingresando comandos en un
proceso a través de la ejecución de un archivo de comandos (script) o de
un programa.
Agente Autónomo: Explotar una vulnerabilidad utilizando un programa o
fragmento de programa, que opera de manera independiente del usuario.
Kit de herramientas: Paquete de software que contiene programas, o
agentes autónomos para explotar vulnerabilidades.
Herramienta distribuida: Herramienta que puede ser ubicada en varios
equipos para coordinarlos de manera anónima y preparar un ataque de
manera simultánea.
Llave de datos: Permite monitorear la radiación electromagnética que
emana de una computadora o red, utilizando un dispositivo externo.

1.2.6 Vulnerabilidad

Una vulnerabilidad es una debilidad en el sistema que permite una acción no


autorizada. Esta definición permite categorizar a las vulnerabilidades en tres
tipos:

Vulnerabilidad en el diseño: Viene desde el diseño o especificaciones


del hardware o software, por lo cual al implementarlo de manera correcta
el diseño como resultado se obtiene una vulnerabilidad.
Vulnerabilidad de implementación: Es el resultado de un error durante
la implementación de un diseño correcto.
Vulnerabilidad de configuración: Es el resultado de un error en la
configuración del sistema.

8
1.2.7 Resultado No Autorizado

Un evento no autorizado es una consecuencia (no aprobada por el


administrador) de un evento, si un ataque tiene éxito el resultado no autorizado
puede ser:

Acceso incrementado: Un aumento no autorizado de los privilegios de un


usuario en la red.
Exposición de información: Diseminación de la información a cualquiera
que no esté autorizado a acceder a esa información.
Corrupción de la información: Alteración no autorizada de los datos.
Negación de servicio: Degradación o bloqueo intencional de los recursos
de la red.
Robo de servicios: Uso no autorizado de los recursos de la red.

1.2.8 Incidentes

Un incidente en la red es un grupo de ataques que puede ser distinguido de


otros ataques por su carácter propio de los atacantes, ataques, objetivos, sitios
y tiempo.

Un incidente está formado de tres partes principales, los atacantes, los ataques
y los objetivos, como se muestra en la figura 1.3.

Figura 1.3 Diagrama general de los incidentes de seguridad

9
1.2.9 Los Atacantes Y Sus Propositos

Hay personas que atacan redes y equipos de cómputo y lo hacen de diversas


formas y por diversas razones, pero se puede tener una categoría de atacantes
así como del objeto de su ataque.

Atacantes: Individuo o grupo de individuos que intenta uno o más ataques con
un propósito determinado. De acuerdo al propósito que persiguen los atacantes
se pueden clasificar en 6 categorías.

Hackers: Atacan redes y computadoras por reto, status o la emoción de


obtener el acceso.
Espías: Buscan información para obtener una ganancia política.
Terroristas: Buscan que a través de sus ataques se genere miedo para
obtener una ganancia política.
Ladrón corporativo: Empleados que atacan a la competencia para
obtener ganancia financiera.
Criminales profesionales: Buscan obtener ganancia financiera personal.
Vándalos: Buscan simplemente causar daño.
Fisgones: Atacan equipos y redes por la emoción de obtener información
sensible.

Como se puede ver la taxonomía de los incidentes permite tener detalle del ataque.
Las clasificaciones anteriores no son específicas y un ataque puede caer en más de
una clasificación.

La taxonomía del incidente no solo se centra en el ataque si no que vas mucho más
atrás para poder clasificarlo iniciando por el atacante, ¿quién es?, y finalizando por
¿Cuál es su objetivo? Para clasificar el ataque con la taxonomía del incidente se
debe de conocer quién es el atacante, qué herramienta utilizo, cual es la
vulnerabilidad que exploto y que acción realizo, cual fue el blanco de su ataque, que
resultado pretendía obtener u obtuvo y con qué objetivo.

Es por ello que para clasificar un ataque se recomienda utiliza la taxonomía del
incidente, la desventaja es que requiere mucho mas recolección de información, no
solo basta saber que ocurrió un ataque y cuál fue el blanco.

10
CAPÍTULO II. INFORMÁTICA FORENSE

La informática forense está adquiriendo una gran importancia dentro del área de la
información electrónica, esto debido al aumento del valor de la información y/o al uso
que se le da a ésta, al desarrollo de nuevos espacios donde es usada un ejemplo es
el Internet, y al extenso uso de computadores por parte de las compañías de
negocios tradicionales como los bancos. Es por esto que cuando se realiza un
crimen, muchas veces la información queda almacenada en forma digital. Sin
embargo, existe un gran problema, debido a que las computadoras guardan la
información de información forma tal que no puede ser recolectada o usada como
prueba utilizando medios comunes, se deben utilizar mecanismos diferentes a los
tradicionales. Es de aquí que surge el estudio de la informática forense como una
ciencia relativamente nueva la cual aplicando procedimientos estrictos y rigurosos
puede ayudar a resolver grandes crímenes apoyándose en el método científico,
aplicado a la recolección, análisis y validación de todo tipo de pruebas digitales.

La proliferación de redes y sistemas informáticos ha llevado a la sociedad a vivir en


un mundo en el cual se trabaja y se vive globalmente conectado, se pueden
mantener conversaciones, intercambiar correo o realizar transacciones monetarias
con personas que se encuentran en cualquier parte del mundo de forma rápida y
eficiente.

Sin embargo, la facilidad de acceso a Internet y el desarrollo del mercado que está
relacionado con los dispositivos que permiten acceder a las nuevas comunicaciones
han cambiado no solo la forma en la que se pasa el tiempo libre y la forma en la que
se llevan a cabo los negocios sino también la forma en la que los delincuentes
comenten sus crímenes.

La utilización de computadoras y redes para preparar ataques violentos, los delitos


relacionados con la posesión o distribución de pornografía infantil, la falsificación y
fraude de datos bancarios muestran un panorama complejo, en el cual los
profesionales de las tecnologías de información y los profesionales de la defensa de
la ley deben cooperar y trabajar juntos en la detección y procesamiento de las
personas que utilizan las nuevas tecnologías para dañar individuos, organizaciones,
empresas o sociedad en general.

Estas computadoras y redes suelen ser las herramientas para cometer un crimen,
ser las víctimas del crimen o ser utilizadas para propósitos incidentales relacionados
con el crimen. El Análisis Forense comprende el proceso de extracción,

11
conservación, identificación, documentación, interpretación y presentación de las
evidencias digitales de forma que sean legalmente aceptadas en cualquier proceso
legal, proporcionando las técnicas y principios que facilitan la investigación del delito.

Según el FBI, la informática (o computación) forense es la ciencia de adquirir,


preservar, obtener y presentar datos que han sido procesados electrónicamente y
guardados en un medio computacional. [6]

Disciplina de las ciencias forenses, que considerando las tareas propias asociadas
con la evidencia, procura descubrir e interpretar la información en los medios
informáticos para establecer los hechos y formular las hipótesis relacionadas con el
caso. [7]

La informática forense consiste en un proceso de investigación de los sistemas de


información para detectar toda evidencia que pueda ser presentada como medio de
prueba fehaciente para la resolución de un litigo dentro de un procedimiento judicial.
Su implementación debe llevarse a cabo considerando lo dispuesto por la normativa
legal aplicable, a efectos de no vulnerar los derechos de protección de datos y de
intimidad de terceros. [8]

Del análisis anterior y tratando de encontrar una definición clara para el lector la
informática forense se define como: Es el proceso de investigación que consiste en
una identificación, preservación, análisis y presentación de evidencias digitales en
una forma que sea legalmente aceptable en cualquier proceso judicial o
administrativo.

2.1 Objetivos de la Forensia

El objetivo de una investigación forense tras un ataque son en general las siguientes:

Reconocimiento de los métodos o los puntos débiles que posibilitaron la


agresión
Determinación de los daños ocasionados
Identificación del autor
Aseguramiento de las evidencias

De la formulación de estos objetivos se derivan las siguientes cuestiones:

¿Cómo puede verificarse el ataque?


¿Cómo debe asegurarse el sistema comprometido y su entorno?
¿Cuales métodos deben emplearse para la captura de evidencias?
¿En qué secuencia deben preservarse las evidencias?
¿Dónde deben buscarse puntos de referencia y como pueden ser encontrados?

12
¿Cómo puede analizarse lo desconocido?

2.2 Tipos de Forensia Informática

Cuando alguien habla de forensia informática generalmente piensa en forensia en


host, su pensamiento se centra en recuperación de datos de discos duros,
reconstrucción de dispositivos dañados, obtener información de discos borrados y
formateados. Pocos saben que existe también la forensia en la red, que se apoya en
el registro de eventos ocurridos en la red, para su análisis y establecer evidencias de
donde surgió el ataque, de donde viene cierta información y hacia dónde va. En este
documento se enfocará hacia la forensia en red, como obtener esos datos que dado
un ataque, posteriormente servirán como evidencia para llegar al origen del mismo.

2.2.1 Forensia Basada en Host

La forensia en host es la recolección de elementos que se encuentran en un


equipo de cómputo y que puedan ser usados como evidencia de algún evento
que se presume se realizo en dicho equipo. La forensia en host puede usarse
tanto para determinar si dicho equipos fue víctima de algún ataque, o por el
contrario si se realizaron actividades ilícitas desde ahí.

Para aplicar forensia en host principalmente se analizan los medios de


almacenamiento, en los cuales se puede encontrar las evidencias que se
buscan, se debe analizar los procesos que se han ejecutado desde ese equipo,
memoria cache, información de medios extraíbles.

Generalmente un usuario sin conocimientos de computo podría pensar que al


eliminar los archivos del equipo ya no existe evidencia que lo incrimine, pero no
es así, precisamente la forensia en el host busca las huellas que han quedado
de dichos archivos hasta obtener una evidencia solida de lo que ahí paso.

La forensia en host va de la mano con la forensia en red, sin embargo el host


pudo nunca haber estado conectado a una red y aún así se puede obtener
evidencia de hechos ilícitos cometidos en ese equipo.

Otro aspecto importante de la forensia en host es que si el dispositivo del cual


se pretende obtener evidencia se encuentra dañado tanto físicamente como
lógicamente, la forensia puede reconstruirlo y así obtener la información digital
integra del dispositivo.

13
2.2.2 Forensia Basada en Red

La forensia en la red es la captura, almacenamiento y análisis de eventos en la


red para poder encontrar el origen de ataques de seguridad u otros incidentes
en la red. La forensia en redes es más compleja que la forensia en host, debido
a la gran cantidad de elementos que involucra una red, ya que es necesario
entender y comprender el funcionamiento de cada uno de los elementos, cómo
funcionan los protocolos, como se encuentran configurados los equipos y la
infraestructura de la red. A diferencia de la forensia en host, la forensia en red
implica tener la capacidad de relacionar eventos de dispositivos particulares. Se
contemplan dos tipos de forensia en la red:

El primero de ellos se basa en que todos los paquetes pasan a través de un


punto en el cual se captura y registra todo el tráfico para posteriormente ser
analizado. Lo que requiere tener suficiente espacio de almacenamiento para
registrar todo el tráfico. El segundo está basando en detener el paquete,
analizarlo y si es necesario registrarlo. Requiere menos espacio de
almacenamiento pero más capacidad de procesamiento para atender a todo el
tráfico de entrada.

Para poder aplicar forensia en la red es necesario conocer la arquitectura de la


misma y es muy importante es conocer exactamente cuál es el tráfico que se
desea registrar, para ello es necesario hacer un análisis y conocer en donde se
encuentra el tráfico de interés; para así, en base a esta premisa poder registrar
dicho tráfico.

Para poder hacer forensia en la red de una manera efectiva es necesario tener
un registro completo del tráfico en la red, entre mas trafico se tenga registrado
el análisis forense será más efectivo.

2.3 Análisis Forense

El Análisis Forense comprende el proceso de extracción, conservación, identificación,


documentación, interpretación y presentación de las evidencias digitales de forma
que sean legalmente aceptadas en cualquier proceso legal. Proporciona las técnicas
y principios que facilitan la investigación del delito y su metodología básica consiste
en:

1. Adquirir las evidencias sin alterar ni dañar el original. La forma ideal de


examinar un sistema consiste en detenerlo y examinar una copia de los datos
originales, es importante tener en cuenta que no se puede examinar un sistema
presuntamente comprometido utilizando las herramientas que se encuentran en
dicho sistema pues estas pueden estar afectadas. La cadena de custodia

14
documenta el proceso completo de las evidencias durante la vida del caso,
quién la recogió y donde, quien y como la almacenó, quién la procesó… etc.
Cada evidencia deberá ser identificada y etiquetada a ser posible en presencia
de testigos, con el número del caso, una breve descripción, la firma y la fecha
en que fue recogida.

2. Comprobar (Autenticar) que las evidencias recogidas y que van a ser la base de
la investigación son idénticas a las abandonadas por el delincuente en la
escena del crimen. Las técnicas y herramientas de control de integridad que
mediante la utilización de una función hash generan una huella electrónica
digital de un fichero o un disco completo constituyen una ayuda básica.

3. Analizar los datos sin modificarlos. En este punto, es crucial proteger las
evidencias físicas originales trabajando con copias idénticas de forma que en
caso de error se pueda recuperar la imagen original y continuar con el análisis
de forma correcta. Se recomienda la realización de dos copias de los discos
originales. Estas copias deben ser clones realizados bit a bit del dispositivo
original, los backups normales no copian ficheros que han sido borrados ni
determinadas partes de los discos que pueden contener pistas importantes para
el desarrollo de la investigación.

2.4 Evidencia Digital

A diferencia de la documentación en papel, la evidencia digital es frágil y una copia


de un documento almacenado en un archivo es idéntica al original. Otro aspecto
único de la evidencia digital es el potencial de realizar copias no autorizadas de
archivos, sin dejar rastro de que se realizó una copia.

Debe tenerse en cuenta que los datos digitales adquiridos de copias no se deben
alterar de los originales, porque esto invalidaría la evidencia; por esto los
investigadores deben revisar con frecuencia que sus copias sean exactas a las del
dispositivo del sospechoso, para esto se utilizan varias tecnologías, como por
ejemplo checksums o hash MD5 solo por citar algunas. Las características propias
de la evidencia digital son las siguientes:

La evidencia de Digital puede ser duplicada de forma exacta y se puede sacar una
copia para ser examinada como si fuera la original. Esto se hace comúnmente para
no manejar los originales y evitar el riesgo de dañarlos.

Actualmente, con las herramientas existentes, es muy fácil comparar la evidencia


digital con su original, y determinar si la evidencia digital ha sido alterada.

15
La evidencia de Digital es muy difícil de eliminar. Aún cuando un registro es borrado
del disco duro de la computadora, y éste ha sido formateado, es posible recuperarlo.

2.4.1 Clasificación de la Evidencia Digital

La evidencia digital se puede clasificar en tres tipos principales:

Registros generados por computador: Estos registros son aquellos, que


como dice su nombre, son generados como efecto de la programación de un
computador. Los registros generados por las computadoras son inalterables
por una persona. Estos registros son llamados registros de eventos de
seguridad (logs) y sirven como prueba tras demostrar el correcto y adecuado
funcionamiento del sistema o computador que generó el registro.

Registros no generados sino simplemente almacenados por o en


computadoras: Estos registros son aquellos generados por una persona, y
que son almacenados en la computadora, por ejemplo, un documento
realizado con un procesador de palabras. En estos registros es importante
lograr demostrar la identidad del generador, y probar hechos o afirmaciones
contenidas en la evidencia misma. Para lo anterior se debe demostrar
sucesos que muestren que las afirmaciones humanas contenidas en la
evidencia son reales.

Registros híbridos: Que incluyen tanto registros generados por la


computadora, como almacenados en los mismos: Los registros híbridos son
aquellos que combinan afirmaciones humanas y logs. Para que estos
registros sirvan como prueba deben cumplir los dos requisitos anteriores.

2.4.2 Criterios de Admisibilidad

En legislaciones modernas existen cuatro criterios que se deben tener en


cuenta para analizar al momento de decidir sobre la admisibilidad de la
evidencia: la autenticidad, la confiabilidad, la completitud o suficiencia, y el
apego y respeto por las leyes y reglas del poder judicial.

Autenticidad: Una evidencia digital será autentica siempre y cuando se


cumplan dos elementos:

El primero, demostrar que dicha evidencia ha sido generada y


registrada en el lugar de los hechos
La segunda, la evidencia digital debe mostrar que los medios originales
no han sido modificados, es decir, que los registros corresponden
efectivamente a la realidad y que son un fiel reflejo de la misma.

16
A diferencia de los medios no digitales, en los digitales se presenta gran
volatilidad y alta capacidad de manipulación. Por esta razón es importante
aclarar que es indispensable verificar la autenticidad de las pruebas
presentadas en medios digitales contrarios a los no digitales.

Para asegurar el cumplimiento de la autenticidad se requiere que una


arquitectura exhiba mecanismos que certifiquen la integridad de los archivos
y el control de cambios de los mismos.

Confiabilidad: Se dice que los registros de eventos de seguridad son


confiables si provienen de fuentes que son “creíbles y verificables”. Para
probar esto, se debe contar con una arquitectura de computación en correcto
funcionamiento, la cual demuestre que los logs que genera tiene una forma
confiable de ser identificados, recolectados, almacenados y verificados.

Una prueba digital es confiable si el “sistema que lo produjo no ha sido


violado y estaba en correcto funcionamiento al momento de recibir,
almacenar o generar la prueba”. La arquitectura de computación del sistema
logrará tener un funcionamiento correcto siempre que tenga algún
mecanismo de sincronización del registro de las acciones de los usuarios del
sistema y que a posea con un registro centralizado e íntegro de los mismos
registros.

Suficiencia o completitud de las pruebas: Para que una prueba esté


considerada dentro del criterio de la suficiencia debe estar completa. Para
asegurar esto es necesario “contar con mecanismos que proporcionen
integridad, sincronización y centralización” para lograr tener una vista
completa de la situación. Para lograr lo anterior es necesario hacer una
verdadera correlación de eventos, la cual puede ser manual o sistematizada.

Apogeo y respeto por las leyes y reglas del poder judicial: Este criterio
se refiere a que la evidencia digital debe cumplir con los códigos de
procedimientos y disposiciones legales del ordenamiento del país.

2.5 Procedimiento Forense Computacional

El procedimiento forense computacional debe de cumplir con los siguientes puntos:

1. Esterilidad de los medios de informáticos de trabajo. Los medios informáticos


utilizados por los profesionales en esta área, deben estar certificados de tal
manera, que éstos no hayan sido expuestos a variaciones magnéticas, ópticas
(láser) o similares, para evitar que las copias de la evidencia que se ubiquen
en ellos puedan estar contaminadas.

17
2. La esterilidad de los medios es una condición fundamental para el inicio de
cualquier procedimiento forense en informática.

3. Verificación de las copias en medios informáticos. Las copias efectuadas en


los medios previamente esterilizados, deben ser idénticas al original del cual
fueron tomadas. La verificación de éstas debe estar asistida por métodos y
procedimientos matemáticos que establezcan la completitud de la información
traspasada a la copia. Para esto, se sugiere utilizar algoritmos y técnicas de
control basadas en firma digitales que puedan comprobar que la información
inicialmente tomada corresponde a la que se ubica en el medio de copia.
Adicionalmente, es preciso que el software u aplicación soporte de esta
operación haya sido previamente probado y analizado por la comunidad
científica, para que conociendo su tasa de efectividad, sea validado en un
procedimiento ante una diligencia legal.

4. Documentación de los procedimientos, herramientas y resultados sobre los


medios informáticos analizados: el investigador debe ser el custodio de su
propio proceso, por tanto cada uno de los pasos realizados, las herramientas
utilizadas (sus versiones, licencias y limitaciones), los resultados obtenidos del
análisis de los datos, deben estar claramente documentados, de tal manera,
que cualquier persona externa pueda validar y revisar los mismos. Ante una
confrontación sobre la idoneidad del proceso, el tener documentado y validado
cada uno de sus procesos ofrece una importante tranquilidad al investigador,
pues siendo rigurosos en la aplicación del método científico es posible que un
tercero reproduzca sus resultados utilizando la misma evidencia.

5. Mantenimiento de la cadena de custodia de las evidencias digitales. Este


punto es complemento del anterior. La custodia de todos los elementos
allegados al caso y en poder del investigador, debe responder a una diligencia
y formalidad especiales para documentar cada uno de los eventos que se han
realizado con la evidencia en su poder. Quién la entregó, cuándo, en qué
estado, cómo se ha transportado, quién ha tenido acceso a ella, cómo se ha
efectuado su custodia, entre otras, son las preguntas que deben estar
claramente resueltas para poder dar cuenta de la adecuada administración de
las pruebas a su cargo.

6. Informe y presentación de resultados de los análisis de los medios


informáticos. Este elemento es tan importante como los anteriores, pues una
inadecuada presentación de los resultados puede llevar a falsas expectativas
o interpretación de los hechos que ponga en entredicho la idoneidad del
18
investigador. Por tanto, la claridad, el uso de un lenguaje amable y sin
tecnicismos, una redacción impecable sin juicios de valor y una ilustración
pedagógica de los hechos y los resultados, son elementos críticos a la hora de
defender un informe de las investigaciones.

7. Generalmente existen dos tipos de informes, los técnicos con los detalles de la
inspección realizada y el ejecutivo para la gerencia y sus dependencias.

8. Administración del caso realizado. Los investigadores forenses en informática


deben prepararse para declarar ante un jurado o juicio, por tanto, es probable
que en el curso de la investigación o del caso, lo puedan llamar a declarar en
ese instante o mucho tiempo después. Por tanto, el mantener un sistema
automatizado de documentación de expedientes de los casos, con una
adecuada cuota de seguridad y control, es labor necesaria y suficiente para
salvaguardar los resultados de las investigaciones y el debido cuidado,
diligencia y previsibilidad del profesional que ha participado en el caso.

9. Auditoria de los procedimientos realizados en la investigación. Finalmente y no


menos importante, es recomendable que el profesional investigador mantenga
un ejercicio de autoevaluación de sus procedimientos, para contar con la
evidencia de una buena práctica de investigaciones forenses, de tal manera
que el ciclo de calidad: PHVA - Planear, Hacer, Verificar y Actuar, sea una
constante que permita incrementar la actual confiabilidad de sus
procedimientos y cuestionar sus prácticas y técnicas actuales para el
mejoramiento de su ejercicio profesional y la práctica de la disciplina.

2.6 Documentos de Informática Forense.

La tendencia es alinearse a las tendencias que proponen algunos documentos para


construir una estrategia de seguridad exitosa. Las exigencias cada día son mayores
para los responsables de la seguridad informática de las compañías. Y es que hoy,
ya no basta con mantener una estrategia reactiva de protección: los tiempos
demandan proactividad, alineación con el negocio.

Cumplir con todo esto suena difícil; sin embargo, los encargados de seguridad tienen
a su disposición para enfrentar dichas demandas las mejores prácticas que se
sugieren en el desarrollo de la informática forense.

Cuáles de esas mejores prácticas implementar dependerá de las necesidades de


cada organización, a continuación se hace mención de las mejores prácticas
recomendadas actualmente para un manejo más integral, estratégico y proactivo de
la seguridad.

19
2.6.1 RFC 3227

El “RFC 3227: Guía Para Recolectar y Archivar Evidencia” (Guidelines for


Evidence Collection and Archiving), escrito en febrero de 2002 por Dominique
Brezinski y Tom Killalea, ingenieros del Network Working Group. Es un
documento que provee una guía de alto nivel para recolectar y archivar datos
relacionados con intrusiones. Muestra las mejores prácticas para determinar la
volatilidad de los datos, decidir que recolectar, desarrollar la recolección y
determinar cómo almacenar y documentar los datos. También explica algunos
conceptos relacionados a la parte legal.

2.6.2 Guía de la IOCE

La IOCE, publico “Guía para las mejores prácticas en el examen forense de


tecnología digital” (Guidelines for the best practices in the forensic examination
of digital technology). El documento provee una serie de estándares, principios
de calidad y aproximaciones para la detección prevención, recuperación,
examinación y uso de la evidencia digital para fines forenses. Cubre los
sistemas, procedimientos, personal, equipo y requerimientos de comodidad que
se necesitan para todo el proceso forense de evidencia digital, desde examinar
la escena del crimen hasta la presentación en la corte.

2.6.3 Investigación de la Escena del Crimen Electrónico

El Departamento de Justicia de los Estados Unidos de América (DoJ EEUU),


publico “Investigación En La Escena Del Crimen Electrónico” (Electronic Crime
Scene Investigation: A Guide for First Responders). Esta guía se enfoca más
que todo en identificación y recolección de evidencia.

2.6.4 Exámen Forense de Evidencia Digital

Otra guía del DoJ EEUU, es “Examen Forense de Evidencia Digital” (Forensic
Examination of Digital Evidence: A Guide for Law Enforcement). Esta guía está
pensada para ser usada en el momento de examinar la evidencia digital.

2.6.5 Computación Forense – Parte 2: Mejores Prácticas

El ISFS, Information Security and Forensic Society (Sociedad de Seguridad


Informática y Forense) creada en Hong Kong, publico “Computación Forense -
Parte 2: Mejores Practicas” (Computer Forensics – Part 2: Best Practices). Esta
guía cubre los procedimientos y otros requerimientos necesarios involucrados
en el proceso forense de evidencia digital, desde el examen de la escena del
crimen hasta la presentación de los reportes en la corte.
20
2.6.6 Guía de Buenas Prácticas para Evidencia Basada en Computadoras

La ACPO, Association of Chief Police Officers (Asociación de Jefes de Policía),


del Reino Unido mediante su departamento de crimen por computador, publico
“Guía de Buenas Prácticas para Evidencia basada en Computadores” (Good
Practice Guide For Computer Based Evidence) .

2.6.7 Guía Para el Manejo de Evidencia en IT

Standards Australia (Estándares de Australia) publico “Guía Para El Manejo de


Evidencia En IT” (HB171:2003 Handbook Guidelines for themanagement of IT
evidence) [HBIT03]. Esta guía no está disponible para su libre distribución, por
esto para su investigación se consultaron los artículos “Buenas Prácticas En La
Administración De La Evidencia Digital” [BueAdm06] y “New Guidelines to
Combat ECrime”.

La figura número 2.1 muestra el comparativo entre las mejores prácticas


aplicadas a la metodología de análisis forense.

21
Figura 2.1 Cuadro comparativo de documentos de Inforática Forense

Figura 2.1 Cuadro comparativo de documentos de Informática Forense

22
Figura 2.1 Cuadro comparativo de documentos de Informática Forense

23
La metodología de análisis forense varía ligeramente si se aplicara forensia en host o
en red, ya que el análisis en red requiere de mayor conocimiento de los protocolos y
un esquema de monitoreo que filtre gran parte del tráfico; de esta parte se desprende
que la mayor cantidad de evidencia útil para una investigación en red dependerá de
la robustez del esquema de monitoreo que se adopte y de la habilidad, conocimiento
y experiencia del analista, existen dos enfoques dentro de la forensia uno de los
cuales se enfoca a encontrar al atacante y el otro se enfoca a los hechos y
circunstancias que dieron lugar al ataque, este último parece ser el más acertado
cuando se trabaja con evidencia digital y sobretodo en un ambiente tan complejo
como lo es una red, dada la gran cantidad de posibles atacantes que existen .

En lo referente a las recomendaciones internacionales que se tratan en el capítulo se


puede decir que la guía de primeras respuestas publicada por el departamento de
defensa de los Estados Unidos cubre una gran cantidad de aspectos, ya que tipifica
el tipo de análisis en base a ambientes en los cuales propone una descripción, usos
principales de los elementos que lo componen y la evidencia potencial que generan
estos, otra parte significativa es que hace mención a la evidencia convencional, es
decir no solo se basa en el sistema electrónico objeto del ataque o causante del
mismo, sino también en meros aspectos físicos como lo son las huellas dactilares
latentes en la escena, haciendo hincapié en que estas se deben recolectar al final de
la recolección electrónica dado que los elementos químicos utilizados para obtención
de evidencia convencional pueden dañar los elementos electromagnéticos del
sistema.

En general todas las recomendaciones aquí presentadas hacen énfasis en que la


investigación forense debe realizarse con apego a las leyes estatales y federales que
aplican en cada país y menciona la responsabilidad civil que genera dicha
investigación para el analista forense.

La documentación de la escena es otro aspecto importante del que se habla,


reportando detalladamente los estados de los componentes electrónicos, su
ubicación y conexiones, de igual manera la cadena de custodia debe asegurar que
ninguna información ha sido agregada o alterada, que las copias con las que se
trabaja están completas y todos los dispositivos con evidencia potencial han sido
asegurados.

Las metodologías propuestas pueden variar ya que todas las escenas del crimen son
únicas pero siempre aplicará el mismo procedimiento forense.

24
CAPÍTULO III. PROTOCOLOS DE RED Y SU
MONITOREO

Un protocolo es un conjunto de reglas (semánticas, sintácticas y de temporización)


que gobiernan la comunicación entre entidades de una misma capa. Es decir, en el
protocolo de la capa N, una entidad intercambia información con su homóloga en la
máquina destino, de cara a proporcionar los servicios asignados a esa capa. Para
ello, hará uso de los servicios que proporciona la capa anterior.

Un protocolo se define como el conjunto de normas que regulan la comunicación


(establecimiento, mantenimiento y finalización) entre los distintos componentes de
una red informática. Existen dos tipos de protocolos: protocolos de bajo nivel y
protocolos de red.

3.1 Tipos de Protocolos

Los pasos del protocolo se tienen que llevar a cabo en un orden apropiado y que sea
el mismo en cada una de los equipos de la red. En el equipo origen, estos pasos se
tienen que llevar a cabo de arriba hacia abajo. En el equipo de destino, estos pasos
se tienen que llevar a cabo de abajo hacia arriba.

El equipo Origen

Los protocolos en el equipo origen:

1. Se dividen en secciones más pequeñas, denominadas paquetes, que puede


manipular el protocolo.
2. Se añade a los paquetes información sobre la dirección, de forma que el
equipo de destino pueda determinar si los datos le pertenecen.
3. Prepara los datos para la transmisión a través de la NIC y enviarlos a través
del cable de la red.

25
El equipo de Destino

Los protocolos en el equipo de destino constan de la misma serie de pasos, pero


en sentido inverso.

1. Toma los paquetes de datos del cable.


2. Introduce los paquetes de datos en el equipo a través de la NIC.
3. Extrae de los paquetes de datos toda la información transmitida eliminando la
información añadida por el equipo origen.
4. Copia los datos de los paquetes en un búfer para reorganizarlos.
5. Pasa los datos reorganizados a la aplicación en una forma utilizable.
6. Los equipos origen y destino necesitan realizar cada paso de la misma forma
para que los datos tengan la misma estructura al recibirse que cuando se
enviaron.
7. Por ejemplo, dos protocolos diferentes podrían dividir datos en paquetes y
añadirles cierta información sobre secuenciación, temporización y
comprobación de errores, pero cada uno de forma diferente. Por tanto, un
equipo que utilice uno de estos protocolos no se podrá comunicar
correctamente con otro equipo que esté utilizando el otro protocolo.

Protocolos Encaminables

Hasta mediados de los ochenta, la mayoría de las redes de área local (LAN)
estaban aisladas. Una LAN servía a un departamento o a una compañía y rara vez
se conectaba a entornos más grandes. Sin embargo, a medida que maduraba la
tecnología LAN, y la comunicación de los datos necesitaba la expansión de los
negocios, las LAN evolucionaron, haciéndose componentes de redes de
comunicaciones más grandes en las que las LAN podían hablar entre sí.

Los datos se envían de una LAN a otra a lo largo de varios caminos disponibles,
es decir, se encaminan. A los protocolos que permiten la comunicación LAN a LAN
se les conoce como protocolos encaminables. Debido a que los protocolos
encaminables se pueden utilizar para unir varias LAN y crear entornos de red de
área extensa, han tomado gran importancia.

Protocolos en una Arquitectura Multinivel

En una red, tienen que trabajar juntos varios protocolos. Al trabajar juntos,
aseguran que los datos se preparan correctamente, se transfieran al destino
correspondiente y se reciban de forma apropiada.

El trabajo de los distintos protocolos tiene que estar coordinado de forma que no
se produzcan conflictos o se realicen tareas incompletas. Los resultados de esta
coordinación se conocen como trabajo en niveles.

26
Jerarquías de Protocolos

Una jerarquía de protocolos es una combinación de protocolos. Cada nivel de la


jerarquía especifica un protocolo diferente para la gestión de una función o de un
subsistema del proceso de comunicación. Cada nivel tiene su propio conjunto de
reglas. Los protocolos definen las reglas para cada nivel en el modelo OSI:

Figura 3.1 Representación del modelo OSI

Los niveles inferiores en el modelo OSI especifican cómo pueden conectar los
fabricantes sus productos a los productos de otros fabricantes, por ejemplo,
utilizando NIC de varios fabricantes en la misma LAN. Cuando utilicen los mismos
protocolos, pueden enviar y recibir datos entre sí. Los niveles superiores
especifican las reglas para dirigir las sesiones de comunicación (el tiempo en el
que dos equipos mantienen una conexión) y la interpretación de aplicaciones. A
medida que aumenta el nivel de la jerarquía, aumenta la sofisticación de las tareas
asociadas a los protocolos.

El proceso de Ligadura

El proceso de ligadura (binding process), el proceso con el que se conectan los


protocolos entre sí y con la NIC, permite una gran flexibilidad a la hora de
configurar una red. Se pueden mezclar y combinar los protocolos y las NIC según
27
las necesidades. Por ejemplo, se pueden ligar dos jerarquías de protocolos a una
NIC, como Intercambio de paquetes entre redes e Intercambio de paquetes en
secuencia (IPX/SPX). Si hay más de una NIC en el equipo, cada jerarquía de
protocolos puede estar en una NIC o en ambas.

El orden de ligadura determina la secuencia en la que el sistema operativo ejecuta


el protocolo. Cuando se ligan varios protocolos a una NIC, el orden de ligadura es
la secuencia en que se utilizarán los protocolos para intentar una comunicación
correcta. Normalmente, el proceso de ligadura se inicia cuando se instala o se
inicia el sistema operativo o el protocolo. Por ejemplo, si el primer protocolo ligado
es TCP/IP, el sistema operativo de red intentará la conexión con TCP/IP antes de
utilizar otro protocolo. Si falla esta conexión, el equipo tratará de realizar una
conexión utilizando el siguiente protocolo en el orden de ligadura.

El proceso de ligadura consiste en asociar más de una jerarquía de protocolos a la


NIC. Las jerarquías de protocolos tienen que estar ligadas o asociadas con los
componentes en un orden para que los datos puedan moverse adecuadamente
por la jerarquía durante la ejecución. Por ejemplo, se puede ligar TCP/IP al nivel
de sesión del Sistema básico de entrada/salida en red (NetBIOS), así como al
controlador de la NIC. El controlador de la NIC también está ligado a la NIC.

Jerarquías Estándar

La industria informática ha diseñado varios tipos de protocolos como modelos


estándar de protocolo. Los fabricantes de hardware y software pueden desarrollar
sus productos para ajustarse a cada una de las combinaciones de estos
protocolos.

Los modelos más importantes incluyen:

La familia de protocolos ISO/OSI.


La arquitectura de sistemas en red de IBM (SNA).
Digital DECnet.
Novell NetWare.
Apple Talk de Apple.
El conjunto de protocolos de Internet, TCP/IP.
Los protocolos existen en cada nivel de estas jerarquías, realizando las
tareas especificadas por el nivel. Sin embargo, las tareas de comunicación
que tienen que realizar las redes se agrupan en un tipo de protocolo entre
tres. Cada tipo está compuesto por uno o más niveles del modelo OSI.
Antes del modelo de referencia OSI se escribieron muchos protocolos. Por
tanto, no es extraño encontrar jerarquías de protocolos que no se
correspondan directamente con el modelo OSI.

28
Protocolos de red
Los protocolos de red proporcionan lo que se denominan «servicios de
enlace». Estos protocolos gestionan información sobre direccionamiento y
encaminamiento, comprobación de errores y peticiones de retransmisión. Los
protocolos de red también definen reglas para la comunicación en un entorno
de red particular como es Ethernet o Token Ring.
IP: El protocolo de TCP/IP para el encaminamiento de paquetes.
IPX: El protocolo de Novell para el encaminamiento de paquetes.
NWLink: La implementación de Microsoft del protocolo IPX/SPX.
NetBEUI: Un protocolo de transporte que proporciona servicios de transporte
de datos para sesiones y aplicaciones NetBIOS.
DDP (Protocolo de entrega de datagramas): Un protocolo de Apple Talk para
el transporte de datos.

Protocolos de Aplicación

Los protocolos de aplicación trabajan en el nivel superior del modelo de referencia


OSI. Proporcionan interacción entre aplicaciones e intercambio de datos.

APPC (Comunicación avanzada entre programas): Protocolo SNA Trabajo en


Grupo de IBM, mayormente utilizado en equipos AS/400. APPC se define
como un protocolo de aplicación porque trabaja en el nivel de presentación
del modelo OSI. Sin embargo, también se considera un protocolo de
transporte porque APPC utiliza el protocolo LU 6.2 que trabaja en los niveles
de transporte y de sesión del modelo OSI.
FTAM (Acceso y gestión de la transferencia de archivos): Un protocolo OSI
de acceso a archivos
X.400: Un protocolo CCITT para las transmisiones internacionales de correo
electrónico.
X.500: Un protocolo CCITT para servicios de archivos y directorio entre
sistemas.
SMTP (Protocolo básico para la transferencia de correo): Un protocolo para
las transferencias de correo electrónico.
FTP (Protocolo de transferencia de archivos): Un protocolo para la
transferencia de archivos en Internet.
SNMP (Protocolo básico de gestión de red): Un protocolo para el control de
redes y componentes.
Telnet: Un protocolo para la conexión a máquinas remotas y procesar los
datos localmente.
SMBs (Bloques de mensajes del servidor) de Microsoft y clientes o
redirectores: Un protocolo cliente/servidor de respuesta a peticiones.

29
NCP (Protocolo básico de NetWare) y clientes o redirectores: Un conjunto de
protocolos de servicio.
AppleTalk y AppleShare: Conjunto de protocolos de red de Apple.
AFP (Protocolo de archivos AppleTalk): Protocolo de Apple para el acceso a
archivos remotos.
DAP (Protocolo de acceso a datos): Un protocolo de DECnet para el acceso
a archivos.
Protocolos de transporte.
Los protocolos de transporte facilitan las sesiones de comunicación entre
equipos y aseguran que los datos se pueden mover con seguridad entre
equipos.
TCP: El protocolo de TCP/IP para la entrega garantizada de datos en forma
de paquetes secuenciados.
SPX: Parte del conjunto de protocolos IPX/SPX de Novell para datos en
forma de paquetes secuenciados.
NWLink: La implementación de Microsoft del protocolo IPX/SPX.
NetBEUI (Interfaz de usuario ampliada NetBIOS): Establece sesiones de
comunicación entre equipos (NetBIOS) y proporciona los servicios de
transporte de datos subyacentes (NetBEUI).
ATP (Protocolo de transacciones Apple Talk) y NBP (Protocolo de asignación
de nombres): Protocolos de Apple de sesión de comunicación y de transporte
de datos.
Estándares de protocolo
El modelo OSI se utiliza para definir los protocolos que se tienen que utilizar
en cada nivel. Los productos de distintos fabricantes que se ajustan a este
modelo se pueden comunicar entre sí.
La ISO, el Instituto de ingenieros eléctricos y electrónicos (IEEE), ANSI
(Instituto de estandarización nacional americano), CCITT (Comité consultivo
internacional de telegrafía y telefonía), ahora llamado ITU (Unión
internacional de telecomunicaciones) y otros organismos de estandarización
han desarrollado protocolos que se correspondan con algunos de los niveles
del modelo OSI.
Los protocolos de IEEE a nivel físico son:
802.3 (Ethernet). Es una red lógica en bus que puede transmitir datos a 10
Mbps. Los datos se transmiten en la red a todos los equipos. Sólo los
equipos que tenían que recibir los datos informan de la transmisión. El
protocolo de acceso de múltiple con detección de portadora con detección de
colisiones (CSMA/CD) regula el tráfico de la red permitiendo la transmisión
sólo cuando la red esté despejada y no haya otro equipo transmitiendo.

30
802.4 (paso de testigo). Es una red en bus que utiliza un esquema de paso
de testigo. Cada equipo recibe todos los datos, pero sólo los equipos en los
que coincida la dirección responderán. Un testigo que viaja por la red
determina quién es el equipo que tiene que informar.
802.5 (Token Ring). Es un anillo lógico que transmite a 4 ó a 16 Mbps.
Aunque se le llama en anillo, está montada como una estrella ya que cada
equipo está conectado a un hub. Realmente, el anillo está dentro del hub. Un
token a través del anillo determina qué equipo puede enviar datos.

El IEEE definió estos protocolos para facilitar la comunicación en el subnivel de


Control de acceso al medio (MAC).

Un controlador MAC está situado en el subnivel de Control de acceso al medio; este


controlador de dispositivo es conocido como controlador de la NIC. Proporciona
acceso a bajo nivel a los adaptadores de red para proporcionar soporte en la
transmisión de datos y algunas funciones básicas de control del adaptador.

Un protocolo MAC determina qué equipo puede utilizar el cable de red cuando varios
equipos intenten utilizarlo simultáneamente. CSMA/CD, el protocolo 802.3, permite a
los equipos transmitir datos cuando no hay otro equipo transmitiendo. Si dos
máquinas transmiten simultáneamente se produce una colisión. El protocolo detecta
la colisión y detiene toda transmisión hasta que se libera el cable. Entonces, cada
equipo puede volver a tratar de transmitir después de esperar un período de tiempo
aleatorio.

3.2 El Protocolo TCP/IP

TCP establece un circuito de comunicaciones administrado, full-duplex y punto a


punto para ser usado por protocolos de aplicación. Cada vez que se necesita enviar
datos entre dos aplicaciones basadas en TCP, se establece un circuito virtual entre
los dos proveedores de TCP, y se realiza un intercambio de datos de aplicaciones
altamente controlado. Una vez que todos los datos han sido exitosamente enviados y
recibidos, la conexión finaliza.

TCP/IP no es un único protocolo, sino que es en realidad lo que se conoce con este
nombre es un conjunto de protocolos que cubren los distintos niveles del modelo
OSI. Los dos protocolos más importantes son el TCP (Transmission Control Protocol)
y el IP (Internet Protocol), que son los que dan nombre al conjunto. La arquitectura
del TCP/IP consta de cinco niveles o capas en las que se agrupan los protocolos, y
que se relacionan con los niveles OSI de la siguiente manera y se muestran en la
figura 3.2:

31
Aplicación: Se corresponde con los niveles OSI de aplicación, presentación y
sesión. Aquí se incluyen protocolos destinados a proporcionar servicios, tales
como correo electrónico (SMTP), transferencia de ficheros (FTP), conexión
remota (TELNET) y otros más recientes como el protocolo HTTP (Hypertext
Transfer Protocol).
Transporte: Coincide con el nivel de transporte del modelo OSI. Los
protocolos de este nivel, tales como TCP y UDP, se encargan de manejar los
datos y proporcionar la fiabilidad necesaria en el transporte de los mismos.
Internet: Es el nivel de red del modelo OSI. Incluye al protocolo IP, que se
encarga de enviar los paquetes de información a sus destinos
correspondientes. Es utilizado con esta finalidad por los protocolos del nivel de
transporte.
Físico: Análogo al nivel físico del OSI.

Figura 3.2 Arquitectura protocolo TCP/IP

3.2.1 Protocolo IP

El protocolo IP es parte de la capa de Internet del conjunto de protocolos


TCP/IP. Es uno de los protocolos de Internet más importantes ya que permite el
desarrollo y transporte de datagramas de IP (paquetes de datos), aunque sin
garantizar su "entrega". En realidad, el protocolo IP procesa datagramas de IP
de manera independiente al definir su representación, ruta y envío. El protocolo
IP determina el destinatario del mensaje mediante 3 campos:

El campo de dirección IP: Dirección del equipo.


El campo de máscara de subred: Una máscara de subred le permite al
protocolo IP establecer la parte de la dirección IP que se relaciona con la
red;

32
El campo de pasarela predeterminada: Le permite al protocolo de
Internet saber a qué equipo enviar un datagrama, si el equipo de destino
no se encuentra en la red de área local.

Datagrama

Los datos circulan en Internet en forma de datagramas (también conocidos


como paquetes). Los datagramas son datos encapsulados, es decir, datos a
los que se les agrega un encabezado que contiene información sobre su
transporte (como la dirección IP de destino) la figura 3.3 muestra la
estructura de un datagrama IP.

Figura 3.3 Datagrama IP

Los routers analizan (y eventualmente modifican) los datos contenidos en un


datagrama para que puedan transitar como se muestra en la figura 3.3.

A continuación se indican los significados de los diferentes campos:

Versión (4 bits): Es la versión del protocolo IP que se está utilizando


(actualmente se utiliza la versión 4 IPv4) para verificar la validez del
datagrama. Está codificado en 4 bits.
Longitud del encabezado o IHL por Internet Header Length
(Longitud del encabezado de Internet) (4 bits): Es la cantidad de
palabras de 32 bits que componen el encabezado (Importante: el valor
mínimo es 5). Este campo está codificado en 4 bits.
Tipo de servicio (8 bits): Indica la forma en la que se debe procesar el
datagrama.

33
Longitud total (16 bits): Indica el tamaño total del datagrama en bytes.
El tamaño de este campo es de 2 bytes, por lo tanto el tamaño total del
datagrama no puede exceder los 65536 bytes. Si se le utiliza junto al
tamaño del encabezado, este campo permite determinar dónde se
encuentran los datos.
Identificación, indicadores y margen del fragmento: son campos
que permiten la fragmentación de datagramas. Esto se explica a
continuación.
TTL o Tiempo de vida (8 bits): Este campo especifica el número
máximo de routers por los que puede pasar un datagrama. Por lo tanto,
este campo disminuye con cada paso por un router y cuando alcanza el
valor crítico de 0, el router destruye el datagrama. Esto evita que la red
se sobrecargue de datagramas perdidos.
Protocolo (8 bits): Este campo, en notación decimal, permite saber de
qué protocolo proviene el datagrama.
o ICMP 1
o IGMP: 2
o TCP: 6
o UDP: 17
Suma de comprobación del encabezado (16 bits): Este campo
contiene un valor codificado en 16 bits que permite controlar la
integridad del encabezado para establecer si se ha modificado durante
la transmisión. La suma de comprobación es la suma de todas las
palabras de 16 bits del encabezado (se excluye el campo suma de
comprobación). Esto se realiza de tal modo que cuando se suman los
campos de encabezado (suma de comprobación inclusive), se obtenga
un número con todos los bits en 1.
Dirección IP de origen (32 bits): Este campo representa la dirección
IP del equipo remitente y permite que el destinatario responda.
Dirección IP de destino (32 bits): dirección IP del destinatario del
mensaje.

Fragmentación de Datagramas de IP

El tamaño máximo de un datagrama varía según el tipo de red y se


denomina MTU (Unidad de transmisión máxima). El datagrama se
fragmentará si es más grande que la MTU de la red.

La fragmentación del datagrama se lleva a cabo a nivel de router, es decir,


durante la transición de una red con una MTU grande a una red con una
MTU más pequeña. Si el datagrama es demasiado grande para pasar por la
red, el router lo fragmentará, es decir, lo dividirá en fragmentos más

34
pequeños que la MTU de la red, de manera tal que el tamaño del fragmento
sea un múltiplo de 8 bytes.

El router enviará estos fragmentos de manera independiente y los volverá a


encapsular (agregar un encabezado a cada fragmento) para tener en cuenta
el nuevo tamaño del fragmento. Además, el router agrega información para
que el equipo receptor pueda rearmar los fragmentos en el orden correcto.
Sin embargo, no hay nada que indique que los fragmentos llegarán en el
orden correcto, ya que se enrutan de manera independiente.

Para tener en cuenta la fragmentación, cada datagrama cuenta con diversos


campos que permiten su rearmado:

Campo Margen del fragmento (13 bits): Campo que brinda la posición
del comienzo del fragmento en el datagrama inicial. La unidad de
medida para este campo es 8 bytes (el primer fragmento tiene un valor
cero);
Campo Identificación (16 bits): Número asignado a cada fragmento
para permitir el rearmado;
Campo Longitud total (16 bits): Esto se vuelve a calcular para cada
fragmento;
Campo Indicador (3 bits): Está compuesto de tres bits

El primero no se utiliza.

El segundo (denominado DF: No fragmentar) indica si se puede fragmentar


el datagrama o no. Si el datagrama tiene este bit en uno y el router no puede
enrutarlo sin fragmentarlo, el datagrama se rechaza con un mensaje de error.

El tercero (denominado MF: Más fragmentos) indica si el datagrama es un


fragmento de datos (1). Si el indicador se encuentra en cero, esto indica que
el fragmento es el último (entonces el router ya debe contar con todos los
fragmentos anteriores) o que el datagrama no se ha fragmentado.

Enrutamiento IP

El enrutamiento IP es una parte integral de la capa de Internet del conjunto


TCP/IP. El enrutamiento consiste en asegurar el enrutamiento de un
datagrama de IP a través de la red por la ruta más corta. A esta función la
llevan a cabo los equipos denominados routers, es decir, equipos que
conectan al menos dos redes.

3.2.3 Protocolo TCP

El servicio que da TCP está orientado a conexión. Esto significa que se

35
requiere:

Establecer la conexión
Mantener la conexión
Liberar la conexión

Los servicios orientados a la conexión garantizan que los datos lleguen en la


secuencia correcta, y que la conexión es confiable.

Es necesario que TCP sea orientado a la conexión dado que IP (con el que
trabaja estrechamente) no es un protocolo confiable.

TCP otorga 5 servicios clave a las capas superiores:

Circuitos virtuales
Administración de I/O de aplicaciones
Administración de I/O de red
Control de flujo
Confiabilidad

Métodos de Control de Flujo

El sistema emisor ajusta la tasa de transmisión a la que enviará los datos al


sistema receptor. La variación de esta tasa está ligada, entre otras cosas, al
espacio en buffer del sistema receptor y a las características de manejo de
paquetes en la red. Es por eso que TCP incorpora varios mecanismos de
control de flujo, permitiéndole al sistema reaccionar fácilmente ante la
necesidad de estos cambios.

Esquema de otorgamiento de créditos.


Ventana deslizante: Cuando un emisor manda un segmento, inicia un
reloj. El destino responde con un segmento que contiene un acuse de
recibo (acknowledgment flag) con un número de acuse igual al próximo
número de secuencia que espera. Si el reloj termina antes de que
llegue el acuse, el emisor manda el segmento de nuevo.
Sistema de créditos: Además de advertirle al emisor el tamaño de la
ventana, el receptor otorga “créditos” al emisor para indicarle cuántos
segmentos puede enviarle antes de que los acuses de recibo de los
segmentos enviados anteriormente lleguen nuevamente al emisor. Esto
le permite a un endpoint enviar datos aunque los datos precedentes no
hayan sido todavía acusados (“acknowledged”), confiando que llegará
su acuse antes del tiempo límite establecido.

36
Métodos de Control de Errores

TCP usa el método de retransmisión para controlar errores, íntimamente


ligado a la ventana deslizante, en la figura 3.4 se muestra como está
constituido un segmento TCP y los elementos que lo componen se describen
a continuación:

Figura 3.4 Segmento Tcp

Checksums: Sumas de comprobación.


Números de secuencia
Acknowlegments: Acuses de recibo correcto.
Timers: Relojes.
Puerto de origen (16 bits): Identifica el puerto a través del que se
envía.
Puerto destino (16 bits): Identifica el puerto del receptor.
Número de secuencia (32 bits): Sirve para comprobar que ningún
segmento se ha perdido, y que llegan en el orden correcto. Su
significado varía dependiendo del valor de SYN.
Si el flag SYN está activo (1): Entonces este campo indica el número
inicial de secuencia (con lo cual el número de secuencia del primer byte
de datos será este número de secuencia más uno).
Si el flag SYN no está activo (0): Entonces este campo indica el
número de secuencia del primer byte de datos.
Número de acuse de recibo (ACK) (32 bits): Si el flag ACK está
puesto a activo, entonces en este campo contiene el número de
secuencia del siguiente byte que el receptor espera recibir.
Longitud de la cabecera TCP (4 bits): Especifica el tamaño de la
cabecera TCP en palabras de 32-bits. El tamaño mínimo es de 5
palabras, y el máximo es de 15 palabras (lo cual equivale a un tamaño
mínimo de 20 bytes y a un máximo de 60 bytes). En inglés el campo se
denomina “Data offset”, que literalmente sería algo así como

37
“desplazamiento hasta los datos”, ya que indica cuántos bytes hay entre
el inicio del paquete TCP y el inicio de los datos.
Reservado (4 bits): Bits reservados para uso futuro, deberían ser
puestos a cero.
Bits de control (flags) (8 bits): Son 8 flags o banderas. Cada una
indica “activa” con un 1 o “inactiva” con un 0.
CWR o “Congestion Window Reduced” (1 bit): Este flag se activa (se
pone a 1) por parte del emisor para indicar que ha recibido un paquete
TCP con el flag ECE activado. Se utiliza para el control de la congestión
en la red.
ECE o “ECN-Echo” (1 bit): Indica que el receptor puede realizar
notificaciones ECN. La activación de este flag se realiza durante la
negociación en tres pasos para el establecimiento de la conexión.
URG o “urgent” (1 bit): Si está activo significa que el campo “Urgente”
es significativo, si no, el valor de este campo es ignorado.
ACK o “acknowledge”: 1 bit, Si está activo entonces el campo con el
número de acuse de recibo es válido, si no, es ignorado.
PSH o “push” (1 bit): Activa/desactiva la función que hace que los
datos de ese segmento y los datos que hayan sido almacenados
anteriormente en el buffer del receptor deben ser transferidos a la
aplicación receptora lo antes posible.
RST o “reset” (1 bit): Si llega a 1, termina la conexión sin esperar
respuesta.
SYN o “synchronize” (1 bit): Activa/desactiva la sincronización de los
números de secuencia.
FIN (1 bit): Si se activa es porque no hay más datos a enviar por parte
del emisor, esto es, el paquete que lo lleva activo es el último de una
conexión.
Ventana (16 bits): Es el tamaño de la ventana de recepción, que
especifica el número de bytes que el receptor está actualmente
esperando recibir.
Suma de verificación (checksum) (16 bits): Es una suma de
verificación utilizada para comprobar si hay errores tanto en la cabecera
como en los datos.
Puntero urgente (16 bits): Si el flag URG está activado, entonces este
campo indica el desplazamiento respecto al número de secuencia que
indica el último byte de datos marcados como “urgentes”.
Opciones (número de bits variable): La longitud total del campo de
opciones ha de ser múltiplo de una palabra de 32 bits (si es menor, se

38
ha de rellenar al múltiplo más cercano), y el campo que indica la
longitud de la cabecera ha de estar ajustado de forma adecuada.
Datos (número de bits variable): No forma parte de la cabecera, es la
carga (payload), la parte con los datos del paquete TCP. Pueden ser
datos de cualquier protocolo de nivel superior en el nivel de aplicación;
los protocolos más comunes para los que se usan los datos de un
paquete TCP son HTTP, telnet, SSH, FTP, etcétera.

3.3 SNMP

SNMP es un conjunto de aplicaciones de gestión de red que emplea los servicios


ofrecidos por TCP/IP y que se ha convertido en un estándar. Las primeras versiones
de SNMP fueron desarrolladas en los ochentas.

SNMP funciona enviando mensajes, llamados unidades de datos de protocolo (PDU)


hacia diferentes partes de la red y cada uno de los elementos de la red guarda
información acerca de si mismos en las llamadas Bases de administración de
Información (MIB) y regresan la información a las peticiones de SNMP.

Para el protocolo SNMP la red constituye un conjunto de elementos básicos,


ubicados en los equipos de gestión de red y gestores (elementos pasivos ubicados
en los nodos-host, routers, módems, multiplexores, etc.), siendo los gestores los que
envían información a los equipos de gestión, información relacionada con los
elementos gestionados ya sea por iniciativa propia o al pedir una respuesta, ser
interrogados, apoyándose en los parámetros contenidos en sus Bases de
Administración de Información (MIB).

La Arquitectura de Administración de Red se compone de cuatro componentes


principales:

Estación de administración: Es la interface del administrador de red en el


sistema. Contiene el software de gestión, y mantiene una MIB.
Agente de administración del dispositivo administrado: Es el proceso de
los dispositivos que están siendo monitorizados. Puentes, routers, hubs, and
switches
Base de información de administración (MIB): Una base de datos relacional
(organizada por objetos (o variables) y sus atributos (o valores)) que contiene
información del estado y es actualizada por los agentes.
Protocolo de administración: El método de comunicación entre los
dispositivos administrados y los servidores. SNMP facilita la comunicación
entre la estación administradora y el agente de un dispositivo de red (o nodo

39
administrado), permitiendo que los agentes transmitan datos estadísticos
(variables) a través de la red a la estación de administración.

Uno de los principales inconvenientes es el exceso de tráfico que genera, lo que lo


puede hacer incompatible para entornos amplios de red, por el contrario de
CMIS/CMIP (Common Managment Information Service/Protocol) del modelo OSI que
ofrece un mejor rendimiento y seguridad, estando orientado a la administración de
sistemas extendidos.

La versión 2 de SNMP aporta una serie de mejoras frente a la original, que,


fundamentalmente, se manifiesta en tres áreas particulares de seguridad (las cuales
son la autentificación, la privacidad y el control de accesos), transferencia de datos y
comunicaciones de administrador a administrador.

Los cinco tipos de mensajes SNMP intercambiados entre los Agentes y los
Administradores, son:

Get Request: Una petición del Administrador al Agente para que envíe los
valores contenidos en el MIB (base de datos).
Get Next Request: Una petición del Administrador al Agente para que envíe los
valores contenidos en el MIB referente al objeto siguiente al especificado
anteriormente.
Get Response: La respuesta del Agente a la petición de información lanzada
por el Administrador.
Set Request: Una petición del Administrador al Agente para que cambie el
valor contenido en el MIB referente a un determinado objeto.
Trap: Un mensaje espontáneo enviado por el Agente al Administrador, al
detectar una condición predeterminada, como es la conexión/desconexión de
una estación o una alarma.

El protocolo de gestión SNMP facilita, pues, de una manera simple y flexible el


intercambio de información en forma estructurada y efectiva, proporcionando
significantes beneficios para la gestión de redes multivendedor, aunque necesita de
otras aplicaciones en el NMS que complementen sus funciones y que los dispositivos
tengan un software Agente funcionando en todo momento y dediquen recursos a su
ejecución y recogida de datos.

3.3.1 MIB.

A través del MIB se tiene acceso a la información para la gestión, contenida en


la memoria interna del dispositivo en cuestión. MIB es una base de datos
completa y bien definida, con una estructura en árbol, adecuada para manejar
diversos grupos de objetos (información sobre variables/valores que se pueden
adoptar), con identificadores exclusivos para cada objeto.

40
Los 8 grupos de objetos habitualmente manejados por MIB, que definen un total
de 114 objetos (recientemente, con la introducción de MIB-II se definen hasta
un total de 185 objetos), son:

Sistema: Incluye la identidad del vendedor y el tiempo desde la última


reinicialización del sistema de gestión.
Interfaces: Un único o múltiples interfaces, local o remoto, etc.
ATT (Address Translation Table): Contiene la dirección de la red y las
equivalencias con las direcciones físicas.
IP (Internet Protocol): Proporciona las tablas de rutas, y mantiene
estadísticas sobre los datagramas IP recibidos.
ICMP (Internet Communication Management Protocol): Cuenta el número
de mensajes ICMP recibidos y los errores.
TCP (Transmission Control Protocol): Facilita información acerca de las
conexiones TCP, retransmisiones, etc.
UDP (User Datagram Protocol): Cuenta el número de datagramas UDP,
enviados, recibidos y entregados.
EGP (Exterior Gateway Protocol): Recoge información sobre el número de
mensajes EGP recibidos, generados, etc.

3.3.2 RMON

RMON define las funciones de supervisión de la red y las interfaces de


comunicaciones entre la plataforma de gestión SNMP, los monitores remotos y
los Agentes de supervisión que incorporan los dispositivos inteligentes.

Alarmas: Informa de cambios en las características de la red, basado en valores


umbrales para cualquier variable MIB de interés. Permite que los usuarios
configuren una alarma para cualquier Objeto gestionado.

Estadísticas: Mantiene utilización de bajo nivel y estadísticas de error.


Historias: Analiza la tendencia, según instrucciones de los usuarios,
basándose en la información que mantiene el grupo de estadísticas.
Filtros: Incluye una memoria para paquetes entrantes y un número
cualquiera de filtros definidos por el usuario, para la captura selectiva de
información; incluye las operaciones lógicas AND, OR y NOT.
Ordenadores: Una tabla estadística basada en las direcciones MAC, que
incluye información sobre los datos transmitidos y recibidos en cada
ordenador.
Los N principales: Contiene solamente estadísticas ordenadas de los "N"
ordenadores definidos por el usuario, con lo que se evita recibir
información que no es de utilidad.

41
Matriz de tráfico: Proporciona información de errores y utilización de la red,
en forma de una matriz basada en pares de direcciones, para
correlacionar las conversaciones en los nodos más activos.
Captura de paquetes: Permite definir buffers para la captura de paquetes
que cumplen las condiciones de filtrado.
Sucesos: Registra tres tipos de sucesos basados en los umbrales
definidos por el usuario: ascendente, descendente y acoplamiento de
paquetes, pudiendo generar interrupciones para cada uno de ellos.

3.4 Esquema Típico de Monitoreo

En lo referente a la disponibilidad de la información y de forma precisa a la


disponibilidad de la red es fundamental asegurar su buen funcionamiento y eficiencia
a través de políticas, dispositivos y mecanismos de seguridad que reduzcan el riesgo
ya sea de un acceso no autorizado, una interrupción del servicio, robo o alteración de
la información, etc.

El diseñador de la red debe prever el tráfico que se manejara dentro de la misma


para considerar el ancho de banda como una métrica para el diseño, así como el
crecimiento a futuro y el impacto que esto causara al esquema de seguridad que se
adopte, dada la importancia de la red y los servicios que esta ofrece surge la
necesidad de contar con un esquema capaz de notificar de manera oportuna las
irregularidades ocurridos en la red y de mostrar su comportamiento mediante la
recolección de trafico para poder analizar comportamientos sospechosos.

El monitoreo se emplea para identificar situaciones anómalas del tráfico de paquetes


que circulan por la red que se pueden derivar por problemas de eficiencia, diseño o
seguridad de la red, ésta investigación se centra en este ultimo y el uso indebido que
se hace de los recursos de la red.

El monitoreo de una red corporativa es una función crítica de las tecnologías de


información que puede salvar dinero en el desempeño de una red, ya que
básicamente su función es la de monitorear una red interna en busca de problemas.
Puede ayudar a resolver desde velocidades de transferencias lentas, hasta inclusive
el porqué un servidor ha caído.

Los sistemas de monitoreo de red (NMS por sus siglas en inglés “Network Monitoring
Systems”), son bastante diferentes a los IDS‟s e IPS‟s. Éstos últimos detectan
intrusiones y previenen actividades con dolo de usuarios no autorizados. El
monitoreo de la red puede ser logrado usando distintos tipos de software o un híbrido
de solución que implica una combinación de hardware con software.

En teoría cualquier tipo de red puede ser monitoreada, no importa si es una red
42
inalámbrica o alámbrica, una red de área local corporativa, una red privada virtual o
inclusive una red de área extensa. Se pueden monitorear dispositivos en distintos
sistemas operativos con una variedad enorme de funciones; desde dispositivos
BlackBerry o celulares, hasta servidores, ruteadores o switches y estos sistemas
pueden ayudar a identificar actividades específicas y métricas de rendimiento.

El decidir específicamente qué es lo que se va a someter a un monitoreo es tan


importante como decidir el tipo de topología que se usa en la red. Por supuesto que
el monitoreo de la red difiere de empresa a empresa: una empresa pequeña puede
que lo haga solamente cuando se encuentre con síntomas preocupantes; mientras
que una empresa grande lo haga las veinticuatro horas al día, todos los días.

Métricas

El monitoreo de la red no es de utilidad a menos de que se trate de rastrear los


indicios adecuados. Las áreas que usualmente se examinan son el uso del ancho
de banda, así como el rendimiento tanto de las aplicaciones como de los
servidores. Monitorear el tráfico es una tarea fundamental, sobre la cual las tareas
de mantenimiento y desarrollo están basadas; y usualmente se centra en el
soporte a usuarios internos y usuarios finales.

Algunos sistemas de monitoreo de redes vienen con la pre configuración de


„descubrimiento automático‟, la cual es la habilidad de guardar dispositivos así
como van siendo añadidos, o hay algún tipo de cambio de configuración, como por
ejemplo en:

La dirección IP
Servicios
Tipos de dispositivos (switches, ruteadores, entre otros)
Direcciones físicas

Así también hay algunos puntos estratégicos que pueden ser monitoreados, y
algunos de los cuales son:

Conformidad en la aplicación y uso de políticas internas


Ahorro en costos potencial al encontrar recursos redundantes como por
ejemplo sesiones de correo perdidas
Ayudar a determinar la productividad de un empleado
Encontrar equipo sobrecargado antes de que pueda tirar una red
Identificar el retraso en la transferencia de la señal
Encontrar tráfico anormal interno que pudiera ser un indicio de una amenaza
de seguridad

Mientras que el sistema de monitoreo de red mapeará la topología de la red, por


ejemplo, les corresponde a los gerentes examinar y decidir el destino de cada
pieza de la topología. Un monitoreo comprensivo podría ayudar a solucionar

43
preguntas tales como la capacidad de los servidores, los dispositivos remotos que
están siendo usados, los sistemas operativos y las aplicaciones que están
corriendo en cada servidor ( y si son necesarias), entre otras.

3.4.1 Monitoreo Activo

Este se utiliza para medir el rendimiento de la red inyectando paquetes de


prueba a diferentes servicios o aplicaciones para medir el tiempo de respuesta.
Se debe contar con un conocimiento detallado de los protocolos y el tipo de
tráfico de la red para en un determinado momento detectar posibles ataques a
dispositivos específicos.

3.4.2 Monitoreo Pasivo

Se basa en la obtención de datos en base a la recolección y análisis del tráfico


que circula por la red. Consiste en guardar las cabeceras de los paquetes que
circulan por la red y almacenarlos en forma de texto. Cabe mencionar que las
cabeceras almacenadas logran ocupar una cantidad considerable de espacio
de almacenamiento en disco, provocando la inminente necesidad de llevar a
cabo una selección de la información. El proceso consecuente a la obtención de
datos es identificado como filtrado de los datos y se refiere a la selección de la
información que será manipulada dentro de la parte de análisis. A partir del
momento en que los datos se obtienen del monitoreo son sometidos a dos
códigos que se encargan de la selección de la información y del mapeo de las
direcciones IP, el cual se lleva a cabo mediante la asignación de un número
único para cada IP localizada dentro de los archivos, de tal manera que una IP
posea el mismo número de mapeo sin importar que esté presente en más de
una ocasión dentro del archivo.

3.4.3 Dispositivos de Interconectividad

Enlazar LANs requiere de equipos que realicen ese propósito. Estos


dispositivos están diseñados para sobrellevar los obstáculos para la
interconexión sin interrumpir el funcionamiento de las redes. A estos dispositivos
que realizan esa tarea se les llama equipos de Interconectividad.

Dispositivos de la Capa de Enlace.

Los bridges y switches de la Capa 2 son dispositivos que funcionan en la


capa de enlace de datos de la pila del protocolo. La conmutación de la Capa
2 se basa en el puenteado por hardware.

En un switch, el reenvío de tramas se controla por medio de un hardware


44
especial llamado circuitos integrados específicos de aplicaciones (ASIC). La
tecnología ASIC permite que un chip de silicio pueda ser programado para
realizar una función específica durante el proceso de fabricación del mismo,
ya que esta tecnología permite que las funciones puedan llevarse a cabo a
una velocidad mucho mayor que si el chip estuviese programado por
software.

Debido a la tecnología ASIC, los switches proporcionan escalabilidad a


velocidades de gigabits con una latencia baja.

Cuando un bridge o switch recibe una trama, utiliza la información del enlace
de datos para procesar dicha trama. En un entorno de bridges transparente,
el bridge procesa la trama determinada si ésta necesita ser copiada en otros
segmentos conectados. Un bridge transparente detecta todas las tramas que
cruzan un segmento y visualiza cada trama y el campo de dirección de
origen para determinar en qué segmento reside el puesto de origen. El bridge
transparente guarda esta información en memoria en lo que se conoce como
tabla de envío. La tabla de envío contiene un listado de todos los puestos
finales (desde los cuales el bridge puede detectar una trama en un periodo
de tiempo determinado) y el segmento en el que éste reside. Cuando un
bridge detecta una trama en la red, examina la dirección de destino y la
compara con la tabla de envío para determinar si ha de filtrar, inundar o
copiar la trama en otro segmento.

Este proceso de decisión tiene lugar como se indica a continuación:

Si el dispositivo de destino está en el mismo segmento que la trama, el


bridge bloquea el paso de la trama a otro segmento. Este proceso se
conoce como filtrado.
Si el dispositivo de destino se encuentra en un segmento diferente, el
bridge envía la trama al segmento apropiado.
Si la dirección de destino es desconocida para el bridge, éste envía la
trama a todos los segmentos excepto a aquel de donde se ha recibido
la información. Este proceso se denomina inundación. Debido a que el
bridge aprende todos los puestos finales a partir de las direcciones de
origen, nunca aprenderá la dirección de difusión. Por tanto, todas las
difusiones serán inundadas a todos los segmentos del bridge o switch.
En consecuencia, todos los segmentos de un entorno basado en bridge
o switches se consideran residentes en el mismo dominio de difusión.

Una red puenteada/conmutada proporciona una excelente administración del


tráfico. La finalidad del dispositivo de Capa 2 es reducir las colisiones al
asignar a cada segmento su propio dominio de colisión. Cuando hay dos o
más paquetes que necesitan entrar en un segmento, quedan almacenados
en memoria hasta que el segmento esté disponible.

45
Las redes punteadas/conmutadas poseen las siguientes características:

Cada segmento posee su propio dominio de colisión.


Todos los dispositivos conectados al mismo bridge o switch forman
parte del mismo dominio de difusión.
Todos los segmentos deben utilizar la misma implementación al nivel de
la capa de enlace de datos como, por ejemplo, Ethernet o Token Ring.
Si un puesto final concreto necesita comunicarse con otro puesto final a
través de un medio diferente, se hace necesaria la presencia de algún
dispositivo, como puede ser un router o un bridge de traducción, que
haga posible al diálogo entre los diferentes tipos de medios.

En un entorno conmutado, puede haber un dispositivo por segmento, y todos


los dispositivos pueden enviar tramas al mismo tiempo, permitiendo de este
modo que se comparta la ruta primaria.

Dispositivo Capa de Red.

Los routers operan en la capa de red registrando y grabando las diferentes


redes y eligiendo la mejor ruta para las mismas. Los routers colocan esta
información en una tabla de enrutamiento, que incluye los siguientes
elementos:

Dirección de red: Representa redes conocidas por el router. La


dirección de red es específica del protocolo. Si un router soporta varios
protocolos, tendrá una tabla por cada uno de ellos.
Interfaz: Se refiere a la interfaz usada por el router para llegar a una
red dada. Ésta es la interfaz que será usada para enviar los paquetes
destinados a la red que figura en la lista.
Métrica: Se refiere al coste o distancia para llegar a la red de destino.
Se trata de un valor que facilita el router la elección de la mejor ruta
para alcanzar una red dada. Esta métrica cambia en función de la forma
en que el router elige las rutas. Entre las métricas más habituales
figuran el número de redes que han de ser cruzadas para llegar al
destino(conocido también como saltos), el tiempo que se tarda en
atravesar todas las interfaces hasta una red dada(conocido también
como retraso), o un valor asociado con la velocidad de un
enlace(conocido también como ancho de banda).

Debido a que los routers funcionan en la capa de red del modelo OSI, se
utilizan para separar segmentos en dominios de colisión y de difusión únicos.
Cada segmento se conoce como una red y debe estar identificado por una
dirección de red para que pueda ser alcanzado por un puesto final. Además

46
de identificar cada segmento como una red, cada puesto de la red debe ser
identificado también de forma unívoca mediante direcciones lógicas. Esta
estructura de direccionamiento permite una configuración jerárquica de la
red, ya que está definida por la red en la que se encuentra, así como por un
identificador de host.

Para que los routers puedan operar en una red, es necesario que cada
tarjeta esté configurada en la red única que ésta representa. El router debe
tener también una dirección de host en esa red. El router utiliza la
información de configuración de la tarjeta para determinar la parte de la
dirección correspondiente a la red, a fin de construir una tabla de
enrutamiento.

Además de identificar redes y proporcionar conectividad, los routers deben


proporcionar estas otras funciones:

Los routers no envían difusiones de Capa 2 ni tramas de multidifusión.


Los routers intentan determinar la ruta más óptima a través de una red
enrutada basándose en algoritmos de enrutamiento.
Los routers separan las tramas de Capa 2 y envían paquetes basados
en direcciones de destino Capa 3.
Los routers asignan una dirección lógica de Capa 3 individual a cada
dispositivo de red; por tanto, los routers pueden limitar o asegurar el
tráfico de la red basándose en atributos identificables con cada
paquete. Estas opciones, controladas por medio de listas de acceso,
pueden ser aplicadas para incluir o sacar paquetes.
Los routers pueden ser configurados para realizar funciones tanto de
puenteado como de enrutamiento.
Los routers proporcionan conectividad entre diferentes LAN virtuales
(VLAN) en entornos conmutados.
Los routers pueden ser usados para desplegar parámetros de calidad
de servicio para tipos específicos de tráfico de red.

Además de las ventajas que aporta su uso en un campus, los routers pueden
utilizarse también para conectar ubicaciones remotas con la oficina principal
por medio de servicios WAN.

Los routers soportan una gran variedad de estándares de conectividad al


nivel de la capa física, lo cual ofrece la posibilidad de construir WAN.
Además, pueden proporcionar controles de acceso y seguridad, que son
elementos necesarios cuando se conectan ubicaciones remotas.

47
3.4.4 Controles de Seguridad en Red

Firewalls

Los firewalls son dispositivos o sistemas que controlan el flujo del tráfico
entre redes empleando diferentes perfiles de seguridad.

Independientemente de la arquitectura del firewall y de las capas del modelo


OSI que cubra, pueden tener servicios adicionales, como pueden ser
Traducción de dirección de red (NAT), Protocolo de configuración dinámica
de host (DHCP) y funciones de cifrado como Redes virtuales privadas
(VPNs) y filtrado de contenidos.

Firewalls de Filtrado de Paquetes

Es el más básico, son esencialmente dispositivos de ruteo que incluyen la


funcionalidad de control de acceso para sistemas de direcciones y sesiones
de comunicación. La función de control de acceso esta dada por directivas
denominadas reglas. Este tipo de firewalls opera en la capa 3 del modelo
OSI. La funcionalidad de control de acceso se basa en información contenida
en el paquete.

Dirección origen del paquete: Dirección de computadora o dispositivo


de red que origino el paquete, es decir, una dirección IP.
Dirección de destino del paquete: Dirección de computadora o
dispositivo de red a la cual se trata de acceder.
Tipo de tráfico: Esto es, el protocolo específico de red usado para
comunicarse entre el destino y el origen (a menudo “Ethernet” en capa
2 e “IP” en capa 3.
Características de sesiones de comunicación en la capa 4: Como lo
son los puertos de origen y destino de las sesiones.
Interfáz del router: Algunas veces el firewall muestra información
perteneciente a cuál interfaz del router es de donde proviene el paquete
y que interfaz es el destino del mismo.

Firewalls de filtrado son comúnmente usados dentro de infraestructuras de


red TCP/IP, aunque también pueden ser usados en cualquier infraestructura
de red basada en capa 3.

Firewalls y routers de filtrado basan su operación en ciertas características


del tráfico, como si el protocolo de los paquetes de capa 3 pudo ser ICMP
que usualmente los atacantes usan este protocolo para hacer ataques de
inundación. Los firewalls de filtrado tienen la capacidad de bloquear algunos
ataques que se basan en debilidades de TCP/IP.

Los firewalls de filtrado están diseñados para un ambiente donde los

48
paquetes provienen de un red externa, filtrando únicamente protocolos,
puertos origen y destino así como direcciones de red basadas en alguna
relación de confianza, por tanto se necesitan otro tipo de firewalls que hagan
un análisis en capas superiores para atender vulnerabilidades de aplicación.

Firewalls de Inspección de Estado

Este tipo de firewalls incorporan la funcionalidad de la capa 4 del modelo


OSI. Cuando TCP crea una sesión con un host remoto, un puerto es creado
en el sistema origen con el propósito de recibir tráfico en el destino. De
acuerdo a las especificaciones de TCP, el puerto origen tiene que ser un
número mayor que 1023 y menor que 16384 y el puerto destino tiene que ser
un número menor, es decir menos que 1024.

Abrir todos los puertos para una comunicación interna provoca un gran
riesgo de que un intruso no autorizado utilice varias técnicas de penetración.
Este tipo de firewalls solo es útil con el protocolo TCP/IP.

Firewalls de Aplicación

Combinan capas inferiores de control de acceso con capas superiores de


funcionalidad, no requieren la ruta de la capa 3 entre las interfaces internas y
externas del firewall; el software realiza la ruta. Todos los paquetes de red
que atraviesan el firewall deben hacerlo en base al control de software.

Cada proxy se refiere a un agente, trabaja directamente con las reglas de


control de acceso del firewall para determinar si la pieza de tráfico debe ser
permitida. Adicionalmente cada agente tiene la habilidad de requerir
autentificación a cada usuario de red, por ejemplo:

ID de usuario y contraseña
Un token de autentificación
Autenticación de dirección origen
Biometría

La ventaja de este tipo de firewalls es que tiene la capacidad de examinar el


paquete completo en vez de solo las direcciones y los puertos. Por ejemplo
pueden guardar comandos específicos de aplicaciones dentro del tráfico de
la red.

Otra ventaja es que pueden autenticar usuarios directamente, y son menos


vulnerables ante los ataques de spoofing.

49
Servidores Dedicados

El principio operativo básico de un servidor proxy se trata de un servidor que


actúa como "representante" de una aplicación efectuando solicitudes en
Internet en su lugar. De esta manera, cuando un usuario se conecta a
Internet con una aplicación del cliente configurada para utilizar un servidor
proxy, la aplicación primero se conectará con el servidor proxy y le dará la
solicitud. El servidor proxy se conecta entonces al servidor al que la
aplicación del cliente desea conectarse y le envía la solicitud. Después, el
servidor le envía la respuesta al proxy, el cual a su vez la envía la aplicación
del cliente.

La finalidad más habitual es permitir el acceso a Internet a todos los equipos


de una organización cuando sólo se puede disponer de un único equipo
conectado, esto es, una única dirección IP. O bien; la función más habitual en
Internet, es mantener el anonimato de la dirección IP real. Es altamente
recomendado, para evitar escaneos de usuarios malintencionados; que
podrían llegar a comprometer la seguridad.

Por otra parte, al utilizar un servidor proxy, las conexiones pueden rastrearse
al crear registros de actividad (logs) para guardar sistemáticamente las
peticiones de los usuarios cuando solicitan conexiones a Internet.

Gracias a esto, las conexiones de Internet pueden filtrarse al analizar tanto


las solicitudes del cliente como las respuestas del servidor. El filtrado que se
realiza comparando la solicitud del cliente con una lista de solicitudes
autorizadas se denomina lista blanca; y el filtrado que se realiza con una lista
de sitios prohibidos se denomina lista negra. Finalmente, el análisis de las
respuestas del servidor que cumplen con una lista de criterios (como
palabras clave) se denomina filtrado de contenido.

IDPS

La detección de intrusos es el proceso de monitoreo de eventos que ocurren


en una computadora o en una red, analizándolos en busca de señales de
posibles incidentes, los cuales son violaciones o ataques en contra de las
políticas de seguridad o prácticas de seguridad. Un sistema de detección y
prevención de intrusos se centra en identificar posibles incidentes, guardar
información acerca de los mismos, tratar de detenerlos y reportarlos a los
administradores de seguridad. Muchos IDPSs también pueden responder a
un ataque detectado tratando de prevenir que sea exitoso usando diferentes
técnicas tratando de detener los ataques cambiando el ambiente de
seguridad, por ejemplo, reconfigurando firewalls o cambiando el contenido
del ataque.

Un sistema de detección de intrusos (IDS) es software que automatiza el


proceso de detección de intrusos; un sistema de prevención de intrusos (IPS)
50
es un software que tiene toda la capacidad de un IDS y también trata de
detener los posibles incidentes.

Si el IDPS previno el ataque exitosamente, los administradores deben ser


notificados del ataque. Es particularmente importante si el objetivo es una
vulnerabilidad bien conocida que el atacante puede explotar. Los atacantes
pueden usar diferentes tipos de ataques para explotar la misma
vulnerabilidad que los IDPS pueden no reconocer.

Las tecnologías IPS se diferencian de los IDS por una característica, los IPSs
responden a los ataques detectados y usan varias técnicas de respuesta,
que se pueden dividir en los siguientes grupos:

IPS detienen el ataque por sí mismo: Esto lo hace de tres formas:


Termina la conexión o sesión de usuario que está siendo usado para
el ataque.
Bloquea el acceso al objetivo (o posibles objetivos), como la cuenta de
usuario, dirección ip, u otro atributo del atacante.
Bloquea todos los accesos al host objetivo, servicio, aplicación u otro
recurso.

El IPS cambia el ambiente de seguridad ya que puede cambiar la


configuración de otros controles de seguridad para romper el ataque.
Ejemplos comunes son reconfiguración de un dispositivo de red (firewall,
router, switch) para bloquear el acceso al atacante y alterando por ejemplo
un firewall basado en host para bloquear ataques entrantes e inclusive
algunos IPS pueden incluso aplicar parches a una vulnerabilidad detectada
en un host.

Cambian el contenido de los ataques. Algunas tecnologías de IPS pueden


remover o reemplazar las porciones maliciosas de un ataque para iniciarlo.
Un ejemplo de esto es un IPS que remueve un archivo infectado de correo y
entonces permite que el correo desinfectado llegue a su destino. Otro
ejemplo más complejo es cuando actúa como un proxy y normaliza las
peticiones, lo cual significa que el proxy reempaqueta el contenido de las
peticiones y descarda la información de cabecera.

Las metodologías de detección son las siguientes:

Detección basada en firmas: Es el proceso de comparar firmas


observadas en eventos para identificar posibles incidentes. Ejemplos de
firmas son las siguientes:
o Una sesión telnet con usuario “root”, la cual es una violación
contra las políticas de seguridad.
o Un correo electrónico con título o datos adjuntos cuyo nombre sea
sospechoso, podría ser una forma de malware.

51
o Un log de sistema con un código de status de valor 645 lo cual
indica que el host auditado ha sido deshabilitado.

Detección basada en anomalías: Es el proceso de comparar


definiciones de que actividad es considerada normal contra los eventos
observados e identificados con desviaciones significativas, este tipo de
IDPS cuenta con perfiles que representan el comportamiento normal
como usuarios, host, conexiones de red o aplicaciones. Los perfiles se
desarrollan para monitorear características de la actividad típica en un
periodo de tiempo. Por ejemplo, un perfil de red debe mostrar la
actividad web en promedio para observar el consumo de banda durante
las horas de trabajo en un día normal. Los perfiles se pueden
desarrollar para varios atributos, tales como el número de correos
enviados por un usuario, el número de intentos fallidos para acceder a
un host y el nivel de procesamiento usado por un host en un periodo de
tiempo.

Análisis de estado de protocolos: Se crean perfiles que determinan el


correcto e incorrecto funcionamiento de los protocolos que se utilizan en
la red
Si se cuenta con un IDPS basado en firmas, se deberá guardar en un log las
comparaciones que concuerden con la lista de firmas predefinidas para hacer
su detección, dado que no hace inferencia sobre comparaciones que no
concuerdan con su lista pero que son concurrentes en su contenido, se
recomienda que se utilicen adicionalmente otro tipo de detector de intrusos.

Si se cuenta con un IDPS basado en anomalías se debe ser cuidadoso en la


creación de perfiles y analizar en qué casos se utilizaran valores absolutos y
en cuales otros valores porcentuales como parámetros para cierto
comportamiento, para evitar que se den falsos positivos, en este caso se
guardarán los registros de actividad sospechosa que comprometan enlaces
que el administrador considere prioritarios.

Si se cuenta con un IDPS basado en el análisis de estado de protocolo y si


se considera necesario el nivel de detalle del tráfico, se deben establecer
perfiles para sesiones TCP cuando se hagan peticiones a la DMZ, los perfiles
se basaran en el análisis de actividades sospechosas, es decir, por ejemplo,
cuando se realicen modificaciones a las secciones del paquete o datagrama
que el administrador considere que deben ser inalterables en base a
estándares del software, para el establecimiento de las comunicaciones. Este
IDPS deberá guardar aquellas peticiones de establecimiento de sesión
cuando esta no concuerde con el perfil predefinido de cada protocolo que
previamente se ha filtrado en un firewall.

52
3.5 Monitoreo de una Red TCP/IP

El sistema de administración de red se basa en dos elementos principales: el


administrador y los agentes. El supervisor es el terminal que le permite al
administrador de red realizar solicitudes de administración, mientras que los agentes
son entidades que se encuentran al nivel de cada interfaz (ellos conectan a la red los
dispositivos administrados y permiten recopilar información sobre los diferentes
objetos).

Los conmutadores, concentradores (hubs), routers y servidores son ejemplos de


hardware que contienen objetos administrados. Estos objetos administrados pueden
ser información de hardware, parámetros de configuración, estadísticas de
rendimiento y demás elementos que estén directamente relacionados con el
comportamiento en progreso del hardware en cuestión. Estos elementos se
encuentran clasificados en algo similar a una base de datos denominada MIB ("Base
de datos de información de administración"). SNMP permite el diálogo entre el
supervisor y los agentes para recolectar los objetos requeridos en la MIB.

La arquitectura de administración de la red propuesta por el protocolo SNMP se basa


en tres elementos principales:

Los dispositivos administrados son los elementos de red (puentes,


concentradores, routers o servidores) que contienen "objetos administrados"
que pueden ser información de hardware, elementos de configuración o
información estadística.
Los agentes, es decir, una aplicación de administración de red que se
encuentra en un periférico y que es responsable de la transmisión de datos de
administración local desde el periférico en formato SNMP.
El sistema de administración de red (NMS), esto es, un terminal a través del
cual los administradores pueden llevar a cabo tareas de administración.

Las principales tareas de un administrador de red son asegurarse que todos los
dispositivos que conforman su red como switches, routers, servidores, etc., estén
funcionando correctamente y de manera óptima, en este objetivo SNMP (Simple
Network Management Protocol) o protocolo de administración de redes, puede ser
muy útil. Éste fue introducido en 1988 por la necesidad de un protocolo para manejar
la cantidad creciente de dispositivos IP. SNMP provee un conjunto de operaciones
sencillas para manejar dispositivos remotamente y frecuentemente; es asociado a la
administración de Routers y puede ser usado para administrar cualquier tipo de
dispositivo que lo soporte como sistemas UNIX, sistemas Windows, impresoras, UPS
hasta aires acondicionados, entre otros.

Administradores y Agentes.

En el mundo de SNMP existen dos tipos de entidades, los administradores y los

53
agentes. Un administrador es un servidor que ejecuta un programa que realiza
tareas de administración en una red, usualmente se refieren como Estaciones de
Administración de redes (NMS). Por otro lado, un agente es un programa
ejecutado en un dispositivo con soporte SNMP, sea mediante un proceso demonio
o incorporado en el Sistema Operativo, provee información de administración al
NMS sobre varios aspectos operacionales del dispositivo. Un ejemplo de algunos
dispositivos son switches, routers, servidores, UPS, entre otros. El acto de envío
de un mensaje por parte de un NMS a un agente se denomina “polling” que
consiste en consultar al agente algún tipo de información. En este sentido, el
mensaje enviado por un agente a un NMS se denomina “trap”, este consiste en
una interrupción relacionada a algún problema ocurrido en el dispositivo agente,
es decir, es una manera alertar al NMS que algún problema ha ocurrido.

SNMP es protocolo que funciona en la capa de aplicación que usa UDP como
protocolo de transporte para transmitir datos entre agentes y administradores
(NMS), fue elegido sobre TCP ya que no establece conexiones y, el envío y
recepción de paquetes produce poco tráfico y por esto no hay mucha congestión
en la red. La desventaja de usar UDP es que es desconfiable ya que no hay
conocimiento de datagramas perdidos en esta capa, por lo tanto, queda para la
aplicación determinar si se perdieron datagramas y si se proceda a la
retransmisión si es necesario.

Para consultas por parte del NMS al agente no es desventaja la desconfianza


de UDP, sin embargo, para las interrupciones que envía un agente al NMS si
es preocupante que no llegue el datagrama ya que el NMS nunca se enteraría
que el agente le ha enviado un mensaje sobre un problema y el agente no
sabría que tiene que reenviar la interrupción, esto lo tiene que controlar la
aplicación SNMP. Además, usar TCP es mala idea ya que tampoco este
protocolo es infalible y SNMP está diseñado para trabajar en redes con fallas y
si la red nunca falla entonces no hay necesidad de monitorearla. Cuando una
red está fallando, no es buena idea usar un protocolo que congestione la red
de paquetes por retransmisiones. SNMP usa el puerto UDP 161 para enviar y
recibir peticiones de consulta de información en los agentes y el puerto UDP
162 para recibir interrupciones de dispositivos que administra.

Estructura de la Información Administrada (SMI) y MIBS

La estructura de la información administrada (SMI) consiste en una manera de


definir objetos administrados por los agentes y su comportamiento. Un agente
posee una lista de objetos que rastrea. Un objeto, por ejemplo, consiste en el
estatus operacional de una interfaz de router. Esta lista define colectivamente la
información que el NMS puede usar para determinar el estado del dispositivo
donde reside el agente. Por otra parte, la Base de Administración de Información
(MIB) es una base de datos de objetos que el agente revisa. Cualquier información
de estatus o estadística puede ser accesada por el NMS si es definida en la MIB.
SMI provee una manera de definir un objeto administrado, mientras que la MIB es
la definición usando sintaxis SMI de los propios objetos. MIB define un nombre
54
textual para el objeto y explica su significado.

Un agente puede implementar muchas MIBs, pero todos los agentes implementan
uno en particular llamado MIB-II (RFC 1213). Este estándar define variables para
cosas como estadísticas de la interfaces así como cuestiones concernientes al
sistema. El objetivo principal de MIB-II es proveer información general a TCP/IP.
Además los distribuidores de dispositivos con soporte SNMP en ocasiones pueden
definir nuevas variables MIB ajustadas al dispositivo en particular. La manera de
representar los objetos que son administrados es a través de tres atributos:

Nombre, es el identificador del objeto (OID), define únicamente a un objeto, puede


aparecer en forma numérica y canónica. Los objetos que administra SNMP de
ciertos dispositivos son organizados en una jerarquía de árbol. El ID de un objeto
está compuesto de una serie de enteros separados por puntos donde cada punto
representa bajar un nivel en el árbol, de forma equivalente, la forma canónica en
lugar de enteros son cadenas, cada uno representa un nodo. Así que es
equivalente usar cualquiera de las dos notaciones. Esta representación numérica
es la manera como se identifica el objeto en el agente, la representación canónica
facilita no tener que recordar los números.

Dentro de las redes de comunicaciones las convenciones que dictaminan la forma


en que se establece, mantiene y finaliza una comunicación entre elementos de red
se le denomina protocolo. Existen dos modelos de referencia en los cuales se
basan la mayor parte de los protocolos existentes, uno es el modelo OSI y el otro
es TCP/IP.

Cada protocolo tiene una función diferente y realiza tareas específicas. Alguno
solo trabajan en cierto niveles de OSI, los protocolos pueden trabajar juntos en
una jerarquía de protocolos.

La comunicación mediante protocolos se lleva a cabo mediante una comunicación


entre capas, la cuales proporcionan información útil a la capa consecutiva, esto es
del lado del origen, una vez en el destino la interpretación del protocolo se llevan
en sentido inverso.

Existe el denominado proceso de ligadura “binding process” que describe como


los protocolos se comunican con la NIC, esto brinda flexibilidad al momento de
ligar las jerarquías de protocolos, el orden elegido determina la secuencia en la
que el sistema operativo ejecuta el protocolo.

TCP/IP es conocido como la familia de protocolos de internet que gracias a que es


un protocolo estándar para la interoperabilidad entre diferentes equipos se ha
popularizado, además de que proporciona servicios de red encaminable permite
acceder a internet. Las ventajas de TCP/IP se basa en que es un protocolo abierto
por lo cual presenta pocos problemas de compatibilidad al no estar regulado por
alguna compañía.

55
CAPÍTULO IV. CASO PRÁCTICO
A continuación se analizarán dos herramientas que sirven para hacer el monitoreo de
la red: Wireshark (Tshark), y TCPDUMP.

Wireshark, es un analizador de protocolos utilizado para realizar análisis y solucionar


problemas en redes de comunicaciones para desarrollo de software y protocolos, y
como una herramienta didáctica para educación. Cuenta con todas las
características estándar de un analizador de protocolos, por lo que es considerado
popularmente como un sniffer (esto es debido a que con esta herramienta se puede
capturar todos los protocolos que el cliente así lo desee).

4.1 Wireshark/Tshark

Wireshark es una herramienta multiplataforma ya que corre en sistemas operativos


tipo Unix (incluyendo Linux, Solaris, FreeBSD, NetBSD, OpenBSD, Mac OS X,
Microsoft Windows, U3 y en Portable Apps); así en el sistema operativo Windows.

¿Por qué elegir Wireshark?: Una de las principales razones por las cuales la
herramienta fue elegida para la demostración de un esquema de monitoreo, es
debido a que puede ejecutarse sobre el sistema operativo Windows, ya que como se
muestra en la página de Xitimonitor [12], el sistema operativo Windows es el que más
se ha usado, y continúa siendo mucho mayor el número de usuarios que lo utilizan a
comparación de Mac OS o Linux, tal y como se muestra la figura 4.1

Figura 4.1 Uso de Windows según Xitimonitor durante enero de 2007

56
Los primeros indicios del uso de Windows Vista fueron mostrados en enero de 2007,
y en la figura 4.2 se muestra un comparativo entre las distintas versiones de sistemas
operativos usados con mayor frecuencia en la red con usuarios con necesidades
básicas.

Figura 4.2 Comparativo de los sistemas operativos y su uso en la red según Xitimonitor

Otra de las razones por las cuales Wireshark ha sido elegido es debido a su gran
capacidad de monitorear protocolos, ya que dentro de esta variedad se encuentran
algunos de los más comunes usados por TCP/IP tales como ARP, ICMP (que
posteriormente se usará en el caso práctico de este documento), IP, IPX, STP, TCP,
UDP, HTTP; solo por mencionar a algunos de los más representativos.

4.1.1 Simulando un DoS En Windows.

Un DoS en informática es un ataque de denegación de servicio y puede ser


perpetrado en un número muy variado de formas; algunas de ellas consisten
en:

Consumo de recursos computacionales, tales como ancho de banda,


espacio de disco, o tiempo de procesador.
Alteración de información de configuración, tales como información de
rutas de encaminamiento.
Alteración de información de estado, tales como interrupción de sesiones
TCP (TCP reset).

57
Este documento se enfocará a demostrar cómo mediante un PING usando dos
máquinas se puede alterar el tráfico en la red, así como el consumo de recursos
(ancho de banda); y por último y no menos importante: demostrar los protocolos
que intervienen en este “ataque” y el momento en el que se disparan al hacerlo.
Este esquema será como el propuesto en la figura 4.3.

Figura 4.3 Esquema básico de conectividad entre dos equipos

Los pasos a seguir durante este proceso se agrupan de la siguiente manera:

Consiguiendo Información Básica

Los primeros pasos a seguir para preparar el establecimiento del monitoreo a


seguir en el equipo A; será conseguir la dirección IP de éste, así como de la
máquina a la cual se hará el PING.

Esto se hace abriendo una consola de MS-DOS en el sistema operativo


Windows que se use para la prueba (en este caso en específico se hará con
Windows XP Professional). Posteriormente en ambos equipos se introducirá
una sentencia del tipo “ipconfig/all”; y se mostrará un resultado en el cual se
obtienen datos importantes para la identificación de ambos equipos durante
el incidente. Algunos de los datos que se podrán obtener son:

Dirección física (MAC Address)


Nombre del host
Dirección IP
Máscara de Subred
Puertas de enlace

En cuanto al caso práctico el equipo A posee la dirección IP: 192.168.1.68, y


el equipo B posee la dirección IP: 192.168.1.66.

Preparando Wireshark

En paralelo al obtener las direcciones IP de ambos equipos, se deberá


instalar Wireshark (que como se mencionó anteriormente, es de distribución
58
gratuita). Una vez instalado, se procede a iniciar una captura de todos los
protocolos que fluyen a través de la tarjeta de red del equipo A. Esto se hace
yendo al menú Captura (Capture), y posteriormente seleccionar Interfaces
(Interfaces…).

Se mostrará un cuadro de dialogo en el que se aprecian las distintas tarjetas


de red con que el equipo cuenta, para así posteriormente poder seleccionar
la tarjeta con la IP deseada, y dar clic en Iniciar (start).

Una vez hecho el inicio de la captura se mostrarán por defecto los protocolos
activos, las direcciones IP de origen y destino, la hora en que el protocolo fue
activado; del estado actual de la red. La interfaz en Windows se muestra
como en la figura 4.4

Figura 4.4 Elementos por defecto en Wireshark

Haciendo el PING.

Al hacer un ping a otra máquina, dos protocolos intervienen en esta acción


directamente: el IP y el ICMP. Éste último pertenece al conjunto de protocolos
IP y sus mensajes son construidos a nivel de capa de red (tomando como
referencia el modelo OSI) [13].

Teniendo en cuenta esto, si se hace un ping al equipo B mientras se tiene un


analizador de protocolos de red activo en el equipo A, la herramienta de
monitoreo deberá de ser capaz de identificar que:

59
Ha habido una solicitud de ICMP, lo cual conlleva que se haga una
petición (o request en inglés), y que en base a este se envíen paquetes
de datos mediante el protocolo IP; y que
El tráfico de la red se ha incrementado, debido a que se ha encendido
una bandera del protocolo ICMP.
Si el ping hecho al equipo B es por tiempo indefinido, podrá tener un
histórico del momento en que se inició el incidente, así como si aún
sigue éste activo.

Hasta el momento la comunicación entre el equipo A y el equipo B se ha


mantenido de una manera estable y con un flujo no muy alto de datos en la
red; esto es comprobable mediante una de las características que ofrece
Wireshark: gráficas de entrada y salida (IO graphs). Un poco más adelante
en este documento se mostrará el uso de este tipo de gráficas, pero por el
momento se puede comentar que al ingresar a esta característica, se
muestra una serie de filtros y colores, así como una gráfica lineal cuyos ejes
se basan en el tiempo (de monitoreo), y en los paquetes enviados tal y como
se muestra en la figura 4.5

Ahora bien, se procederá a ejecutar un ping desde el equipo A y hacia el


equipo B con el comando puesto de esta manera “ping 192.168.1.66 –t –l
65500”. En dicha sentencia los parámetros propuestos corresponden a lo
siguiente:

-t : Indica que se hará un ping a un equipo por tiempo indefinido.


-l : Indica el tamaño del buffer.
.

Figura 4.5 Gráfica de entrada/salida

Lo cual para fines prácticos indica que se hará un ping al equipo


192.168.1.66 con 65500 octetos de información por tiempo indefinido. Esto
provocará que el tráfico se dispare como se muestra en la figura 4.6; en

60
dicha imagen se muestra que la fuente 192.168.1.68 ha enviado la petición al
destino 192.168.1.66, la hora en que cada uno de los pings ha sido enviado,
y que para cada una de estas peticiones se ha mandado una respuesta
como se muestra en la figura 4.6. Esto es comprobable haciendo un filtro con
el protocolo ICMP y dando clic en aplicar (apply) como se muestra en la
figura 4.7.

Figura 4.6 Un ping por tiempo indefinido

Todo este proceso ha sido capturado gracias a Wireshark en el ambiente


controlado antes mencionado, y puede ser guardado como un archivo con
extensión “*.pcap” (entre algunas otras extensiones).

Figura 4.7 Demostración de ICMP iniciado por ping

Viendo los Reportes.

En Wireshark se pueden ver los reportes de manera activa y de manera


pasiva: al hacer mención de la manera activa se hace referencia a que
cuando se está haciendo la captura, se puede ingresar al menú de
estadísticas y activar la que se requiera analizar en ese momento; mientras

61
que en el modo pasivo se pueden abrir archivos existentes grabados en una
sesión anterior y se puede reconstruir el escenario. Esto se puede demostrar
(como ya se había mencionado con anterioridad), mediante las gráficas que
se manejan en la aplicación y que hacen el monitoreo segundo a segundo o
bien, mostrar un histórico de tráfico en la red.

Para fines de demostrar el ping, se tomarán como muestra las imágenes 4.8
y 4.9. En la primera de ellas se muestra cómo el tráfico en la red se dispara a
partir del ping hecho después del punto de control a las 22:07:24; con todas
las implicaciones que esto conlleva.

Figura 4.8 Tráfico de red cuando inicia el ping

Así también en la figura 4.9 se muestra cómo una vez terminado el ping
después del punto de control a las 22:09:04, la red ha vuelvo a su estado de
tráfico normal.

Figura 4.9 Tráfico cuando el ping finalizó

62
Con esto queda comprobado que Wireshark es una herramienta que sirve
para detectar el tráfico en la red, por medio de los protocolos que intervienen
en éste, con la premisa de que se guarda todo el tráfico que viaja por la red.

4.1.2 Tshark.

Tshark es un analizador de protocolo de red. Permite capturar paquetes de


datos de una red activa, o leer paquetes de una captura previamente guardada,
así como imprimir de manera cifrada esos paquetes a un formato estándar o
guardarlos en un archivo.

Tshark es capaz de detectar, leer y escribir los mismos archivos que son
soportados por Wireshark, utiliza la librería libcap que es la que proporciona las
funciones para la captura de a nivel de usuario, se utiliza para monitorear redes
de bajo nivel.

Se pueden especificar opciones de filtrado de captura o lectura, en donde se


debe expresar como un argumento sencillo o puede ser especificado por línea
de comandos después de la opción argumentos, en tal caso todos los
argumentos después del filtro son tratados como la expresión de filtrado. Los
filtros de captura solo son soportados cuando se realiza una captura en tiempo
real, filtros de lectura están diseñados para soportar captura en tiempo real o
lectura de un archivo.

Dentro de las opciones de Tshark se pueden establecer criterios para que se


finalice la escritura de datos en un archivo, también dado que Tshark utiliza una
serie de archivos donde almacena varios archivos de captura, al momento de
llenarse uno Tshark escribe en el siguiente. Cuando se especifica la opción de
guardar la captura en un archivo se procede a guardar en el buffer en forma de
anillo, es decir, una vez llenos los archivos se procede a sobrescribir sobre el
primero.

El filtrado se puede hacer de protocolos y de los campos que originalmente se


muestran, también es modificable el formato de salida de los ficheros.
A pesar de utilizar una interfaz de comando de línea Tshark ofrece la opción de
estadísticos, en el cual se deberán habilitar los filtros para poder tener consultas
precisas.

Monitoreo con Tshark.

Tshark no cuenta con una interfaz gráfica por lo que se ejecuta desde línea
de comandos. El escenario de este caso es una maquina virtual de VMware
y sobre la cual corre BackTrack. Las tarjetas de red ya se encuentran
configuradas para establecer comunicación entre ellos. De ahora en adelante
al equipo con BackTrack se le llamara Equipo A y al equipo con Windows
Vista se le llamara Equipo B.
63
El Equipo B tiene instalado WireShark, pero Tshark se utiliza desde línea de
comandos, por tanto se debe tener el conocimiento de donde se encuentra el
archivo ejecutable tshark.exe, abrir el interprete de línea de comandos y se
ubica la carpeta donde vive tshark.exe; en este caso C:\Program
Files\WireShark\. Una vez que en esta carpeta se ejecuta Tshark
especificando qué protocolo se desea registrar y en que archivo se va a
guardar el tráfico filtrado.

Figura 4.10 Tshark a la espera de tráfico ICMP

Se ejecuta el comando

Tshark icmp –w icmpTraffic

En la figura 4.10 se muestra como Tshark está a la espera de paquetes del


protocolo ICMP.

Ahora desde el Equipo A se comienza a enviar paquetes ICMP, se abre una


terminal en el Equipo B y se ejecuta el siguiente comando:

#ping 192.168.2.24 –l 65500

Donde:

192.168.2.24: Es la dirección IP del Equipo B


–l: Es el tamaño del paquete 65500 Kb.

Ahora el Equipo A esta enviando paquetes del protocolo ICMP con un


tamaño de 65500 Kb al Equipo B y el Equipo B comenzó a registrar el tráfico
en la red, esto es comprobable en la figura 4.1.

64
Figura 4.11 Tshark Capturando y registrando el trafico ICMP

Para ver el tráfico registrado en el archivo icmpTraffic se introduce el


comando:

tshark –r icmpTraffic

En la figura 4.12 se muestra el registro de los paquetes como se puede ver


existen los paquetes ICMP que son peticiones y los paquetes ICMP que son
respuestas, es decir el Equipo A envía una petición al equipo B, dirección
origen 192.168.2.25 y dirección destino 192.168.2.24, y el equipo B envía
una respuesta dirección origen 192.168.2.24 y dirección destino
192.168.2.25

Figura 4.12 Paquetes ICMP capturados por Tshark

65
4.2 Tcpdump

Tcpdump es una herramienta utilizada para analizar el tráfico de la red, Permite al


usuario capturar y mostrar a tiempo real los paquetes transmitidos en la red.
Tcpdump se ejecuta sobre la mayoría de sistemas UNIX. No cuenta con una interfaz
gráfica por lo que se ejecuta desde línea de comandos. Además puede registrar el
tráfico de la red mediante la librería pcap.

El usuario puede aplicar varios filtros para que sea más depurada la salida. Un filtro
es una expresión que va detrás de las opciones y que permite seleccionar los
paquetes que se están buscando. En ausencia de ésta, el tcpdump volcará todo el
tráfico que vea el adaptador de red seleccionado.

Tcpdump es utilizado:

Para depurar aplicaciones que utilizan la red para comunicar.


Para depurar la red misma.
Para capturar y leer datos enviados por otros usuarios u ordenadores. Algunos
protocolos como telnet y HTTP no cifran los datos que envían en la red. Un
usuario que tiene el control de un router a través del cual circula tráfico no
cifrado puede usar tcpdump para conseguir contraseñas u otras informaciones.

Monitoreo con Tcpdump.

En este caso práctico se utiliza la distribución de BackTrack 3 en la cual ya viene


incluido tcpdump. BackTrack se está ejecutando desde una maquina virtual de
VMware que corre sobre Windows Vista.

Para este caso práctico ya se encuentran configuradas las tarjetas de red de


BackTrack y de Windows Vista para establecer una comunicación entre ellas. De
ahora en adelante al equipo con BackTrack se le llamara Equipo A y al equipo con
Windows Vista se le llamara Equipo B.

Desde el equipo B se hará una serie de pings por tiempo indefinido y con un
tamaño de 65500 bytes con el objetivo de generar tráfico en la red. Este caso se
centra en un ambiente controlado, donde se tiene acceso a ambos equipos.

Inicialmente se obtienen las direcciones IP de los equipos. En el Equipo A se abre


una terminal y se introduce el comando ifconfig, inet addres es la dirección IP del
Equipo A: 192.168.2.25. En el equipo B se abre una ventana de línea de
comandos y se introduce el comando ipconfig, la dirección IPv4 del equipo B es:
192.168.2.24.

En el equipo A se inicia tcpdump con parámetros que ayudaran al monitoreo, ya

66
que el ping utiliza el protocolo ICMP, se filtrará dicho monitoreo para que solo
registre paquetes del protocolo ICMP y que lo guarde en un archivo de nombre
icmpTraffic, para poder posteriormente acceder a él. Para iniciar el monitoreo en la
terminal del Equipo A se introduce el comando:

#tcpdump proto \\icmp –w /traffic/icmpTraffic

Donde:

proto: Especifica el protocolo a monitorear, que es ICMP.


-w: Especifica que el trafico se guardara en un archivo ubicado en /traffic y su
nombre es icmpTraffic.

Tcpdump estará a la espera de paquetes ICMP y los guardara en el archivo


icmpTraffic.

Desde la maquina B se ejecuta el comando:

ping 192.168.2.25 –t –l 65500

Donde 192.168.2.25 es la dirección IP del Equipo A que obtuvo previamente, –t


especifica que el ping se realizara por tiempo indefinido y –l 65500 el tamaño del
paquete en bytes.

En el Equipo A tcpdump esta capturando todo el tráfico de paquetes ICMP del


Equipo B, en la figura 4.13 se muestra como tcpdump mediante la interfaz eth0
esta capturado los paquetes ICMP.

Figura 4.13 Tcpdump escuchando los paquetes icmp a través de la intrefaz eth0

Se detiene Tcpdump con las teclas crtl+c y aparece el resumen de paquetes


capturados, como se muestra en la figura 4.14

Figura 4.14 Tcpdump resumen de paquetes capturados

67
Se capturaron 13169 paquetes de los cuales 14130 son del protocolo ICMP, que
son los que interesan. Ya que el tráfico ICMP se guardo en el archivo
/Traffic/icmpTraffic el tráfico se puede visualizar con el comando:
#tcpdump –r /Traffic/icmpTraffic

Figura 4.15 Archivo donde se registro el tráfico del protocolo icmp

En la figura 4.15 se muestra el contenido del archivo donde se guardo el registro


del tráfico ICMP. El resultado muestra la hora en que se recibió el paquete, la IP
origen (Equipo B: 192.168.2.24) y la IP destino (Equipo A: 192.168.2.25) y el
protocolo del paquete (icmp).

4.3 Elección de Herramienta

Como se observo con las tres herramientas que se utilizaron (Wireshark, Tshark y
Tcpdump) se puede capturar y registrar el tráfico de la red pero se elige una
herramienta Tshark por las siguientes razones:

Es libre.
Existen versiones para Windows y para sistemas UNIX.
Permite hacer filtrado de paquetes.
Permite registrar el tráfico de la red en Archivos.
Consume menos memoria ya que no utiliza interfaz gráfica.

Tshark se eligió sobre Wireshark principalmente por la interfaz gráfica, a pesar de


que una interfaz gráfica es mucho más amigable y fácil de usar consume mas
recursos del equipo que lo ejecuta, Tshark requiere más conocimientos para ejecutar
los comandos, pero permite muchas más opciones de filtrado.

Respecto a Tcpdump, la principal diferencia por la que se elije Tshark sobre Tcpdump
es que Tcpdump no se ejecuta sobre sistemas Windows y Tshark sí lo hace.

68
CONCLUSIONES.
Al finalizar esta investigación se puede concluir que se cumplió el objetivo de
proponer herramientas que permiten monitorear una red. Se probaron tres
herramientas de software libre que permiten monitorear y almacenar el tráfico
de una red, y hacerlo tan especifico como los requerimientos del monitoreo lo
necesiten.

En cuanto a la metodología de investigación se puede concluir que debido a


que en la actualidad en México no existe una documentación formal para
análisis forense, es decir, solo existen recomendaciones de organismos
internacionales la recopilación de información fue extensa y hubo que hacer
un análisis detallado, para limitar lo que aplicaba para esta investigación.

La principal problemática que se presento fue que la mayoría de la


documentación habla sobre la Forensia en host y no en red, es por ello que
hubo que hacer una análisis de que aplicaba para esta investigación y qué no,
debido a que es un tema de investigación muy extenso se delimitó a una parte
del monitoreo la cual es la captura de tráfico mediante herramientas de
monitoreo.

Para trabajos futuros se pretende tomar el trabajo actual y complementarlo


con otras herramientas como firewalls e IDS para así tener un esquema de
monitoreo completo.

Con los conocimientos adquiridos actualmente, que es capturar el tráfico que


circula en una red TCP/IP se podrá aplicar forensia sobre los paquetes
capturados.

69
REFERENCIAS BIBLIOGRAFICAS
[1] Howard John D., Longstaff Thomas A. “A common language for
computer security incidents”. Págs. 6-11, 15-25.
[2] Bill Cheswick, Firewalls and Internet Security. Págs 159-166.
[3] Russell/Gangemi. Computer Security Basics, Págs 9, 10.
[4] Peter G. Neumann y Donn Parker, “A Summary of Computer Misuse
Techniques. Págs. 33-35.
[5] William Stallings. “Cryptography and Network Security”, Tercera Edición.
Pág. 7.
[6] Michael G. Noblett. (2000) Recovering and Examining Computer
Forensic Evidence. Disponible en:
http://www.fbi.gov/hq/lab/fsc/backissu/oct2000/computer.htm
[7] Cano Martines Jeimy José. Introducción a la informática forense.
Revista ACIS Junio de 2006 Disponible en:
http://www.acis.org.co/fileadmin/Revista_96/dos.pdf
[8] http://www.inteco.es/wikiAction/Seguridad/Observatorio/area_juridica/Es
nciclopedia_Juridica/Articulos_1/inf_forense.
[9] Canelada Oset Juan Manuel. “Curso de Verano 2004: ANÁLISIS
FORENSE DE SISTEMAS LINUX”, Pág. 3.
[10] Encyclopedia online Wikipedia: www.wikipedia.org.
[11] Tanenbaum, Andrew: Computer networks. Prentice Hall, 1996.
[12] Página de referencia,
http://www.xitimonitor.com/en-us/technicals/operating-systems-
february-2007/index-1-2-3-73.html?xtor=11
[13] Enciclopedia en línea Wikipedia, http://es.wikipedia.org/wiki/ICMP

70
GLOSARIO
Arquitectura de red: Es la forma en que una red se define por su topología, el
método de acceso a la red y los protocolos de comunicación de ésta.
Dato: Unidad básica de información, la cual por sí sola no representa utilidad o
sentido sino hasta que es interpretada.
Dirección IP: Un número que identifica de manera lógica a un dispositivo
(usualmente computadoras) dentro de una red que utilice el protocolo IP. Este
número puede ser estático o dinámico.
Evidencia: En su sentido más amplio, la evidencia incluye a cualquier cosa que
es usada para determinar o demostrar la veracidad de una afirmación.
Firewall: Es un elemento de hardware o software que se utiliza en una red de
computadoras para controlar las comunicaciones, permitiéndolas o
prohibiéndolas según las políticas de red que haya definido la organización
responsable de la red.
Forensia: Se refiere a la aplicación de un amplio espectro de diversas ciencias
para responder preguntas de interés usualmente con el fin de ayudar al sistema
legal. Abarca las metodologías teóricas o científicas aceptadas; así como las
normas bajo las cuales los hechos (o resultados) son asociados con un
acontecimiento, artefacto o evidencia mediante una ley existente.
Host (servidor): es una computadora que pertenece a una red; y a su vez
provee de servicios a otros equipos denominados clientes.
IDS. “Intrusion Detection System”: Sistema que trabaja junto con el firewall
para ayudar a eliminar las amenazas de un atacante que trata de conseguir el
acceso a una red. El IDS incluye el uso de logs, así como bloquear y enviar un
mensaje de alerta al administrador de la red en caso de que se detecte tráfico
sospechoso o malicioso.
IPS. “Intrusion Prevention System”: Sistema de prevención de intrusos:
ejerce el control de acceso en una red informática para proteger a los sistemas
computacionales de ataques y abusos (establece políticas de seguridad para
proteger el equipo o la red de un ataque).
IP. Internet Protocol (protocolo de internet): Es un protocolo no orientado a
conexión que usan dispositivos origen y destino para comunicar datos a través
de una red de paquetes. Los datos son enviados por bloques de información
conocidos como paquetes.
Información: Es un conjunto de datos, y que en su conjunto constituye un
mensaje sobre un determinado tema dentro de un contexto.
Informática. Es la disciplina que se encarga del tratamiento automático de la
información mediante métodos, procesos, técnicas, desarrollo; así como su
implementación.
Log: Se refiere al registro de eventos que sucedieron en un tiempo y lugar en

71
específico: es usado para averiguar quién, qué, cuándo, dónde, y por qué
ocurrió un evento.
Memoria Caché: Es un sistema de almacenamiento de alta velocidad, puede
estar incluido en la memoria principal o ser una memoria independiente.
Paquete de red: Segmentos de información que son enviados mediante una
red; son conformados por una cabecera (que va de acuerdo al protocolo de
nivel de red), así como por los datos.
Red: Es un conjunto de computadoras y dispositivos conectados entre sí. La
red les permite a estos elementos la comunicación entre ellos así como
compartir recursos e información
Tráfico de datos: Se refiere al ancho de banda que los usuarios de una red
consumen por el uso de la misma.
IEEE: Corresponde a las siglas de “Institute of Electrical and Electronics
Engineers”, el Instituto de Ingenieros Eléctricos y Electrónicos.
NIC. “Network Interface Card”, Tarjeta de Red: es un dispositivo que permite
compartir recursos entre dos o más equipos.

72