Anda di halaman 1dari 14

Anlisis de Rendimiento en Redes

Cuando se trabaja con redes es de suma importancia conocer la manera en cmo se estn
comunicando los datos, para de esta manera realizar un anlisis que permita determinar la
calidad del enlace de comunicaciones. Para esto es necesario analizar el comportamiento de la
red y de esta manera estimar su rendimiento, debido a que una red mal configurada o con un
pobre rendimiento puede ocasionar grandes prdidas de tiempo, bajas en la productividad, etc
en sistemas de comunicaciones de gran tamao.
Para poder resolver problemas que se puedan presentar es necesario conocer a profundidad
todos los parmetros de la red en cuestin adems de realizar un monitoreo de la misma para
poder detectar cualquier anomala, con estas herramientas se puede hacer un diagnostico
acertado de cualquier tipo de eventualidad para poder corregirla a tiempo. Los parmetros
ms comunes para chequear el comportamiento de una red son la eficiencia, el throughput y
el retraso o latencia que sufren los paquetes debido a las congestiones que pueden encontrar
entre el origen y el destino.
El tipo de red determinara la rata de transmisin a la cual los paquetes son enviados, y por lo
tanto es importante conocer cul es la eficiencia de estos tipos de redes, en este caso
hablaremos de dos esquemas ampliamente utilizados como lo son CSMA/CD y Token Ring.
Parmetros a considerar
Antes de estudiar los modelos de eficiencia de estos mtodos de acceso es conveniente
recordad ciertos parmetros relacionados con la transmisin de datos:
Longitud mxima del medio: Lm (en metros) que ser la longitud mxima del medio de
transmisin.
Velocidad de propagacin del medio: V, define la velocidad de propagacin sobre el
medio de la seal electromagntica que representa a los datos sobre el medio.
Demora mxima de propagacin: D relaciona los dos parmetros anteriores: D = Lm / V
Capacidad: de una LAN C, es la cantidad de bits que una estacin puede transmitir por
segundo. Ejemplo. Ethernet: 10Mbps
Longitud promedio del frame en bits: Lframe-bits incluyendo overhead (encabezado y cola)
Tiempo promedio de transmisin de un frame: Tframe (en segundos). Este parmetro
se calcula usando la longitud del frame y la capacidad de la red: Tframe = Lframe-bits / C
Longitud de bits del medio: Lmedium-bits es la mxima longitud del medio en bits, y define la
cantidad de bits que el medio puede alojar. Para calcularlo necesitamos encontrar cuanto
tiempo requiere un bit para recorrer de una punta a la otra punta del medio, o sea D. Sin
embargo, durante el mismo tiempo, otros bits pueden dejar la estacin y llenar el medio: D *

C. Lmedium-bits = C * D = C * Lmedium / V = C / V * Lmedium. Esto nos permite comparar la


longitud del medio con la longitud del frame.
El parmetro "a": el desempeo de una LAN se calcula normalmente basado en la relacin
entre la demora mxima de propagacin y el tiempo promedio de transmisin del frame
(Tframe) a = D / Tframe, tambin lo podemos definir en otros trminos:
a = D / Tframe = (Lm / V) / (Lframe-bits / C) =
= C *(Lm / V) / Lframe-bits
Como el primer trmino es la longitud de medio en bits, podemos poner:
a = Lmedium / Lframe-bits
en otras palabras define cuantos frames caben en el medio fsico al mismo tiempo, y
podemos reconocer tres casos; a > 1, a = 1 y a > 1 (Se puede ver que a es proporcional a la
capacidad de la red. Una red con una capacidad de 100 Mbps tiene un valor mayor de a que
una con capacidad de 10 Mbps)
Caso a > 1:
Significa que la longitud del medio es mayor que la longitud de un frame. Varios
frames podran ocupar el medio al mismo tiempo. En este caso, la estacin podra enviar
varios frames antes que el primer frame alcance la otra punta del medio.
Caso a = 1:
Un solo frame sobre el medio.
Caso a < 1:
Un frame no cabe en el medio.
Modelo de Eficiencia para redes CSMA/CD (Ethernet)
En Ethernet definimos la eficiencia como en tiempo en el cual los paquetes son transmitidos
sin que existan colisiones en el canal, cuando hay una cantidad suficientemente grande de
nodos transmitiendo, esto debido a que cuando hay muchas estaciones que quieren transmitir
la rata de transmisin de Ethernet disminuye frecuentemente hasta un 50 % del valor de
diseo de la red.
Recordemos un poco el funcionamiento de CSMA/CD:
Al utilizar el mtodo conocido como acceso mltiple por deteccin de portadora por deteccin
de colisiones (CSMA/CD), cada uno de los equipos de la red, incluyendo a los clientes y a los
servidores, comprueban el cable para detectar el trfico de la red. Los equipos slo pueden
transmitir datos si el cable est libre.

Un equipo slo puede enviar datos cuando detecta que el cable est libre y que no hay
trfico en el cable. Una vez que el equipo haya trasmitido los datos al cable, ningn equipo
puede transmitir datos hasta que stos hayan llegado a su destino y el cable vuelva a estar
libre. Recuerde que si dos o ms equipos tratan de enviar datos en el mismo instante de
tiempo, habr una colisin de datos. Cuando eso ocurre, los dos equipos implicados dejarn de
transmitir datos durante un perodo de tiempo aleatorio y volvern a transmitir los datos. Cada
equipo determina su propio perodo de espera, por lo que se reduce la posibilidad de que los
dos equipos vuelvan a transmitir simultneamente.
Teniendo esto en cuenta, comprender el nombre del mtodo de acceso, acceso mltiple por
deteccin de portadora por deteccin de colisiones (CSMA/CD). Los equipos oyen o
detectan el cable (deteccin de portadora). Normalmente, muchos equipos de la red
intentan transmitir datos (acceso mltiple); primero, cada uno oye para detectar posibles
colisiones. Si un equipo detecta una posible colisin, espera un perodo de tiempo aleatorio
antes de volver a intentar transmitir (deteccin de colisiones). La posibilidad de deteccin de
colisiones es el parmetro que impone una limitacin en cuanto a distancia en CSMA/CD.
Debido a la atenuacin, el debilitamiento de una seal transmitida a medida que se aleja del
origen, el mecanismo de deteccin de colisiones no es apropiado a partir de 2.500 metros (1.5
millas). Los segmentos no pueden detectar seales a partir de esa distancia y, por tanto, no se
puede asegurar que un equipo del otro extremo est transmitiendo. Si ms de un equipo
transmite datos en la red al mismo tiempo, se producir una colisin de datos y los datos se
estropearn.
Consideraciones sobre CSMA/CD
A mayor cantidad de equipos en la red, mayor trfico de red. A medida que
aumenta el trfico, tienden a aumentar la anulacin de colisiones y las colisiones,
que ralentizan la red, de forma que CSMA/CD puede convertirse en un mtodo de
acceso lento.
Despus de cada colisin, ambos equipos tendrn que retransmitir sus datos. Si la
red est muy saturada, es posible que los intentos de ambos equipos produzcan
colisiones en la red con los paquetes de otros equipos. Si ocurre esto, tendremos
cuatro equipos (los dos originales y los dos equipos cuyos paquetes han colisionado
con los paquetes retransmitidos) que tienen que volver a transmitir. Este aumento
de las retransmisiones puede hacer que la red quede paralizada.
La ocurrencia de este problema depende del nmero de usuarios que intenten
utilizar la red y de las aplicaciones que estn utilizando. Las aplicaciones de bases de
datos tienen a colocar en la red ms datos que las aplicaciones de procesamiento de
textos.
Dependiendo de los componentes hardware, del cableado y del software de red, la
utilizacin de una red CSMA/CD con muchos usuarios utilizando aplicaciones de
bases de datos puede llegar a ser frustrante, debido al elevado trfico de la red.
Con esto en mente pasemos ahora a analizar el modelo de rendimiento: como vimos cada
estacin puede enviar un paquete pero no est garantizada una transmisin exitosa, por lo

que tendremos que utilizar un mtodo probabilstico para determinar el rendimiento.


Habiendo definido la eficiencia como la relacin entre el tiempo que se transmite el paquete y
el tiempo que el canal est ocupado para que no existan colisiones. Ese tiempo de ocupacin
del canal lo podemos ver como el tiempo que le lleva a la estacin enviar el paquete y esperar
hasta que es recibido en el destino, considerando el tiempo de espera que puede haber en
caso de que haya alguna otra estacin transmitiendo, o el tiempo de retransmisin en caso de
que haya habido alguna colisin.
Como las reglas de este protocolo son complicadas para realizar un anlisis practico se utilizara
un modelo un poco simplificado el cual ser comparado con el modelo real, siendo ambos
bastante similares. En el modelo simplificado forzaremos la condicin de que la estacin utiliza
ranuras de tiempo para efectuar la transmisin, por lo que cada estacin sigue el siguiente
procedimiento para transmitir:
1. la estacin espera para empezar hasta el comienzo del siguiente slot time
2. la estacin escucha la lnea
3. si la lnea est libre, la estacin enva el frame
4. si la estacin escucha una colisin durante el resto del tiempo del slot, vuelve al paso 1.
Podemos asegurar que la estacin puede escuchar la colisin antes del comienzo del
prximo time slot. Ponemos el time slot Ts = 2*D = 2*D, considerando el peor caso, de una
estacin en cada punta del cable. La seal llega a la punta en tiempo D, si la otra estacin
comienza a transmitir un instante antes, hay una colisin. La colisin requiere otros D
segundos para llegar hasta la primera estacin. Necesitamos dos veces el tiempo de demora
de propagacin para garantizar que la primera estacin escuche la colisin.
Probabilidad de xito
Ahora calcularemos la probabilidad de que el paquete llegue a destino de manera exitosa, es
decir que una estacin encuentre una ranura sin que haya colisiones. Suponemos que hay n
estaciones, y que la probabilidad que cada estacin tenga un frame para transmitir sea p,
asumiremos igual probabilidad para cada una y denominaremos p = 1/n, lo que maximiza la
probabilidad. Podemos entonces escribir la probabilidad de xito como:

Podemos, a manera ilustrativa evaluar esa relacin para varios ejemplos de redes:
a.
b.
c.
d.

Si hay 3 estaciones: sustituyendo n = 3 en (1) obtenemos P = 0.44 0 44%


Para n = 10, P = 0.39 o 39%
Para n = 1000, P = 0.368 o 36.8 %
Para n = 10000, P = 0.3679 o 36,79%

Observamos que ya para cuando n sigue aumentando el valor se acerca al lmite que es 1/e,
cuando n tiende a infinito, o 0.36, lo cual sera el lmite inferior. Por tanto en este modelo una
estacin puede enviar exitosamente un frame por lo menos un 36 % del tiempo. Ahora este
clculo no nos da la eficiencia del modelo, para eso tenemos que ver primero cuantas ranuras
se requieren, en promedio, para que la estacin pueda encontrar una ranura que le permita
enviar la informacin sin que exista colisin.
Esto se determina de manera sencilla, si la probabilidad de una ranura sin colisiones es Pe,
entonces en promedio, la probabilidad de una ranura exitosa es 1/Pe. Por ejemplo si Pe es
0.25, entonces la cuarta ranura (1/0.25) es en el que se puede enviar el frame de manera
exitosa. Con esto podemos calcular cuntas ranuras debemos esperar para poder enviar la
informacin de manera exitosa:

Calculo de la Eficiencia
Asi que en promedio se necesitan esperar 1.71 ranuras para asegurar que el paquete se
enviara sin colisiones. Ahora si se puede determinar la eficiencia terica para este modelo
simplificado:

El tiempo que la estacin ocupa el medio es Nranura antes de enviar el paquete ms el tiempo
necesario para enviar el paquete:

Esta vendra siendo la eficiencia del modelo simplificado que se asumi para poder realizar la
aproximacin, la eficiencia real de una red Ethernet esta computada (mediante mediciones) y
es inclusive menor a esta aproximacin:

Modelo de Eficiencia para redes Token Ring


Recordemos un poco el funcionamiento de las redes con Token Ring como mtodo de acceso
al medio: Cuando el primer equipo de Token Ring entra en lnea, la red genera un testigo. El
anillo es una formacin de bits predeterminada (una serie de datos) que permite a un equipo
colocar datos en los cables. El testigo viaja a travs de la red preguntando a cada equipo hasta

que un equipo indica que quiere transmitir datos y se apodera del testigo y ningn equipo
puede transmitir hasta que no tome el control del testigo.
Una vez que un equipo se apodera del token, enva una trama de datos a travs de la red. La
trama viaja por la red hasta que alcanza el equipo con una direccin que coincida con la
direccin de destino de la trama. El equipo de destino copia la trama en su bfer de recepcin
y marca la trama en el campo de estado de la trama para indicar que se ha recibido la
informacin. La trama contina por el anillo hasta que llegue al equipo que la envi, de forma
que se valida la transmisin. A continuacin, el equipo que enva retira la trama del anillo y
transmite un testigo nuevo a ste. En la red slo puede haber un testigo activo y el testigo
puede viajar slo en una direccin del anillo.
Circula el testigo en el sentido de las agujas del reloj o en sentido contrario? Realmente, la
respuesta no importa. La direccin depende de las conexiones del hardware. Se puede hacer
que el testigo viaje en el orden que desee. Los diseadores de los hubs determinan el orden en
que direcciona cada puerto y usted puede determinar el orden en que se conectan los equipos
al hub. El estndar IEEE 802.5 dice que es en el sentido de las agujas del reloj, y la seccin 3 de
la publicacin SC30-3374 de IBM dice que es en el sentido contrario de las agujas del reloj.
El paso de testigos es determinante, lo que significa que un equipo no puede imponer su turno
en la red, tal y como ocurre en un entorno CSMA/CD. Si el testigo est disponible, el equipo
puede utilizarlo para enviar datos. Cada equipo acta como un repetidor unidireccional,
regenera el testigo y lo contina pasando.
Ahora si pasemos a determinar la eficiencia, en este caso asumiremos que cada estacin tiene
datos para transmitir, cuando cada estacin recibe el token lo retiene y enva sus datos, luego
que enva lo enva hacia la siguiente estacin la cual realiza el mismo proceso. Este es un
modelo simplificado ya que es ms conveniente para realizar el anlisis. Volvemos con el
clculo de la eficiencia:

En este caso el tiempo que ocupa el medio la estacin viene dado por la suma de los tiempos
para transmitir un frame, el tiempo para recibir el primer bit nuevamente (recuerde
que la estacin recibe su propio frame enviado), el tiempo para transmitir el token y el
tiempo para que el token llegue a la siguiente estacin, si suponemos que hay n estaciones
entonces tenemos:

Analizando esta expresin podemos, sin temor a cometer algn error, descartar algunos
miembros: el tamao del token es pequeo (24 bits) en comparacin con el tamao del frame,
por lo que podemos ignorar el tiempo del token. Adems en muchas implementaciones de
token ring, la estacin no debe esperar hasta que recibe el ltimo bit de vuelta antes de
regenerar el token, Luego que ella enva el ltimo bit del frame, libera el token. De esta

manera el segundo trmino del denominador D no es relevante y puede eliminarse de la


frmula. Quedando entonces la eficiencia de una red Token Ring:

Si observamos esta expresin y la comparamos con la eficiencia en CSMA/CD, notamos


claramente que en Token Ring la eficiencia es mucho mayor (en este caso el parmetro a esta
divido por n, mientras que en Ethernet esta multiplicado por 5). En Token Ring la eficiencia
esta cercana al 100 % mientras que en Ethernet en menor al 50 % (entre 30 y 40%). Adems
claramente se observa que a medida que aumenta el nmero de estaciones la eficiencia de de
Token Ring aumenta (debido a que disminuye el tiempo de paso del token), todo lo contrario
de Ethernet, donde una mayor cantidad de estaciones incrementa la posibilidad de colisiones
disminuyendo por ende la eficiencia.
Anlisis de Trafico en Redes Locales
Antes de efectuar un anlisis como tal es importante definir ciertos parmetros que permiten
determinar el rendimiento de una red, y la calidad en la comunicacin, dichos parmetros son:
Tasa de Transferencia: La tasa de transferencia expresa la velocidad a la que se puede
transmitir y se mide en bits/segundo (bps); No hay que confundir ancho de banda con tasas de
transferencia, el primero mide en hertzios y no mide realmente la capacidad de transmisin de
la red, mientras que la tasa de transferencia s, ya que toma en cuenta todos los factores para
hacer una medicin real. Por desgracia ningn tipo de red es capaz de proporcionar una
tasa de transferencia igual a la terica. Cuando hacemos referencia a la que en realidad se
obtiene, se habla de tasa de transferencia real o simplemente tasa de transferencia.
Troughput: de este parmetro hemos hablado anteriormente y recordamos que se refiere a la
cantidad real de informacin que se recibe, la cual difiere de la capacidad terica del enlace
de comunicaciones debido a diversos factores ya mencionados.
Perdida de paquetes: es una medicin de la probabilidad de que se pierdan datos en el
proceso de comunicacin, debido a la falta de espacio en buffers por ejemplo. Esto debido a
que los buffers no tiene un tamao infinito, si un paquete llega a un buffer que est lleno se
descarta.
Retrasos: esto se refiere los tiempos de retardo que sufren los datos en las colas generadas por
los buffers en los dispositivos de conmutacin.

Latencia
La latencia de una lnea de transmisin expresa el tiempo que tardan los datos en entrar por
un extremo del enlace hasta que aparecen por el otro. Depende de tres factores:
Del retardo de propagacin de las seales a travs del medio de transmisin.
Este tiempo depende de la velocidad de propagacin de las seales a travs del medio
(3,0 x 10^8 metros/segundo en el vaci). El retardo de propagacin es insalvable
y se conoce como latencia mnima.
El mensaje a transferir normalmente se divide en bloques o paquetes. Por tanto el
tiempo que tarda un BIT depende de la tasa de transferencia de la red.
Tambin depende de la congestin de la red.
Por lo tanto la latencia es igual a:
Latencia = Retardo de propagacin + Tiempo de emisin + Tiempo de cola + Retardo de
procesamiento
Donde:
Retardo de propagacin: es el tiempo que tarda la informacin en llegar desde su
punto de partida al destino, depende de la trayectoria fsica y del medio fsico de
transmisin.
Tiempo de emisin: es el tiempo requerido para enviar todos los bits en un paquete al
medio de transmisin utilizado.
Tiempo de cola: es el tiempo que un paquete es puesto en una cola hasta que es
transmitido, el nmero de paquetes en cola depender en la cantidad y el tipo de
trfico de la red.
Retardo de procesamiento: es el tiempo requerido para analizar el encabezado de un
paquete y decidir a donde enviarlo.
Un concepto relacionado con la latencia es el tiempo de ida y vuelta (Round Trip Time o RTT en
TCP) que no es ms que el tiempo que se toma enviar un bit a travs del canal de
comunicacin y recibir un ACK del receptor.
Producto Latencia/Tasa de Transferencia: Suponemos un enlace que posee 50 milisegundos
de latencia y una tasa de transferencia de 45 Mbps, el nmero de bits que podemos inyectar
en el enlace sin que el primero de ellos llegue al otro extremo es de
50 ms*45Mbps = 2.25 Mb, o ms o menos 275 KB
Esto significa que en el momento en el que el receptor se percata de que le estn
llegando datos a travs del enlace, el emisor ya ha enviado unos 275 KB de datos, tiene que
tener el receptor una unidad de almacenamiento capaz de almacenar esa
informacin.

Entonces vemos que estos parmetros nos van a dar una idea exacta del comportamiento de
una red, y poder determinar si en algn punto donde se estn transportando cualquier
cantidad de datos se est generando alguna congestin (la cual como vimos puede ocasionar
perdida de datos) para poder aplicar polticas eficientes de gestin de trfico que eviten una
disminucin en la calidad del servicio.
En un enlace donde hay congestin ocurren retrasos por las colas, perdida de datos, y esto
generara una disminucin del troughput, por lo que es necesario implementar mecanismos
que permitan evitar dichas cogestiones, la congestin ocurrir cuando la cantidad de paquetes
que se manejan alcancen la capacidad nominal de la red, y es donde se formaran los
denominados cuellos de botella.
Los cuellos de botella son los puntos de menor capacidad en un trayecto, y la velocidad de ese
trayecto estar limitada a dicho cuello de botella, una vez identificados estos puntos se hace
necesario aplicar mecanismos para tratar de aliviar la congestin y evitar que el rendimiento
de la red caiga dramticamente, veremos cuales mecanismos son aplicados para evitar esto.
Consecuencias de la congestin
Retardos: Trabajar cerca de la capacidad de los enlaces es ideal desde el punto de vista
de la productividad, pero no loes respecto al retardo. Se experimentan grandes
retardos en una cola segn la tasa de llegadas de paquetes se acerca a la capacidad del
enlace.
Prdidas: Como los bferes no son de tamao innito el emisor debe realizar
retransmisiones para compensar los paquetes perdidos debido al desbordamiento de
los bferes.
Desperdicio de recursos: Las retransmisiones innecesarias realizadas por el emisor en
presencia de grandes retardos, que provocan que venzan los temporizadores de
retransmisin antes de que lleguen los asentimientos, hacen que el ancho de banda de
los en-laces se utilice para encaminar copias innecesarias de los paquetes. Cuando un
paquete es desechado a lo largo de un camino, la capacidad de almacenamiento,
procesamiento y transmisin que fue utilizada en cada uno de los nodos y enlaces
anteriores, para encaminar ese paquete hasta el punto en el que es desechado, est
siendo desperdiciada.
Dinmica del control de la congestin
Bsicamente se distinguen dos tipos de mecanismos de control de congestin, atendiendo al
momento en el que actan:
Preventivos: Mecanismos que pretenden prevenir la congestin, denominados de lazo abierto.
Control de admisin: Se limita el nmero de usuarios o ujos.
Monitorizacin: Se vigila que un ujo no exceda su cuota de trco.

Regulacin de trco: Se modica el patrn de trco a la entrada de forma que sea ms


predicible.
Ejemplo: Servicio CBR (Constant Bit Rate) en ATM.
Reactivos: Mecanismos que intentan resolver el problema de la congestin cuando sta
aparece, denominados de lazo cerrado o con realimentacin.
Realimentacin directa: Los nodos de conmutacin avisan a los extremos cuando estn
congestionados o en peligro de congestin (envan paquetes especiales o marcan los paquetes
de datos si no los van a descartar). Ejemplo: Servicio ABR (Available Bit Rate) en ATM.
Realimentacin indirecta: Los extremos ineren la presencia de congestin en la red
basndose en las prdidas o en los retardos. Ejemplo: Control de congestin en TCP.
Control de Trafico
Dado que una de las principales causas de la congestin es que el trco es a rfagas, los
mecanismos de regulacin de trco fuerzan a las fuentes a transmitir de forma ms
predecible. En realidad, lo que se pretende es regularla tasa media y la variabilidad del trco
de entrada a la red. Aunque esta regulacin es ms fcil de implementar con circuitos
virtuales, puede aplicarse igualmente a redes de datagramas. Entre estos controles tenemos:
Leaky Bucket y Token Bucket.
Existen adems otros mecanismos que utilizan algo de teora de colas para regular la
congestin (Random Early Detection: equipos notan que la cola se est llenando y
aleatoriamente descartan paquetes para sealar congestin, Notificacin de Congestin
Explcita: Routers marcan los paquetes con un bit ECN (Explicit Congestion Notification) y host
Tx interpreta como signo de congestin).
Modelos de colas
En este tema se desarrollarn modelos sencillos para anlisis de colas que permitan
cuantificar el retardo y las prestaciones de los nodos de las redes de comunicacin. Una
caracterstica clave de las redes de comunicacin es la comparticin de recursos tales como el
ancho de banda, el almacenamiento y la capacidad de procesamiento.
Como la demanda de estos recursos es imprevisible, se da el caso en que los recursos no estn
disponibles cuando el usuario haga la peticin, lo que conduce a un retardo o la prdida del
servicio.
Anlisis del retardo y frmula de Little
La figura (1) muestra un modelo bsico para un sistema retardo/prdida. Los clientes llegan
al sistema de acuerdo con algn patrn de llegada, presentando peticiones de conexin
mensajes individuales, paquetes o celdas. El sistema puede ser una lnea de transmisin

individual, un multiplexor, un conmutador o incluso una red completa. El cliente pasa algn
tiempo T en el sistema y despus de este tiempo el cliente sale del sistema. Es posible
que bajo ciertas condiciones el sistema est en un estado de bloqueo, por ejemplo, debido a
la falta de recursos. Los clientes que llegan al sistema cuando est en este estado
quedan bloqueados o se pierden.
Insertar img1
Nos interesan las siguientes medidas de prestaciones:
1) Tiempo pasado en el sistema: T
2) Nmero de clientes en el sistema: N(t)
3) Fraccin de clientes que llegan que se pierden o se bloquean: Pb
4) Nmero medio de mensajes/segundo que pasan a travs del sistema: rendimiento
Los clientes llegan de forma aleatoria al sistema y permanecen en l un tiempo tambin
aleatorio. Sea A(t) el nmero de llegadas al sistema en el intervalo de tiempo de 0 a t. Sea B(t)
el nmero de clientes bloqueados y D(t) el nmero de clientes que salen en el mismo intervalo
de tiempo. El nmero de clientes en el sistema en un instante t viene dado por:
N(t) = A(t)-D(t)-B(t) ya que el nmero que ha entrado en el sistema hasta el instante t es A(t)B(t) y ya que B(t) de esos clientes se han ido en el instante t. Se supone que el
sistema est vaco en el instante t=0.
A largo plazo la velocidad de llegada al sistema viene dada por:

El rendimiento del sistema es igual a la velocidad de salida a


dada por:

El nmero medio en el sistema viene dado por:

La fraccin de clientes bloqueados es por tanto

largo plazo, que viene

La figura 2 representa una funcin muestra tpica A(t) que representa el nmero de llegadas al
sistema. Se supone que se empiezan a contar los clientes en el instante t=0. El primer cliente
llega en el instante 1 y A(t) cambia de 0 a 1 en este instante. La llegada del n-simo cliente
es en el instante 1+ .....+ n donde i es el tiempo transcurrido entre la llegada del
cliente i-1 y el i. La velocidad de llegada en el instante en el que el n-simo cliente llega viene
dada por n/(1+ ....+ n) clientes /segundo.
Insertar Img2
Por tanto la velocidad de llegada a largo plazo viene dada por:

Se supone que todos los tiempos entre llegadas son estadsticamente


independientes y tienen la misma distribucin de probabilidad y que el valor medio o
esperado viene dado por E[t]; por tanto la velocidad de llegada viene dada por el
recproco del tiempo medio entre llegadas.
Frmula de Little
Relaciona el tiempo medio pasado en el sistema E[T] y la velocidad de llegada con el nmero
medio de clientes en el sistema E[N] por medio de la siguiente frmula:
E*N+ = E*T+
Insertar img3
Suponemos que el sistema no bloquea a ningn cliente, como se ve en la figura (3) El nmero
en el sistema N (t) vara segn A(t) D(t). Supngase que se representan A(t) y D(t) en el
mismo grfico de la figura (4).
Ins img4
A(t) aumenta 1 cada vez que un cliente llega, y D(t) aumenta 1 cada vez que se va un cliente. El
nmero de clientes en el sistema N(t) viene dado por diferencia entre A(t) y D(t). El nmero de
salidas nunca puede ser mayor que el nmero de llegadas, y por tanto D(t) no puede estar
por detrs de A(t) como se muestra en la figura. Supongamos que los clientes se
atienden en forma de FIFO, entonces el tiempo T1 utilizado por el primer cliente es el
tiempo transcurrido entre el instante en el que A(t) pasa de 0 a 1 y en el instante en el
que D(t) pasa de 0 a 1, siendo T1 el rea del rectngulo definido por esos dos instantes
en la figura.

Considrese un instante t0 en el que D(t) alcanza a A(t); es decir N(t0) A(t0) D(t0) = 0.
Ntese que el rea entre A(t) y D(t) viene dada por la suma de los tiempos T0 empleados en el
sistema por los primeros A(t0) clientes. El tiempo medio del nmero de clientes en el sistema
hasta el instante t0 es pues:

Si se multiplica y divide la expresin anterior por A(t0) se obtiene:

Esta ecuacin quiere decir que hasta el instante t0 el nmero medio de clientes en el sistema
viene dado por el producto de la velocidad media de llegada A(t0)/t0 y la media
aritmtica del tiempo pasado en el sistema por los primeros A(t0) clientes. La frmula
de Little supone que:

Se puede demostrar que la frmula de Little es vlida si los clientes no han sido atendidos en el
orden en que llegaron. Ahora consideremos un sistema en que los clientes se pueden
bloquear. La frmula anterior implica que si reemplazamos A(t) por A(t) B(t), tenemos
el verdadero nmero de clientes que entran en el sistema. La verdadera velocidad de
llegada al sistema con bloqueo es (1- Pb) donde Pb es la fraccin de llegadas que estn
bloqueadas, por tanto la frmula de Little para un sistema con bloqueo es: E*N+ = ( 1- Pb)
E[T]. Esta frmula es vlida para un sistema que puede ser una lnea de transmisin individual,
un multiplexor, un conmutador o una red.
Figura (5)
En la figura (5) muestra una red de conmutacin de paquetes formada por
conmutadores de paquetes interconectados. Suponemos que cuando un paquete llega a un
conmutador el paquete es encaminado instantneamente y situado en un multiplexor para
esperar su transmisin por una lnea de salida. Entonces cada conmutador de paquetes
se puede ver como un conjunto de multiplexores. Empezamos a aplicar la frmula de
Little a la red como un todo. Sea Nred el nmero total de paquetes en la red; Tred el tiempo
que pasa el paquete en la red y red la velocidad total de llegada del paquete a la red.
Entonces la frmula de Little establece E*Nred+ = red E*Tred+
Esta frmula implica que el retardo medio experimentado por los paquetes al atravesar
la red es:

E*Tred+ = E*Nred+/red
Podemos refinar la ecuacin anterior aplicando la frmula de Little a cada multiplexor
individualmente. Para el multiplexor m la frmula de Little da: E*Nm+ = mE*Tm+ donde m
es la velocidad de llegada del paquete al multiplexor y E[Tm] es el tiempo medio que ha
pasado el paquete en el multiplexor.
El nmero total de paquetes en la red Nred es igual a la suma de los paquetes en todos los
multiplexores:
E*Nred+ = m E*Nm+ = m E*Tm+

Combinando las tres ecuaciones anteriores se obtiene una expresin para el retardo total
experimentado por un paquete cuando atraviesa toda la red:
E*Tred+ = E*Nred+/red = ,m m E*Tm+ - / red
Por tanto el retardo de la red depende de la velocidad total de llegada a la red, de la velocidad
de llegada a los multiplexores individuales, y del retardo en cada multiplexor. La
velocidad de llegada a cada multiplexor viene dada por el algoritmo de encaminamiento. El
retardo en un multiplexor depende de la velocidad de llegada y de la velocidad a la que la
lnea de transmisin asociada pueda transmitir paquetes. Entonces la frmula anterior
simplemente incorpora el efecto del encaminamiento as como el efecto de las capacidades
de las lneas de transmisin en la red. Por este motivo la expresin anterior se usa
frecuentemente en el diseo y gestin de redes de conmutacin de paquetes.