Anda di halaman 1dari 10

Procesos Estocsticos

Unidad 2. Cadenas de Markov a tiempo discreto


Actividad 4. Determinacin de distribuciones lmite
Instrucciones: Resuelve cada una de las situaciones que se presentan a
continuacin:
1. Se realiz una encuesta de mercado de tres marcas de chocolates: X, Y, Z. Cada vez
que el cliente compra un nuevo paquete, puede comprar de la misma marca o cambiar
a otra. Se han obtenido los siguientes datos estimados:

Marca recin
comprada
X Y Z
Marca X 0.7 0.2 0.1
Presente Y 0.3 0.5 0.2
Z 0.3 0.3 0.4

Se estima que en este momento el 30% de los clientes compran la


marca X, 20% la marca Y y el 50% la marca Z.
a) Trazar el grafo

b) Indicar a la larga cul ser la marca preferida.

La distribucin lmite y para obtenerla, buscamos la nica distribucin invariante:


v = vp
0.7 0.2 0.1
(1 2 3) = (1 2 3) (0.3 0.5 0.2)
0.3 0.3 0.4

1 = .7 1 + .3 2 + .3 3
2 = .21 + .52 + .33
3 = .1 1 + .2 2 + .4 3
1 + 2 + 3=1
La solucin usando excelMarkovChains.xls es:
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto

1=1/2
2= 0.3125
3=0.1875
La marca preferida es X a lo largo del tiempo, con una probabilidad de compra de
0.5.
c) Suponga que en una tienda se tienen 45 cajas de cada marca de
chocolates, cuntas cajas de cada tipo comprarn los clientes?

De acuerdo a los resultados anteriores:


1
(1 2 3) = ( , 0.3125, 0.1875) 45 = (22.5, 14.06, 8.43)
2
Por lo que de la marca X se vendern 22.5, de la marca Y 14.06 cajas, de la
marca Z 8.43 cajas.

d) Si de estos chocolates vendidos, los clientes los compraron para la


caja de la marca A en $100, para B en $120 y para c en $95, cunto
dinero tendr la tienda? Si la tienda compro cada caja de la marca A
en $65, para la marca B en $85 y en $60 para la marca C, cul ser la
ganancia neta?

Ganancia de acuerdo a lo vendido y precio de venta.


100
(22.5, 14.06, 8.43) (120) = 2250 + 1687.2 + 800.85 = 4738.05
95
Costo total de cada marca de chocolates de las 45 cajas por marca.
45
(65, 85, 60) (45) = 2925 + 3825 + 2700 = 9450
45
La ganancia neta de lo vendido y los costos de las cajas.
4738.05 9450 = 4711.95
Dado que no se venden todas las cajas hay una prdida de 4711.95
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
2. Supngase que un proceso de produccin cambia de estado de acuerdo a una
cadena de Markov cuya matriz es

2/5 1/5 0 2/5


1/4 1/4 1/2 0
0 1/10 1/2 2/5
1/3 1/3 0 1/3

con S = {1, 2, 3, 4}, donde los estados 1 y 2 representan una buena


produccin y los estados 3 y 4 una mala. Es decir, si se pasa de cualquiera de
los estados 1 y 2 a cualquiera de los estados 3 y 4, la produccin decay. Si
por el contrario se pasa de cualquiera de los estados 3 y 4 a los estados 1 y 2;
la produccin mejor.
Los estados se pueden determinar midiendo el tiempo de produccin, el costo
de produccin, el nmero de trabajadores que se requieren y el nmero de
accidentes.
a) Elabora el grafo correspondiente

b) Determina la proporcin de tiempo que el proceso de produccin pasar en


cada estado a la larga.

La distribucin lmite y para obtenerla, buscamos la nica distribucin


invariante:
v = vp
2/5 1/5 0 2/5
1/4 1/4 1/2 0
(1 2 3 4) = (1 2 3 4) ( 0 1/10 )
1/2 2/5
1/3 1/3 0 1/3

1 = 2/51 + 1/5 2 + 0 3+ 2/5 4


2 = 1/41 + 1/42 + 1/23+ 0 4
3 =0 1 + 1/10 2 +1/2 3+ 2/5 4
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
4 =1/3 1 + 1/3 2 +0 3+ 1/34

1 + 2 + 3+ 4=1
La solucin usando excelMarkovChains.xls es:

La proporcin de tiempo que el proceso de produccin pasar en cada estado a la


larga:

(1 2 3 4) = (0.255682 0.227273 0.227273 0.289773)

Los tiempos medios:


(11 22 33 44) = (1/1 1/2 1/3 1/4) = (3.9 4.3 4.3 3.4)

c) Qu puedes decir acerca de las veces que la produccin mejorar a la larga?

Los estados 1 y 2 que representan una buena produccin, los valores de :

1 = 0.255682
2 = 0.227273

La probabilidad de que mejore la produccin a la larga corresponde a:

1 + 2 = 0.255682 + 0.227273 = 0.482955

3. Una particular se mueve sobre un circulo por los puntos 1,2,3,4, 5 (en el sentido de las
manecillas del reloj). La partcula comienza en el punto 2. En cada paso tiene una
probabilidad de 0.3 de moverse un punto en el sentido de las manecillas del reloj (0
sigue al 3) y una probabilidad de 0.7 de moverse un punto en el sentido opuesto a la
manecillas del reloj. Sea Xn (n0) la localizacin en el crculo despus del paso n:

A) Establece S y T, as como el grafo


Sea Xn (n0) la localizacin en el crculo despus del paso n
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
S = {1,2,3,4,5} Los posibles estados donde la partcula puede moverse
T = (0, 1, 2,3 , m) nmero de movimiento de la partcula sobre el crculo.

B) Determina la matriz de transicin.

0 0.3 0 0 0.7
0.7 0 0.3 0 0
0 0.7 0 0.3 0
0 0 0.7 0 0.3
(0.3 0 0 0.7 0 )

C) Encuentra la matriz Pn n=5,10


5
0 0.3 0 0 0.7
0.7 0 0.3 0 0
P5 = 0 0.7 0 0.3 0 =
0 0 0.7 0 0.3
(0.3 0 0 0.7 0 )

Utilizando excelMarkovChains.xls :

Output (5-step) transition matrix


1 2 3 4 5
1 0.05535 0.4263 0.03654 0.46858 0.01323
2 0.32242 0.01566 0.47922 0.03654 0.14616
3 0.05355 0.4459 0.01566 0.47922 0.00567
4 0.29379 0.05355 0.4459 0.06858 0.13818
5 0.13818 0.29379 0.17703 0.33565 0.05535
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
10
0 0.3 0 0 0.7
0.7 0 0.3 0 0
P10 = 0 0.7 0 0.3 0 =
0 0 0.7 0 0.3
( 0.3 0 0 0.7 0 )

Utilizando excelMarkovChains.xls :

Output (10-step) transition matrix


1 2 3 4 5
1 0.28196 0.075544 0.418168 0.095599 0.128728
2 0.079489 0.396274 0.068958 0.432868 0.022411
3 0.289143 0.064122 0.430574 0.083658 0.132502
4 0.096647 0.369176 0.098422 0.404388 0.031367
5 0.218111 0.17668 0.308076 0.201917 0.095216

D) A largo plazo, determina la proporcin de tiempo que la cadena pasa en


cada punto.

La distribucin lmite y para obtenerla, buscamos la nica distribucin invariante:


v = vp
0 0.3 0 0 0.7
0.7 0 0.3 0 0
(1 2 3 4 5) = (1 2 3 4 5) 0 0.7 0 0.3 0
0 0 0.7 0 0.3
(0.3 0 0 0.7 0 )

1 = 01 + 0.7 2 + 0 3+ 0 4+0.3 5
2 = 0.31 + 02 + 0.73+ 0 4+ 0 5
3 =0 1 + 0.3 2 +0 3+ 0.7 4+ 0 5
4 =0 1 + 0 2 +0.3 3+ 04+0.7 5
5 =0.7 1 + 0 2 +0 3+ 0.34+0 5

1 + 2 + 3+ 4+ 5=1

La solucin usando excelMarkovChains.xls es:


Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto

(1 2 3 4 5) = (0.2 0.2 0.2 0.2 0.2)

E) Compara los resultados obtenidos en C y D.

Absolute Absolute Steady


State (5-step) (10-step) state
1 0.1705 0.13117 0.2
2 0.1323 0.26827 0.2
3 0.36015 0.15782 0.2
4 0.02835 0.20026 0.2
5 0.3087 0.24248 0.2
En general se acercan las probabilidades absolutas al estado estacionario, sin
embargo brinca en otros valores para n.

Absolute Absolute Absolute Absolute Steady


State (5-step) (8-step) (10-step) (15-step) state
1 0.1705 0.10432 0.13117 0.21386 0.2
2 0.1323 0.25419 0.26827 0.20482 0.2
3 0.36015 0.20765 0.15782 0.17834 0.2
4 0.02835 0.13614 0.20026 0.23021 0.2
5 0.3087 0.2977 0.24248 0.17277 0.2
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
4. Una tienda inicia cada semana con al menos 3 PC. La demanda por semana se
estima:
Demanda 0 1 2 3 4

Probabilidad 0.2 0.1 0.30 0.3 0.1


de Demanda

La demanda insatisfecha se deja pendiente. La poltica de la tienda es colocar un


pedido para entregarse al inicio de la siguiente semana siempre que el nivel del
inventario se reduzca por debajo a 3 PC. El nuevo pedido siempre regresa las
existencias a 5 PC.
1. Definir Xt, S y T (la variable aleatoria puede ser el inventario)

{X} t Es el nmero de inventario para las PCs al momento de iniciar el proceso.

S {0,1, 2, 3] o S {4, 5}: Los estados posibles las PCs en inventario al final de c/ semana.
Aqu se debe considerar que se coloca un pedido cuando el inventario este por debajo de
3 PC.
T{0,1,2,3,,n} representa la semana a lo largo del proceso.

2. Plantear el grafo

3. Plantear la matriz estocstica

1 2 3 4 5
s1 0.2 0.1 0.3 0.3 0.1
s2 0.2 0.1 0.3 0.3 0.1
s3 0.2 0.1 0.3 0.3 0.1
s4 0.2 0.1 0.3 0.3 0.1
s5 0.2 0.1 0.3 0.3 0.1
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
En el inventario puede haber de 3 a 5 unidades, nunca se vas a llegar a los estados 0,1,2,
debido a que eso implicara tener menos de 3 unidades. Se puede pasar 3 a 3 con una
probabilidad de no vender nada esa semana 0.2.

No se puede pasar a 4, pasar a cinco sera vendiendo 1, 2, 3, y se suman las


probabilidades, Se podra bajar a menos 3 unidades pero dado que es el mnimo que
tiene el inventario se debe regresar a 5 unidades y se realiza para el estado 4 y 5. Por lo
que no necesitan los primeros estados 0,1,2, y queda una matriz de 3 x3.

3 4 5
s1 0.2 0 0.80
s2 0.3 0.2 0.5
s3 0.7 0.1 0.2
La matriz estocstica:
0.2 0 0.8
= (0.3 0.2 0.5)
0.7 0.1 0.2

4. Cmo se la distribucin a la larga? Cuntas unidades se tendr en el


inventario con mayor cantidad a largo plazo?

La solucin usando excelMarkovChains.xls:

Cuntas unidades se tendr en el inventario con mayor cantidad a largo plazo?

La cantidad de unidades que se tendr a lo largo del tiempo es de 4, debido a:

3(0.4503)+4(0.0610)+5(0.4885)= 4.0374
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
5. Si se tiene un costo de inventario de $100 por computadora por
semana, a largo plazo cul ser el costo total del inventario.

El costo de 3 a 3
100(0)=0
El costo de 3 a 4
100(0)=0
El costo de 3 a 5
100(4)=400
A lo largo el costo total de inventario es $400

Referencias:
http://uamero-tools.blogspot.mx/2014/02/investigacion-de-operaciones-wayne-l.html
http://es.slideshare.net/lupiuxlupiux/ejemplos-de-estacionalidad
Hillier y Lieberman (2010). Introduccin a la Investigacin de Operaciones. 9na. Edicin.
Mc Graw Hill.
Taha, H. (2012). Investigacin de Operaciones. 9na. Edicin. Pearson.

Anda mungkin juga menyukai