Anda di halaman 1dari 5

Procesos Estocsticos

Unidad 2. Cadenas de Markov a tiempo discreto


Actividad 4. Determinacin de distribuciones lmite
Karla Judith Andrew Mndez
AL12509552
Instrucciones: Resuelve cada una de las situaciones que se presentan a continuacin:
1. Supngase que un proceso de produccin cambia de estado de acuerdo a una
cadena de Markov cuya matriz es

1.

1/ 4

0
P
1/ 4

1/ 4

1/ 4 1/ 2 0

1/ 4 1/ 2 1/ 4
1/ 4 1/ 4 1/ 4

1/ 4 0 1/ 2

con S = {1, 2, 3, 4}, donde los estados 1 y 2 representan una buena produccin y los
estados 3 y 4 una mala. Es decir, si se pasa de cualquiera de los estados 1 y 2 a
cualquiera de los estados 3 y 4, la produccin decay. Si por el contrario se pasa de
cualquiera de los estados 3 y 4 a los estados 1 y 2; la produccin mejor.
Los estados se pueden determinar midiendo el tiempo de produccin, el costo de
produccin, el nmero de trabajadores que se requieren y el nmero de accidentes.
a) Determina la proporcin de tiempo que el proceso de produccin pasar en cada
estado a la larga.

1
1
1
v ( 1 )= v ( 1 ) + v ( 3 ) + v ( 4 )
4
4
4

1
1
1
1
v ( 2 )= v ( 1 ) + v ( 2 ) + v ( 3 ) + v ( 4 )
4
4
4
4
1
1
1
v ( 3 )= v ( 1 ) + v ( 2 ) + v ( 3 )
2
2
4
1
1
1
v ( 4 )= v ( 2 ) + v ( 3 ) + v ( 4 )
4
4
2
Vector resultante

v ( 1 ) +v ( 2 ) +v ( 3 ) +v ( 4 )=1
Obtenemos:

v ( 1 )=

3
1
7
13
, v ( 2 )= , v ( 3 ) = , v ( 4 )=
16
4
24
48

Proporciones de tiempo
Vector resultante:

Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
=v=

( 489 , 1248 , 1448 , 1348 )

Nuestras probabilidades quedan de la siguiente manera:

El

43.75

del tiempo el proceso tiene buena produccin

El

56.55

del tiempo el proceso tiene mala produccin

b) Qu puedes decir acerca de las veces que la produccin mejorar a la larga?


Podemos ver que cuando la produccin mejora pasa a los estados 3, 4 y 1,2 por
lo tanto concluimos que el proceso de produccin es mala siempre.
2. Considera 5 puntos localizados en una circunferencia y una cadena {Xn} que
recorre esos puntos de manera que en cada punto, con probabilidad p se da un
movimiento al siguiente punto en el sentido de las manecillas del reloj, y con
probabilidad q = 1 - p se da un movimiento al siguiente punto en el sentido
contrario a las manecillas del reloj.
a) Determina la matriz de transicin.
S={1,2,3,4,5}
Matriz

0
p
0
0 1 p
1 p 0
p
0
0
P= 0 1 p 0
p
0
0
0 1 p 0
p
p
0
0 1 p 0

b) A largo plazo, determina la proporcin de tiempo que la cadena pasa en cada


estado (como funcin de p).
Distribucin invariante del proceso:

v ( 1 )= pv ( 2 ) + ( 1p ) v ( 5 )
v ( 2 )=( 1 p ) v ( 1 ) + pv ( 3 )
v ( 3 )= (1p ) v ( 2 ) + pv ( 4 )
v ( 4 )=( 1p ) v ( 3 )+ pv ( 5 )
v ( 5 )=( 1p ) v ( 4 ) + pv (1 )
v ( 1 ) +v ( 2 ) +v ( 3 ) +v ( 4 ) +v ( 5 )=1
Proporciones de tiempo

Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
Vector resultante:

=v=

( 15 , 15 , 15 , 15 , 15 )

Las probabilidades quedan de la siguiente manera

El

20

del tiempo la cadena est en cada estado

3. Al principio de cada da, se inspecciona una pieza de cierto equipo para


determinar su condicin que se clasifica en 4 estados {1, 2, 3, 4} segn su nivel
de deterioro, donde 1 es el menor deterioro (pieza nueva) y 4 el mayor deterioro
(pieza descompuesta). Supongamos que la condicin de la pieza en la n-sima
inspeccin es Xn y que estas variables forman una cadena de Markov con matriz
de transicin

0
0
0.95 0.05

0
0.9
0.1
0

P
0
0
0.875 0.125

0
0
0
1
a) Determinar la proporcin de tiempo que la pieza pasa en cada estado a la larga.

Distribucin invariante del proceso:


v ( 1 )=0.95 v ( 1 ) + v ( 4 )
v ( 2 )=0.05 v ( 1 ) +0.9 v ( 2 )
v ( 3 )=0.1 v ( 2 ) +0.875 v ( 3 )
v ( 4 )=0.125

1
v (3)
4

v ( 1 ) +v ( 2 ) +v ( 3 ) +v ( 4 )=1

Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
v ( 1 )=0.51282 v ( 2 )=0.25641, v ( 3 )=0.20513, v ( 4 )=0.02564
Vector resultante:

=v=( 0.51282,0 .25641,0 .20513,0.02564 )

b) Supongamos que una pieza descompuesta requiere tres das para su reposicin
por una nueva. Para incorporar esto a la cadena de Markov agrega dos estados (5
y 6) y modifica adecuadamente la matriz de transicin.

S= {1,2,3,4,5,6 }
Dnde:
1=Nuevo
2=menor deterioro
3=mayor deterioro

4=descompuesta
5=da y medio
6=da y medio

Entonces la matriz de transicin queda de la siguiente manera


0.95 0.05 0
0 00
0 0.9 0.1
0 00
0
0
0.875
0.125
00
P=
0 0
0
0 10
0 0
0
0 01
1 0
0
0 00

Solucin:

Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
.05 .05
0 0
.9 .875
0
.9
.1
0
.05
.95
P=
0
0 .875 .125 .1
09
1
0
0 0 .875
1