OPERACIONES II
CADENAS DE MARKOV
CADENAS DE MARKOV
4.1 Introduccin a la cadena de Markov.
Las cadenas de Markov se han aplicado en reas tales como educacin,
mercadotecnia, servicios de salud, finanzas, contabilidad y produccin. Por ello,
podemos considerarlas como una herramienta muy importante para la ingeniera
industrial.
La cadena de Markov recibe su nombre del matemtico ruso Andrei Markov que
desarrollo el mtodo en 1907, permite encontrar la probabilidad de que un sistema
se encuentre en un estado en particular en un momento dado. Algo ms
importante an, es que permite encontrar el promedio a la larga o las
probabilidades de estado estable para cada estado. Con esta informacin se
puede predecir el comportamiento del sistema a travs del tiempo.
La cadena de markov es una serie de eventos, en la cual la probabilidad de que
ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas
de este tipo tienen memoria. Recuerdan el ltimo evento y esto condiciona las
posibilidades de los eventos futuros. Esta dependencia del evento anterior
distingue a las cadenas de Markov de las series de eventos independientes, como
tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los
patrones de compra de los deudores morosos, para planear las necesidades de
personal y para analizar el reemplazo de equipo.
En matemticas, se define como un proceso estocstico discreto que cumple con
la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su
instante actual, su estado presente resume toda la informacin relevante para
describir en probabilidad su estado futuro.
Definicin
Una cadena de Markov es una sucesin de ensayos similares u observaciones en
la cual cada ensayo tiene el mismo nmero finito de resultados posibles y en
donde la probabilidad de cada resultado para un ensayo dado depende slo del
resultado del ensayo inmediatamente precedente y no de cualquier resultado
previo.
Propiedad de Markov:
Dada una secuencia de variables aleatorias......, X 1 X2 X3,... tales que el valor de X n
es el estado del proceso en el tiempo n. Si la distribucin de probabilidad
condicional de Xn+1 en estados pasados es una funcin de X n+1 en estados
pasados es una funcin de Xn por s sola, entonces:
P(n)
ij
n
Ej
E i . Se tiene
(n)
k=1
Para
estados en la etapa
P( A BC)=P(AB C) P(BC)
Se sustituye
A ( Xn= j)
B ( Xn1=k)
C (X 0=i)
Entonces:
m
X n= j , X n1=k |X 0=i )=
m
P(X n= j |X n 1 =k X 0=i) P
k=1
X n1=k | X 0=i ) =
m
P ( X n = j |X n1 =k ) P
k=1
m
P P
k=1
(1 )
kj
( n1 )
ik
= P(ikn1 ) P(kj1 )
k=1
posibles
n1.
(n )
A ,B y C:
igual a 2,3, se obtiene que las matrices con esos elementos son:
P(2)
ik
Ya que
T2
y as sucesivamente. As,
P(ijn )=T n .
Ejemplo.
En una cierta regin el tiempo atmosfrico sigue la siguiente secuencia: Un da se
denomina soleado (S ) si el sol luce ms de la mitad del da, y se denomina
N
), si lo hace menos. Por experiencia, se sabe que si hay un da
nublado
de este proceso.
2. Si hoy est nublado, Cul es la probabilidad de que dentro de tres das est
tambin nublado? Y de que est soleado?
3. Calcula
T5
10
y T 0. Cul es el comportamiento de
? Cmo se comporta
n cuando
(1) Asumimos que el proceso es markoviamo y que el tiempo slo depende del da
anterior. Se tiene una cadena de Markov con dos estados: E 1 Da nublado
N ,
E 2 Da soleado
Es decir,
( )
1
2
T=
1
3
1
2
2
3
( )
1
(3 )
(0 ) 3
2
p =p T =( 1 0 )
1
3
1
2
=
2
3
= (1 0)
( )(
29
72
43
108
43
72 = 29 43 =( 0,403 0,597 )
65
72 72
108
P(23 )=
P(13 )=
29
72
y que
43
72 .
(3)
5
( )(
( )(
1
5
2
T =
1
3
1
2
0,40008 0,59992
=
2
0,39995 0,60005
3
1
T 10= 2
1
3
1
2
2
3
10
0,4
0,60000
0,40000
0,6
T n 0,4 0,6 =Q
0,4 0,6
De este modo,
(0 )
P1 + P 2
0,4 0,6 ) =
Ya que
(0 )
( 0)
P1 + P2 =1.
n pn
(0)
no depende de dnde se parte: p
Ahora sumamos las ecuaciones (3) y (4), multiplicando la ecuacin 4 por 0.2 con
el fin de eliminar z
Reemplazando x en (6)
0 12 3
0
1
P=
2
3
1
2
0
1
3
0
1
4
0
1
4
1
1
3
0
( )
0
0
0
0
1
3
1
Esta cadena se ilustra en forma grfica en la figura 1. All se ve que los cuatro
estados no constituyen una cadena irreducible, porque desde el estado 3 no se
puede llegar a los estados 0, 1 y 2. El estado 3 en s forma un conjunto cerrado y
en consecuencia es absorbente. Tambin se puede decir que el estado 3 forma
una cadena irreducible.
FIGURA 1
Ejemplo de los estados de una cadena
Markov
Bibliografia
1. Taha, Hamdy A.(2004) Investigacin de Operaciones. (7. Ed) Mxico:
Pearson
2. Investigacin de Operaciones II, mircoles, 25 de mayo de 2011,
Recuperado el 08 de noviembre de 2014, de:
http://investigaciondeoperaciones2ingind.blogspot.mx/2011/05/cadenas-demarkov.html