Ingeniería Industrial
Unidad IV
Diciembre, 2018
4.1. Introducción a las cadenas de Markov
p11 p12 p 1S
p p 22 p 2 S
P 21
p S1 pS2 p SS
P( X
s
t 1 j | X t i) 1 p ij 1
j 1 o bien que j 1
También sabemos que cada elemento de la matriz P debe ser no negativo. Por lo
tanto, todos los elementos de la matriz de probabilidad de transición son no
negativos y además, los elementos de cada renglón deben sumar 1.
Estado
0 1 2 3 4
0 1 0 0 0 0
1 1-p 0 P 0 0
P = 2 0 1-p 0 P 0
3 0 0 1-p 0 p
4 0 0 0 0 1
Una matriz de transición se puede representar con una gráfica en la que cada nodo
represente un estado y arc(i, j) represente la probabilidad de transición pij. La Fig. 1
es una representación gráfica de la matriz de probabilidad de transición para este
ejemplo.
Figura 1
Representación
gráfica de la
matriz de
transición para
el ejemplo de la
ruina del jugador
Estado
[0, 1, 1] 0 ½ ½ 0 0 0
[0, 2, 0] 1 0 0 0 0 0
P = [0, 0, 2] 1 0 0 0 0 0
[2, 0, 0] 0 0 0 0 ½ ½
[1, 1, 0] ¼ ¼ 0 0 0 ½
[1, 0, 1] ¼ 0 ¼ 0 ½ 0
Para ver cómo se forma la matriz de transición, determinaremos el renglón [1, 1, 0].
Si el estado actual es [1, 1, 0], dadas las condiciones del problema, no es posible
pasar a cualquiera de los estados [0, 0, 2], [2, 0, 0] y [1, 1, 0] y por lo tanto la
probabilidad de transición del estado [1, 1, 0] a cualquiera de estos estados es cero.
Ahora bien, si el estado es [1, 1, 0] para alcanzar el estado [0, 2, 0] debe ocurrir que
se escoge una bola sin pintar (con probabilidad ½) y que el resultado del
lanzamiento de la moneda sea cara (con probabilidad ½), lo que da una probabilidad
de ¼. Pero si lo que ocurre es que se saca una bola sin pintar (con probabilidad ½)
y el resultado del lanzamiento de la moneda es sello (con probabilidad ½) se alcanza
el estado [0, 1, 1] con probabilidad ¼. Finalmente, si se escoge la bolla roja (con
probabilidad de ½), sin importar el resultado del lanzamiento de la moneda a esta
se le cambiará el color y se alcanza así el estado [1, 0, 1] con probabilidad ½. Lo
anterior se resume en la Tabla 1.
Figura 2
Representaci
ón gráfica de
la matriz de
transición
para el
ejemplo de la
urna
Ejemplo 2.3 (Continuación) En los últimos años, los estudiantes de finanzas han
dedicado mucho esfuerzo a contestar la pregunta de si el precio diario de una acción
se puede describir mediante una cadena de Markov. Supongamos que el precio
diario de una acción, como el de la compañía de computadoras CSL, se puede
representar por una cadena de Markov. ¿Qué nos dice esto? Simplemente que la
distribución de probabilidad del precio de las acciones mañana depende sólo del
precio de hoy, pero no de los precios anteriores. Si el precio de una acción se puede
representar como cadena de Markov, los “tablistas” que tratan de predecir los
precios futuros sobre la base de los comportamientos seguidos durante el pasado
están mal. Por ejemplo, supongan que el precio diario de una acción de CSL sigue
una cadena de Markov y el precio de hoy es 50 dólares. Entonces, para predecir el
precio de mañana no importa si el precio ha aumentado o disminuido durante cada
uno de los últimos 30 días. En cualquier caso, o en cualquier otro caso que pudiera
haber conducido al precio actual de 50 dólares, la predicción del precio de mañana
se debe basar sólo en el hecho de que hoy el precio de esas acciones es de 50
dólares. En la actualidad, el consenso es que para la mayor parte de las acciones,
su cotización diaria se puede describir con una cadena de Markov. A esta idea se
le llama con frecuencia hipótesis del mercado eficiente.
0 1 2 3
e x
1
La distribución Poisson esta dada por: P( X x) x!
Si x 0, 1, 2,
0, en cualquier otro caso
0 .080 .184 .368 .368
1 .632 .368 0 0
P
2 .264 .368 .368 0
3 .080 .184 .368 .368
Figura 3
Representación
gráfica para la
matriz de transición
para el problema
de inventario.
Es claro que pij(1) = pij. Para determinar pij(2) nótese que si el sistema se encuentra
hoy en el estado i, entonces para que el sistema termine en el estado j dentro de 2
periodos, debe pasar del estado i al estado k y después pasar del estado k al estado
j (Fig. 3). Este modo de razonar nos permite escribir
k s
p ij (2) (probabili dad de transición de i a k )( probabilid ad de transición de k a j )
k 1
K s
p ij (2) p ik p kj
k 1 (4)
El segundo miembro de la ecuación (3) es tan sólo el producto escalar del renglón i
de la matriz P por la columna j de esa matriz. Por lo tanto, pij(2) es el ij-ésimo
elemento de la matriz P2. Generalizando este modo de razonar, se puede demostrar
que para n > 1,
Figura 4
1 si j i
p ij (0)
0 si j i
Ejemplo 3.1 Ejemplo de Cola. Suponga que toda la industria de refrescos produce
dos colas. Cuando una persona ha comprado la cola 1, hay una probabilidad de
90% de que su siguiente compra sea de cola 1. Si una persona compró cola 2, hay
80% de probabilidades que su próxima compra sea de cola 2.
1. Si actualmente una persona es comprador de cola 2, ¿cuál es la probabilidad que
compre cola 1 pasadas dos compras a partir de hoy?
Solución Consideraremos que las compras de cada una de las personas son
una cadena de Markov, y que el estado en cualquier momento es el tipo de cola que
compró la persona por última vez. Por lo tanto, las compras de cola por parte de
cada una de las personas se pueden representar con una cadena de Markov de dos
estados donde
Si definimos Xn como el tipo de cola que compra una persona en la n-ésima compra
futura (la compra actual = X0), entonces X0, X1, se pueden describir como una
cadena de Markov con la siguiente matriz de transición:
1 2
P= 1 0.90 0.10
2 0.20 0.80
Por lo tanto, p21(2) = 0.34. Esto significa que hay probabilidad 0.34 de que la persona
que compra cola 2 compre cola 1, después de dos compras a partir de ahora. Con
la teoría básica de probabilidad, podemos obtener esta respuesta siguiendo un
camino distinto (Fig. 4). Nótese que p21(2) = (probabilidad que la siguiente compra
sea cola 1 y la segunda sea cola 1) + (probabilidad que la siguiente compra sea cola
2 y la segunda sea cola 1) = p2Ip11 + p22p21= (0.20)(0.90) + (0.80)(0.20) = 0.34.
Figura 5
Probabilidad de
que a dos
periodos a partir
de ahora, un
comprador de
cola 2 compre
cola 1.
Figura 6
Determinación
de la
probabilidad de
estar en el
estado j en el
tiempo n cuando
se desconoce el
estado inicial
is
q i p ij (n)
i 1
0.781
0.60 0.40 0.6438
0.438
Por lo tanto, a tres compras de este momento el 64% de las personas estará
comprando cola 1.
En nuestra descripción del ejemplo de Cola (Ejem. 4), encontramos que después
de largo tiempo, la probabilidad de que la siguiente compra de una persona fuera
de cola 1 tiende a 0.67, y la de que la compra siguiente fuera de cola 2 a 0.33 (Tabla
2). Estas probabilidades no dependieron de si la persona era al principio tomador
de cola 1 o de cola 2. En esta sección describiremos el importante concepto de
probabilidades de estado estable, el cual se puede usar para describir el
comportamiento de una cadena de Markov a largo plazo.
2
Para ver por qué el teorema 1 no puede ser válido para una cadena no ergódica, véanse los problemas 9 y
10 al final de esta sección.
1 2 s
s
lim P n 1 2
n
1 2 s
Observe que para n grande, Pn tiende a una matriz con renglones idénticos. Esto
quiere decir que después de mucho tiempo, la cadena de Markov se estabiliza e,
independientemente del estado inicial i, hay una probabilidad j de que nos
encontremos en el estado j.
s
pij (n 1) pik (n) p kj
k 1 (8)
s
j k p kj
k 1 Para j = 0, 1, , s (9)
=P (9')
Así, después de reemplazar cualquiera de las ecuaciones (9) por (11), podemos
usar el nuevo conjunto de ecuaciones para despejar las probabilidades de estado
estable.
0.90 0.10
P
0.20 0.80
0.90 0.10
1 2 1 2
0.20 0.80
1 = 0.901 + 0.202
2 = 0.101 + 0.802
1 = 0.901 + 0.202
1 = 1 + 2
Al despejar 1 y 2, resulta que 1 = 2/3 y 2 = 1/3. Por lo tanto, después de largo
tiempo, hay probabilidad 2/3 de que una persona dada compre cola 1 y 1/3 de
probabilidad de que una persona dada compre cola 2.
INTERPRETACIÓN INTUITIVA DE LAS PROBABILIDADES DE ESTADO
ESTABLE
j (1 p jj ) k p kj
k j
(12)
= j(1 pjj)
= k (probabilidad de que el periodo actual comience en k j)
k p kj
= k j
Es aceptable la ecuación (12). Si fuese violada para cualquier estado, entonces para
un estado j el lado derecho de (12) sería mayor que el lado izquierdo. Esto
ocasionaría una probabilidad de “acumulación” en el estado j y no existiría una
distribución de estado estable. Se puede considerar que la ecuación (12) dice que
en el estado estable, el “flujo” de probabilidad hacia cada estado debe ser igual al
flujo de probabilidad que sale de cada estado. Esto explica por qué las
probabilidades de estado estable se llaman con frecuencia probabilidades de
equilibrio.
Ejemplo 4.1 Suponga, en el Ejem. 3.1, que cada cliente hace una compra de cola
durante cualquier semana (52 semanas = 1 año). Suponga que hay 100 millones de
clientes de cola. La producción de una unidad de venta de cola cuesta 1 dólar y se
vende a 2 dólares. Una empresa de publicidad garantiza, por 500 millones de
dólares al año, un decremento del 10% al 5% de la fracción de consumidores de
cola 1, que se cambian a cola 2 después de una compra. ¿Debe contratar a la
empresa de publicidad la compañía que fabrica la cola 1?
0.95 0.05
P1
0.20 0.80
1 = 0.951 + 0.202
2 = 0.051 + 0.802
mij p ij (1) [ p ik (1 m kj )]
k j
para j = 1, 2, , s
Como
p ij p ik 1
k j
,
mij 1 p ik m kj
k j
para j = 1, 2, , s (14)
1
mii
i
1 1
m11 2
1.5 m22 1
3
3 y 3
Resolviendo esas ecuaciones encontrarnos que m12 = 10 y m21 = 5. Esto quiere decir
que, por ejemplo, una persona que había tomado cola 1 tomará un promedio de
diez botellas de refresco antes de cambiar a cola 2.
Ejemplos:
Identificando estados:
Utilizaremos un vector que indique la situación los últimos dos años [año1 año2].
una N indica que no se tuvieron accidentes y S indica que se ha tenido un accidente.
Probabilidades de transición:
Probabilidad Probabilidad
de de no
accidentarse accidentarse
este año este año
Se accidento
0.10 0.90
el último año
No se
accidento el 0.03 0.97
último año
Año: 1 2
Se accidentó: N N
Si este año (3) no se accidenta (p = 0.97, pues es la probabilidad de que este año
no se accidente dado que el último año no se accidentó) se tendría:
Año: 1 2 3
Se accidentó: N N N
Si este año (3) se accidenta (p = 0.03, pues es la probabilidad de que este año se
accidente dado que el último año no se accidentó) se tendría:
Año: 1 2 3
Se accidentó: N N S
E0 con p = 0.97
E2 con p = 0.03
Año: 1 2
Se accidentó: S S
Si este año (3) no se accidenta (p = 0.9, pues es la probabilidad de que este año no
se accidente dado que el último año se accidentó) se tendría:
Año: 1 2 3
Se accidentó: S S N
Si este año (3) se accidenta (p = 0.1, pues es la probabilidad de que este año se
accidente dado que el último año se accidentó) se tendría:
Año: 1 2 3
Se accidentó: S S S
E2 con p = 0.9
E1 con p = 0.1
Condición inicial 1
Año: 1 2
Se accidentó: S N
Condición inicial 2
Año: 1 2
Se accidentó: N S
Se accidentó: S N
Si este año (3) no se accidenta (p = 0.97, pues es la probabilidad de que este año
no se accidente dado que el último año no se accidentó) se tendría:
Año: 1 2 3
Se accidentó: S N N
Si este año (3) se accidenta (p = 0.03, pues es la probabilidad de que este año se
accidente dado que el último año no se accidentó) se tendría:
Año: 1 2 3
Se accidentó: S N S
Año: 1 2
Se accidentó: N S
Si este año (3) no se accidenta (p = 0.9, pues es la probabilidad de que este año no
se accidente dado que el último año se accidentó) se tendría:
Año: 1 2 3
Se accidentó: N S N
Si este año (3) se accidenta (p = 0.1, pues es la probabilidad de que este año se
accidente dado que el último año se accidentó) se tendría:
Año: 1 2 3
Se accidentó: N S S
E0 p = 0.97*0.5 = 0.485
E2 p = 0.03*0.5 = 0.015
Note que las probabilidades se multiplicaron por 0.5 porque son 2 condiciones y la
probabilidad de que cada una se presente al inicio es 0.5.
Uniendo ambas condiciones de inicio se tiene que de E2 se puede pasar a:
E0 con p = 0.485
E1 con p = 0.05
E0 E1 E2
E0 0.97 0 0.03
P
E1 0 0.1 0.9
E 2 0.485 0.05 0.465
q·P=q q x y z
0.97 0 0.03
x y
z 0 0.1 0.9 x y z
0.485 0.05 0.465
0.97 x 0.485 z x
0.1 y 0.05 z y
0.03 x 0.9 y 0.465 z z
x y z 1
x = 0.938709677 E0
y = 0.003225806 E1
z = 0.058064516 E2
Probabilidades de transición:
E0 con p = 0.97 [N N] [N N]
E3 con p = 0.03 [N N] [N S]
De E1 podemos pasar a :
E2 con p = 0.9 [S S] [S N]
E1 con p = 0.1 [S S] [S S]
De E2 podemos pasar a:
E0 con p = 0.97 [S N] [N N]
E3 con p = 0.03 [S N] [N S]
De E3 podemos pasar a:
E2 con p = 0.9 [N S] [S N]
E1 con p = 0.1 [N S] [S S]
E0 E1 E 2 E3
E 0 0.97 0 0 0.3
P E1 0 0.1 0.9 0
E 2 0.97 0 0 0.03
E3 0 0.1 0.9 0
Encontrando las probabilidades de estado estable por medio de ecuaciones:
q·P=q q w x y z
0.97 0 0 0.03
0 0.1 0.9 0
w x y z w x y z
0.97 0 0 0.03
0 0.1 0.9 0
0.97 w 0.97 y w
0.1x 0.1z x
0.9 x 0.9 z y
0.03w 0.03 y z
w x y z 1
w = 0.938709677 E0
x = 0.003225806 E1
y = 0.029032258 E2
z = 0.029032258 E3
Identificando estados
E0: Fase 1
E1: Fase 2
E2: Fase 3
E3: Abandona
E4: Completa el juego (gana)
E0 E1 E2 E3 E4
E3 0 0 0 1 0
E4 0 0 0 0 1
Q R
P
0 I
Dónde:
E0 E1 E2
E 0 0.2 0.75 0
Q
E1 0.05 0.3 0.5
E2 0 0.05 0.35
E3 E 4
E 0 0.05 0
R
E1 0.15 0.3
E 2 0.10 0.5
E3 E 4
I E3 1 0
E4 0 1
1 0 0 0.2 0.75 0
Identidad Q 0 1 0 0.05 0.3 0.5
0 0 1 0 0.05 0.35
0.8 0.75 0
Identidad Q 0.05 0.7 0.5
0 0.05 0.65
Note que en la matriz anterior sus filas no son vectores de probabilidad (no suman
1) pues estas representan el número promedio de periodos que se espera pasar en
cada estado transitorio antes de caer en uno absorbente.
Un jugador que empiece a jugar (E0) tardará en promedio 1.34 periodos en la Fase
1 1.52 periodos en la Fase 2 y 1.17 periodos en la Fase 3, antes de ganar o
abandonar el juego (caer en un estado absorbente). Note que sólo se sabe que se
caerá en algún estado absorbente, pero no se conoce en cuál.
Pero para averiguar lo que nos piden debemos calcular [(Identidad – Q)-1 * R]
0.41337505 0.58662495
( Identidad Q) R 0.37426672 0.62573328
1
0.1826359 0.8173641
Note que en esta matriz las filas si son vectores de probabilidad (suman 1).
De esta matriz podemos leer que el 58.66% de quienes inician el juego (E0) logran
completarlo o ganar (E4).
Referencias
https://es.scribd.com/doc/60169344/Problemas-Resueltos-Cadenas-de-
Markov
https://es.scribd.com/doc/137878959/Cadenas-de-Markov