7
8 CAPÍTULO 1. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS.
X : T ⇥ ⌦ ! S,
tal que a cada pareja (t, !) 2 (T, ⌦) se le asocia X(t, !) = Xt (!) y de esta
manera para cada t 2 T la función de
! ! Xt (!)
t ! Xt (!)
1.3. Ejemplos
Presentaremos algunos ejemplos de procesos estocásticos.
1.3. EJEMPLOS 9
cap=c ( cap , nc )
}
plot ( cap , main=" T r a y e c t o r i a � de � l a � Fortuna � h a s t a � l a � Ruina " , x l a b=" Volados " )
return ( cap )
}
r u i n_j u g ( 1 0 )
0 20 40 60 80 100 120
Volados
mueve hasta que todos han sido visitados, ¿cuál es la probabilidad de que el
nodo i con i 2 0, 1, . . . , m, es el último que se visita?, este tipo de cuestiones
podremos responder con el estudio de los procesos estocásticos.
y
Qt = Xt minst {Xs }.
De esta forma el procesos {Qt }t 0 representa el tiempo de servicio necesario
para atender a los clientes que se encuentran en el banco al tiempo t.
t < c ( t , t a i l ( t , 1 ) + t a i l ( q , 1 ) , t a i l ( t , 1 ) + taux )
q < c ( q , 0 , rexp ( 1 , l s ) )
}
plot ( t , q )
return ( l i s t ( t , q ) )
tiem_e s p ( pi , ps ,T)
1.5
q
0.0
Este modelo tiene sus orígenes en la tesis doctoral de Filip Lundberg defen-
dida en el año de 1903. En este trabajo Lundberg analiza el reaseguro de riesgos
colectivos y presenta el proceso de Poisson compuesto. En 1930 Harald Cramér
retoma las ideas originales de Lundberg y las pone en el contexto de los procesos
estocástico. El modelo ha sido estudiado en extenso y se han propuesto varias
formas de generalizarlo.
donde:
u es el capital inicial de la compañía aseguradora
ct es la entrada por primas hasta el tiempo t con c una constante positiva
Yj es el moneto de la j ésima reclamación, y
Nt es un proceso de Poisson de parámetro .
Ct representa el balance más sencillo de ingresos menos egresos de una compañía
aseguradora. Al proceso Ct se le llama proceso de riesgo o proceso de superávit
1.3. EJEMPLOS 13
break
}
i f ( tiempo > T) break
}
return ( c ( r u i n a , s e v e r i d a d ) )
}
s i m u l a c i o n e s < NULL
n < 100
f o r ( i i n 1 : n ) s i m u l a c i o n e s < rbind ( s i m u l a c i o n e s , cramlund ( 1 0 0 , 1 5 , 1 / 2 , 2 , 1 . 5 , 3 6 5 ) )
proba < mean( s i m u l a c i o n e s [ , 1 ] )
sevprom < ( s i m u l a c i o n e s [ , 1 ] %⇤ %s i m u l a c i o n e s [ , 2 ] ) /sum( s i m u l a c i o n e s [ , 1 ] )
14 CAPÍTULO 1. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS.
c(0, 0)
600
0
X t1 X t0 , . . . , X tn Xtn 1
son independientes.
1.5. CARACTERÍSTICAS PRINCIPALES DE LOS PROCESOS ESTOCÁSTICOS15
P (Xtn = xn |Xtn 1
= xn 1 , . . . , X t0 = x0 ) = P (Xtn = xn |Xtn 1
= xn 1)
Z Z
E(Xt1 Xt2 ) = x1 x2 dFXt1 ,Xt2 (x1 , x2 )
E E
donde FXt1 ,Xt2 es la función de densidad conjunta de las variables aleatorias
Xt1 yXt2 .
17
18 CAPÍTULO 2. CADENAS DE MARKOV A TIEMPO DISCRETO
Figura 2.1:
0 1
0 1/2 0 1/2 0 0 0 0 0
B1/3 0 1/3 0 1/3 0 0 0 0 C
B C
B 0 1/2 0 0 0 1/2 0 0 0 C
B C
B1/3 0 0 0 1/3 0 1/3 0 0 C
B C
P =B
B 0 1/4 0 1/4 0 1/4 0 1/4 0 C
C
B 0 0 1/3 0 1/3 0 0 0 1/3C
B C
B 0 0 0 1/2 0 0 0 1/2 0 C
B C
@ 0 0 0 0 1/3 0 1/3 0 1/3A
0 0 0 0 0 1/2 0 1/2 0
Hay dos características importantes que debemos notar en la matriz:
A partir de este ejemplo podemos proponer varias preguntas para las cuales
la teoría subsecuente nos ayudará a encontrar respuestas.
2.1. DEFINICIONES ELEMENTALES 19
4. Para m 1
(m)
pij = P (Xm+n = j|Xn = i),
día está soleado, con l si llueve y con n si nieva. Con esta notación tenemos las
siguientes probabilidades de transición:
Demostración:
P( x (Uj ) = y) = pxy ,
1 La función de cuantiles de una función de distribución F es la función : (0, 1) ! R dada
por
(u) = inf{x 2 R : u F (x)}.
22 CAPÍTULO 2. CADENAS DE MARKOV A TIEMPO DISCRETO
2. Hacemos n = 1.
2. Hacemos n = 1.
# m a t r i z de t r a n s i c i o n de un c u a r t o a o t r o
mat_t r a n s=matrix ( c ( 0 , 1 / 2 , 0 , 1 /2 , 0 , 0 , 0 , 0 , 0 ,
1/ 3 , 0 , 1 /3 , 0 , 1 /3 , 0 , 0 , 0 , 0 ,
0 , 1 / 2 , 0 , 0 , 0 , 1 /2 , 0 , 0 , 0 ,
1/ 3 , 0 , 0 , 0 , 1 / 3 , 0 , 1 /3 , 0 , 0 ,
0 , 1 /4 , 0 , 1 / 4 , 0 , 1 /4 , 0 , 1 /4 , 0 ,
0 , 0 , 1 /3 , 0 , 1 /3 , 0 , 0 , 0 , 1 / 3 ,
0 , 0 , 0 , 1 /2 , 0 , 0 , 0 , 1 /2 , 0 ,
0 , 0 , 0 , 0 , 1 / 3 , 0 , 1 /3 , 0 , 1 /3 ,
0 , 0 , 0 , 0 , 0 , 1 /2 , 0 , 1 /2 , 0 ) , 9 )
# El v e c t o r X guarda l a t r a y e c t o r i a d e l a r a t a ;
N < 0 # c o n t a d o r de p a s o s
# c o n d i c i o n de e n c o n t r a r l a comida
while ( t a i l ( t r a y e c t o r i a , 1 ) !=9 )
{
24 CAPÍTULO 2. CADENAS DE MARKOV A TIEMPO DISCRETO
# Escogemos un c u a r t o a l a z a r a p a r t i r d e l que s e e n c u e n t r a
t r a y e c t o r i a < c ( t r a y e c t o r i a , sample ( c ( 1 : 9 ) , 1 ,
prob =P [ t a i l ( t r a y e c t o r i a , 1 ) , ] ) )
# E s p e c i f i c a m o s que s e ha dado un paso m\ ’ as
N < N+1
}
plot ( t r a y e c t o r i a )
return ( t r a y e c t o r i a )
}
Un individuo está parado e inica una caminata en el cual sólo se mueve hacia
adelante con probabilidad p o hacia atrás con probabilidad 1 p. Definiendo
a Xn como la posición del individuo después de n pasos, se tiene entonces que
E = Z y las probabilidades de transición para cualquier n 0 e i, j 2 E están
dadas por:
8
>
<p j =i+1
pij = 1 p j = i 1
>
:
0 e.o.c.
Código para simular una trayectoria de n pasos de una caminata aleatoria
simple de parámetro p
p < 1/2
n < 1000
U < runif ( n )
Y < 2⇤ (U<p ) 1
X < cumsum (Y)
plot (X [ 1 : 1 0 0 ] , type =" l " )
plot (X [ 1 : 1 0 0 0 ] , type =" l " )
Supongamos que queremos simular la caminata aleatoria en un subconjunto
finito de los naturales E = {1, 2, . . . , m}, donde
pii+1 = p
y
pii 1 =q=1 p
2.3. EJEMPLOS DE CADENAS DE MARKOV. 25
suma=p i [ i ]+suma
i f (U<suma )
{
X[ 1 ] = i
i=M+1
}
i=i +1
}
# Estado I n i c i a l
X[ 1 ]
# Genera una t r a y e c t o r i a de l a Cadena de Markov
k=2
while ( k<=n )
{
i=X[ k 1]
#El e s t a d o a n t e r i o r
sum=0
j =1
U=runif ( 1 )
while ( j<=M)
{
sum=MT[ i , j ]+sum
sum
i f (U<sum) {
X[ k]= j
#El nuevo e s t a d o
j=M+1
}
j=j +1
}
k=k+1
}
plot (X, type= ’ p ’ , x l a b= ’ Tiempo ’ , y l a b= ’ E s p a c i o � de � Estados ’
, col= ’ r e d ’ , main= ’ Caminata � A l e a t o r i a � en � l o s � e n t e r o s � p o s i t i v o s ’ )
Se tienen dos urnas , entre ambas hay un total de N bolas. En cada paso se
elige una de las bolas al azar y se cambia de urna. Si Xn = número de bolas en
la urna A después de n ensayos, entonces X = {Xn }n 0 define una cadena de
Markov.
Aaa Aa A Baa Ba B C D
Aaa 0.95 0.02 0.015 0.009 0.006 0 0 0
Aa 0.06 0.91 0.01 0.007 0.005 0.004 0.004 0
A 0.01 0.04 0.88 0.03 0.019 0.011 0.01 0.0
Baa 0.002 0.003 0.005 0.88 0.05 0.03 0.02 0.01
Ba 0.001 0.005 0.005 0.009 0.85 0.05 0.05 0.04
B 0 0 0.003 0.007 0.02 0.88 0.05 0.04
C 0 0 0.002 0.003 0.005 0.09 0.79 0.11
D 0 0 0 0 0 0 0 1
(n)
Definición 2.3 La matriz de transición en n pasos, P n = (pij ), es la matriz
de las probabilidades de transición en el n-ésimo paso desde el origen,
(n)
pij = P (Xn = j|X0 = i).
(n)
Este resultado nos dice que pij es la entrada ij de la n ésima potencia de
P. En general, no es posible calcular explícitamente las potecias de la matriz
de transición. Sin embargo, nos podemos auxiliar de paquetes computacionales
para esta tarea.
Lema 2.1 ⇡ n = ⇡P n .
# vector i n i c i a l
p i=sample ( 1 : k , 1 )
# P o t e n c i a s de M a t r i c e s
PM=function ( p o t e n c i a ,MT) {
pot=1
MTP=MT
while ( pot<p o t e n c i a ) {
MTP=MTP % ⇤ %MT
pot=pot+1
}
MTP
}
30 CAPÍTULO 2. CADENAS DE MARKOV A TIEMPO DISCRETO
#d i s t r i b u c i o n de Xn
d i s_Xn=p i % ⇤ %PM( n )
Nota 2.3 Con estos resultados podemos concluir que la evolución aleatoria de
una cadena de Markov queda completamente determinada por su matriz de tran-
sición P y su distribución inicial. Por lo tanto, el estudio de las cadenas de
Markov es reducible al estudio algebraico de las propiedades de las matrices de
transición.
Ejercicio 2.1 Supongan que la profesión de una persona puede ser clasificada
como profesional, con habilidades o sin habilidades. Sabemos que el 80 % de
los hijos de una persona profesional son profesionales, 10 % con habilidades y
10 % sin habilidades. Para los hijos de una persona con habilidades, 60 % son
profesionales, 20 % con habilidades y 20 % sin habilidades. Finalmente, en el
caso de personas sin habilidades 25 % son profesionales, 25 % con habilidades
y 50 % sin habilidades. Asumiendo que cada persona tiene al menos un hijo,
modelar la profesión de un hijo escogido de forma aleatoria de una determinada
familia a través de varias generaciones. Dar la probabilidad de que el nieto de
una persona sin habilidades sea profesional.
1. Dar un modelo (espacio de estados y matriz de transición) para esta ca-
dena de Markov.
2. Calcular la probabilidad de la trayectoria (X0 = P rof, X1 = P rof, X2 =
Sh, X4 = Ch).
3. Calcular la distribución de X10 sabiendo que se empieza con la misma
probabilidad en cualquiera de los estados en la generación inicial.
4. Estimar el número de descendientes profesionales de una persona profe-
sional en 6 generaciones.
Ejercicio 2.2 Suponga que una compañía aseguradora con 5 contratos de se-
guro, las reclamaciones se presentan de manera independiente con probabilidad
p 2 (0, 1) y cada asegurado sólo presenta a lo más una reclamación por periodo.
Si Xn = número de reclamaciones con hasta el n-ésimo periodo. Si se sabe que
P (X0 = 0) = 1
1. Hacer una simulación del número de reclamaciones para 10 periodos.
2. Determinar la distribución para el periodo 20.
Ejercicio 2.3 Considere una cadena de Markov con espacio de estados {0, 1, 2}
y matriz de transición 0 1
0,6 0,3 0,1
P = @ 0,3 0,3 0,4 A
0,4 0,1 0,5
y con distribucióm inicial ⇡ = (0,2, 0,4, 0,4), calcular las siguientes probabilida-
des:
2.5. CLASES DE COMUNICACIÓN 31
2. P(X3 = 2, X2 = 0, X1 = 1, X0 = 0),
3. P(X2 = 1)
Definición 2.4 Sea X = {Xn }n 0 una cadena de Markov con matriz de tran-
sición P = {pij }ij2E y espacio de estados E. Sean i y j dos estados de E,
se dice que el estado j es accesible desde el estado i si existe n 2 N, tal que
(n)
pij > 0,(i ! j). Si i ! j y j ! i entonces, i e j se comunican y lo denota-
mos por i $ j.
Definición 2.5 A las clases de equivalencia inducidas por esta relación les lla-
maremos clases de comunicación.
Ci = {j 2 E : i $ j}.
En cuanto a la partición inducida por la comunicación de estados decimos
que, tomando C ⇢ E , es un conjunto cerrado si para toda j 2 E C, i 2 C no
puede acceder a j, en caso contrario decimos que es una clase abierta.
Una vez que la cadena toma un valor en una clase cerrada de estados C
entonces nunca la dejará en el futuro. Es claro que las clases de equivalencia de
son irreducibles. Diremos que C tiene una propiedad si todos los estados de C
tienen dicha propiedad. Si todo el conjunto de estados E es irreducible entonces
diremos que la cadena es irreducible.
32 CAPÍTULO 2. CADENAS DE MARKOV A TIEMPO DISCRETO
T : ⌦ ! N \ {1}.
{T = n} = {(X0 , . . . , Xn ) 2 An }.
while ( aux != e d o f i n ) {
u=runif ( 1 )
34 CAPÍTULO 2. CADENAS DE MARKOV A TIEMPO DISCRETO
i f ( u<p ) e n s= t a i l ( re ,1)+1
e l s e e n s=0
r e=c ( re , e n s )
# p r i n t ( ne )
ne=ne+1
aux= t a i l ( re , 1 )
}
t a [ i ]= ne
}
mta=mean( t a )
return ( mta )
}
(n)
Definición 2.9 Para cada n 1, denotamos por fij a la probabilidad de que
una cadena que inicia en el estado i, llegue al estado j por primera vez en
exactamente n pasos, es decir,
(n)
fij = P (Xn = j, Xn 1 6= j . . . , X1 6= j, X0 = i).
Además definimos (
(0) 1 si i = j
fij =
0 e.o.c
{
#
t a=NULL
f o r ( i i n 1 : nsim )
{
ne=0
r e=e d o i n i
aux= t a i l ( re , 1 )
e l s e e n s=0
r e=c ( re , e n s )
ne=ne+1
aux= t a i l ( re , 1 )
# p r i n t (" ne ")
# p r i n t ( ne )
# p r i n t (" aux ")
# p r i n t ( aux )
}
}
# print ( ta )
mta=mean( t a )
return ( mta )
}
Un resultado importante es el que permite descomponer la probabilidad de
visitar el estado j iniciando en i en términos de todas las posibilidades de tiempos
que pueden ser la primera visita.
P (Xn = i|X0 = i) = 1,
Nota 2.6 El teorema de descomposición nos muestra las posibilidades que pue-
den darse en una cadena de Markov. Esto es, si X0 2 Ck , entonces la cadena
nunca abandonará la clase Ck y entonces, podemos considerar el espacio de es-
tados E = Ck . Por otra parte, si X0 2 T entonces, o la cadena permanece por
siempre en T o se mueve a una clase Ck y permanece ahí por siempre. Así, o
la cadena siempre toma valores en el conjunto de estados transitorios o acaba
en un conjunto cerrado persistente de estados donde permanecerá por siempre.
Veamos ahora que en el caso en el que E sea finito la primera situación no
puede darse.
Nota 2.7 La variable aleatoria anterior toma valor infinito con probabilidad
cero o uno.
P (n)
Proposición 2.6 1. Un estado i es recurrente si y sólo si n pii = 1.
P (n)
2. Un estado i es transitorio si y sólo si n pii < 1.
Este resultado nos proporciona una equivalencia, en términos de las matrices
de transición, para que un estado sea recurrente.
Corolario 2.2 Toda cadena de Markov con espacio de estados finito tiene por
lo menos un estado recurrente.
Nota 2.9 Puede darse el caso de que siendo i un estado recurrente el tiempo
medio de recurrencia, µi , sea infinito; siendo éste el caso en el que aunque el
regreso a i es cierto se necesita un tiempo infinito. Así, realizamos la siguiente
distinción entre los estados recurrentes obteniendo una subclasificación de estos.
Vij 1
límn!1 =
n µj
casi seguramente.
Ejemplo 2.8.2 Considere una cadena de Markov con espacio de estados {0, . . . , 5}
y matriz de transición
0 1 1
1
2 2 0 0 0 0
B 1 2
0 0 0 0 C
B 3 3 C
B 0 0 1
0 7
0 C
P =B
B 1 1
8 8
1
C
1 C
B 4 4 0 0 4 4 C
@ 0 0 3
0 1
0 A
4 4
1 1 1 2
0 5 0 5 5 5
Ejercicio 2.5 Considere una cadena de Markov con espacio de estados {1, . . . , 5}
y matriz de transición
2.9. DISTRIBUCIONES INVARIANTES 39
0 1
1/2 0 1/2 0 0
B 0 1/4 0 3/4 0 C
B C
P =B
B 0 0 1/3 0 2/3 C
C
@ 1/4 1/2 0 1/4 0 A
1/3 0 1/3 0 1/3
Determine que estados son transitorios y cuales recurrentes. Calcular y estimar
tiempos medios de recurrencia y número esperado de visitas a cada estado.
⌫P = ⌫.
Teorema 2.5 Para una cadena irreducible las siguientes condiciones son equi-
valentes.
1. Todos los estados son recurrentes positivos.
2. Algún estado es recurrente positivo.
3. La cadena tiene una única distribución invariante
Ejemplo 2.9.1 ✓ ◆
1/2 1/2
P =
1/4 3/4
⌫ = (1/3, 2/3).
Ejercicio 2.6 Sea {Xn }n 0 una cadena de Markov con matriz de transición
0 1
0 12 12
P = @ 0 23 13 A
1 2
3 3 0
Encontrar los vectores de probabilidad invariantes.
2.10. CADENAS REGULARES, ABSORBENTES Y CONVERGENTES. 41
Definición 2.16 Decimos que una cadena de Markov {Xn } con espacio de es-
tados finito es regular si existe una potencia de la matriz de transición con
todas las entradas positivas.
Definición 2.18 Una cadena absorbente es una cadena de Markov con espacio
de estados finita, con al menos un estado absorbente y que desde cualquier estado
se puede llegar a algún estado absorbente.
con probabilidad 1.