Cadeias de Markov
Ali Golmakani
Ayane Adelina da Silva
Emanoel Mateus dos Santos Freire
Myrla Kedynna Barbosa
Pedro Henrique Gomes de Carvalho
Vitor de Lima Alves
Macei
2014
Prefcio
Neste material faremos uma introduo as Cadeias de Markov, com alguns
exemplos e aplicaes. O tema baseia-se no fato de que a maioria dos estudos
em probabilidade tem lidado com processos de ensaios independentes, que so
a base da teoria da probabilidade clssica e estatstica.
Em 1907, o matemtico russo Andrei Andreyevich Markov comeou o
estudo de um importante tipo de processo. Neste processo, apenas o resultado de uma dada experincia atual pode afetar o resultado da experincia
seguinte, ou seja as experincias anteriores no inuenciam as experincias
futuras. Tal propriedade conhecida como "perda de memria"ou Propriedade de Markov, e o que caracteriza uma Cadeia de Markov (tambm
conhecida como Processo Markoviano).
Este texto foi desenvolvido para dar referncia ao minicurso Cadeias de
Markov, apresentado durante a VII Bienal da Sociedade Brasileira de Matemtica realizada em Macei no ano de 2014.
Gostaramos de agradecer a dois grandes amigos, Lucas Luan de Moura
Lima e Antnio Marcos Larangeira Lima, por terem dedicado tempo e empenho para o desenvolvimento do programa utilizado durante o minicurso e
ao professor Krerley Irraciel Oliveira pelo incentivo e o tempo cedido em seus
seminrios semanais para o aperfeioamento deste trabalho. Ao amigo Diogo
Carlos pela ajuda constante e ao professor Isnaldo Isaac por todo incentivo
e sua constante disponibilidade em nos ajudar. E por m, agradecemos ao
Comit Cientco da V II Bienal da Sociedade Brasileira de Matemtica por
terem nos dado a oportunidade de ministrar este minicurso e ao Instituto de
Matemtica da Universidade Federal de Alagoas.
Sumrio
1 Especicando uma cadeia de Markov
2 Cadeias Absorventes
3 Cadeias Irredutveis
11
4 Teorema da Convergncia
13
5 A Runa do Jogador
15
21
4
6
8
8
9
Captulo 1
Especicando uma cadeia de
Markov
Descrevemos uma cadeia de Markov da seguinte maneira: seja S =
{s1 , s2 , , sr } um conjunto de estados. O processo comea em um desses
estados e move-se sucessivamente de um estado para outro. Cada movimento
chamado de passo. Se a cadeia est atualmente no estado si , ento ela se
move para o estado sj no prximo passo com uma probabilidade denotada
por sij , e essa probabilidade no depende dos estados ocorridos nos passos
anteriores, apenas do estado atual.
A probabilidade pij chamada probabilidade de transio. O processo
pode permanecer no estado que se encontra e isso ocorre com probabilidade
pii .
de futebol Flamengo. Ele nunca empata dois jogos seguidos. Se ele empata,
as probabilidades de ele ganhar ou perder o prximo jogo so iguais. Se a
vitria ocorreu no jogo atual, com a empolgao, a probabilidade de ganhar
ou empatar no prximo jogo de 1/2 e 1/4, respectivamente. Se a derrota
vier no jogo atual, a probabilidade de ganhar na prxima partida diminui para
1/4 e a de perder novamente aumenta para 1/2.
Perceba que as probabilidades de resultado da partida atual, no depende
de resultados anteriores ao atual, podemos ento modelar uma cadeia de
Markov.
Com as informaes acima podemos determinar as probabilidades de transio, representaremos numa matriz, onde D derrota, E empate e V
vitria.
V
0, 5 0, 25 0, 25
E 0, 5
0
0, 5
D
0, 25 0, 25 0, 5
1.1
Matriz de Transio
Podemos considerar uma pergunta mediante aos dados: qual a probabilidade de estarmos no estado j daqui a dois dias, iniciando no estado i?
Denotaremos essa probabilidade por Pij(2) . No exemplo 1 vimos que se o Flamengo ganhasse hoje, ento o evento que ele perder daqui a dois jogos a
unio disjunta dos eventos:
1. No prximo jogo ele ganha e depois perde.
2. No prximo jogo ele empata e depois perde.
3. No prximo jogo ele perde e depois perde.
A probabilidade do primeiro evento 1 ocorrer o produto da probabilidade
condicional de que ele ganhe o prximo jogo, dado que ele ganhou o jogo
atual, com a probabilidade condicional de que ele perca daqui a dois jogos,
dado que ele vencer o prximo jogo. Podemos escrever essa probabilidade
como p11 p13 . Os outros dois seguem o mesmo raciocnio e fcil ver que
p213 = p11 p13 + p12 p23 + p13 p33 .
V
0, 438 0, 188 0, 375
P 2 = E 0, 375 0, 250 0, 375 ,
D
0, 375 0, 188 0, 438
V
0, 4
0, 2 0, 399
P 5 = E 0, 4 0, 199 0, 4 ,
D
0, 399 0, 2
0, 4
V
0, 4 0, 2 0, 4
P 6 = E 0, 4 0, 2 0, 4 .
D
0, 4 0, 2 0, 4
Perceba que os resultados da matriz P 6 nos d a probabilidade de resultados daqui a 6 jogos, como visto anteriormente. Perceba tambm que os
resultados depois de 6 jogos independem do resultado do jogo atual (vetores
linhas iguais). As probabilidades para os trs resultados V , E e D em P 6
so 0, 4; 0, 2 e 0, 4, respectivamente, e no importa onde a cadeia comeou.
Este um exemplo de uma cadeia Regular, que estudaremos mais tarde.
Para esse tipo de cadeia verdade que as previses de longo alcance independem do estado de partida. Nem todas as cadeias so regulares, mas esse
tipo de cadeia um tipo muito importante e fonte de pesquisas.
1.2
Vetor Probabilidade
Captulo 2
Cadeias Absorventes
O tema cadeias de Markov melhor estudado quando consideramos alguns tipos especiais de cadeias de Markov. Primeiramente vamos estudar as
cadeias de Markov absorventes.
em pacientes dum determinado hospital foi modelado por uma cadeia de Markov: 0 (morto), 1 (estado desfavorvel), 2 (estado favorvel). A matriz de
transio tem um ciclo de 72 horas.
0
1
0
0
P = 1 0, 085 0, 779 0, 136
0, 017 0, 017 0, 966
2
Forma Cannica
Q
TR
P =
O
ABS
ABS
R
.
I
TR
Q
,
Pn =
ABS
O
I
Probabilidade de Absoro
A forma de P n nos mostra que as entradas da matriz Qn nos d a probabilidade de chegarmos a qualquer estado transitrio aps n passos, iniciando
de um estado transitrio. Para o nosso prximo teorema, mostraremos que a
probabilidade de estarmos em um estado de transio em n passos (quando
n ) se aproxima de zero. Assim, cada entrada de Qn deve se aproximar
de zero a medida que n torna-se muito grande, isto , Qn 0.
8
.
Demonstrao. Por denio de cadeia absorvente, de cada estado sj possvel chegar num estado absorvente. Seja mj o nmero mnimo de passos para
atingirmos um estado absorvente, iniciando de sj . Seja pj a probabilidade de
que, a parte de sj , o processo no seja absorvido em mj passos. Ento pj < 1.
Seja m o maior dos mj 's e p o maior dos pj 's. A probabilidade do processo
no ser absorvido em m etapas menor ou igual a p, a probabilidade de no
ser absorvido em 2m passos menor ou igual a p2 , etc. Um vez que p < 1,
pn 0 quando n , ou seja, essas probabilidades tendem a zero, da
Qn = 0.
2.3
A Matriz Fundamental
IQ
tem uma inversa N = I + Q + Q + Q + . A ij -sima entrada nij da
matriz N nos d o nmero esperado de vezes que a cadeia estar no estado
sj , iniciando em si , at ser absorvido.
2
Demonstrao. Seja (I Q)x=0 ; que x = Qx. Quando interamos, observamos que x = Qn x. (x = Qx x = Q Qx x = Q2 x). Fazendo Q 0,
temos que Qn x 0, ento x = 0. Assim, (I Q)1 = N existe. Observe
que (I Q)(I + Q + Q2 + + Qn ) = I Qn+1 . Assim, multiplicando ambos
os lados por N , obtemos
I + Q + Q2 + Q3 + + Qn = N (I Qn+1 ).
Fazendo n , temos
N = I + Q + Q2 + Q3 + + Qn +
que E(xk ) = qij(k) . Ento, o nmero esperado de vezes que a cadeia estar em
sj , sabendo que iniciou-se em si , nos n primeiros passos,
E(x0 + x1 + + xn ) = qij0 + qij1 + + qijn .
Demonstrao. Se somarmos todas as entradas da i-sima linha de N , teremos o nmero esperado de vezes de passarmos por qualquer dos estados
transitrios, iniciando de um determinado estado Si , que , justamente, o
tempo necessrio antes de ser absorvido. Assim, ti a soma das entradas
na i-sima linha de N . Se escrevermos esta declarao na forma matricial,
obteremos o teorema.
10
Captulo 3
Cadeias Irredutveis
O objetivo deste captulo estudar as cadeias de markov regulares, que
tem vrias aplicaes fora da Matemtica, como o PageRank, que o algoritmo utilizado na ferramente de busca da Google.
Denio 3.0.2.
11
0 1
.
1 0
Teorema 3.0.3. Uma cadeia irredutvel regular se, e somente se, ela
aperidica.
12
Captulo 4
Teorema da Convergncia
Nesta seo vamos provar aquele que o principal teorema sobre cadeias
de markov regulares e que extremamente utilizado nas aplicaes das cadeias de markov.
4.1
Denio 4.1.1. Sejam S = {s1 , . . . , sn } e p e q duas distribuies de probabilidade em S . Denimos a variao total entre p e q como sendo
1
|p(sk ) q(sk )|
:=
2 k=1
n
p qV T
13
VT
= k
Qk P j (i, .)
V T k .
14
Captulo 5
A Runa do Jogador
Um jogador entra num cassino justo com X reais. Ele participa de um
jogo de apostas independentes. Em cada aposta ele recebe 1 real caso d
vitria e perde 1 real caso contrrio. Vamos admitir que os recursos do
cassino so ilimitados, ou seja, por mais que o jogador ganhe, ele nunca
`quebra a banca'. Suponha que ele jogue indenidamente, parando apenas
quando ca sem dinheiro.
Pergunta: Qual a probabilidade do jogador, em algum momento, car
sem dinheiro?
Am de responder a resposta acima vamos fazer um breve estudo de
passeios aleatricos.
5.1
Passeios Aleatrios
Denio 5.1.1. Sejam X1 , X2 , , Xn , variveis aleatrias independentes e igualmente distribudas tais que E(Xi ) < . Sejam, S0 = C e
Sn = S0 +
trio.
i=1
15
onde Sn indica a posio assumida pela partcula no n-simo salto (S0 indica
o vrtice inicial).
move em Z e a cada instante pode pular de um ponto x para um dos pontos vizinhos, x + 1 ou x 1, com probabilidade p de pular para a direita e
probabilidade 1 p = q de pular para a esquerda.
Se p = q =
1
2
Sn = X + ni=1 Xi , n 1
{
Xi =
Denio 5.1.3. Seja (Xn )n0 uma cadeia de Markov com matriz de transio P . O tempo de batida de um subconjunto A I (I o conjunto
onde (Xn )n0 assume valores) uma varivel aleatria
H A : {0, 1, 2, } {}
hA = hA
i ; i I a m-
{
hA
i = 1, se i A
A
hi = jI pij hA
/ A.
j , se i
hA
i
x = (xi , i I) outra
, i I .
Se i
/ A, observamos que {X1 = j}jI uma coleo de conjuntos 2 a
2 disjuntos e que
jI {X1 = j} = .
Pi (H A < ) = jI Pi (H A < , X1 = j)
Pi (H A < ) =
Pi (X1 = j) Pj (H A < ),
jI
ou seja,
hA
i =
pij hA
j .
jI
pij xj =
jI
pij +
xj pij xj .
j A
/
jA
pjk xk .
kI
xi =
pij +
jA
j A
/
kI
pij +
pij
j A
/
jA
pij
)
pjk xk
pjk xk +
)
pjk xk
kA
/
kA
(
)
(pij pjk xk )
pjk +
pij +
pij
j A
/
jA
j A
/ kA
/
kA
= Pi (X1 A) + Pi (X1
/ A, x2 A) +
(pij pjk xk ).
j A
/ kA
/
Fazendo
xk =
lI
pkl xl =
pkl xl +
lA
18
lA
/
pkl xl
(5.1)
xi = Pi (X
A)
+ Pi (X1 A, X2 A) + Pi (X1
/ A, x2
/ A, X3
/ A)
1
+
pkl xl .
j A
/ kA
/ lA
/
jn A
/
Ou seja,
Segue-se que
xi lim Pi (H A n) = Pi (H A ) = hA
i .
n
(hA
i ,i
hA
i = 1, i = 0
1 A
A
hi = 12 hA
i1 + 2 hi+1 , i = 0.
19
ou seja,
1 A
1
1 A 1 A
hi1 hA
i = hi hi+1 ,
2
2
2
2
logo,
A
A
A
hA
i1 hi = hi hi+1 ,
Ou seja,
A
iV1 = hA
0 hi .
Segue-se ento que hAi = 1 para todo i 0. Resolvendo o sistema, encontramos hi = 1 para todo i 0. Ou seja, com probabilidade 1 o jogador
perder todo dinheiro em algum momento!
Lembrando que estvamos considerando um cassino. Mas vale ressaltar
que, se a cada aposta o jogador tiver probabilidade maior que 1/2 de vencer,
ento ele tem probabilidade positiva de nunca perder todo o dinheiro. Porm
este modelo no interessante, pois no modela a realidade.
20
Captulo 6
Aplicaes de Cadeias de Markov
Regulares no PageRank
A princpio consideraremos que em nossa internet existem apenas trs
sites, so eles: A B e C .
(
Ad
BN
1
2
Ad
1
2
1
2
BN
1
1
2
1
2
1
2
P = B
0
1
C
2
0
1
2
1
.
0, 25
0, 25
0, 5
0, 5
0, 25
0, 75
P2 = B
0, 5
C
0
A
0, 1875
P = B
0, 375
0, 125
C
B
0, 3125
0, 375
0, 3125
22
C
0, 5
0, 25
.
0, 5625
0, 20
0, 32
0, 46
P6 = B
0, 28
C
0, 18
10
0, 32
0, 37
.
0, 48
0, 21
0, 33
0, 34
= B
0, 22
C
0, 21
12
0, 33
0, 33
A
0, 221
= B
0, 224
C
0, 221
0, 44
0, 43
.
0, 44
0.333
0, 445
0.333
0.333
0, 442
.
0, 445
O que temos que P uma matriz de transio de uma Cadeia de Markov regular. Observe tambm que para n sucientemente grande os vetores
colunas so constantes. Exemplo:
16
A
0, 222
= B
0, 222
0, 222
C
0.333
0, 444
0.333
0.333
23
0, 444
.
0, 444
1
2
1
4
1
4
1
4
1
4
1
2
1
4
1
4
1
2
Deste modo,
(X1 , X2 , X3 )
1
2
1
4
1
4
1
4
1
4
1
2
1
4
1
4
1
2
= (X1 , X2 , X3 ).
( 13 , 14 , 52 )
24
1
3
, assim V =
P =
0 0
1
0
2
0 31
0 0
0 12
0 0
0 0
1
0
0
0
0
0 0 0
0 12 0
1
0 13
3
1 0 0
0 0 12
1
0 13 0
3
0 0 0 0
0
0
0
0
0
1
3
M =
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
P =
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
0 0 1 0 0 0 0
1
0 0 0 12 0 0
2
0 31 0 13 0 13 0
1
1
1
1
1
1
1
.
7
7
7
7
7
7
7
0 21 0 0 0 21 0
0 0 13 0 13 0 13
1
7
1
7
1
7
25
1
7
1
7
1
7
1
7
1/7
1/7
1/7
1/7
1/7
1/7
1/7
0.02
0.02
0.30
0.14
0.44
0.02
0.14
1
n
de
0.02
0.02
0.02
0.14
0.02
0.30
0.14
26
3
4
1
4
1
8
1
2
B
0
1
C
4
D
0
1
8
3
4
1
4
Q=
1
4
1
2
]
.
Assim,
[
(I Q) =
41
1
4
14
1
2
]
.
(I Q)
8 4
4 4
]
= N.
8 4
4 4
][
1
1
]
= (12, 8).
Assim, o nmero esperado de sites que o internauta visite antes de conhecer o site B ou o site D, desde que saia do site A 12.
A ltima pergunta solucionada tomando
27
][
8 4
4 4
B = NR =
0 0
1
8
1
8
[
=
1
2
1
2
1
2
1
2
]
.
A, 12 .
Vamos agora calcular quem o mais popular. Primeiro temos que colocar
a probabilidade de escolher um site aleatrio dentre os possveis. No nosso
caso esta probabilidade 14 . Onde a linha absorvente, colocamos a linha
constante 14 .
P =
3
4
1
4
1
4
1
4
1
4
1
4
1
4
1
8
1
2
1
8
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
e considerando
M =
A = 0, 75
3
4
1
4
1
4
1
4
1
4
1
4
1
4
1
8
1
2
1
8
1
4
1
4
1
4
1
4
+ 0, 25
28
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
rando o link.
A=
10
16
1
16
4
16
1
16
4
16
4
16
4
16
4
16
4
16
5
32
7
16
5
32
4
16
4
16
4
16
4
16
Calculando,
(X1 , X2 , X3 , X4 )
10
16
1
16
4
16
1
16
4
16
4
16
4
16
4
16
4
16
5
32
7
16
5
32
4
16
4
16
4
16
4
16
= (X1 , X2 , X3 , X4 )
19
40
19
X1 , X1 , X1 ),
52
52
52
mas desejamos que este vetor seja uma vetor linha da matriz de transio, assim sua soma tem que ser igual a 1. Desta forma, X1 = 25 . Assim
conclumos que o vetor (0.4, 0.1465, 0.30769, 0.14615). Dessa forma, o site
mais acessado o site A com `popularidade' 0.4 e os que possuem a menor
popularidade so os sites B e D. Podemos interpretar tambm da seguinte
forma, se 1000 pessoas entrassem na mini-internet, (0, 4 1000) pessoas, em
mdia, acessariam o site A.
O PageRank um mecanismo muito importante para o Google, mas um
site cuja nota no mtodo do PageRank baixa no necessariamente tem
menor prestgio. Atualmente o mtodo que o Google usa mais avanado e
ainda considera mais coisas. Como por exemplo, se um site A relacionado a
msica concede um link para um outro site B , que por sua vez relacionado
a matemtica, este link de A para B quase desprezvel, pois estes sites no
possuem a mesma base. Os contedos de A no esto muito relacionados
com os contedos de B . A atualizao feita de 3 em 3 meses permitindo
uma renovao dos dados.
29
30
Referncias Bibliogrcas
[1] Azevedo Filho, A., Introduo ao Algoritmo PageRank do Google com
o R: uma Aplicao de Autovalores/Autovetores e Cadeias de Markov
. Disponvel em:. <http://rpubs.com/adriano/PageRank>. Acesso em:
31 outubro 2014.
[2] Brian, K.; Leise, T. -The Linear Algebra Behind , Dept. Mathematics
and Computer Science, Amherst College. 2007. Brian, K. e Leise, T.
[3] Grinstead, C. M.; Snell, J. L. -Introduction to Probability, American
Mathematical Society, 1997.
[4] Norris, J.R., Markov Chains Cambridge Series in Statistical and Probabilistic Mathematics, Cambridge University Press, 1997.
[5] Queiroz Pellegrino, G.; Ferreira dos Santos, L. R. A lgebra Linear
por Trs do Google. Disponvel em:. <http://prezi.com/5g35pvki43-t/aalgebra-linear-por-tras-do-google/>. Acesso em: 31 outubro 2014.
31