Processos Estocasticos
Cadeias de Markov
Bruno Barbosa Albert
Universidade Federal de Campina Grande
Centro de Engenharia El
etrica e Inform
atica
Departamento de Engenharia El
etrica
23 de novembro de 2010
Processos Estoc
asticos
Cadeias de Markov
Sumario
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Introducao
Processos Estoc
asticos
Cadeias de Markov
Historia
Processos Estoc
asticos
Cadeias de Markov
Historia
Processos Estoc
asticos
Cadeias de Markov
Historia
Processos Estoc
asticos
Cadeias de Markov
Historia
Processos Estoc
asticos
Cadeias de Markov
Historia
Em dezembro de 1907 Markov retomou o assunto em um
artigo para a revista da Academia de Ciencias Imperial de Sao
Petersburgo.
Processos Estoc
asticos
Cadeias de Markov
Historia
Em dezembro de 1907 Markov retomou o assunto em um
artigo para a revista da Academia de Ciencias Imperial de Sao
Petersburgo.
No artigo ele definiu e investigou as propriedades do que
atualmente conhecemos como processo de Markov.
Processos Estoc
asticos
Cadeias de Markov
Historia
Em dezembro de 1907 Markov retomou o assunto em um
artigo para a revista da Academia de Ciencias Imperial de Sao
Petersburgo.
No artigo ele definiu e investigou as propriedades do que
atualmente conhecemos como processo de Markov.
O ttulo do trabalho foi Extensao dos Teoremas de Limites da
Teoria de Probabilidades para uma Soma de Variaveis
Conectadas em uma Cadeia.
Processos Estoc
asticos
Cadeias de Markov
Historia
Em dezembro de 1907 Markov retomou o assunto em um
artigo para a revista da Academia de Ciencias Imperial de Sao
Petersburgo.
No artigo ele definiu e investigou as propriedades do que
atualmente conhecemos como processo de Markov.
O ttulo do trabalho foi Extensao dos Teoremas de Limites da
Teoria de Probabilidades para uma Soma de Variaveis
Conectadas em uma Cadeia.
Essa teoria foi chamada pela primeira vez como processo de
Markov em 1934 por Khinchine.
Processos Estoc
asticos
Cadeias de Markov
Historia
Em dezembro de 1907 Markov retomou o assunto em um
artigo para a revista da Academia de Ciencias Imperial de Sao
Petersburgo.
No artigo ele definiu e investigou as propriedades do que
atualmente conhecemos como processo de Markov.
O ttulo do trabalho foi Extensao dos Teoremas de Limites da
Teoria de Probabilidades para uma Soma de Variaveis
Conectadas em uma Cadeia.
Essa teoria foi chamada pela primeira vez como processo de
Markov em 1934 por Khinchine.
Markov aplicou sua teoria no estudo de dependencias em
lingustica.
Processos Estoc
asticos
Cadeias de Markov
Historia
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
No momento estamos interessados na localizacao da ra ap
os
alguns saltos sucessivos e nao no tempo de seu salto.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
No momento estamos interessados na localizacao da ra ap
os
alguns saltos sucessivos e nao no tempo de seu salto.
Considere inicialmente que o lago tem um n
umero finito de
vit
orias-regias numeradas de 1 a N.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
No momento estamos interessados na localizacao da ra ap
os
alguns saltos sucessivos e nao no tempo de seu salto.
Considere inicialmente que o lago tem um n
umero finito de
vit
orias-regias numeradas de 1 a N.
Se usarmos n para indicar o n
umero de saltos feitos pela ra
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
No momento estamos interessados na localizacao da ra ap
os
alguns saltos sucessivos e nao no tempo de seu salto.
Considere inicialmente que o lago tem um n
umero finito de
vit
orias-regias numeradas de 1 a N.
Se usarmos n para indicar o n
umero de saltos feitos pela ra
e Xn para indicar o n
umero da folha ocupada ap
os o n-esimo
salto,
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
No momento estamos interessados na localizacao da ra ap
os
alguns saltos sucessivos e nao no tempo de seu salto.
Considere inicialmente que o lago tem um n
umero finito de
vit
orias-regias numeradas de 1 a N.
Se usarmos n para indicar o n
umero de saltos feitos pela ra
e Xn para indicar o n
umero da folha ocupada ap
os o n-esimo
salto,
entao a sequencia
X0 , X1 , X2 , . . . , Xn , Xn+1
especifica o caminho percorrido pela ra ate o (n + 1)-esimo
slato.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
No momento estamos interessados na localizacao da ra ap
os
alguns saltos sucessivos e nao no tempo de seu salto.
Considere inicialmente que o lago tem um n
umero finito de
vit
orias-regias numeradas de 1 a N.
Se usarmos n para indicar o n
umero de saltos feitos pela ra
e Xn para indicar o n
umero da folha ocupada ap
os o n-esimo
salto,
entao a sequencia
X0 , X1 , X2 , . . . , Xn , Xn+1
especifica o caminho percorrido pela ra ate o (n + 1)-esimo
slato.
Chamamos essa sequencia de trajet
oria do processo.
Bruno Barbosa Albert
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Os valores que Xn pode assumir, Xn {1, 2, . . . , N},
representa o estado do processo no n-esimo salto, ou na
n-esima transicao, ou ainda no tempo n.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Os valores que Xn pode assumir, Xn {1, 2, . . . , N},
representa o estado do processo no n-esimo salto, ou na
n-esima transicao, ou ainda no tempo n.
O salto da ra de uma folha para outra (ou para a mesma
folha), e chamada de transic
ao de estados.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Os valores que Xn pode assumir, Xn {1, 2, . . . , N},
representa o estado do processo no n-esimo salto, ou na
n-esima transicao, ou ainda no tempo n.
O salto da ra de uma folha para outra (ou para a mesma
folha), e chamada de transic
ao de estados.
Como pode ser observado a sequencia de folhas ocupadas pela
ra, sua trajet
oria, e aleat
oria.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Os valores que Xn pode assumir, Xn {1, 2, . . . , N},
representa o estado do processo no n-esimo salto, ou na
n-esima transicao, ou ainda no tempo n.
O salto da ra de uma folha para outra (ou para a mesma
folha), e chamada de transic
ao de estados.
Como pode ser observado a sequencia de folhas ocupadas pela
ra, sua trajet
oria, e aleat
oria.
O comportamnto estatstico desse processo poderia ser
especificado se a probabilidade
P[Xn+1 = xn+1 |Xn = xn , Xn1 = xn1 , . . . , X0 = x0 ]
fosse conhecida para todos os valores de seus argumentos.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
A suposicao de Markov.
Apenas o u
ltimo estado ocupado pelo processo (pela ra) e
relevante para determinar seu comportamento futuro (o
proximo salto da ra).
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
A suposicao de Markov.
Apenas o u
ltimo estado ocupado pelo processo (pela ra) e
relevante para determinar seu comportamento futuro (o
proximo salto da ra).
Matematicamente
P[Xn+1 = xn+1 |Xn = xn , Xn1 = xn1 , . . . , X0 = x0 ]
= P[Xn+1 = xn+1 |Xn = xn ].
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
A suposicao de Markov.
Apenas o u
ltimo estado ocupado pelo processo (pela ra) e
relevante para determinar seu comportamento futuro (o
proximo salto da ra).
Matematicamente
P[Xn+1 = xn+1 |Xn = xn , Xn1 = xn1 , . . . , X0 = x0 ]
= P[Xn+1 = xn+1 |Xn = xn ].
Ou seja, a probabilidade de se realizar uma transicao depende
apenas do estado ocupado atualmente.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
A suposicao de Markov.
Apenas o u
ltimo estado ocupado pelo processo (pela ra) e
relevante para determinar seu comportamento futuro (o
proximo salto da ra).
Matematicamente
P[Xn+1 = xn+1 |Xn = xn , Xn1 = xn1 , . . . , X0 = x0 ]
= P[Xn+1 = xn+1 |Xn = xn ].
Ou seja, a probabilidade de se realizar uma transicao depende
apenas do estado ocupado atualmente.
Esta suposicao simplifica bastante o possvel comportamento
do sistema bem como o levantamento dessas probabilidades.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Uma gama bastante ampla de sistemas pode ser modelada
pela suposicao de Markov.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Uma gama bastante ampla de sistemas pode ser modelada
pela suposicao de Markov.
Ate mesmo quando o passado influencia o comportamento
futuro a suposicao de Markov ainda pode ser satisfeita por
uma mudanca na sua estrutura.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Uma gama bastante ampla de sistemas pode ser modelada
pela suposicao de Markov.
Ate mesmo quando o passado influencia o comportamento
futuro a suposicao de Markov ainda pode ser satisfeita por
uma mudanca na sua estrutura.
Por exemplo, suponha que os dois u
ltimos estados ocupados
influenciam no comportamento futuro.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Uma gama bastante ampla de sistemas pode ser modelada
pela suposicao de Markov.
Ate mesmo quando o passado influencia o comportamento
futuro a suposicao de Markov ainda pode ser satisfeita por
uma mudanca na sua estrutura.
Por exemplo, suponha que os dois u
ltimos estados ocupados
influenciam no comportamento futuro.
Podemos, entao, definir um novo processo com N 2 estados no
qual cada par de estados sucessivos no processo antigo
corresponda a um estado no novo processo.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Uma gama bastante ampla de sistemas pode ser modelada
pela suposicao de Markov.
Ate mesmo quando o passado influencia o comportamento
futuro a suposicao de Markov ainda pode ser satisfeita por
uma mudanca na sua estrutura.
Por exemplo, suponha que os dois u
ltimos estados ocupados
influenciam no comportamento futuro.
Podemos, entao, definir um novo processo com N 2 estados no
qual cada par de estados sucessivos no processo antigo
corresponda a um estado no novo processo.
Observe que esse procedimento aumenta consideravelmente a
complexidade computacional.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos iid
Considere uma sequencia de v.as. iid Xn . Ela pode ser vista como
um processo de Markov?
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processos iid
Considere uma sequencia de v.as. iid Xn . Ela pode ser vista como
um processo de Markov?
Solucao:
Aplicando a definicao
P[Xn+1 = xn+1 |Xn = xn , Xn1 = xn1 , . . . , X0 = x0 ]
= P[Xn+1 = xn+1 ] = P[Xn+1 = xn+1 |Xn = xn ].
logo a sequencia iid pode ser vista como um processo de
Markov.
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processo soma
Considere o pocesso soma Sn de uma sequencia de v.as. idd Xn , ja
discutido anteriormente. Ele pode ser visto como um processo de
Markov?
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processo soma
Considere o pocesso soma Sn de uma sequencia de v.as. idd Xn , ja
discutido anteriormente. Ele pode ser visto como um processo de
Markov?
Solucao:
Aplicando a definicao
P[Sn+1 = sn+1 |Sn = sn , Sn1 = sn1 , . . . , S1 = s1 ]
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processo soma
Considere o pocesso soma Sn de uma sequencia de v.as. idd Xn , ja
discutido anteriormente. Ele pode ser visto como um processo de
Markov?
Solucao:
Aplicando a definicao
P[Sn+1 = sn+1 |Sn = sn , Sn1 = sn1 , . . . , S1 = s1 ]
= P[Xn+1 = sn+1 sn ]
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processo soma
Considere o pocesso soma Sn de uma sequencia de v.as. idd Xn , ja
discutido anteriormente. Ele pode ser visto como um processo de
Markov?
Solucao:
Aplicando a definicao
P[Sn+1 = sn+1 |Sn = sn , Sn1 = sn1 , . . . , S1 = s1 ]
= P[Xn+1 = sn+1 sn ]
= P[Sn+1 Sn = sn+1 sn ]
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processo soma
Considere o pocesso soma Sn de uma sequencia de v.as. idd Xn , ja
discutido anteriormente. Ele pode ser visto como um processo de
Markov?
Solucao:
Aplicando a definicao
P[Sn+1 = sn+1 |Sn = sn , Sn1 = sn1 , . . . , S1 = s1 ]
= P[Xn+1 = sn+1 sn ]
= P[Sn+1 Sn = sn+1 sn ]
= P[Sn+1 = sn+1 |Sn = sn ].
Processos Estoc
asticos
Cadeias de Markov
Processo de Markov
Processo soma
Considere o pocesso soma Sn de uma sequencia de v.as. idd Xn , ja
discutido anteriormente. Ele pode ser visto como um processo de
Markov?
Solucao:
Aplicando a definicao
P[Sn+1 = sn+1 |Sn = sn , Sn1 = sn1 , . . . , S1 = s1 ]
= P[Xn+1 = sn+1 sn ]
= P[Sn+1 Sn = sn+1 sn ]
= P[Sn+1 = sn+1 |Sn = sn ].
Logo o processo soma pode ser visto como um processo de
Markov.
Bruno Barbosa Albert
Processos Estoc
asticos
Cadeias de Markov
Probabilidades de Transicao
Processos Estoc
asticos
Cadeias de Markov
Probabilidades de Transicao
Processos Estoc
asticos
Cadeias de Markov
Probabilidades de Transicao
Processos Estoc
asticos
Cadeias de Markov
Probabilidades de Transicao
Definimos a probabilidade de transicao pij como
pij = P[Xn+1 = j|Xn = i]
1 i, j N,
n = 0, 1, 2, . . .
Processos Estoc
asticos
Cadeias de Markov
Probabilidades de Transicao
Definimos a probabilidade de transicao pij como
pij = P[Xn+1 = j|Xn = i]
1 i, j N,
n = 0, 1, 2, . . .
pij = 1
i = 1, 2, . . . , N.
j=1
Processos Estoc
asticos
(1)
Cadeias de Markov
Probabilidades de Transicao
Um modo conveniente de descrever uma cadeia de Markov e
representar as N 2 probabilidades de transicao por uma matriz
P N N, cujos elementos sao pij ,
P = {pij } = .
..
..
.
.
.
.
.
.
.
pN1 pN2 . . . pNN
Processos Estoc
asticos
Cadeias de Markov
Probabilidades de Transicao
Um modo conveniente de descrever uma cadeia de Markov e
representar as N 2 probabilidades de transicao por uma matriz
P N N, cujos elementos sao pij ,
P = {pij } = .
..
..
.
.
.
.
.
.
.
pN1 pN2 . . . pNN
Processos Estoc
asticos
Cadeias de Markov
Probabilidades de Transicao
Um modo conveniente de descrever uma cadeia de Markov e
representar as N 2 probabilidades de transicao por uma matriz
P N N, cujos elementos sao pij ,
P = {pij } = .
..
..
.
.
.
.
.
.
.
pN1 pN2 . . . pNN
Processos Estoc
asticos
Cadeias de Markov
Probabilidades de Transicao
Processos Estoc
asticos
Cadeias de Markov
Probabilidades de Transicao
Processos Estoc
asticos
Cadeias de Markov
Probabilidades de Transicao
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Questao 2:
O que podemos dizer sobre a posicao da ra ap
os n saltos se
sabemos a folha de onde ela partiu?
Processos Estoc
asticos
Cadeias de Markov
Questao 2:
O que podemos dizer sobre a posicao da ra ap
os n saltos se
sabemos a folha de onde ela partiu?
Seja pij (n) a probabilidade de que o processo estara no estado j no
tempo n dado que ele ocupou o estado i no tempo 0
pij (n) = P[Xn = j|X0 = i] 1 i, j N,
n = 0, 1, 2, . . .
Processos Estoc
asticos
Cadeias de Markov
Questao 2:
O que podemos dizer sobre a posicao da ra ap
os n saltos se
sabemos a folha de onde ela partiu?
Seja pij (n) a probabilidade de que o processo estara no estado j no
tempo n dado que ele ocupou o estado i no tempo 0
pij (n) = P[Xn = j|X0 = i] 1 i, j N,
n = 0, 1, 2, . . .
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
Processos Estoc
asticos
Cadeias de Markov
P[X2 = j, X1 = k, X0 = i]
P[X0 = i]
Processos Estoc
asticos
Cadeias de Markov
P[X2 = j, X1 = k|X0 = i] =
Processos Estoc
asticos
Cadeias de Markov
P[X2 = j, X1 = k|X0 = i] =
Processos Estoc
asticos