Espacio de estados de un
proceso:
Usaremos a1,a2,.....an
para representar los (n)
estados de un estado
ai > aj para
representar que el
proceso se mueve del
estado (i) al estado (j).
Probabilidades de transicin de
un solo paso
P = [pij]
Ejemplo:
Sea una persona sentada en
el asiento de en medio de una
fila de cinco asientos
[marcados con
A,B,C,D,E] de izquierda
a
derecha. Esta persona se mueve
por seis veces de una silla a la
otra, estando sus movimientos
controlados por una moneda que
se tira al aire.
a) Si no est al final de una
fila de asientos se mueve
hacia la derecha si sale CARA y
hacia la izquierda si sale
CRUZ.
b) Si est al final se quedar
donde est salga lo que salga.
Espacio de Estados:
[ A, B, C, D, E ]
A
1/2 0
1/2 0
1/2 0
1/2 0
1/2 0
a = (a1, a2,....an) en
la que los elementos ai
son las probabilidades de
que el estado inicial del
proceso sea Si.
En el ejemplo anterior
El vector probabilidad
inicial sera
a = (0, 0,.1, 0, 0)
puesto que el proceso
comienza en la silla C.
Propiedad de Markov
P[C,D,C,B,A,A,A] =
P[C] P[C >D] P[D
>C] P[C >B]. P[B
>A] P[A >A] P[A
>A]
=1.1/2.1/2.1/2.1/2.1.1
=1/16
El diagrama es un grfico
de una secuencia de una
muestra de una cadena
de Markov de cinco
estados A > E .En los
doce pasos se recorren
todos los estados y se
sale. Evidentemente el
proceso no puede
quedarse nunca
atrapado. A los estados
que pueden atrapar un
proceso se les llaman
estados absorventes.
Probabilidades de transicin
superiores
La probabilidad de que el
proceso pase del estado Si al
Sj en (n) pasos se llama
probabilidad de transicin en
n pasos y se simboliza por :
P(n)ij
La matriz formada por
todos los P(n)ij es una
matriz cuadrada y se
denomina matriz de
transicin de un (n) pasos.
TEOREMA:
Si P es la matriz de
transicin de un paso en una
cadena finita de Markov,
entonces Pn es la matriz de
transicin de (n) pasos.
Si>S1>Sj Si>S2>Sj.......
Las probabilidades de esos caminos son:
pi1 p1j
pi2 p2j
........
Por lo que por la regla de la cadena la
probabilidad del suceso Si>Sj en dos pasos
ser la suma de estas dos probabilidades.
As
P2 = Pij
Por induccin se puede demostrar que
Pn = Pij(n)
1/2 0
1/2 0
1/2 0
1/2 0
1/2 1/4 0
1/2 0
1/4 0
1/4 0
1/4
1/4 0
1/2 0
1/4
CADENAS DE MARKOV
ABSORVENTES
Estados transitorios:
Sea T un subespacio de
S y T' su
complementario. Si cada
estado de T se puede
alcanzar desde otro estado
de T y es posible
moverse de un estado de T
a otro T', entonces T es un
conjunto transitorio. Un
estado transitorio es un
elemento de un conjunto
transitorio.
Estados ergdicos:
Sea E un subconjunto
de S y E' el
complementario de E en
S. Si cada estado de E
se puede alcanzar
desde cualquier otro
estado de E, pero
ningn estado de E' se
puede alcanzar desde
E, entonces E recibe el
nombre de conjunto
ergdico. Un estado
ergdico es un elemento
de un conjunto ergdico.
CADENAS DE MARKOV
ABSORVENTES
CADENAS ERGODICAS
Cadena que est formada
por un conjunto ergdico se
llama cadena ergdica. Se
distinguen dos tipos de
cadenas ergdicas:
a) Cadena ergdica cclica:
en ella slo se puede entrar
en un estado a intervalos
peridicos fijos.
b) Cadena ergdica
regular: cadena ergdica
nocclica.
EJEMPLO
S1
S2
S1
S2
1/2
1/2
1/2
1/2
S1
S2
S3
S1
3/4
1/4
S2
1/2
1/2
S3
1/4
3/4
S1
S1
S2
S3
1/4
1/4
S2
1/3
1/3
S3
1/4
1/4
S1
S1
S2
S3
S2
S3
Fuentes de Markov
Fuentes de Markov
Supongamos que un sistema evoluciona con el
tiempo. En cada instante t cada parmetro
tendr unos valores determinados. Cada
coleccin de esos valores define lo que
llamamos estado del sistema. La evolucin es
tal que en unos instantes determinados el
estado cambia o permanece fijo. Es decir que
en cada instante el sistema evoluciona con una
transicin de
un estado a otro, o bien
permanece en el anterior.
ESTADOS DE UN SISTEMA
En cada instante t ( t1 <t<
t2) el sistema se
encuentra en el estado
E1. En t2 existe una
transicin a E2 y en t3
permanece
en
este
estado. Para conocer el
estado del sistema es
preciso
conocer
la
probabilidad de transicin
P(E1>E2).
E3
E2
E1
t1
t2
t3
t4
P( ai/aj1, aj2,....ajm)
Xi` = ai2,....aim. ai
o
P( ai/ai1, ai2,....aim)
Xi = ai1, ai2,....aim
P( ai/ Xi)
Fuentes de Markow
ergdicas:
Se dice que una fuente de
Markov es ergdica,
cuando siendo estacionara
las probabilidades de
estado tienden a
estabilizarse y hacerse
constantes cuando t .
A esta distribucin lmite de
probabilidades se le
denomina rgimen
permanente de la fuente, o
sea que cuando una fuente
entra en un estado y queda
atrapado en l.
La condicin necesaria
y suficiente para que una
fuente sea ergdica es
que si Pij es la matriz
estocastica de la fuente
y p1,p2......pn cantidades
desconocidas que
representan a las
probabilidades de
estado, se tiene que
cumplir que:
Pj = Pj Pij
sea compatible y la
distribucin estacionara.
Si nos encontramos en el
estado definido por Xj=
(aj1, aj2,....ajm), es decir los
m
smbolos
emitidos
anteriormente fueron (aj1,
aj2,....ajm), la probabilidad
condicional de recibir ai
es decir de pasar al
estado
Xj= (aj2,
aj3,....ajm, ai) es:
P( ai/aj1, aj2,....ajm).
Utilizaremos la siguiente
notacin:
Probabilidad de aparicin del
smbolo ai despus de la
secuencia (aj1, aj2,...ajm):
P(ai/aj1,aj2,..ajm).= P(ai/Xj)
probabilidad del smbolo
emitido en estado anterior.
Probabilidad de la secuencia
(aj1, aj2,....ajm):
P( aj1, aj2,....ajm).= P(Xj) =
Probabilidad de Estado
anterior.
Indudablemente la
probabilidad del estado
actual es igual a la
probabilidad del estado
anterior por la
probabilidad de
transicin de un estado
a otro., esto es :
P(Xj) = P(ai/Xi).P(Xi) [I]
Ejemplo:
Supongamos una
fuente de Markov de
cuatro estados cuyo
diagrama se presenta en
la fig. Demostrar que la
fuente es ergdica y
calcular la informacin
suministrada por la
fuente.
E1 = (0,0)
E2 = (0,1)
E3 = (1,0)
E4 = (1,1)
Las probabilidades de
transisicin son:
P11 = 0.8 P12 = 0.2
P13 = 0
P14 = 0
P21 = 0
P22 = 0
P23 = 0.5 P24 = 0.5
P31 = 0.5 P32 = 0.5
P33 = 0
P34 = 0
P41 = 0 P42 = 0
P43 = 0.2 P44 = 0.8
La matriz de
transicin sera:
E1
E2
E3
E4
E1
0.8
0.2
E2
0.2
E3
0.5
0.5
E4
0.2
Aplicando la condicin
necesaria y suficiente de
ergocidad
Pi = Pi Pij
0.8 0.2
0.8
p1
p2
p3
p4 =
0 0
0 0.2 0
0 0
0.5 0.5
0 0.2 0
0
p1
p2
p3
p4
Resolviendo:
p1 = 0.8p1 + 0.5p3
p2 = 0.2p1 + 0.5p3
p3 = 0.5p1 + 0.2p4
p4 = 0.2p3 + 0.8p4
p1 + p2 + p3 + p4 = 1
Compatible y determinado
cuya solucin es:
p1 = p4 = 5/14
p2 = p3 = 2/14
ESTADO
ANTERIOR
PR. ESTADO
ANTERIOR
SIMBOLO
EMITIDO
ESTADO
ACTUAL
PR. ESTADO
ACTUAL
PR. TRANSICION
AN-AC
00
5/14
00
0.8 5/14 =
4/14
0.8
00
5/14
01
0.2 5/14 =
1/14
0.2
01
2/14
10
0.5 2/14 =
1/14
0.5
01
2/14
11
0.5 2/14 =
1/14
0.5
11
5/14
10
0.2 5/14 =
1/14
0.2
11
5/14
11
0.8 5/14 =
4/14
0.8
10
2/14
00
0.5 2/14 =
1/14
0.5
10
2/14
01
0.5 2/14 =
1/14
0.5
.
H[A/Xi] = p(aj/Xi) Ij
Entonces
H[A/00] = - p(0/00) log p(0/00) - p(1/00) log p(1/00)
H[A/01] = - p(0/01) log p(0/01) - p(1/00) log p(1/01)
H[A/10] = - p(0/10) log p(0/10) - p(1/10) log p(1/10)
Entonces
H[An] = n H[A]
Teorema:
Una fuente de Markov
proporciona menor cantidad de
informacin que su fuente afn.
Vamos a demostrarlo para fuentes
de Markov de primer orden y
luego lo generalizamos. Las
probabilidades de transicin son
de la forma:
p(ai/aj) y cumplen la
condicin
p(ai/aj) = 1
Recordando la desigualdad
logartmica
log x < x 1
p(ai) p(aj)
x=
p( a1 ) p( a 2 )
p( a1 , a 2 )
p( a1 ) p( a 2 )
p( a1 ) p( a 2 )
log
-1
p( a1 , a 2 )
p( a1 , a 2 )
i=1
j =1
p( a i ) p( a j )
p( a i , pa j ) log
0
p( a i )/p( a j )
p( a , pa
i
i=1
) log p( ai ) -
j=1
i=1
( pa , pa
i
) log p( ai / a j ) 0
i=1 j=1
p( ai ) log p( ai ) -
( pa , pa
i
) log p( ai / a j ) 0
i=1 j=1
Pero
p(ai) log p(ai) = H[A*]
p(ai,aj) log p(ai/aj) = H[A]
Entropa de la fuente de Markov de primer orden
Luego H[A*] H[A]
La igualdad se cumple solamente en el caso de que p(ai, aj) = p(ai) p(aj)
i=1
j=1
i=1
p( ai ) p( a j )
p( ai , pa j ) log
p( ai , a j )
p( ai ) p( a j )
( pai , pa j )
p(
,
)
a
a
i
j
i=1 j=1
p( ai ) p( a j )
j=1 p( ai , pa j ) log p( ai ,a j )
m
( pa ) ( pa ) - p( a ,a )
i
i=1 j=1
p( ai , a j )
i=1 j=1
Pero p(ai aj) = p(aj) p(ai/aj)
Luego
Sea un conjunto de 27
smbolos, las 26 letras del
alfabeto ingls, mas un espacio
La fuente mas simple de este
alfabeto seria aquella de
memoria nula, con todos los
smbolos igualmente probables.
La entropia de esta fuente seria
H (S) = log 27 = 4,75
bits/smbolos
La secuencia siguiente muestra
una secuencia tpica de
smbolos emitidos por la fuente
Definiremos esta secuencia
como aproximacin cero al
ingls
ZEWRTZYNSADXESYJRQY_
WGECIJJ_oBVI~RBQPOZBYM
BUAWVLBTQCNIKFMP
T~MVUUGBSAXHLHSIE _ M
SIMBOLOS
PROBABILIDAD
SIMBOLOS
PROBABILIDAD
Espacio
0.1859
0.0574
0.0642
0.0632
0.0127
0.0152
0.0128
0.0008
0.0317
0.0484
0.1031
0.0514
0.0208
0.0796
0.0152
0.0228
0.0467
0.0083
0.0575
0.0175
0.0008
0.0013
0.0049
0.0164
0.0321
0.0005
0.0198
La entropia de una
fuente de memoria
nula, cuyas
probabilidades sean
las de esa tabla, tiene
el valor
H (S) = - Pilog pi =
4,03 bits/smbolos
IANKS_CAN_OU_ANG_RLER
_THATTED_OF_TO_SHOR _
OF _ TO _ HAVEMEM _ Al _
MAND _ AND _ BUT
_WHISSITABLY _
THERVEREER _ EIGHTS _
TAKILLIS _ TA
Tercera aproximacin al ingls
Puede ampliarse el
procedimiento anterior, para
generar secuencias tpicas de
probabilidades idnticas Sin
embargo, es prcticamente im
posible para m mayor de 2
R_EPTTFVSIEOISETE_
TLTGNSSSNLN_UNST_
FSNSTF_E_IONIOILEC
MPADINMEC_TCEREPT
TFLLUMGLR
ADBIUVDCMSFUAISRP
MLGAVEAI _ MILLUO
a) Primera aproximacin
al francs
UOALNAO_NEL_D_NIS
_ETR_TEGATUEOEC_S
_ASUDU_ZELNNTSSCA
SOSED_T_I_R_EIS_TA
MMO_TIIUOEDEO _ UEI
_ EOSEELA _
NMSLAANTEC
a) Primera Aproximacin
al Espaol
ITEPONT_JENE_IESEM
ANT _ PAVEZ _ L_BO _
S _ PASE_LQU _ SUIN _
DOTI _ CIS _
NCMOUROUNENT_FUIT
_JE_DABREZ
oAUIETOUNT_LAGAUV
RSOUT_MY
b) Segunda aproximacin
al francs
CINDEUNECO_PE_CAL
_PROS_E_LAS_LABITE
JASTE_ONTOMECITRO
DRESIO_PAY_EN_SPUS
EL_LA_ S _
UTAJARETES _
OLONDAMIVE _ ESA _
S _ CLUS _
b) Segunda aproximacin
al Espaol.
JOU_MOUPLAS_DE_M
ONNERNAISSAINS_DE
ME
US_VREH_BRE_TU_DE
_TOUCUEUR_DIMMERE
_IL
ES _ MAR _ELAME _
RE _ A _ VER _ IL _
DOUVENTS _ SO
c) Tercera aproximacin
al francs.
RAMA _ DE T.LA _ EL _
GUIAIMO _ SUS _
CONDIAS_SU _ E _
UNCONDADADO _ DEA
_ MARE _
TO_UERBALIA_NUE_Y
_HERARSIN_DE_SE_S
US_SUPAROCEDA
C) Tercera aproximacin
al Espaol.