1
2
Z x
F ∗ (x) = g(t)dt
−∞
F (x)
= ,
k
(1)
donde F ∗ (X) se distribuye uniforme en el intervalo (0, 1/k).
Z x∗
F ∗ (x∗) = g(t)dt
−∞
F ∗ (x)
≈ lim
x∗→∞ k
1
= ,
k
(2)
de esta forma F ∗ (x) se distribuye asintóticamente uniforme en el in-
tervalo (0, k1 ). De aquı́ resulta sencillo obtener una realización de X de la
siguiente manera.
1. Calcular el valor k de la desigualdad descrita en (2).
2. Simular una realización u de la variable U (0, 1/k).
3. Para el valor obtenido u, obtener el valor x∗ que cumple con:
Z x∗
g(t)dt = u.
−∞
3
Algoritmo Metropolis-Hastings
Dada una función objetivo f , esta es asociada a una función auxiliar q(y|x),
la cual se fácil de simular. La función q puede ser arbitraria, el único requer-
imiento teórico es que la razón f (y)/q(y|x) sea conocida salvo una constante
de integración independiente de x, y que q(∗|x) tenga suficiente dispersión
para explorar completamente el soporte de f .
Muestreador de Gibbs
El muestreador de Gibbs es un un caso particular del método de simulación
Monte Carlo vı́a cadenas de Markov (MCMC).
Ahora bien, para encontrar una cadena que nos permita obtener las
caractrı́sticas anteriores en Stuart Geman (1984) se demuestra que:
limk−>∞ P (θk |x) = P (θ|x), donde:
Yt
P (θk |x) = P (θj |x, ..., θj−1 , θj+1 , ..., θn ),
j=1
y θj dado x, ..., θj−1 , θj+1 , ..., θn es condicionalmente independiente para toda
j, para alguna medida de probabilidad arbitraria P (.). Entonces si θjk se dis-
tribuye f (θjk |x, ..., θj−1 , θj+1 , ..., θn ), de aquı́ se puede obtener facilmente una
muestra de θjk para toda j, si su densidad tiene una forma cerrada, y ası́ se
construirı́a una cadena de Markov con las caracterı́sticas deseadas, {θk }∞ k=1 ,
con probabilidad de transición P (θk |x).