Anda di halaman 1dari 10

Función generatriz de momentos y Teorema Central del Lı́mite.

Mathias Bourel - José R. León

1 Función generatriz de momentos


Sea X una v.a. y defino Y = g(X) = etX . Nos interesamos en E(etX ).
Observación 1 Si t = 0 se tiene que E(etX ) = 1 lo que nos asegura que en t = 0 tal objeto
existe.
Definicón 2 Sean X v.a. t0 ∈ (0, ∞] tal que ∀t ∈ (−t0 , t0 ) la esperanza E(etX ) existe.
La función generatriz de momentos (FGM) de X es:

MX : (−t0 , t0 ) → R / MX (t) = E(etX ).


Teorema 3 Sea X una v.a. con FGM MX : (−t0 , t0 ) → R. Sea a > 0 y b ∈ R y se considera
Y = aX + b.
Entonces la FGM de Y es MY : (− ta0 , ta0 ) → R definida por
MX (t) = etb MX (at).
Demostración. Sea a > 0
E(etY ) = E(et(aX+b) ) = E(etb etaX ) = etb E(etaX ) = etb MX (at).
Esto sucede siempre y cuando
 
t0 t0
at ∈ (t0 , t0 ) ⇐⇒ t ∈ − , .
a a
t0
, − ta0

Análogamente, si a < 0, MaX+b (t) = etb MX (at) con t ∈ a
.
Teorema 4 Si X e Y son v.a. independientes, entonces MX+Y (t) = MX (t)MY (t).
Ejemplos
1. X ∼ U {1, 2, . . . , n}
n n  1 et −et(n+1)
tX
X 1 tk1 X tk 1−et
, t 6= 0
MX (t) = E(e ) = e = e = n

k=1
n n k=1 1, t=0

2. X ∼ U [0, 1]
et −1

, t 6= 0
MX (t) = t
1, t=0
Teorema 5 Sea X una v.a. acotada, esto es X(ω) ≤ K, ∀ω ∈ Ω y para algn K. Entonces
E(etX ) existe ∀t ∈ R.
Demostración Como |X| ≤ K, entonces tX ≤ |t|K, lo que implica 0 ≤ etX ≤ e|t|K y luego
0 ≤ E(etX ) ≤ e|t|K < ∞, ∀t ∈ R.

1
Ejemplos
1. X ∼ Bin (n, p), en este caso X es acotada =⇒ MX est definida para todo t ∈ R.
n   n  
tk n n
X X
tX k n−k
MX (t) = E(e ) = e p q = (pet )k q n−k = (pet + q)n .
k=0
k k=0
k

2. X ∼ Geo(p). Esta v.a. no es acotada.


+∞ +∞
tX
X
tk k
X q
MX (t) = E(e ) = e pq = p(et q)k = .
k=0 k=0
1 − etq
t
Para todo t tal que |e q| < 1 es decir t ∈ (ln(q), − ln(q)).
3. Z ∼ N (0, 1)
etx − x2
Z Z
tZ 1 x2
MZ (t) = E(e ) = √ e dx =2 √ ext− 2 dx
R 2π R 2π
Z Z
1 (x−t) +t
2 2
t2 1 (x−t)2
t2
= √ e 2 dx = e 2 √ e 2 dx = e 2 .
R 2π R 2π
2
Si X ∼ N (µ, σ ) entonces se escribe X = σZ + µ con Z ∼ N (0, 1) y entonces al usar la
propiedad antes demostrada
σ 2 t2
+µt
MX (t) = MσZ+µ (t) = e 2 .

Daremos por cierto el siguiente resultado.


Teorema 6 La FGM determina de forma única la distribución de una v.a.
FX = FY ⇐⇒ MX = MY .
Teorema 7
dk


k
MX (t) = E(X k ).
dt t=0

Demostración. Se supone que X es continua, la distribución posee una densidad. Entonces:


+∞
! Z +∞
!
n n
X (tX) X (tx)
MX (t) = E etX = E

= fX (x)dx.
n=0
n! R n=0
n!
+∞ Z +∞ n Z +∞
X (tx)n X t n
X tn
= fX (x)dx = x fX (x)dx = E(X n ) .
n=0 R
n! n=0
n! R n=0
n!
Derivando: !
+∞ +∞
dk dk tn dk tn
X X  
MX (t) = E(X n ) = E(X ) kn
dtk dtk n=0
n! n=0
dt n!
+∞ +∞
X
nn(n − 1) . . . (n − k + 1)tn−k X tn−k
= E(X ) = E(X n ) .
n=k
n! n=k
(n − k)!
Al hacer t = 0 se obtiene el resultado.

2
1
1. X ∼ U [0, 1] sabemos que E(X) = 2
y por otra parte

MX (t) − 1 et − 1 − t et − 1 1
MX0 (0) = lim = lim 2
= lim = .
t→0 t t→0 t t→0 2t 2
A la última igualdad se llega vı́a la regla de l’Hôpital.
2 t2 +µt
2. X ∼ N (µ, σ 2 ) Ya vimos que le función generatriz es MX (t) = eσ 2 . Ası́ tenemos
d σ2 t2 +µt 2 t2
E(X) = (e 2 )|t=0 = (σ 2 t + µ)eσ 2 +µt |t=0 = µ
dt
d2 σ2 t2 +µt
E(X 2 ) = (e 2 )|t=0 = µ2 + σ 2 .
dt2
Ası́
Var(X) = E(X 2 ) − [E(X)]2 = µ2 + σ 2 − µ2 = σ 2 .

2 Teorema Central del Lı́mite


Teorema 8 Sean X1 , . . . , Xn v.a. iid con E(Xn ) = µ, Var(Xn ) = σ 2 > 0 y supongamos que
las v.a. tienen función generatriz de momentos M : (−t0 , t0 ) → R entonces
√ Xn − µ D
n → Z, con Z ∼ N (0, 1).
σ
Demostración.
• Supongamos en un primer momento que µ = 0.
√ Xn  √ X1 +...+Xn   X1   Xn 
E(et n( σ ) ) = E et n( ) = E et √nσ t√
σ . . . E e nσ
  n
t
= MX1 (t) . . . MXn (t) = MX √

La función MX (·) denota la FGM común a todas las v.a. y entonces la última igualdad

es por equidistribución. Esto nos dice que la FGM de n Xσn es
n
√ √
 
t
M√n X n : (−t0 σ n, t0 σ n) → R definida por M√n X n = MX √
σ σ nσ
A continuación probaremos que
  n
t t2
MX √ → MZ (t) = e 2

cuando n → ∞ siendo MZ la FGM de una Z ∼ N (0, 1).
Calculemos el desarrollo de Taylor de orden 1 de MX en cero:
t2 t2
MX (t) = MX (0) + MX0 (0)t + MX00 (ct ) = 1 + MX00 (ct ) , con 0 < |ct | < |t|.
2 2
3
Arriba hemos usado que MX (0) = 1 y MX0 (0) = µ = 0. Por otro lado sabemos que
σ 2 = E(X 2 ) = MX00 (0).
Entonces podemos escribir
t2 2 t2 t2 t2 t2
MX (t) = 1 + σ + MX00 (ct ) − σ 2 = 1 + σ 2 + (MX00 (ct ) − MX00 (0)),
2 2 2 2 2 | {z }
R(t)

y se satisface que lim R(t) = 0.


t→0
Por lo tanto
n  n  n
t2 t2 t2
    
t t 1 t
MX √ = 1+ + R √ = 1+ 1 + 2R √ .
nσ 2n σ 2 2n σ n 2n σ σ n
 a n  
Sabemos que 1 + → ea , entonces como 1 + σ12 R σ√t n → 1, se obtiene
n
  n
t t2
MX √ →e2.

Resultando que
√ Xn D
n → N (0, 1).
σ
• Ahora si µ 6= 0, se definen las variables Yn = Xn − µ. Entonces
√ Xn − µ √ Y n D
n = n → N (0, 1).
σ σ

Observación 9
√ Xn − µ Xn − µ X n − E(X n ) D
n =   = q → N (0, 1).
σ √σ
n Var(X n )

Aplicación al tamaño de una muestra.

La población de Montevideo la denotaremos por N (grande). Se realiza una encuesta de


satisfacción sobre la intendencia. El resultado de la encuesta será

Xi = 1{la i-esima persona está de acuerdo} ∼ Ber(p).

Suponemos que la proporción de personas de acuerdo es p = NN1 (desconocido).


Queremos tomar una muestra de modo que con una confianza del 95% la proporción de personas
que están de acuerdo en la muestra diste menos de ε de la verdadera proporción p.
Sea n el tamaño de la muestra. De esta manera el siguiente promedio
X 1 + . . . + Xn
Xn = ,
n
será la proporción de personas de acuerdo en la muestra. Se supone que la opinión de las per-
sonas es independiente entre ellas lo que nos significa que X1 , . . . , Xn son iid ∼ Ber(p).Recordemos

4
que la elección sin reemplazo es aproximadamente equivalente a la elección con reemplazo si la
poblacin es grande. Se quiere hallar n de tal modo que

P |X n − p| < ε = 0.95.
Se tiene además E(Xi ) = p y Var(Xi ) = p(1 − p). Ası́ si Φ es la distribución de la normal
estándar se cumple:
√ √ √ !
  nε n(X n − p) nε
P |X n − p| < ε = P −ε < X n − p < ε = P − p < p <p
p(1 − p) p(1 − p) p(1 − p)
√ ! √ ! √ !
nε nε nε
≈Φ p − Φ −p = 2Φ p − 1 = 0.95
p(1 − p) p(1 − p) p(1 − p)
Esto implica que se debe encontrar un z tal que Φ(z) = 0.95+1
2
= 0.975, al buscar en la tabla
normal se encuentra z ≈ 1.96. Esto implica que

nε (1.96)2 p(1 − p)
p = 1.96 =⇒ n = .
p(1 − p) ε2
(1.96)2
Ahora bien como p(1 − p) ≤ 14 , se puede suponer n = 4ε2
. Si a manera de ejemplo ponemos
ε = 0.01 entonces n ≥ 9604.

Aplicación al juego de tirar una moneda.

Recordemos en primer lugar que si Xi ∼ Ber(p) entonces X = X1 + . . . + Xn es Binomial(n, p).


Ası́ que en este caso podemos reescribir el TCL de la siguiente manera
X − np X − E(X) D
p n = p → N (0, 1).
p(1 − p)n Var(X)
El problema que nos planteamos es el siguiente: se lanza una moneda 100 veces y nos pregunta-
mos por las siguiente probabilidades P(obtener más de 50 caras) y P( obtener más
p de 60 caras).
Podemos utilizar el TCL para un cálculo aproximado en nuestro caso np = 50 y np(1 − p) = 5

100  
X 100 1 k 1 100−k
• P{S > 50} = ( ) ( ) = 1 − P (S ≤ 50)
k=51
k 2 2
! !
S − np 50 − np S − np 1
=1−P p ≤p =1−P p ≤ 0 ≈ 1 − Φ(0) = .
np(1 − p) np(1 − p) np(1 − p) 2

• !
S − np 60 − 50
P(S > 60) = 1 − P(S ≤ 60) = P p ≤
np(1 − p) 5
≈ 1 − Φ(2) ≈ 1 − 0.9772 = 0.028.

5
3 Otra demostración del TCL (por el método de la fun-
ciones diferenciables (Método de Trotter)
En estas notas daremos una demostración del Teorema Central del lı́mite para variables con
densidad o discretas. Comenzaremos recordando algunas propiedades de las variables aleato-
rias Gaussianas. Decimos que una variable aleatoria (v.a.) tiene una distribución Gaussiana
2
−x
estándar (en notación N (0, 1)) si tiene como densidad a la función ϕ(x) = e√2π2 , además si Z
es N (0, 1) entonces la variable Y = σZ + µ tiene media µ y varianza σ 2 . Diremos que Y es
Gaussiana con media µ y varianza σ 2 y la denotaremos como N (µ, σ 2 ) su densidad es σ1 ϕ( x−µ
σ
).
En primer lugar demostremos la siguiente proposición:

Proposición 10 Si Z1 , Z2 , . . . , Zn son v.a. Gaussianas centradas e independientes, cada una


con varianza σi2 entonces la v.a.
Xn
Z= Zi ,
i=1

es Gaussiana con varianza σ12 + . . . + σn2 .

Demostración La haremos por inducción. Consideremos entonces n = 2


2 2
 
Z z1 z2
1 − 21 2 + σ2
FZ (u) = P{Z1 + Z2 ≤ u} = 1(−∞,u] (z1 , z2 )e σ1 2 dz1 dz2
2πσ1 σ2 R2

2 2
 
Z Z u−z2 z1 z2
1 − 12 2 + σ2
σ1
= e 2 dz1 dz2 ,
2πσ1 σ2 R −∞

derivando obtenemos
u2
Z 
(u−z2 )2 z2
 − 2 +σ 2 )
2(σ1
1 − 12 2 + 22 e 2
fZ (u) = e σ1 σ2
dz1 dz2 = √ p .
2πσ1 σ2 R 2π σ12 + σ22

Para obtener la última igualdad sólo hay que completar cuadrados judiciosamente en el ex-
ponente e integrar una vez. Supongamos ahora que le tesis es cierta par n − 1. Entonces
escribimos
Z = Z1 + Z2 + . . . + Zn−1 + Zn ,
pero por la hipótesis de inducción Yn−1 = Z1 + Z2 + . . . + Zn−1 es Gaussiana con varianza igual
a σ12 + . . . + σn−1
2
y entonces usando que Z = Yn−1 + Zn la demostración no es otra que la que
ya hicimos para n = 2.
Debemos definir convergencia en distribución:

Definicón 11 Sea Fn una sucesión de funciones de distribución y Xn una sucesión de variables


aleatorias con distribución Fn , diremos que la sucesión Xn converge en distribución a una v.a.
D
X con distribución continua F , lo cual denotaremos Xn → X, si para todo x se tiene que
Fn (x) → F (x).

6
Nuestro interés es demostrar el siguiente resultado. Este resultado es conocido desde hace mucho
tiempo y posee una larga historia. La demostración que haremos usa el método conocido con
el nombre de método de Trotter.

Teorema 12 Sea {Xi } una sucesión de variables aleatorias independientes e identicamente


distribuidas tal que E(Xi ) = 0 y E(Xi2 ) = 1, si además las variables aleatorias poseen tercer
momento acotado, esto es E|Xi |3 < C, entonces
  Z x
X1 + X2 + . . . + Xn
Fn (x) := P √ ≤ x → Φ(x) = ϕ(u)du.
n −∞

Observación 13 Lo que el teorema expresa es que


X1 + X2 + . . . + Xn D
√ → N (0, 1).
n

Antes de demostrar el teorema necesitamos dos lemas de carácter técnico que nos serán de
mucha utilidad en la prueba.

Lema 14 Si para toda función continua f tres veces derivable, acotada y con las tres derivadas
acotadas se tiene que
Ef (Xn ) → Ef (X),
entonces Fn (x) → F (x) (aquı́ Fn denota como antes la distribución de las Xn e igual F la de
X que suponemos una función continua).

Demostración. Consideremos la función infinitamente derivable siendo la función y sus


derivadas acotadas

 1
 −∞ ≤ u ≤ 0
1
1 u−1
G(u) = 1 − e− u e 0≤u≤1

 0 u≥1

De esta forma si definimos Gδ (u) = G( u−(x−δ)


δ
) y G δ (u) = G( u−x
δ
) entonces se verifica

Gδ (u) ≤ 1(−∞,x] (u) ≤ G δ (u).

Y por la propiedad de monotonı́a de la esperanza tenemos

E[Gδ (Xn )] ≤ Fn (x) ≤ E[G δ (Xn )].

Tomando lı́mite y usando la hipótesis, se tiene que

E[Gδ (X)] ≤ lim inf Fn (x) ≤ lim sup Fn (x) ≤ E[G δ (X)].
n→∞ n→∞

Pero por construcción se cumple

F (x − δ) ≤ E[Gδ (X)]] ≤ lim inf Fn (x) ≤ lim sup Fn (x) ≤ E[G δ (X)] ≤ F (x + δ),
n→∞ n→∞

7
Esto es
F (x − δ) ≤ lim inf Fn (x) ≤ lim sup Fn (x) ≤ F (x + δ),
n→∞ n→∞

haciendo tender δ a cero y usando la continuidad de F se desprende que existe el lÃmite y

lim Fn (x) = F (x).


n→∞

Hemos ası́ demostrado que para probar la convergencia en distribución sólo hay que ver-
ificarla en funciones tres veces derivables acotadas y con las tres derivadas acotadas. Ahora
necesitamos un segundo lema técnico. Definamos en primer lugar la siguiente distancia

d3 (F, G) = P3
sup |E[f (X)] − E[f (Y )]|.
{f : i=0 supx |f (i) (x)|≤1}

Las v.a. X e Y tienen distribución F y G respectivamente. El siguiente lema nos otorga una
segunda herramienta

Lema 15 Si {Xi }ni=1 e {Yi }ni=1 son dos colecciones de v.a. independientes entre ellas e inde-
pendientes entre si, entonces si denotamos

Fn (x) = P (X1 + . . . + Xn ≤ x) ,
y
Gn (x) = P (Y1 + . . . + Yn ≤ x) .
Si Hi es la distribución de Xi y Li la de Yi entonces
n
X
d3 (Fn , Gn ) ≤ d3 (Hi , Li ).
i=1

Demostración. La demostración se hará por inducción. En primer lugar supongamos que


n =P
2. Sea f una función derivable tres veces, acotada y con las tres derivadas acotadas tal
que 3i=0 supx |f (i) (x)| ≤ 1. Si denotamos hi y li las densidades de las v.a. entonces:

|E[f (X1 + X2 ) − f (Y1 + Y2 )]|

≤ |E[f (X1 + X2 ) − f (Y1 + X2 )]| + |E[f (Y1 + X2 ) − f (Y1 + Y2 )]| := I1 + I2 ,

pero Z
I1 = | f (x1 + x2 )(h1 (x1 ) − l1 (x1 ))h2 (x2 )dx1 dx2 |
R2
Z
≤| |E[f (X1 + x2 ) − f (Y1 + x2 )]|h2 (x2 )dx2 .
R

Y como la función f (· + x2 ) hereda las propiedades de derivabilidad y acotación de f entonces


se cumple I1 ≤ d3 (H1 , L1 ). y de la misma forma I2 ≤ d3 (H2 , L2 ) comprobando la validez del
resultado en este caso. Para demostrar el caso general, supongamos la tesis cierta para n − 1.

8
1 2
Y definamos Zn−1 = X1 + . . . Xn−1 y Zn−1 = Y1 + . . . Yn−1 . Denotemos por FZn−1
i , i = 1, 2, las
respectivas distribuciones. Entonces con la misma f de antes
1 2
|E[f (X1 + . . . + Xn ) − f (Y1 + . . . + Yn )] = |E[f (Zn−1 + Xn ) − f (Zn−1 + Yn )]|
n−1
X
≤ d3 (FZn−1
1 , FZn−1
2 ) + d3 (Hn , Ln ) ≤ d3 (Hi , Li ) + d3 (Hn , Ln ).
i=1
o
En la à ltima desigualdad hemos usado la hipótesis de inducción. Tomando supremo del lado
izquierdo finalmente se tiene
n
X
d3 (Fn , Gn ) ≤ d3 (Hi , Li ).
i=1

Observación 16 Aunque hemos supuesto la existencia de densidades en la prueba del lema la


misma demostración se puede hacer para v.a. discretas.
Estamos ahora en capacidad de demostrar el TCL. Sea f una función tres veces derivable.
Sea también Z una variable N (0, 1). Por la Proposición 10 esta variable se puede escribir como
Y1 + . . . + Yn
Z= √ .
n
Donde las Yi son Gaussianas N (0, 1) e independientes. Supongamos que f satisface que
X3
sup |f (i) (x)| ≤ 1. Si usamos el desarrollo de Taylor hasta el tercer orden con resto se tiene
x
i=0

Xi Xi f 00 (0) Xi2 f 000 (θi ) Xi3


f ( √ ) = f (0) + f 0 (0) √ + +
n n 2 n 6 n 32
y
Yi Yi f 00 (0) Yi2 f 000 (θi ) Yi3
f ( √ ) = f (0) + f 0 (0) √ + + .
n n 2 n 6 n 23
Tomando en consideración que E(Xi ) = E(Yi ) = 0 y que E(Xi2 ) = E(Yi2 ) = 1 y la acotación de
la tercera derivada se cumple
Xi Yi 1 C
|E[f ( √ )] − E[f ( √ )]| ≤ 3 (E[|Xi |3 + E[|Yi |3 ]) ≤ 3 .
n n n2 n2
La constante C de arriba es el máximo entre el tercer momento de una Gaussiana estándar y el
3
X
tercer momento de las Xi . Al tomar supremo sobre las funciones que verifican sup |f (i) (x)| ≤
x
i=0
Xi Yi C
1, y denotando Xi y Yi las distribuciones de y respectivamente se cumple d3 (Xi , Yi ) ≤

n

n 3 .
n2
Al usar el resultado del lema 15
  
E f X1 + √ . . . + Xn

− E[f (Z)]
n
     
X 1 + . . . + Xn Y1 + . . . + Yn
= E f
√ −E f √ ≤ d3 (Fn , Φ)
n n

9
n
X C C
≤ d3 (Xi , Yi ) ≤ n × 3= √ → 0.
i=1 n2 n
Demostrando el TCL. Observemos que en la tercera desigualdad hemos usado que las v.a.
poseen la misma distribución para diferentes ı́ndices i.

10

Anda mungkin juga menyukai