Anda di halaman 1dari 18

Economa Estadstica II Avellan / Lemus

Apuntes de Clase # 1
Fecha: Octubre/Noviembre - 2006

1. Teora de la probabilidad
1.1. Definiciones basicas
Definicion 1.1.1 (Espacio muestral) Es el conjunto de todos los resultados posibles de un ex-
perimento. Se lo suele representar con la letra S.

Definicion 1.1.2 A cada resultado o elemento de un espacio muestral se lo llama punto muestral

Ejemplo 1.1.1 Si se esta interesado en el numero que muestra la cara superior de un dado en un
lanzamiento entonces el espacio muestral es

S1 = {1, 2, 3, 4, 5, 6}

Si solo interesa si el numero es par o impar, el espacio muestral es

S2 = {par, impar}

Definicion 1.1.3 Si un espacio muestral contiene un numero finito de posibilidades o una serie
interminable con tantos elementos como numeros enteros existen, se llama espacio muestral dis-
creto

Definicion 1.1.4 Si un espacio muestral contiene un numero infinito de posibilidades igual al nume-
ro de puntos en un segmento de lnea, se llama espacio muestral continuo

Definicion 1.1.5 (Evento) Es un subconjunto del espacio muestral.

Ejemplo 1.1.2 Se esta interesado en que el resultado del lanzamiento de un dado sea divisible para
tres. El evento A = {3, 6} es el conjunto de resultados que cumplen la condicion indicada. A es un
subconjunto de S1 del ejemplo 1.1.1.

Nota En el ejemplo anterior A es un evento porque A S1 y porque tanto en A como en S1 el


experimento se refiere al resultado del lanzamiento de un dado.
Definicion 1.1.6 (Probabilidad de un evento) La probabilidad de un evento discreto A, P (A),
es la suma de todas las probabilidades que se asignan a los puntos muestrales en A. Por tanto

0 P (A) 1 P () = 0 P (S) = 1

Ejemplo 1.1.3 Si se lanza dos veces una moneda, Cual es la probabilidad de que ocurra al menos
una cara?

Solucion El espacio muestral para este experimento es

S = {HH, HT, TH, TT}


donde H representa cara y T sello
Cada uno de estos resultados tiene la misma probabilidad de ocurrencia. Por tanto, asignamos
una probabilidad de w = 41 a cada uno de los puntos muestrales. Si A representa el evento que
ocurra al menos una cara, entonces
1 1 1 3
A = {HH, HT, TH} y P (A) = + + =
4 4 4 4

A1-1
Definicion 1.1.7 La probabilidad condicional de B dado A, que se denota con P (B|A), se define
como
P (A B)
P (B|A) = si P (A) > 0
P (A)

Teorema 1.1.1 Si A, B y C son tres eventos cualquiera en un espacio muestral S tal que P (AB) 6=
0, entonces
P (A B C) = P (A) P (B|A) P (C|A B)

Demostracion Si se escribe A B C como (A B) C y se usa la definicion 1.1.7 se obtiene

P (A B C) = P [(A B) C]
= P (A B) P (C|A B)

Si se aplica otra vez la definicion 1.1.7 se encontrara el resultado deseado

P (A B C) = P (A B) P (C|A B)
= [P (A) P (B|A)] P (C|A B)
= P (A) P (B|A) P (C|A B)

Definicion 1.1.8 Dos eventos A y B son independientes si y solo si

P (B|A) = P (B) y P (A|B) = P (A)

En cualquier otro caso A y B son dependientes

Teorema 1.1.2 Dos eventos A y B son independientes si y solo si

P (A B) = P (A)P (B)

Demostracion Para esta prueba basta aplicar las definiciones 1.1.7 y 1.1.8

Definicion 1.1.9 (Variable aleatoria) Es una una funcion que asocia un numero real con cada
elemento del espacio muestral.

Teorema 1.1.3 (Funciones de variables aleatorias) Si X es una variable aleatoria, entonces la


funcion g(X) tambien es una variable aleatoria.

Ejemplo 1.1.4 Se sacan dos bolas de manera sucesiva sin reemplazo de una urna que contiene 4
bolas rojas y 3 negras. Los posibles resultados y los valores y de la variable aleatoria Y , donde Y es
el numero de bolas rojas, son
Espacio muestral y
RR 2
RB 1
BR 1
BB 0

Definicion 1.1.10 Una variable aleatoria se llama variable aleatoria discreta si se puede contar
su conjunto de resultados posibles. Cuando una variable aleatoria puede tomar valores en una escala
continua, se la denomina variable aleatoria continua

Observacion 1.1.1 A menudo los posibles valores de una variable aleatoria continua son precisa-
mente los mismos valores que contiene el espacio muestral continuo.
En la mayor parte de los problemas practicos, las variables aleatorias continuas representan datos
medidos, mientras que las variables aleatorias discretas representan datos contados.

A1-2
1.2. Funciones de probabilidad
Definicion 1.2.1 La funcion f (x) es una funcion masa de probabilidad de la variable aleatoria
discreta X si y solo si se satisfacen las siguientes condiciones
f (x) 0 para cada valor dentro de su dominio;
P
x f (x) = 1, donde la suma se extiende sobre todos los valores dentro de su dominio;

P (X = x) = f (x) para cada valor dentro del intervalo de X.

Definicion 1.2.2 La funcion f (x) es una funcion de densidad de probabilidad de la variable


aleatoria continua X, si y solo si se satisfacen las siguientes condiciones
f (x) 0, para < x <
R

f (x)dx = 1
Rb
P (a < X < b) = a
f (x)dx.
Vale aclarar que la integral de a + es una manera de decir que se esta integrando sobre todo
el rango de posibles valores de la variable aleatoria X. Otra manera de expresar esta condicion es:
Z
f (x)dx = 1
x

Nota 1 En la mayora de los casos se utilizara el termino funcion de probabilidad para refe-
rirse de manera general a las funciones de masa de probabilidad y a las funciones de densidad de
probabilidad.

Nota 2 La funcion de probabilidad de una variable aleatoria discreta es necesariamente una


funcion de masa de probabilidad. De la misma manera la funcion de probabilidad de una variable
aleatoria continua es una funcion de densidad de probabilidad.
Definicion 1.2.3 La funcion f (x, y) es una funcion de masa de probabilidad conjunta de las
variables aleatorias discretas X y Y si y solo si

f (x, y) 0 x X y y Y
P P
x y f (x, y) = 1

P (X = x, Y = y) = f (x, y) x X y y Y
PP
Para cualquier region A en el plano xy, P [(X, Y ) A] = f (x, y)
A

Definicion 1.2.4 La funcion f (x, y) es una funcion de densidad conjunta de las variables alea-
torias continuas X y Y si
f (x, y) 0 x, y R
R R

f (x, y) dx dy = 1
RR
P [(X, Y ) A] = f (x, y) dx dy, para cualquier region A en el plano xy
A

Definicion 1.2.5 (Generalizacion) La funcion f (x1 , x2 , . . . , xm ) es una funcion de probabilidad


conjunta de las m variables aleatorias X1 , X2 , . . . , Xm si y solo si

f (x1 , x2 , . . . , xm ) 0 para cada valor dentro del dominio de la funcion;


P P P
x1 x2 . . . xm f (x1 , x2 , . . . , xm ) = 1

P (X1 = x1 , X2 = x2 , . . . , Xm = xm ) = f (x1 , x2 , . . . , xm )
para cualquier valor que se encuentre en el dominio de la funcion;

A1-3
Para cualquier region A en el hiperplano x1 , x2 xm ,
PP P
P [(X1 , X2 , . . . , Xm ) A] = . . . f (x1 , x2 , . . . , xm )
A
para el caso discreto, y
f (x1 , x2 , . . . , xm ) 0 x1 , x2 , . . . , xm ( , )
R R R

. . . f (x1 , x2 , . . . , xm )dx1 dx2 . . . dxm = 1

Para cualquier region A en el hiperplano x1 , x2 xm ,


RR R
P [(X1 , X2 , . . . , Xm ) A] = . . . f (x1 , x2 , . . . , xm )dx1 dx2 . . . dxm
A
para el caso continuo.
Definicion 1.2.6 La distribucion acumulada F (x) de una variable aleatoria discreta X con
distribucion de probabilidad f (x) es
X
F (x) = P (X x) = f (t) para < x <
tx

Definicion 1.2.7 (Generalizacion) Sean X1 , X2 , . . . , Xm un conjunto de variables aleatorias dis-


cretas con funcion de masa de probabilidad conjunta f (x1 , x2 , . . . , xm ). Su funcion de distribucion
acumulada, F (x1 , x2 , . . . , xm ), esta definida de la siguiente manera

F (x1 , x2 , . . . , xm ) = P (X1 x1 , X2 x2 , . . . , Xm xm )
X X X
= ... f (t1 , t2 , . . . , tm )
t1 x1 t2 x2 tm xm

para todo x1 , x2 , . . . , xm (, )

Definicion 1.2.8 La distribucion acumulada F (x) de una variable aleatoria continua con fun-
cion de densidad f (x) es
Z x
F (x) = P (X x) = f (t)dt para < x <

Observacion 1.2.1 Consecuencias de la definicion anterior son:


P (a < X < b) = F (b) F (a) y;
dF (x)
f (x) = si la derivada existe.
dx
Definicion 1.2.9 (Generalizacion) Sean X1 , X2 , . . . , Xm un conjunto de variables aleatorias con-
tinuas con funcion de densidad de probabilidad conjunta f (x1 , x2 , . . . , xm ). Su funcion de distri-
bucion acumulada, F (x1 , x2 , . . . , xm ), esta definida de la siguiente manera

F (x1 , x2 , . . . , xm ) = P (X1 x1 , X2 x2 , . . . , Xm xm )
Z x1 Z x2 Z xm
= ... f (t1 , t2 , . . . , tm ) dt1 dt2 . . . dtm

para todo x1 , x2 , . . . , xm (, )

Observacion 1.2.2 Consecuencias de la definicion anterior son:

P (a1 < X1 < b1 , a2 < X2 < b2 , . . . , am < Xm < bm ) =


F (b1 , b2 , . . . , bm ) F (a1 , a2 , . . . , am ); y,

dm F (x)
f (x1 , x2 , . . . , xm ) = si todas las derivadas existen.
dx1 dx2 . . . dxm

A1-4
Teorema 1.2.1 Si X es una variable aleatoria continua y a y b son constantes reales con a b,
entonces
P (a X b) = P (a X < b) = P (a < X b) = P (a < X < b)
Definicion 1.2.10 Las distribuciones marginales de X sola y Y sola son
X X
g(x) = f (x, y) y h(y) = f (x, y)
y x

para el caso discreto, y


Z Z
g(x) = f (x, y) dy y h(y) = f (x, y) dx

para el caso continuo


Definicion 1.2.11 (Generalizacion) Sean X = {X1 , X2 , . . . , Xm } un conjunto de m variables
aleatorias con funcion de probabilidad (o densidad) conjunta f (x1 , x2 , . . . , xm ), B = {Xj1 , Xj2 , . . . , Xjk }
un subconjunto cualquiera de X y B 0 = {Xjk+1 , Xjk+2 , . . . , Xjm } el complemento de B, es decir
X = B B 0 . La funcion de probabilidad marginal g(xj1 , xj2 , . . . , xjk ) del conjunto de variables
aleatorias en B esta definida como
X X X
g(xj1 , xj2 , . . . , xjk ) = ... f (x1 , x2 , . . . , xm )
xjk+1 xjk+2 xjm

para el caso discreto, y


Z Z Z
g(xj1 , xj2 , . . . , xjk ) = f (x1 , x2 , . . . , xm ) dxjk+1 dxjk+2 . . . dxjm

para el caso continuo


Ejemplo 1.2.1 La funcion de probabilidad conjunta de W, X, Y y Z esta dada por f (w, x, y, z).
Como se calcula la funcion de probabilidad marginal de W y Z?
Solucion Si f (w, x, y, z) es una funcion de probabilidad entonces se esta tratando con un conjunto
de variables aleatorias discretas, por tanto la funcion de probabilidad marginal de W y Z estara dada
por X X
h(w, z) = f (w, x, y, z)
xX yY
Nota Si W, X, Y y Z fueran un conjunto de variables aleatorias continuas, entonces
Z Z
h(w, z) = f (w, x, y, z) dx dy

Definicion 1.2.12 Sean X y Y dos variables aleatorias, discretas o continuas. La distribucion


condicional de la variable aleatoria Y , dado que X = x, es
f (x, y)
f (y|X = x) = , g(x) > 0
g(x)
De manera similar, la distribucion condicional de la variable aleatoria X, dado que Y = y, es
f (x, y)
f (x|Y = y) = , h(y) > 0
h(y)
Definicion 1.2.13 (Generalizacion) Sean X = {X1 , X2 , . . . , Xm } un conjunto de m variables alea-
torias con funcion de probabilidad conjunta f (x1 , x2 , . . . , xm ); y, A = {Xi1 , Xi2 , . . . , Xir } y B =
{Xj1 , Xj2 , . . . , Xis } dos subconjuntos cualquiera disjuntos (A B = ) y exhaustivos (A B = X )
de X. La funcion de probabilidad condicional de las variables aleatorias Xi1 , Xi2 , . . . , Xir dado
Xj1 = xj1 , Xj2 = xj2 , . . . , Xjs = xjs esta definida por
h(xi1 , xi2 , . . . , xir |Xj1 = xj1 , Xj2 = xj2 , . . . , Xjs = xjs ) =

f (xi1 , xi2 , . . . , xir , xj1 , xj2 , . . . , xis ) f (x1 , x2 , . . . , xm )


= =
g(xj1 , xj2 , . . . , xis ) g(xj1 , xj2 , . . . , xis )
siempre y cuando g(xj1 , xj2 , . . . , xis ) > 0.

A1-5
Ejemplo 1.2.2 Las variables aleatorias V, W, X, Y y Z tienen funcion de densidad conjunta f (v, w, x, y, z).
Cual es la formula para calcular la distribucion condicional de V, W y Z dado X y Y ?
Solucion Definiendo como h(v, w, z|x, y) a la distribucion condicional en cuestion y aplicando la
formula de la definicion 1.2.13 se tiene
f (v, w, x, y, z)
h(v, w, z|x, y) =
g(x, y)
Ejemplo 1.2.3 La funcion de densidad conjunta para las variables aleatorias X y Y es
1 (2x + y) para 0 < x < 1 ; 0 < y < 2

f (x, y) = 4
0 en otro caso

encuentre h(y|X = x), la densidad condicional de Y dado X = x


Solucion Se necesita calcular primero g(x), la funcion de densidad marginal de X.
Z 2 Z 2
1
g(x) = f (x, y) dy = (2x + y) dy
0 0 4
 y=2
y 2

1
= 2xy +
4 2 y=0
1
= (4x + 2)
4
1
g(x) = (2x + 1) para 0 < x < 1
2
Aplicando las definiciones sobre distribuciones condicionales se tiene
1
f (x, y) 4 (2x + y)
h(y|X = x) = = 1
g(x) 2 (2x + 1)
 
1 2x + y
h(y|X = x) h(y|x) =
2 2x + 1
para 0 < x < 1; 0 < y < 2 y cero en otro caso.

Observacion 1.2.3 Cuando no se especifica el valor numerico en el que se condiciona la distribu-


cion se suele simplificar h(y|X = x) como h(y|x).
Ejemplo 1.2.4 En el ejemplo anterior suponga que se esta interesado en encontrar la funcion de
densidad conjunta de Y dado X = 1/4.
Solucion Reemplazando x = 1/4 se obtiene
   
1 2 (1/4) + y 1 (1+y)/2
h(y|X = 1/4) = =
2 2 (1/4) + 1 2 3/2

1+y
h(y|X = 1/4) = para 0 < x < 1 ; 0 < y < 2
6
Observacion 1.2.4 En un sentido estricto h(y|x) es una funcion que depende solo de y puesto que
x es un valor dado. La ventaja de expresar la distribucion condicional como se pidio en el ejercicio
original, es que de esa manera se estan representando a todas las posibles funciones de densidad
condicional en una sola expresion.
Definicion 1.2.14 (Independencia estocastica) Sean X y Y dos variables aleatorias, discretas o
continuas, con distribucion de probabilidad conjunta f (x, y) y distribuciones marginales g(x) y h(y),
respectivamente. Se dice que las variables aleatorias X y Y son estocasticamente independientes
si y solo si
f (x, y) = g(x)h(y)
para todo x, y en sus respectivos dominios.

A1-6
Definicion 1.2.15 (Generalizacion 1) Sean X1 , X2 , . . . , Xm un conjunto de variables aleatorias,
discretas o continuas, con distribucion de probabilidad conjunta f (x1 , x2 , . . . , xm ) y distribucio-
nes marginales g1 (x1 ), g2 (x2 ), . . . , gm (xm ), respectivamente. Se dice que las variables aleatorias
X1 , X2 , . . . , Xm son estocasticamente independientes si y solo si

f (x1 , x2 , . . . , xm ) = g1 (x1 ) g2 (x2 ) . . . gm (xm )

Definicion 1.2.16 (Generalizacion 2) Sea X = {X1 , X2 , . . . , Xm } un conjunto de variables alea-


torias, discretas o continuas, con funcion de probabilidad conjunta

f (x1 , x2 , . . . , xm )

B = {Xi1 , Xi2 , . . . , Xir } un subconjunto cualquiera de X con funcion de probabilidad

gB (xi1 , xi2 , . . . , xik )

y B 0 = {Xik+1 , Xik+2 , . . . , Xim } el complemento de B 0 con funcion de probabilidad

gB 0 (xik+1 , xik+2 , . . . , xim )

Se dice que el conjunto de variables aleatorias en B es estocasticamente independiente del conjunto


de variables aleatorias en B 0 si y solo si

f (x1 , x2 , . . . , xm ) = gB (xi1 , xi2 , . . . , xik ) gB 0 (xik+1 , xik+2 , . . . , xim )

Teorema 1.2.2 Si dos conjuntos de variables aleatorias A y B son independientes entonces cada
variable aleatoria que se encuentra en A es independiente de cualquiera de las que se encuentra en
B y viceversa.

La demostracion de este teorema se deja de tarea. Suponga que las variables aleatorias en X se encuentran
ordenadas de tal manera que A = {X1 , X2 , . . . , Xi } y B = {Xi+1 , Xi+2 , . . . , Xm }, donde i es un numero cualquier
entre 1 y m; luego pruebe la independencia entre dos elementos elementos cualquiera Xj A y Xk B.

2. Esperanza matematica
2.1. Medidas de posicion central
Definicion 2.1.1 (Valor esperado) Sea X una variable aleatoria con distribucion de probabilidad
f (x). La media o valor esperado de X esta definida por
X
= E(X) = xf (x)
x

si X es discreta, y Z
= E(X) = xf (x) dx

si X es continua.

Teorema 2.1.1 Sea X una variable aleatoria con funcion de probabilidad f (x). La media o valor
esperado de la variable aleatoria g(X) es
X
g(x) = E[g(x)] = g(x)f (x)
x

si X es discreta, y Z
g(x) = E[g(x)] = g(x)f (x) dx

si X es continua

A1-7
Definicion 2.1.2 Sean X y Y variables aleatorias con distribucion de probabilidad conjunta f (x, y).
La media o valor esperado de la variable aleatoria g(X, Y ) es
XX
g(x,y) = E[g(X, Y )] = g(x, y)f (x, y)
x y

si X y Y son discretas, y
Z Z
g(x,y) = E[g(X, Y )] = g(x, y)f (x, y) dx dy

si X y Y son continuas
Definicion 2.1.3 Sean X y Y dos variables aleatorias con funcion de probabilidad conjunta f (x, y),
el valor esperado condicional de X dado Y , se define como:
P
x xf (x|y) si X es una v.a. discreta
E(X|y) =
R

xf (x|y) dx si X es una v.a. continua

2.2. Varianza y covarianza


Definicion 2.2.1 Sea X una variable aleatoria con funcion de probabilidad f (x) y media . La
varianza de X es X
2 = Var(X) = E[(X )2 ] = (x )2 f (x)
x
si X es discreta, y Z
2 = Var(X) = E[(X )2 ] = (x )2 f (x) dx

si X es continua.
La raz cuadrada positiva de la varianza, , se llama desviacion estandar de X.
Teorema 2.2.1 La varianza de una variable aleatoria X se puede expresar de la siguiente manera
2 = Var(X) = E(X 2 ) 2
Demostracion Para el caso discreto se puede escribir
X X
2 = (x )2 f (x) = (x2 2x + 2 )f (x)
x xX
X X X
2
= x f (x) 2 xf (x) + 2 f (x)
x x x
P P
Como = x xf (x) (vease la definicion 2.1.1), y x f (x) = 1 para cualquier distribucion de
probabilidad discreta (vease la definicion 1.2.3), se sigue que
X X
2 = x2 f (x) 2  + 2 f (x)
x x
X
= x f (x) = E(X ) 2
2 2 2
//
QED
x

Para el caso continuo:


Z Z
2 2
= (x ) f (x) dx = (x2 2x + 2 )f (x) dx

Z Z Z
2 2
= x f (x) dx 2 xf (x) dx + f (x) dx

R R
Similar al caso discreto, = xf (x) dx por definicion y f (x) dx = 1 para cualquier distri-
bucion de probabilidad continua. Se concluye que
Z
2 = x2 f (x) dx 2 = E(X 2 ) 2 //
QED

A1-8
Teorema 2.2.2 Sea X una variable aleatoria con distribucion de probabilidad f (x). La varianza
de la variable aleatoria g(X) es
X
2
g(X) = E{[g(X) g(x) ]2 } = [g(x) g(X) ]2 f (x)
x

si X es discreta, y Z
2
g(X) = Var[g(X)] = [g(x) g(X) ]2 f (x) dx

si X es continua

Demostracion [g(X) g(X) ]2 es una funcion de X que se puede representar por j(X). Si a esta
nueva funcion j(X) se le aplica el teorema 2.1.1 se tendra que
X
E[j(X)] = j(x)f (x)
x

para el caso discreto, y Z


E[j(X)] = j(x)f (x) dx

para el caso continuo


Volviendo a reemplazar j(x) por [g(X) g(X) ]2 se obtiene el resultado deseado.

Definicion 2.2.2 La varianza condicional de X dado Y se define como:


2
P
x (x X ) f (x|y) si X es una v.a. discreta
Var(X|y) =
R

(x X )2 f (x|y) dx si X es una v.a. continua

Definicion 2.2.3 (Covarianza) Sean X y Y variables aleatorias con distribucion de probabilidad


conjunta f (x, y). La covarianza de X y Y es
XX
XY = Cov(X, Y ) = E[(X X )(Y Y )] = (x X )(y Y )f (x, y)
x y

Si X y Y son discretas, y
Z Z
XY = Cov(X, Y ) = E[(X X )(Y Y )] = (x X )(y Y )f (x, y) dx dy

Si X y Y son continuas.

La covarianza, a traves de su signo, indica la direccion de la variacion conjunta de X y Y . Su


magnitud sin embargo, depende de la escala de medida, por lo que una medida preferible suele ser
el coeficiente de correlacion.
Definicion 2.2.4 (Correlacion) Sean X y Y variables aleatorias con covarianza XY y desviacio-
nes estandar X y Y , respectivamente. El coeficiente de correlacion X y Y es
XY
XY =
X Y
Observaciones 2.2.1 El coeficiente mide el grado de variacion conjunta que hay entre las variables
X y Y , es independiente de las unidades en que se midan y satisface la desigualdad

1 XY 1

El signo es el mismo que el de la covarianza y por tanto su interpretacion. La ventaja del coeficiente
de correlacion sobre la covarianza es que es comparable, sin embargo, esta comparacion solo establece
un orden y no magnitudes.

A1-9
Teorema 2.2.3 La covarianza de dos variables aleatorias X y Y con medias X y Y , respectiva-
mente, puede ser expresada de la siguiente manera

XY = E(XY ) X Y

Demostracion Para el caso discreto se puede escribir


XX
XY = (x X )(y Y )f (x, y)
x y
XX
= (xy X y Y x + X Y )f (x, y)
x y
XX XX
= xyf (x, y) X yf (x, y)
x y x y
XX XX
Y xf (x, y) + X Y f (x, y)
x y x y
XX X X
= xyf (x, y) X y f (x, y)
x y y x
X X XX
Y x f (x, y) + X Y f (x, y)
x y x y

Utilizando las definiciones 1.2.4 y 1.2.10 se tiene


XX X X
XY = xyf (x, y) X yh(y) Y xg(x) + X Y
x y y x

y aplicando la definicion de valor esperado (definicion 2.1.1) se obtiene el resultado deseado


XX
XY = xyf (x, y) X Y Y X + X Y
x y
XX
= xyf (x, y) X Y
x y
= E(XY ) X Y //
QED

Para el caso continuo basta reemplazar los sumatorios por integrales y la prueba esta completa.
Teorema 2.2.4 La covarianza de X consigo misma es igual a la varianza de X

Cov(X, X) = Var(X)

Prueba Utilizando el teorema 2.2.3

XX = Cov(X, X) = E(X X) X X
= E(X 2 ) 2X
= Var(X) //
QED

Teorema 2.2.5 Si las variables aleatorias X y Y son independientes entonces

Cov(X, Y ) = 0

Lo contrario no es necesariamente cierto.

Teorema 2.2.6 Sean X y Y dos variables aleatorias independientes. Entonces

E(XY ) = E(X)E(Y )

Lo contrario no es necesariamente cierto.

A1-10
Demostracion Por la definicion 2.1.2
Z Z
E(XY ) = xyf (x, y) dx dy

Como X y Y son independientes, entonces de acuerdo a la definicion 1.2.14 se puede decir que

f (x, y) = g(x)h(y)

Donde g(x) y h(y) son las distribuciones marginales de X y Y , respectivamente. De aqu


Z Z Z Z
E(XY ) = xy g(x)h(y) dx dy = xg(x) dx yh(y) dy

= E(X)E(Y )

Teorema 2.2.7 (Generalizacion 1) Si las variables aleatorias X1 , X2 , . . . , Xm son independien-


tes, entonces
E(X1 , X2 , , Xm ) = E(X1 )E(X2 ) E(Xm )
Lo contrario no es necesariamente cierto.

Teorema 2.2.8 (Generalizacion 2) Sean

A = {Xi1 , Xi2 , . . . , Xir } y B = {Xj1 , Xj2 , . . . , Xjs }

dos conjuntos de variables aleatorias cualquiera. Si las variables aleatorias en A son independientes
de las que se encuentran en B entonces

E(Xi1 Xi2 Xir Xj1 Xj2 Xjs ) = E(Xi1 Xi2 Xir )E(Xj1 Xj2 Xjs )

Lo contrario no es necesariamente cierto.

2.3. Medias y varianzas de combinaciones lineales de variables aleatorias


Teorema 2.3.1 Si a y b son constantes, entonces

E(aX + b) = aE(X) + b

Demostracion Por definicion de valor esperado (definicion 2.1.1)


Z
E(aX + b) = (ax + b)f (x) dx

Z Z
= axf (x) dx + bf (x) dx

Z Z
= a xf (x) dx + b f (x) dx

la integral del primer termino de la ecuacion anterior es la definicion de E(X) y la integral del
segundo termino es igual a 1, entonces tenemos

E(aX + b) = aE(X) + b

Corolario 2.3.1 Si a = 0 entonces E(b) = b. Se concluye que el valor esperado de una constante b
es igual a esta misma constante

Corolario 2.3.2 Si b = 0 se tiene que E(aX) = aE(X)

Teorema 2.3.2 El valor esperado de la suma o diferencia de dos o mas funciones de una variable
aleatoria X es la suma o diferencia de los valores esperados de las funciones. Es decir.

E[g(X) h(X)] = E[g(X)] E[h(X)]

A1-11
Demostracion Por definicion
Z
E[g(X) h(X)] = [g(x) h(x)]f (x) dx

Z Z
= g(x)f (x) dx h(x)f (x) dx

= E[g(X)] E[h(X)]

Teorema 2.3.3 El valor esperado de la suma o diferencia de dos o mas funciones de las variables
aleatorias X y Y es la suma o diferencia de los valores esperados de las funciones. Es decir

E[g(X, Y ) h(X, Y )] = E[g(X, Y )] E[h(X, Y )]

Demostracion Si f (x, y) es la distribucion de densidad conjunta de X y Y (o probabilidad


conjunta en el caso discreto), entonces por la definicion 2.1.2 se tiene que
Z Z
E[g(X, Y ) h(X, Y )] = [g(x, y) h(x, y)]f (x, y) dx dy

Z Z
= g(x, y)f (x, y) dx dy

Z Z
h(x, y)f (x, y) dx dy

= E[g(X, Y )] E[h(X, Y )] //
QED

Para el caso discreto basta con reemplazar las integrales por sumatorias.

Corolario 2.3.3 Si g(X, Y ) = g(X) y h(X, Y ) = h(Y ) se obtiene

E[g(X) h(Y )] = E[g(X)] E[h(Y )]

Corolario 2.3.4 Al hacer g(X, Y ) = X y h(X, Y ) = Y , se observa que

E(X Y ) = E(X) E(Y )

Observacion Sobre el valor esperado se podra concluir que es un operador lineal, es decir, el
valor esperado de una suma de elementos es siempre la suma del valor esperado de los elementos.
Teorema 2.3.4 Si a y b son constantes, entonces
2
aX+b = Var(aX + b) = a2 X
2
= a2 2

Demostracion Por definicion


2
aX+b = E{[(aX + b) aX+b ]2 }

y por el teorema 2.3.1 se sabe que

aX+b = E(aX + b) = a + b

entonces
2
aX+b = E[(aX + b a b)2 ] = E[(aX a)2 ] =

= E{[a(X )]2 } = E[a2 (X )2 ]

utilizando el corolario 2.3.2 se obtiene


2
aX+b = a2 E[(X )2 ]

finalmente, por la definicion de varianza (definicion 2.2.1)


2
aX+b = a2 X
2
= a2 2

A1-12
Corolario 2.3.5 Al hacer a = 1, se tiene que
2
X+b = Var(X + b) = Var(X) = 2
Corolario 2.3.6 Si b=0 entonces
2
aX = Var(aX) = a2 Var(X) = a2 X
2
= a2 2
Teorema 2.3.5 Si X y Y son variables aleatorias con distribucion de probabilidad conjunta f (x, y),
entonces
2
aX+bY = Var(aX + bY ) = a2 Var(X) + b2 Var(Y ) + 2ab Cov(X, Y )
= a2 X
2
+ b2 Y2 + 2abXY
Demostracion Por definicion
2
aX+bY = E{[(aX + bY ) aX+bY ]2 }
Utilizando el corolario 2.3.4 y el corolario 2.3.2 se tiene que
aX+bY = E(aX + bY ) = aE(X) + bE(Y ) = aX + bY
Por tanto,
2
aX+bY = E{[(aX + bY ) (aX + bY )]2 }
= E{[a(X X ) + b(Y Y )]2 }
= E[a2 (X X )2 + b2 (Y Y )2 + 2ab(X X )(Y Y )]
= E[a2 (X X )2 ] + E[b2 (Y Y )2 ] + E[2ab(X X )(Y Y )]
= a2 E[(X X )2 ] + b2 E[(Y Y )2 ] + 2abE[(X X )(Y Y )]
= a2 Var(X) + b2 Var(Y ) + 2ab Cov(XY )
= a2 X
2
+ b2 Y2 + 2ab XY
Corolario 2.3.7 Si X y Y son variables aleatorias independientes, entonces
2
aX+bY = a2 X
2
+ b2 Y2
Demostracion El resultado se obtiene aplicando el teorema 2.2.6 (si X y Y son independientes,
entonces E(XY ) = E(X)E(Y ) ) junto con el teorema 2.2.3 (XY = E(XY ) E(X)E(Y )). La
conclusion es que si X y Y son independientes, XY = 0, quedando demostrado el corolario.

Corolario 2.3.8 Si X y Y son variables aleatorias con distribucion de probabilidad conjunta f (x, y)
entonces
2
aXbY = Var(aX bY ) = a2 Var(X) + b2 Var(Y ) 2ab Cov(X, Y )
= a2 X
2
+ b2 Y2 2ab XY
Corolario 2.3.9 Si X y Y son variables aleatorias independientes, entonces
2
aXbY = a2 X
2
+ b2 Y2
Teorema 2.3.6 (Generalizacion 1) Si X1 , X2 , . . . , Xm son variables aleatorias independientes,
entonces
a21 X1 +a2 X2 +...+am Xm = a21 X
2
1
+ a22 X
2
2
+ . . . + a2m X
2
m

Teorema 2.3.7 (Generalizacion 2) Si X1 , X2 , . . . , Xm son variables aleatorias y


m
X
Y = ai Xi
i=1

donde a1 , a2 , . . . , am son constantes, entonces


m
X XX
Var(Y ) = a2i Var(Xi ) + 2 ai aj Cov(Xi , Xj )
i=1 i<j

donde la doble suma se extiende para todos los valores de i y j, desde 1 hasta m, para los que i < j

A1-13
La demostracion de este teorema se deja de tarea

Pistas para la demostracion Suponga que tenemos el siguiente conjunto de numeros

{c1 , c2 , c3 , c4 }

entonces

(c1 + c2 + c3 + c4 )2 = c21 + c22 + c23 + c24 +


+c1 c2 + c1 c3 + c1 c4 +
+c2 c1 + c2 c3 + c2 c4 +
+c3 c1 + c3 c2 + c3 c4 +
+c4 c1 + c4 c2 + c4 c3 =
= c21 + c22 + c23 + c24 +
+2c1 c2 + 2c1 c3 + 2c1 c4 +
+2c2 c3 + 2c2 c4 +
+2c3 c4 =
X 4 XX
= c2i + 2 ci cj
i=1 i<j

Lo que se necesita hacer para demostrar el teorema es desarrollar un polinomio como el anterior,
pero con m elementos en vez de 4.

Teorema 2.3.8 Si X1 , X2 , . . . , Xm son variables aleatorias y


m
X m
X
Y1 = ai Xi y Y2 = bi X i
i=1 i=1

donde a1 , a2 , . . . , am , b1 , b2 , . . . , bm son constantes, entonces


m
X XX
Cov(Y1 , Y2 ) = ai bi Var(Xi ) + (ai bj + aj bi ) Cov(Xi , Xj )
i=1 i<j

La demostracion de este teorema se deja de tarea

2.4. Momentos
Definicion 2.4.1 El r-esimo momento alrededor del origen de una variable aleatoria X, deno-
tado por 0r , es el valor esperado de X r , simbolicamente,
X
0r = E(X r ) = xr f (x)
x

para r = 0, 1, 2, . . . donde X es discreta, y


Z
0r = E(X ) = r
xr f (x) dx

donde X es continua.

Observacion 2.4.1 Si r = 1 se tiene que 01 = E(X) = , es decir, el valor esperado de la variable


aleatoria X.

A1-14
Definicion 2.4.2 El r-esimo momento alrededor de la media de una variable aleatoria X,
denotado por r , es el valor esperado de (X )r ; simbolicamente,
X
r = E[(X )r ] = (x )r f (x)
x

para r = 0, 1, 2, . . . cuando X es discreta, y


Z
r
r = E[(X ) ] = (x )r f (x) dx

cuando X es continua

Observaciones 2.4.2

0 = 1 y 1 = 0 para cualquier variable aleatoria para la cual exista.


Si r = 2 se tiene que 2 = E[(X )2 ] = Var(X).

2.5. Teorema de Chebyshev


Teorema 2.5.1 Si y son la media y la desviacion estandar de una variable aleatoria X, entonces
1
para cualquier constante positiva k la probabilidad es al menos 1 2 que X asumira un valor dentro
k
de k desviaciones estandar de la media.
1
P (|X | < k) 1
k2
Demostracion De acuerdo con la definicion de varianza
Z
2 2
= E[(X ) ] = (x )2 f (x) dx

y por tanto
Z k Z +k Z
2 2 2
= (x ) f (x) dx + (x ) f (x) dx + (x )2 f (x) dx
k k

Dado que (x )2 f (x) es no negativo se puede borrar la segunda integral para obtener
Z k Z
2 2
(x ) f (x) dx + (x )2 f (x) dx
k

Adicionalmente (x )2 k 2 2 para x k o x + k, y por tanto


Z k Z
2 k 2 2 f (x) dx + k 2 2 f (x) dx
k

que se puede re-expresar como


Z k Z
1
f (x) dx + f (x) dx; 2 6= 0
k2 k

La suma de ambas integrales es la probabilidad de que X tenga un valor menor o igual a k o


mayor o igual a + , es decir
1
P (|X | k) 2
k
y en consecuencia
1
P (|X | < k) 1 2
k

A1-15
2.6. Funciones generatrices de momentos
Los momentos de la mayora de las distribuciones se pueden determinar directamente con los metodos
descritos en la sub-seccion 2.4, el metodo de las funciones generatrices de momentos proporciona
simplificaciones considerables en algunos casos.
Definicion 2.6.1 la funcion generatriz de momentos de una variable aleatoria X, donde existe,
esta dada por X
MX (t) = E(etX ) = etx f (x)
x

cuando X es discreta y Z
tX
MX (t) = E(e )= etx f (x) dx

cuando X es continua

Observacion 2.6.1 La variable independiente es t y por lo general es de interes los valores de t


cercanos a 0.

Teorema 2.6.1
dr MX (t)

= 0r
dtr t=0

Demostracion Si se sustituye etx por su expansion en la serie de Maclaurin se tiene que

t2 x2 tr xr
etx = 1 + tx + + ... + + ...
2! r!
As, para el caso discreto se obtiene
X t2 x2 tr xr

Mx (t) = 1 + tx + + ... + + . . . f (x)
x
2! r!
X X t2 X 2 tr X r
= f (x) + t xf (x) + x f (x) + . . . + x f (x) + . . .
x x
2! x r! x
t2 tr
= 1 + t + 02 + . . . + 0r + . . .
2! r!
Al diferenciar la funcion r veces con respecto a t se obtendra

dr MX (t) 0 r(r 1) [r (r 1)] trr


= r +
dtr r!
(r + 1)[(r + 1) 1] [(r + 1) (r 1)] t(r+1)r
+0r+1 + ...
(r + 1)!
(r + s)[(r + s) 1] [(r + s) (r 1)] t(r+s)r
+0r+s + ...
(r + s)!

simplificando

dr MX (t) t2 ts
r
= 0r + 0r+1 t + 0r+2 + . . . + 0r+s + . . .
dt 2! s!
evaluando en t = 0
dr MX (t)

= 0r //
dtr t=0 QED

Observacion 2.6.2 La dificultad principal al usar la serie de Maclaurin de una funcion generatriz
de momentos para determinar los momentos de una variable aleatoria usualmente no es encontrar
la funcion, sino expandirla en la serie de Maclaurin. Por esto el teorema anterior es de utilidad.

A1-16
Teorema 2.6.2 Si a y b son constantes, entonces
MX+a (t) = E[e(X+a)t ] = eat MX (t)
MbX (t) = E(ebXt ) = MX (bt);
 
h X+a i
( )t a
t t
M X+a (t) = E e b = e MX
b
b b
Ejemplo 2.6.1 X tiene la siguiente funcion de probabilidad
 
1 3
f (x) = para x = 0, 1, 2, 3
8 x
Encontrar la funcion generatriz de momentos de esta variable aleatoria y calcular 01 y 02 .
Solucion De acuerdo con la definicion 2.6.1 la funcion generatriz de momentos sera
3  
1 X tx 3
MX (t) = E(etX ) = e
8 x
x=0
1 1
= (1 + 3et + 3e2t + e3t ) = (1 + et )3 //
8 8
Por el teorema 2.6.1
dMX (t) 3 3
01 t 2 t

= = (1 + e ) e = //
dt
t=0 8 t=0 2
y
d2 MX

3 3
02 = t 2t t 2 t

2
= (1 + e )e + (1 + e ) e = 3 //
dt
t=0 4 8
t=0
Ejemplo 2.6.2 Si la funcion de densidad de X esta dada por

1 para 0 < x < 1
f (x) =
0 otro caso
determinar su funcion generatriz de momentos, calcular 01 y 2 .
Solucion De acuerdo con la definicion 2.6.1 la funcion generatriz de momentos de X esta dada
por
1  1
ext et 1
Z 
MX (t) = ext dx = =
0 t 0 t
Por el teorema 2.6.1
tet et + 1

dMX (t) 0
01 = = =
dt t=0 t2
t=0 0
para solucionar la indefinicion se utiliza la regla de LHopital
tet

0 1
1 = = //
2t t=0
2
Para calcular 2 primero se necesita determinar M(X) (t). De acuerdo al teorema 2.6.2
et 1
M(Xu) (t) = et MX (t) = et
t
Aplicando ahora el teorema 2.6.1
2

dM(X)
2 =

dt 2

t=0
 t
te et + 1 et 1
 
= 2et 2
+ 2 et +
t t
 2 t t t

t t e 2te + 2e 2

+e
t3
t=0

A1-17
las tres fracciones se convierten en indefiniciones de la forma 00 , al evaluar en t = 0, por lo que se
requiere aplicar LHopital. Luego de hacer las operaciones del caso se obtiene que
1 1 1 1 1
2 = 2 = + 2 + = + + = //
3 2 4 3 12
Observacion 2.6.3 Del ejemplo anterior se puede inferir que en realidad no se evalua la funcion
en t = 0 sino que se determina su lmite cuando t tiende a cero.

Teorema 2.6.3 En caso de existir, hay una correspondencia unvoca entre las funciones generatrices
de momentos y las funciones de probabilidad.

Teorema 2.6.4 Si la funcion generatriz de momentos de una variable aleatoria se aproxima a la


de otra variable aleatoria, entonces la funcion de probabilidad de la primera variable aleatoria se
aproxima a la de la segunda variable aleatoria bajo las mismas condiciones lmite.

Teorema 2.6.5 Si X1 , X2 , . . . , Xm son variables aleatorias independientes y Y = X1 +X2 +. . .+Xm ,


entonces
Ym
MY (t) = MXi (t)
i=1

donde MXi (t) es el valor de la funcion generatriz de momentos de Xi en t.

2.7. Momentos Producto


Definicion 2.7.1 El r-esimo y s-esimo momentos productos alrededor del origen de las va-
riables aleatorias X y Y , denotados por 0r,s es el valor esperado de X r Y s
XX
0r,s = E(X r Y s ) = xr y s f (x, y)
x y

para r = 0, 1, 2, . . . y s = 0, 1, 2, . . . cuando X y Y son discretas, y


Z
0r,s = E(X r Y s ) = xr y s f (x, y) dx dy

si X y Y con continuas.

Observacion 2.7.1 Segun la definicion anterior 01,0 corresponde a E(X), la esperanza de X; y 00,1
corresponde a E(Y ), la esperanza de Y .

Definicion 2.7.2 El r-esimo y s-esimo momentos producto alrededor de la media de las


variables aleatorias X y Y , denotadas por r,s , es el valor esperado de (X X )r (Y Y )s

r,s = E[(X X )r (Y Y )s ]
XX
= (x X )r (y Y )s f (x, y)
x y

para r = 0, 1, 2, . . . y s = 0, 1, 2, . . . cuando X y Y son discretas, y

r,s = E[(X X )r (Y Y )s ]
Z Z
= (x X )r (y Y )s f (x, y) dx dy

cuando X y Y son continuas.

Observacion 2.7.2 1,1 es la covarianza entre X y Y .

A1-18

Anda mungkin juga menyukai