1. Demuestre que si E(Y |X = x) es una funcion lineal de x, digamos E(Y |x) = a + bx, entonces E(Y |X = x) =
y + xy (x x ) y Ex [V ar(Y |X)] = y2 (1 2 ).
sol.
Sabemos por el metodo de mnimos cuadrados ordinarios que la funcion h(x) que minimiza el error es la
esperanza condicional E(Y |X). Si suponemos que esta funcion es lineal basta con determinar los valores de
a y b para esta funcion.
Cov(x,Y ) Cov(x,Y ) y
b= V ar(x) = x y x = xy
dem.
Tomemos la covarianza con x en ambos lados:
Los supuestos del modelo estudiado indican que E(Y |x) = Y ya que E() = 0, por lo que podemos
reescribir la ecuacion como:
Cov(Y, x) = 0 + bCov(x, x)
Cov(Y, x) = 0 + bV ar(x)
Cov(Y,x)
b= V ar(x)
q.e.d.
a = y bx
dem.
Bajo los supuestos anteriormente mencionados y tomando la esperanza:
a = E(Y |x) bx
a = Y bx
a = y bx
1
q.e.d.
Ahora sustituimos a:
E(Y |x) = a + bx = y bx + bx
Finalmente sustituimos b:
E(Y |x) = y + xy (x x )
q.e.d.
q.e.d.
2. Sean X1k un vector de variables aleatorias y g(X) RJ . Si = Y E(Y |X) y E[|gj (X)|] < para
j = 1, 2, . . . , J y E(||) < , entonces E[g(X)] = 0
sol.
p.d. E[g(X)] = 0
La ecuacion anterior es equivalente a
E(|X) = 0, V ar(|X) = Y2 |X
2
Usando la ley de esperanza iterada podemos deducir lo siguiente:
De esa manera :
Cov(g(X), ) + E[g(X)]E[] = 0 + 0 = 0
q.e.d.
Yt = 0 + 1 Xt + t , t = 1, 2, ..., n
A partir de los supuestos y los resultados demostrados en clase para el modelo de regresion lineal multiple,
verifique que los estimadores de MCO estan dados por
Pn
t=1 Xt Yt nX Y
a ) 1 = P n 2 , 0 = Y X 1
t=1 (Xt X)
y que
Pn
2 Xt2 2 2
b ) V ar(1 ) = Pn 2, V ar(0 ) = 2 Pn t=1
2 , Cov(0 , 1 ) = Pn X 2
t=1 (Xt X) t=1 (Xt X) t=1 (Xt X)
sol.
Sabemos que el vector de esta definido por (X 0 X)(X 0 Y ). Verificaremos los valores de las
Pn
(X 0 X) = Pn n Pi=1
n
X1i
2
i=1 X1i i=1 X1i
Pn
(X 0 Y ) = Pn i=1 Yi
i=1 Yi X1i
Al multiplicar obtenemos:
Pn Pn 2 Pn Pn
Y i=1 X1i i=1 Yi X1i P i=1 X1i
1 = Pn i=1 2 i P n
n i=1 X1i ( i=1 X1i )2
n i=1 X1i ( n
Pn 2 2
i=1 X1i )
Pn Pn Pn
Y i=1 X1i n i=1 Y i X1i
1 = Pn i=1 2 i P
( n 2 + Pn 2
P n 2
n i=1 X 1i i=1 X1i ) n i=1 X 1i ( i=1 X1i )
n n Y X n2 X Y
P
1 = Pn i=1 2 i 1i
n i=1 X1i ( n
P 2
i=1 X1i )
Pn
Yi X1i nX Y
1 = i=1
(
Pn
X )2
i=1 1i
Pn 2
i=1 X1i n
Pn
i=1 Yi X1i nX Y
1 = P n 2 2
i=1 X1i nX
3
Pn
i=1 Yi X1i nX Y
1 = P n 2
i=1 (X1i X)
Para 0 tenemos:
Pn Pn 2 Pn Pn
X i=1 X1i i=1 Yi X1i P i=1 X1i
0 = n
Pn i=1 2 i P
X ( n
X 1i )
2 n
Pn
X 2 ( n 2
i=1 1i i=1 i=1 1i i=1 X1i )
Pn Pn 2 Pn
X i=1 X1i X Yi X1i
0 = n
Pn i=1 2 i P
X ( n
X 1i )
2 i=1 P
( n X )2
i=1 1i
Pn 2
i=1 X1i
i=1 1i i=1
n
Pn Pn 2
Y i=1 X1i
0 = Y Y + Pn i=1 2 i P
n i=1 X1i ( n 2
i=1 X1i )
Pn Pn Pn 2
Yi i=1 Yi X1i
0 = Y i=1
n + Pn
i=1
( n
P
X1i )2
2
n( i=1 X1i i=1
n
Pn
i=1 X1i
Pn Pn
Yi X1i
0 = Y + i=1
(
Pn i=1n
X )2
i=1 1i
Pn 2
n( i=1 X1i n
X n Y X
P
0 = Y + Pn XnY X 2 Pn i=1 i 1i
i=1 (X1i X) i=1 (X1i X)
0 = Y + X
Pn 2
X1i 2
V ar(0 ) = i=1
( n
P
X )2
i=1 1i
Pn 2
i=1 X1i n
Pn 2
X1i
V ar(0 ) = 2 Pn i=1
2
i=1 (X1i X)
Para 1
2
V ar(1 ) = n
Pn n P
2 (
X1i n 2
i=1 i=1 X1i )
n 2P
V ar(1 ) = n 2
n( n 2 ( i=1 X1i ) )
P
i=1 X1i n
2
V ar(1 ) = Pn 2
i=1 (X1i X)
Para la covarianza
Pn 2
i=1 XP1i
Cov(0 , 0 ) = n Pn X 2 ( n 2
i=1 1i i=1 X1i )
Pn
X1i 2P
Cov(0 , 0 ) = i=1
n
Pn
X 2 ( n 2
i=1 1i i=1 X1i )
2 2
Cov(0 , 1 ) = Pn X 2
i=1 (X1i X)
4
4. Dadas las siguientes variables aleatorias contnuas Y, X1 , y X2 , considere el siguiente modelo.
sol.
5. Considere el siguiente modelo
E(Y |X1 , X2 ) = 0 + 1 X1 + 2 X2 + 3 X1 X2
Donde Y, X1 y X2 son variables aleatorias continuas tales que X1 y X2 tienen media igual a cero. Demuestre
|X1 ,X2 )
que 1 es el valor esperado de E(YX 1
(con el valor esperado sobre la distribucion de X2 ) y que 2 es el
E(Y |X1 ,X2 )
valor esperado de X2
sol.