Anda di halaman 1dari 5

Fundamentos de Econometra, Tarea 1

1. Demuestre que si E(Y |X = x) es una funcion lineal de x, digamos E(Y |x) = a + bx, entonces E(Y |X = x) =

y + xy (x x ) y Ex [V ar(Y |X)] = y2 (1 2 ).

sol.
Sabemos por el metodo de mnimos cuadrados ordinarios que la funcion h(x) que minimiza el error es la
esperanza condicional E(Y |X). Si suponemos que esta funcion es lineal basta con determinar los valores de
a y b para esta funcion.
Cov(x,Y ) Cov(x,Y ) y
b= V ar(x) = x y x = xy

dem.
Tomemos la covarianza con x en ambos lados:

Cov(E(Y |x)) = Cov(a + bx)

Cov(E(Y |x)) = Cov(a, x) + Cov(bx, x)

Los supuestos del modelo estudiado indican que E(Y |x) = Y ya que E() = 0, por lo que podemos
reescribir la ecuacion como:

Cov(Y, x) = Cov(a, x) + Cov(bx, x)

Haciendo el algebra tenemos:

Cov(Y, x) = 0 + bCov(x, x)

Cov(Y, x) = 0 + bV ar(x)

Cov(Y,x)
b= V ar(x)

q.e.d.

a = y bx

dem.
Bajo los supuestos anteriormente mencionados y tomando la esperanza:

a = E(Y |x) bx

a = Y bx

E(a) = E(Y ) E(bx)

E(a) = E(Y ) bE(x)

a = y bx

1
q.e.d.

Ahora sustituimos a:

E(Y |x) = a + bx = y bx + bx

E(Y |x) = y + b(x x )

Finalmente sustituimos b:

E(Y |x) = y + b(x x )


E(Y |x) = y + xy (x x )

q.e.d.

Para resolver la segunda parte, definamos primero la varianza de la esperanza condicional.

V ar(Y |x) = E[(Y E(Y |x))2 |x]

Aplicamos el operador esperanza

E(V ar(Y |x)) = E[E(Y 2 |x)] E([E(Y |x)]2 )

E(V ar(Y |x)) = E(Y 2 ) E([E(Y |x)]2 )

E(V ar(Y |x)) = V ar(Y ) + E 2 (Y ) V ar(E(Y |x)) E 2 (E(Y |x))

E(V ar(Y |x)) = V ar(Y ) + 2y V ar(a + bx) E 2 ((a + bx))

E(V ar(Y |x)) = V ar(Y ) + 2y V ar(a + bx) E 2 (y )

E(V ar(Y |x)) = V ar(Y ) + 2y V ar(a) + b2 V ar(x) + Cov(a, bx) 2y

E(V ar(Y |x)) = V ar(Y ) + b2 V ar(x)

q.e.d.

2. Sean X1k un vector de variables aleatorias y g(X) RJ . Si = Y E(Y |X) y E[|gj (X)|] < para
j = 1, 2, . . . , J y E(||) < , entonces E[g(X)] = 0

sol.

p.d. E[g(X)] = 0
La ecuacion anterior es equivalente a

E[g(X)] = Cov(g(X), ) + E[g(X)]E[] = 0

Dada la definicion de sabemos que:

E(|X) = 0, V ar(|X) = Y2 |X

2
Usando la ley de esperanza iterada podemos deducir lo siguiente:

E() = Ex [E(|X)] = Ex (0) = 0

Usando las propiedades de la Covarianza y definiendo Z = g(x) podemos escribir:

Cov(Z, ) = E(Z) E(Z)E() = E(Z) = Ex [ZE(|X)] = E(Z0) = 0

De esa manera :

Cov(g(X), ) + E[g(X)]E[] = 0 + 0 = 0

q.e.d.

3. Considere el siguiente modelo de regresion

Yt = 0 + 1 Xt + t , t = 1, 2, ..., n

A partir de los supuestos y los resultados demostrados en clase para el modelo de regresion lineal multiple,
verifique que los estimadores de MCO estan dados por

Pn
t=1 Xt Yt nX Y
a ) 1 = P n 2 , 0 = Y X 1
t=1 (Xt X)

y que
Pn
2 Xt2 2 2
b ) V ar(1 ) = Pn 2, V ar(0 ) = 2 Pn t=1
2 , Cov(0 , 1 ) = Pn X 2
t=1 (Xt X) t=1 (Xt X) t=1 (Xt X)

sol.

Sabemos que el vector de esta definido por (X 0 X)(X 0 Y ). Verificaremos los valores de las

 Pn 
(X 0 X) = Pn n Pi=1
n
X1i
2
i=1 X1i i=1 X1i

 Pn 
(X 0 Y ) = Pn i=1 Yi
i=1 Yi X1i

Al multiplicar obtenemos:
Pn Pn 2 Pn Pn
Y i=1 X1i i=1 Yi X1i P i=1 X1i
1 = Pn i=1 2 i P n
n i=1 X1i ( i=1 X1i )2
n i=1 X1i ( n
Pn 2 2
i=1 X1i )

Pn Pn Pn
Y i=1 X1i n i=1 Y i X1i
1 = Pn i=1 2 i P
( n 2 + Pn 2
P n 2
n i=1 X 1i i=1 X1i ) n i=1 X 1i ( i=1 X1i )

n n Y X n2 X Y
P
1 = Pn i=1 2 i 1i
n i=1 X1i ( n
P 2
i=1 X1i )

Pn
Yi X1i nX Y
1 = i=1
(
Pn
X )2
i=1 1i
Pn 2
i=1 X1i n

Pn
i=1 Yi X1i nX Y
1 = P n 2 2
i=1 X1i nX

3
Pn
i=1 Yi X1i nX Y
1 = P n 2
i=1 (X1i X)

Para 0 tenemos:
Pn Pn 2 Pn Pn
X i=1 X1i i=1 Yi X1i P i=1 X1i
0 = n
Pn i=1 2 i P
X ( n
X 1i )
2 n
Pn
X 2 ( n 2
i=1 1i i=1 i=1 1i i=1 X1i )

Pn Pn 2 Pn
X i=1 X1i X Yi X1i
0 = n
Pn i=1 2 i P
X ( n
X 1i )
2 i=1 P
( n X )2
i=1 1i
Pn 2
i=1 X1i
i=1 1i i=1
n

Pn Pn 2
Y i=1 X1i
0 = Y Y + Pn i=1 2 i P
n i=1 X1i ( n 2
i=1 X1i )

Pn Pn Pn 2
Yi i=1 Yi X1i
0 = Y i=1
n + Pn
i=1
( n
P
X1i )2

2
n( i=1 X1i i=1
n

Pn
i=1 X1i
Pn Pn
Yi X1i
0 = Y + i=1
(
Pn i=1n
X )2

i=1 1i
Pn 2
n( i=1 X1i n

X n Y X
P
0 = Y + Pn XnY X 2 Pn i=1 i 1i
i=1 (X1i X) i=1 (X1i X)

0 = Y + X

Ahora comprobaremos las varianzas y la covarianza


Pn 2 2
i=1 XP1i
V ar(0 ) = n
Pn
X 2 ( n 2
i=1 1i i=1 X1i )

Pn 2
X1i 2
V ar(0 ) = i=1
( n
P
X )2
i=1 1i
Pn 2
i=1 X1i n

Pn 2
X1i
V ar(0 ) = 2 Pn i=1
2
i=1 (X1i X)

Para 1
2
V ar(1 ) = n
Pn n P
2 (
X1i n 2
i=1 i=1 X1i )

n 2P
V ar(1 ) = n 2
n( n 2 ( i=1 X1i ) )
P
i=1 X1i n

2
V ar(1 ) = Pn 2
i=1 (X1i X)

Para la covarianza
Pn 2
i=1 XP1i
Cov(0 , 0 ) = n Pn X 2 ( n 2
i=1 1i i=1 X1i )

Pn
X1i 2P
Cov(0 , 0 ) = i=1
n
Pn
X 2 ( n 2
i=1 1i i=1 X1i )

2 2
Cov(0 , 1 ) = Pn X 2
i=1 (X1i X)

4
4. Dadas las siguientes variables aleatorias contnuas Y, X1 , y X2 , considere el siguiente modelo.

E(Y |X1 , X2 ) = 0 + 1 X1 + 2 X2 + 3 X22 + 4 X1 X2

a ) Encuentre el efecto marginal de X1 Y X2 sobre E(Y |X1 , X2 )


b ) Ahora escribe el modelo como sigue:
E(Y |X1 , X2 ) = 0 + 1 X1 + 2 X2 + 3 X22 + 4 X1 X2 +
Que puede decir sobre E(|X1 , X2 ) y sobre E(|X1 , X2 , X22 , X1 X2 )?

sol.
5. Considere el siguiente modelo

E(Y |X1 , X2 ) = 0 + 1 X1 + 2 X2 + 3 X1 X2

Donde Y, X1 y X2 son variables aleatorias continuas tales que X1 y X2 tienen media igual a cero. Demuestre
|X1 ,X2 )
que 1 es el valor esperado de E(YX 1
(con el valor esperado sobre la distribucion de X2 ) y que 2 es el
E(Y |X1 ,X2 )
valor esperado de X2

sol.

Anda mungkin juga menyukai