Si representamos por b1 y b2 los estimadores (y, tambin, las estimaciones) de los parmetros 1 y 2 del modelo, entonces podramos expresar los valores estimados de los elementos muestrales de la variable endgena como:
=b +b X Y i 1 2 i
i = 1, ... , N
Llamamos residuos, que representaremos por ei , a las diferencias entre los valores observados de la variable endgena y los valores estimados: = Yi - ( b1 + b2 Xi ) = Yi - b1 - b2 Xi ei = Yi - Y i Podemos, entonces, escribir: Yi = 1 + 2 Xi + ui = b1 + b2 Xi + ei i = 1, ... , N Nuestro objetivo al estimar los parmetros 1 y 2 ser obtener una estimacin tal, que la estructura estimada b1 + b2Xi se aproxime lo ms cerca posible a la estructura desconocida del modelo 1 + 2Xi como se indica en la figura :
Yi
b1 + b2 Xi(estimada)
Yi ei ui
1 + 2 Xi(desconocida)
Xi
Xi
Los estimadores b1 y b2 sern funciones de los valores muestrales Xi e Yi que obtendremos por los procedimientos que nos ofrece la Inferencia Estadstica. El primer mtodo que vamos a utilizar es el de los mnimos cuadrados.
23
El mtodo de los mnimos cuadrados ordinarios (M.C.O. a partir de ahora), consiste en obtener las expresiones muestrales de los estimadores b1 y b2 que hagan mnima la suma de los cuadrados de los residuos:
e
i =1
2 i
Expresando dicha suma en funcin de los estimadores b1 y b2, quedar: S(b1 , b2) =
Los estimadores M.C.O. sern, por tanto, las soluciones del siguiente problema de optimizacin:
Mnimo S(b1, b2) = Mnimo
(Y - b
i i =1
Para obtener las soluciones que hagan mnimo S(b1 , b2 ) aplicaremos la condicin necesaria o de primer orden :
N S = 0 - 2 (Yi - b1 - b 2 X i ) = 0 b1 i =1 N S = 0 - 2 (Yi - b1 - b 2 X i ) X i = 0 b2 i =1
e
i=1
= 0
(3.2)
ei xi = 0
i=1
Yi = N b1 + b2 Xi
Dividiendo entre N en los dos miembros de cada una de las dos ecuaciones, nos queda:
a11 = b1 X + b 2 a 20 Y = b1 + b 2 X
24
Introduccin a la Econometra
Ahora, multiplicando por X los dos miembros de la primera ecuacin y restando sta de la segunda, obtenemos: SXY b = y, por tanto, (3.3) a11 - X Y = 0 + b 2 a 20 - X 2 SXY = b 2 S2 2 X S2 X
Siendo las expresiones recuadradas las de los estimadores M.C.O. de los parmetros 1 y 2 del modelo de regresin lineal simple. Se puede comprobar que la solucin obtenida para b1 y b2 a partir de la condicin necesaria verifica, tambin, la condicin suficiente de mnimo de S(b1 , b2 ) . Las expresiones de las segundas derivadas de S sern:
2S = 2N 2 b1
N 2S = 2 X i2 2 b2 i =1
N 2 S = 2 Xi b1 b 2 i =1
Y, por tanto, la matriz hessiana resulta ser definida positiva y la solucin obtenida corresponde a un mnimo.
Recordemos que el modelo (3.1) se ha definido con las siguientes hiptesis: E[ui] = 0 V[ui] = E[ui]2 = 2 Cov[ui,uj] = E[ui.uj] = 0 i j
Se puede demostrar que los estimadores M.C.O.: S xy S .X $2 = b2 = 2 $1 = b1 = Y xy Sx S2 x tienen las siguientes propiedades:
25
Cada uno de los estimadores se puede expresar como combinacin lineal de las observaciones muestrales aleatorias de variable endgena Yi . Se demuestra que (ver Apndice A3.1): X -X 1 b 2 = k i Yi (3.5) siendo k i = i 2 b1 = d i Yi (3.6) siendo d i = Xk i NSx N cumplindose que (ver Apndice A3.1):
=0
k X
i
=1
=1
d X
i
=0
2 i
1 NS 2 x
2 i
a 20 NS 2 x
Yi por 1 + 2 X i + u i
nos queda:
b 2 = k i ( 1 + 2 X i + u i ) = 1 k i + 2 k i X i + k i u i = 2 + k i u i
b 2 2 = k i u i (3.7)
(=0)
(=1)
b1 = d i ( 1 + 2 X i + u i ) = 1 d i + 2 d i X i + d i u i = 1 + d i u i
b1 1 = d i u i (3.8)
(=1)
(=0)
Se demuestra (ver Apndice A3.2) que las varianzas y covarianza de los estimadores tienen como expresiones:
V[ b 2 ] = 2 1 (3.11) NS 2 x V[ b 1 ] = 2 a 20 (3.12) NS 2 x
Cov(b1 , b 2 ) = 2 .
-X (3.13) NS2 x
Observndose que su valor depende de los datos Xi y del valor desconocido de 2 y, por tanto, debern estimarse a partir de la estimacin del parmetro 2.
26
Introduccin a la Econometra
Se deduce de (3.13) que la covarianza entre los estimadores b1 y b2 tendr signo contrario al que tenga la media aritmtica de los valores Xi . La matriz de varianzas-covarianzas de los estimadores M.C.O. quedar: 2 a 20 X 2 2 2 a 20 X NS x NS 2 x COV(b1 , b 2 ) = = X 1 X 1 NS 2 2 2 x 2 2 NS NS x x
Recordemos que una condicin suficiente para que un estimador$ del parmetro consistente es que:
lim E( $) = (insesgado asintticamente) N lim V( $) = 0 (la varianza tiende a cero) N En nuestro caso ambos estimadores son insesgados: E[ b1 ] = 1 y E[ b 2 ] = 2
sea
Y adems, si S 2 x , y por tanto a 20 , toma un valor finito distinto del cero cuando N tienda a infinito, se puede comprobar fcilmente que:
lim V(b1 ) = lim 2
N
a 20 =0 NS 2 x
1 NS 2 x
=0
Luego, bajo la condicin de que S 2 x tome un valor finito y positivo cuando N , podemos afirmar que los estimadores M.C.O. son consistentes.
V. Teorema de Gauss-Markov. Los estimadores M.C.O. tienen la mnima varianza entre los estimadores lineales e insesgados. O se puede decir tambin que los estimadores M.C.O. son los eficientes entre todos los estimadores lineales. S xy X -X Consideremos el estimador M.C.O. de 2: b 2 = 2 = k i Yi siendo k i = i 2 NS x Sx * Sea 2 un estimador lineal cualquiera, de tal forma que: wi = 0 * , como puede 2 = w i Yi , para que 2* sea insesgado se tendr que cumplir : w i X i = 1 comprobarse.
Se demuestra (ver Apndice A3.3) que la varianza de este estimador lineal es igual a:
27
2 V( * 2) =
1 + 2 (w i k i ) 2 NS 2 x
Si w i = k i V( 2* ) = V(b 2 ) , cumplindose cuando 2* = b 2 . Y si w i k i V( 2* ) > V(b 2 ) Luego la varianza del estimador M.C.O. es siempre menor que la de cualquier otro estimador lineal e insesgado.
Consideremos el modelo (3.1) en el que los parmetros 1 y 2 se han estimado por M.C.O. dando lugar a las expresiones (3.4) y (3.3) de los estimadores respectivos. El modelo estimado lo podremos expresar como: +e Yi = b1 + b 2 X i + e i = Y i i
(3.14)
+ e Yi = Y i i
i =1 i =1 i =1
e
i =1
= 0 , se obtiene que:
Y = Y
i i =1 i =1
Y=Y
(3.15)
La media aritmtica de los valores estimados es la misma que la media aritmtica de los valores observados.
2) Suma de cuadrados.
2 + e2 + 2 e Y Yi2 = Y i i i i
i =1 i =1 i =1 i =1 N
pero
= e (b + b X ) = b e + b e X = 0 ei Y i 1 2 i 1 i 2 i i i
i =1 i =1 i =1 i =1
(= 0)
(= 0)
28
Introduccin a la Econometra
Y, por tanto,
2 + e 2 (3.16) Yi2 = Y i i
i =1 i =1 i =1
3) Clculo de
N
e
i =1 N i =1
2 i N N N
e i2 = (Yi - b1 - b 2 X i ) e i = Yi e i - b1 e i - b 2 X i e i =
i =1 i =1 i =1 i =1
= Yi e i = Yi (Yi - b1 - b 2 X i )
i =1 i =1
Quedando:
e
i =1
2 i
= Yi2 - b1 Yi - b 2 X i Yi (3.17)
i =1 i =1 i =1
) (
)
Y -Y + 2 Yi - Y i i
i =1 N
)(
pero
(
N i =1
i =1
Y - Y = e (b + b X - Y ) = Yi - Y i 1 2 i i i
N i =1 N N N
)(
i =1
i =1
= b1 e i + b 2 e i X i - Y e i = 0
i =1 i =1 i =1
obtenindose que:
(Y - Y )
N i i =1
-Y = ei + Y i
2 i =1 i =1
(Y - Y )
N i i =1
ei
=
i =1
- Y) (Y
N i
N Donde:
i =1
(3.18)
(Y - Y )
N i i =1
= S2 y
29
e
i=1
N
N
- Y) (Y
i i =1
= S2 Ry es la varianza de los valores estimados por el modelo de regresin lineal Y = Y , que se denomina varianza debida a la regresin o vaY i rianza explicada por la regresin.
Xi
El coeficiente de determinacin: R2
Xi
Se define como el porcentaje que, de la varianza total ( S 2 y ), supone la varianza explicada por la regresin ( S 2 Ry ). Dividiendo entre S en (3.19) se llega a 1 =
2 y
S2 Ry S
2 y
2 S ey
2 y
y R2 se obtendr como:
R =
2
S2 Ry S2 y
=1-
2 S ey
S2 y
(3.20)
30
Introduccin a la Econometra
Indicando la proporcin de la varianza de las observaciones de la variable endgena que es explicada por el modelo de regresin. Es decir, el porcentaje que, de las variaciones de Yi, explica las variaciones de Xi a travs del modelo estimado. Antes del modelo la dispersin en las observaciones de la variable endgena se mide por medio de su varianza muestral ( S 2 y ), pero al considerar, a travs del modelo de regresin, la influencia de las observaciones de la variable exgena, la dispersin respecto a los nuevos ) se mide por la varianza residual ( S 2 ), de valor inferior a la valores medios estimados ( Y ey i anterior. La proporcin de est reduccin o ganancia de varianza explicada es lo que representa el valor de R2. Todo lo anterior es vlido en nuestro modelo y en cualquier otro, como el modelo de regresin lineal mltiple, que verifique la descomposicin de la varianza representada en (3.19). nicamente en el modelo de regresin lineal simple se cumple que:
S
2 Ry
S2 xy S2 x
Demostracin: S2 Ry =
2 1 N 1 N 2 =b +b X Yi - Y = (b1 + b 2 X i - Y ) sabiendo que Y i 1 2 i N i =1 N i =1
S y operando:
S2 Ry =
2 Ry
S xy S xy 1 N Y X X Y = + i 2 2 N i =1 S S x x
2 S2 S2 S2 1 N 1 N S xy 2 2 xy xy xy c.q.d. 2 2 (X i - X ) = 2 2 (X i - X ) = 2 2 S 2 = x N i =1 S x S x S2 Sx Sx S x S x N i =1 x
S2 xy S2 x
Sustituyendo esta expresin de la varianza debida a la regresin, para el modelo de regresin simple, en (3.20), nos queda: S2 S2 xy Ry R 2 = 2 = 2 2 (3.21) Sy Sx Sy Al ser un porcentaje, el valor de R2 estar comprendido entre cero y uno, dando lugar a las siguientes situaciones extremas:
31
Si R2 = 0 S 2 Sxy = 0 b2 = 0 y b1 = Y . El modelo no explica nada. No Ry = 0 ; existe relacin lineal entre las variables. La especificacin del modelo podra i = 1, ... ,N siendo su estimacin: sustituirse por: Yi = + ui Yi = Y + e i i = 1, ... , N
2 Si R2 = 1 S ey = 0 ei = 0 i = 1, ... ,N . El ajuste es perfecto. Los datos revelan una
Se define el coeficiente de correlacin lineal entre las variables estadsticas X e Y de las que se han obtenido N pares de valores observados, como:
r = S xy Sx Sy
(3.22)
S2 xy
2 S2 x Sy
. Igual,
por tanto, a la expresin resultante, en el modelo simple, del coeficiente de determinacin. Recordando que la covarianza es una medida de la dependencia lineal entre las variables X e Y, pero que su valor depende de las unidades de medida utilizada, podemos observar que el coeficiente de correlacin es esa misma medida normalizada al dividir entre el producto de las desviaciones tpicas, y nos indicar el grado de dependencia lineal entre las variables por medio de un valor acotado entre 1 y 1, distinguindose los siguientes casos: R2 = 1 ei = 0 i 0 < R2 < 1 0 < R2 < 1 R2 = 1 ei = 0 i
Correlacin lineal perfecta negativa Correlacin lineal negativa o decreciente Correlacin lineal positiva o creciente Correlacin lineal perfecta positiva
S xy S2 x
=r
Sy Sx
32
Introduccin a la Econometra
Recordemos que en el modelo (3.1) bajo el cumplimiento de las hiptesis bsicas, 2 es la varianza de cada una de las perturbaciones aleatorias y, tambin, la varianza de cada Yi en el modelo: V[ Yi / Xi ] = V[1 + 2Xi + ui ] = V[ui ] = 2 Para su estimacin hemos de tener en cuenta que las variables ui no son observables pero, despus de estimados los parmetros 1 y 2, los residuos se pueden considerar estimaciones de sus valores ( siendo ui = Yi - 1 - 2Xi , los residuos se expresan como: ei = Yi - b1 - b2 Xi i ) y, por tanto, se propone como estimador de 2 a la varianza muestral de los residuos o = u varianza residual.
2 2* = S ey =
e
i =1
2 i
[ ]
Para construir un estimador insesgado simplemente se tendr que dividir la suma de cuadrados de los residuos entre (N 2), en lugar de N, obteniendo la varianza residual corregida por los grados de libertad que representaremos por S2.
2 = S2 = que es insesgado: 2 = E S2 = E
e
i =1
2 i
N-2
[ ] [ ]
N
1 1 N (N - 2) 2 = 2 E e i2 = N - 2 i =1 N - 2
e
i =1
2 i
N-2
33
Nota:
e
i =1
2 i
1) a partir de (3.17)
e
i =1
2 i
= Yi2 - b1 Yi - b 2 X i Yi
i =1 i =1 i =1
S2 xy
2 S2 x Sy 2 S ey = (1 - R 2 ) S 2 y
2 S ey
2 y
podemos calcular
e
i =1
2 i
= N (1 - R 2 ) S 2 y
Si suponemos que se cumplen las hiptesis bsicas, definidas en el Tema 2, incluida la hiptesis de normalidad, la distribucin de las observaciones muestrales de la variable endgena ser: Yi : N[1 + 2Xi ; 2 ] e independientes para i = 1, ... ,N Componiendo el conjunto de variables muestrales aleatorias observables en la estimacin del modelo. Su funcin de densidad conjunta, dependiendo de los valores que puedan tomar los parmetros 1, 2 y 2, constituir la funcin de verosimilitud. La funcin de densidad marginal para cada variable muestral Yi ser:
f ( Yi , X i ; 1 , 2 ,
2
( 2 2 ) 2 e 2
-1
2
( Yi - 1 - 2 X i )
Yi R X i R para 2 1 R 2 R > 0
Al ser las variables Yi independientes la funcin de verosimilitud se obtendr como producto de las funciones de densidad marginales.
L( Yi , X i ; 1 , 2 ,
2
f(Y , X
i i=1
; 1 , 2 , 2 ) =
= f ( Y1 , X 1 ; 1 , 2 , 2 ) . . . f ( YN , X N ; 1 , 2 , 2 ) =
= ( 2
1 2 2
-1
2 2
( Y1 - 1 - 2 X1 )
. . . ( 2
-1
N
1 2 2
-1
2 2
( YN - 1 - 2 X N )
= (2 )
-N 2
( )
2
-N 2
2 2
( Yi - 1 - 2 Xi ) 2
i=1
34
Introduccin a la Econometra
Resultando que la funcin de verosimilitud respecto a los parmetros del modelo de regresin lineal simple es: 1 R -1 N 2 -N -N Yi R 2 ( Yi - 1 - 2 X i ) L( Yi , X i ; 1 , 2 , 2 ) = (2 ) 2 ( 2 ) 2 e 2 i=1 para 2 R con X i R 2 > 0 Recordemos que la finalidad del mtodo de estimacin de la mxima verosimilitud es determinar los estimadores de los parmetros que asignen a stos, sea cual sea la muestra, los valores con los que obtienen la mayor verosimilitud posible.
El procedimiento que se sigue consiste en plantear el mximo de la funcin de verosimilitud respecto a los valores de los parmetros, tomando stos el papel de simples variables matemticas. Si en la condicin necesaria, o de primer orden, es posible despejar los valores de los parmetros en funcin de las variables muestrales, estas funciones resultarn ser los estimadores de mxima verosimilitud con tal de comprobar que verifican la condicin suficiente, o de segundo orden, de mximo. Si representamos por l(Yi, Xi ; 1, 2, 2) al logaritmo neperiano de la funcin de verosimilitud (tambin denominada segunda funcin de verosimilitud), esta funcin poseer los mximos y mnimos en los mismos puntos que L(Yi, Xi ; 1, 2, 2) con la ventaja de que los desarrollos necesarios para la determinacin de los puntos crticos son ms sencillos. Por tanto plantearemos la bsqueda del mximo de la funcin:
l( Yi , X i ; 1 , 2 ,
2
X = 0 ) i 1 2 i i=1 N ( Yi 1 2 X i ) X i = 0 i=1
( Y
Que, dependiendo slo de 1 y 2, es equivalente al sistema de ecuaciones normales de M.C.O., cuya solucin ya se expuso en el epgrafe 3.1 de este Tema. Por tanto, en la resolucin del anterior sistema se llega a despejar las siguientes expresiones de los parmetros 1 y 2 :
35
1 = Y
Que coinciden con los estimadores de M.C.O.. A partir de estas soluciones, sustituyndolas en la tercera ecuacin, nos queda:
N N 1 1 2 2 + 4 ( Yi b 1 b 2 X i ) = 0 2 2 i=1 N
donde despejando 2:
i 1
N 1 2 = 2 = 4 ( Yi b 1 b 2 X i ) 2 2 i=1 2
N 4 N
( Y b
i=1 2 i
b2 Xi )
2 =
e
i=1
2 i
e
i=1
= S2 ey (varianza residual)
Tan slo queda comprobar que la solucin obtenida cumple con la condicin de segundo orden. Se puede deducir que la matriz hessiana para dicha solucin es:
N S2 ey Xi i 2 H(b 1 , b 2 , S ey ) = 2 S ey 0 Donde se comprueba que: h11 < 0
h 11 h 21 h 12 h 22
X
i i
S2 ey X 2i S2 ey 0
0 0 N 2 2(S 2 ey )
>0
y H< 0
Siendo la matriz hessiana definida negativa y la solucin corresponde a un mximo. Por tanto, los estimadores de mxima verosimilitud son:
1 = Y
2 X = b1 Sx S xy 2 = 2 = b2 Sx
S xy
y 2 =
e
i=1
2 i
= S2 ey
36
Introduccin a la Econometra
De los dos primeros, que coinciden con los de M.C.O., ya conocemos sus propiedades, a las que podramos aadir que, ahora bajo el supuesto de normalidad, son los estimadores eficientes, es decir, son insesgados y de mnima varianza entre todos los estimadores insesgados que se pudieran proponer. Del estimador M.V. de la varianza podemos decir que es sesgado, como se comprob en el epgrafe anterior, aunque insesgado asintticamente. Y se puede comprobar que, como todo estimador de M.V., es consistente y eficiente asintticamente.
EJERCICIOS PROPUESTOS 3.1 En el contexto del modelo de regresin lineal simple, conteste razonadamente a las siguientes cuestiones: 1) Es lineal el estimador insesgado de 2?. 2) Dadas dos series de valores de X ( X1i y X2i ) Donde los valores X2i estn ms dispersos que los valores X1i , cul de las dos series elegira para obtener una mejor estimacin M.C.O. de 2 ?. 3) Se podra obtener la estimacin M.C.O. de 2 si todos los valores de Xi fueran iguales?.
(Recogido del libro Ejercicios de econometra de M T. Aparicio, F.J. Trvez y J. Mur)
3.2 Justifquese las respuestas a las siguientes preguntas: 1) Es posible que la varianza residual sea negativa?. E igual a cero?. 2) Hay algn caso en el que el coeficiente de determinacin pueda tomar un valor fuera del intervalo [ 0 ; 1 ] ?. 3) La suma de cuadrados de los residuos: ei2, es siempre menor que la suma de los cuadrados de los valores observados de la variable endgena: Yi2 ?. 3.3 En el contexto de la estimacin del modelo de regresin lineal simple: Yi = 1 + 2.Xi + ui con E(ui) = 0 , V(ui) = 2 y E(uiuj) = 0 para i = 1, ... ,N y sin concretar el modelo de distribucin de las perturbaciones aleatorias. Discuta razonadamente la veracidad o falsedad de las siguientes proposiciones: 1: El estimador de 2 obtenido por M.C.O., que es insesgado, posee la mnima varianza entre las de todos aquellos estimadores insesgados, sean lineales o no lineales, que se pudieran proponer. 2 . 2: El estimador insesgado de 2 coincide con la varianza residual: S ey
3: Las perturbaciones aleatorias o trminos de error coinciden con los residuos de la estimacin del modelo.
3.4 Dado el modelo lineal simple sin ordenada en el origen: Yi = Xi + ui i = 1, .. , N Determinar: 1) El estimador M.C.O. de . 2) El estimador insesgado de 2. 3) La varianza del estimador de . 4) La expresin del coeficiente de determinacin.
37
1: El estimador M.C.O. del parmetro 2 es una variable aleatoria. 2: El estimador M.V. del parmetro 2 es sesgado. 3: Es posible encontrar un estimador insesgado de 2 con menor varianza que el obtenido por M.C.O., si se supone que las perturbaciones aleatorias siguen una distribucin normal. 4: Cuanto menos dispersos estn los valores observados de la variable exgena ms precisa ser la estimacin del parmetro 2 .
3.6 Dado el modelo de regresin lineal simple: Yi = 1 + 2.Xi + ui . Qu hiptesis bsicas sobre la distribucin de probabilidad de las perturbaciones aleatorias ui se deben cumplir para poder afirmar que la distribucin de probabilidad del estimador M.C.O. del parmetro 2 es: b2 N[ 2; 2(b2)]?. Relacione cada una de las caractersticas de esta distribucin con las hiptesis bsicas que precise. Sabiendo que
2 (b 2 ) = 2 1 NS 2 x
3.7 Estime el modelo de regresin lineal simple que explica la calificacin del examen final segn la calificacin de un examen previo, con los datos del ejercicio 1.2 del TEMA 1. Calcule las estimaciones M.C.O. de los dos parmetros, la estimacin insesgada de 2 y el valor correspondiente del coeficiente de determinacin.
3.8 Utilizando los resultados obtenidos en el ejercicio 1.3 del TEMA 1 estime el modelo de regresin lineal del Consumo privado sobre la Renta disponible de las familias estadounidenses durante el periodo de 1960 a 2004. Calcule las estimaciones M.C.O. de los dos parmetros, la estimacin insesgada de 2 y el valor correspondiente del coeficiente de determinacin. 3.9 Estime el modelo de educacin de Mincer: logYi = 1 + 2Xi + ui , a partir de los datos obtenidos en la resolucin del ejercicio 2.1 del TEMA 2. Calcule las estimaciones M.C.O. de los dos parmetros, la estimacin insesgada de 2 y el valor correspondiente del coeficiente de determinacin. 3.10 Estime la lnea caracterstica del modelo del mercado de Sharpe: rjt = j +jRMt +ujt correspondiente a la volatilidad del ttulo A, a partir de los datos obtenidos en la resolucin del ejercicio 2.2 del TEMA 2. Calcule las estimaciones M.C.O. de los dos parmetros,
38
Introduccin a la Econometra
Sea el modelo de regresin lineal simple: y i = 1 + 2 x i + u i i = 1 ... N con las hiptesis bsicas: E[ui] = 0 V[ui] = E[ui]2 = 2 Cov[ui ,uj] = E[ui.uj] = 0 i j y consideremos S xy S xy $1 = b1 = y 2 . x los estimadores M.C.O.: $2 = b2 = 2 Sx Sx Se deduce que:
b2 = S xy S
2 x
1 N
(x - x).(y - y) = ( x - x)y y (x ( x - x) (x - x)
i 1 N i 2 i i 2 i i
- x)
(x
- x)y i (x - x) = i 2 yi 2 NS x NS x
i
ya que
(x
x) = 0
(x
- x) 2 = NS 2 x
ki = xi - x NS 2 x
Obtenindose:
b 2 = k i y i (3.5) siendo
.x =
1 - x. k i y i = xk i .y i N N
i
Llegando a:
1 b 1 = d i y i (3.6) siendo d i = xk i N
1 NS 2 x
(x
- x) = 0
k
i
=0
k i (x i
i i
k x
( NS )
1
k (x - x) = k x - x. k = k x (x x) (x x) = NS x) = (x x) = NS NS NS
i i i i i i 2 i i 2 x i 2 x
2 x 2 x
=1
=1
k
d
2 i
2 2 x
( x
x) =
2
( NS )
2 2 x
NS 2 x =
1 NS 2 x
2 i
1 NS 2 x
4)
1 1 1 = xk i = xk i = N x k i = 1 0 = 1 por tanto: N N N
=1
39
5) 6)
xk x = d .x = N
i i i i
xi
x
N
x k i x i = x x.1 = 0
d x
i
=0
2 2 1 x2 1 1 N 2 2 xk i = 2 + x 2 k 2 xk = + x k x k = + = d = i i i N N N i N2 N N NS 2 x 2 a 20 S2 a 20 2 x + x = = es decir: d i = 2 2 NS 2 NS x NS x x
2 2 i
Apndice A3.2
A partir de los resultados (3.7) y (3.8), obtenidos en el segundo epgrafe de este Tema, se deduce que las expresiones de las varianzas de los estimadores de M.C.O. son:
2 2 2 V[ b 2 ] = E[ b 2 - 2 ] = E[ k i u i ] = E[ k 1 u 1 +...+k 2 N u N + 2k 1 k 2 u 1 u 2 +...] = 2 2
y aplicando el resultado obtenido en 3) del Apndice A1 quedar: V[ b 2 ] = 2 Anlogamente para la varianza de b1:
1 (3.11) NS 2 x
Aplicando, el resultado obtenido en 6) del Apndice A1 quedar: V[ b 1 ] = 2 La covarianza entre b1 y b2 ser: Cov( b 1 , b 2 ) = E ( b 1 - 1 ) . ( b 2 - 2 ) = E ( d i u i ) . ( k i u i )
2 1 2 N
a 20 (3.12) NS 2 x
pero
d k
i
1 1 1 = xk i .k i = k i x k 2 i = x N N NS 2 x
-x (3.13) NS 2 x
resultando : Cov( b 1 , b 2 ) = 2 .
40
Introduccin a la Econometra
Apndice A3.3
1 2 2 2 + 2 (w i k i k i ) NS x
y dado que:
(w k
i
2 k2 i ) = wiki ki = wi
i = 1, ... , N
[3.1] S xy S2 x x
$2 = b 2 =
S xy
2 x
[3.4] [3.5]
restando [3.3] - [3.4] nos queda : e i = (y i y) b 2 (x i x) i = 1, ... , N u i [3.6] en [3.1] sumando y dividiendo entre N : y = 1 + 2 x + N restando [3.1] - [3.6] : ui y i y = 2 (x i x) + (u i u) i = 1, .. , N [ 7] , llamando u = N sustituyendo [3.7] en [3.5] :
e i = 2 (x i x) + (u i u) b 2 (x i x) e i = (u i u) (b 2 2 )(x i x) [3.8]
e = (u u)
2 i i
2 2 2 e2 i = (u i u) 2(b 2 2 ) (x i x)u i + (b 2 2 ) NS x
al ser
( x
x ) = NS 2 x
2
41
(x
x)u i = (b 2 2 ) NS 2 x
2 i
2 2 = (u i u) 2 2(b 2 2 ) 2 NS 2 x + (b 2 2 ) NS x
2 i
= (u i u) 2 (b 2 2 ) 2 NS 2 x [3.10]
[3.11]
= 2 +
2
N
2
N
= N 2 + 2 2 2 = ( N 1) 2
[3.12]
2
NS 2 x
[3.13]
(x
2
i
x)
= (N 1) 2 2
42