Anda di halaman 1dari 20

Introduccin a la Econometra

Tema 3: ESTIMACIN DEL MODELO

Tema 3: ESTIMACIN DEL MODELO


3.1 Estimacin mnimo-cuadrtica. Sea el modelo de regresin lineal simple: Yi = 1 + 2 Xi + ui = E[Yi / Xi ] + ui i = 1, ... , N (3.1)

Si representamos por b1 y b2 los estimadores (y, tambin, las estimaciones) de los parmetros 1 y 2 del modelo, entonces podramos expresar los valores estimados de los elementos muestrales de la variable endgena como:

=b +b X Y i 1 2 i

i = 1, ... , N

Llamamos residuos, que representaremos por ei , a las diferencias entre los valores observados de la variable endgena y los valores estimados: = Yi - ( b1 + b2 Xi ) = Yi - b1 - b2 Xi ei = Yi - Y i Podemos, entonces, escribir: Yi = 1 + 2 Xi + ui = b1 + b2 Xi + ei i = 1, ... , N Nuestro objetivo al estimar los parmetros 1 y 2 ser obtener una estimacin tal, que la estructura estimada b1 + b2Xi se aproxime lo ms cerca posible a la estructura desconocida del modelo 1 + 2Xi como se indica en la figura :

Yi
b1 + b2 Xi(estimada)

Yi ei ui
1 + 2 Xi(desconocida)

Xi

Xi

Los estimadores b1 y b2 sern funciones de los valores muestrales Xi e Yi que obtendremos por los procedimientos que nos ofrece la Inferencia Estadstica. El primer mtodo que vamos a utilizar es el de los mnimos cuadrados.

23

Departamento de Estadstica e Investigacin Operativa II (Mtodos de Decisin)

El mtodo de los mnimos cuadrados ordinarios (M.C.O. a partir de ahora), consiste en obtener las expresiones muestrales de los estimadores b1 y b2 que hagan mnima la suma de los cuadrados de los residuos:

e
i =1

2 i

Expresando dicha suma en funcin de los estimadores b1 y b2, quedar: S(b1 , b2) =

ei2 = (Yi - b1 - b 2Xi )


i =1 i =1

Los estimadores M.C.O. sern, por tanto, las soluciones del siguiente problema de optimizacin:
Mnimo S(b1, b2) = Mnimo

(Y - b
i i =1

- b 2 X i ) , segn los posibles valores de b1 y b2.


2

Para obtener las soluciones que hagan mnimo S(b1 , b2 ) aplicaremos la condicin necesaria o de primer orden :

N S = 0 - 2 (Yi - b1 - b 2 X i ) = 0 b1 i =1 N S = 0 - 2 (Yi - b1 - b 2 X i ) X i = 0 b2 i =1

e
i=1

= 0
(3.2)

Es decir, los estimadores de M.C.O. cumplirn que:

ei xi = 0
i=1

Para despejar b1 y b2 lo expresaremos de esta otra forma:


i =1 i =1 N N N 2 Y X = b X + b X i i 1 i 2 i i =1 i =1 i =1

Yi = N b1 + b2 Xi

Sistema que recibe el nombre de:

Sistema de ecuaciones normales de M.C.O.

Dividiendo entre N en los dos miembros de cada una de las dos ecuaciones, nos queda:
a11 = b1 X + b 2 a 20 Y = b1 + b 2 X

24

Introduccin a la Econometra

Tema 3: ESTIMACIN DEL MODELO

Ahora, multiplicando por X los dos miembros de la primera ecuacin y restando sta de la segunda, obtenemos: SXY b = y, por tanto, (3.3) a11 - X Y = 0 + b 2 a 20 - X 2 SXY = b 2 S2 2 X S2 X

Sustituyendo este ltimo resultado en la primera ecuacin y despejando b1:


b1 = Y SXY X (3.4) S2 X

Siendo las expresiones recuadradas las de los estimadores M.C.O. de los parmetros 1 y 2 del modelo de regresin lineal simple. Se puede comprobar que la solucin obtenida para b1 y b2 a partir de la condicin necesaria verifica, tambin, la condicin suficiente de mnimo de S(b1 , b2 ) . Las expresiones de las segundas derivadas de S sern:

2S = 2N 2 b1

N 2S = 2 X i2 2 b2 i =1

N 2 S = 2 Xi b1 b 2 i =1

La matriz hessiana, que en este caso no depende ni de b1 ni de b2, quedar:


2N H= 2X i 2N > 0 2 Xi resultando que 2 2 2 2 Xi H = 4 N SX > 0

Y, por tanto, la matriz hessiana resulta ser definida positiva y la solucin obtenida corresponde a un mnimo.

3.2 Propiedades de los estimadores.

Recordemos que el modelo (3.1) se ha definido con las siguientes hiptesis: E[ui] = 0 V[ui] = E[ui]2 = 2 Cov[ui,uj] = E[ui.uj] = 0 i j

Se puede demostrar que los estimadores M.C.O.: S xy S .X $2 = b2 = 2 $1 = b1 = Y xy Sx S2 x tienen las siguientes propiedades:

25

Departamento de Estadstica e Investigacin Operativa II (Mtodos de Decisin)

I. Los estimadores M.C.O. son lineales.

Cada uno de los estimadores se puede expresar como combinacin lineal de las observaciones muestrales aleatorias de variable endgena Yi . Se demuestra que (ver Apndice A3.1): X -X 1 b 2 = k i Yi (3.5) siendo k i = i 2 b1 = d i Yi (3.6) siendo d i = Xk i NSx N cumplindose que (ver Apndice A3.1):

=0

k X
i

=1

=1

d X
i

=0

2 i

1 NS 2 x

2 i

a 20 NS 2 x

sustituyendo en (3.5) y (3.6)

Yi por 1 + 2 X i + u i

nos queda:

b 2 = k i ( 1 + 2 X i + u i ) = 1 k i + 2 k i X i + k i u i = 2 + k i u i

b 2 2 = k i u i (3.7)

(=0)

(=1)

b1 = d i ( 1 + 2 X i + u i ) = 1 d i + 2 d i X i + d i u i = 1 + d i u i

b1 1 = d i u i (3.8)

(=1)

(=0)

II. Los estimadores M.C.O. son insesgados o centrados.

Tomando esperanzas en (3.7) y (3.8) nos queda:


E[ b 2 2 ] = E[ k i u i ] = k i E[ u i ] = 0 , ya que E[ u i ] = 0 i, E[ b 2 ] = 2 (3.9) E[ b1 1 ] = E[ d i u i ] = d i E[ u i ] = 0 , ya que E[ u i ] = 0 i, E[ b1 ] = 1 (3.10)

III. Expresiones de las varianzas y la covarianza de los estimadores.

Se demuestra (ver Apndice A3.2) que las varianzas y covarianza de los estimadores tienen como expresiones:
V[ b 2 ] = 2 1 (3.11) NS 2 x V[ b 1 ] = 2 a 20 (3.12) NS 2 x

Cov(b1 , b 2 ) = 2 .

-X (3.13) NS2 x

Observndose que su valor depende de los datos Xi y del valor desconocido de 2 y, por tanto, debern estimarse a partir de la estimacin del parmetro 2.

26

Introduccin a la Econometra

Tema 3: ESTIMACIN DEL MODELO

Se deduce de (3.13) que la covarianza entre los estimadores b1 y b2 tendr signo contrario al que tenga la media aritmtica de los valores Xi . La matriz de varianzas-covarianzas de los estimadores M.C.O. quedar: 2 a 20 X 2 2 2 a 20 X NS x NS 2 x COV(b1 , b 2 ) = = X 1 X 1 NS 2 2 2 x 2 2 NS NS x x

IV. Los estimadores M.C.O. son consistentes.

Recordemos que una condicin suficiente para que un estimador$ del parmetro consistente es que:
lim E( $) = (insesgado asintticamente) N lim V( $) = 0 (la varianza tiende a cero) N En nuestro caso ambos estimadores son insesgados: E[ b1 ] = 1 y E[ b 2 ] = 2

sea

Y adems, si S 2 x , y por tanto a 20 , toma un valor finito distinto del cero cuando N tienda a infinito, se puede comprobar fcilmente que:
lim V(b1 ) = lim 2
N

a 20 =0 NS 2 x

lim V(b 2 ) = lim 2


N

1 NS 2 x

=0

Luego, bajo la condicin de que S 2 x tome un valor finito y positivo cuando N , podemos afirmar que los estimadores M.C.O. son consistentes.

V. Teorema de Gauss-Markov. Los estimadores M.C.O. tienen la mnima varianza entre los estimadores lineales e insesgados. O se puede decir tambin que los estimadores M.C.O. son los eficientes entre todos los estimadores lineales. S xy X -X Consideremos el estimador M.C.O. de 2: b 2 = 2 = k i Yi siendo k i = i 2 NS x Sx * Sea 2 un estimador lineal cualquiera, de tal forma que: wi = 0 * , como puede 2 = w i Yi , para que 2* sea insesgado se tendr que cumplir : w i X i = 1 comprobarse.

Se demuestra (ver Apndice A3.3) que la varianza de este estimador lineal es igual a:

27

Departamento de Estadstica e Investigacin Operativa II (Mtodos de Decisin)

2 V( * 2) =

1 + 2 (w i k i ) 2 NS 2 x

Si w i = k i V( 2* ) = V(b 2 ) , cumplindose cuando 2* = b 2 . Y si w i k i V( 2* ) > V(b 2 ) Luego la varianza del estimador M.C.O. es siempre menor que la de cualquier otro estimador lineal e insesgado.

3.3 Los residuos: relaciones ms importantes.

Consideremos el modelo (3.1) en el que los parmetros 1 y 2 se han estimado por M.C.O. dando lugar a las expresiones (3.4) y (3.3) de los estimadores respectivos. El modelo estimado lo podremos expresar como: +e Yi = b1 + b 2 X i + e i = Y i i
(3.14)

N ei = 0 i =1 Donde los residuos verifican las condiciones (3.2) : N e i X i = 0 i =1


1) La suma de los valores observados es igual a la suma de los valores estimados.

+ e i = 1, ... ,N sumando: A partir de (3.14): Yi = Y i i y como

+ e Yi = Y i i
i =1 i =1 i =1

e
i =1

= 0 , se obtiene que:

Y = Y
i i =1 i =1

Y dividiendo entre N, se deduce que:

Y=Y

(3.15)

La media aritmtica de los valores estimados es la misma que la media aritmtica de los valores observados.

2) Suma de cuadrados.

En (3.14) elevando al cuadrado y sumando:


N N N

2 + e2 + 2 e Y Yi2 = Y i i i i
i =1 i =1 i =1 i =1 N

pero

= e (b + b X ) = b e + b e X = 0 ei Y i 1 2 i 1 i 2 i i i
i =1 i =1 i =1 i =1

(= 0)

(= 0)

28

Introduccin a la Econometra

Tema 3: ESTIMACIN DEL MODELO

Y, por tanto,

2 + e 2 (3.16) Yi2 = Y i i
i =1 i =1 i =1

3) Clculo de
N

e
i =1 N i =1

2 i N N N

e i2 = (Yi - b1 - b 2 X i ) e i = Yi e i - b1 e i - b 2 X i e i =
i =1 i =1 i =1 i =1

= Yi e i = Yi (Yi - b1 - b 2 X i )
i =1 i =1

Quedando:

e
i =1

2 i

= Yi2 - b1 Yi - b 2 X i Yi (3.17)
i =1 i =1 i =1

3.4 Descomposicin de la varianza: el coeficiente de determinacin.

+ Y -Y Partimos de la igualdad: Yi - Y = Yi - Y i i elevando al cuadrado y sumando: ) + (Y - Y) (Y - Y ) = (Y - Y


N 2 N 2 N i i i i

) (

)
Y -Y + 2 Yi - Y i i
i =1 N

)(

pero

(
N i =1

i =1

Y - Y = e (b + b X - Y ) = Yi - Y i 1 2 i i i
N i =1 N N N

)(

i =1

i =1

= b1 e i + b 2 e i X i - Y e i = 0
i =1 i =1 i =1

obtenindose que:

(Y - Y )
N i i =1

-Y = ei + Y i
2 i =1 i =1

que dividiendo entre N en los dos miembros de la igualdad nos queda:

(Y - Y )
N i i =1

ei
=
i =1

- Y) (Y
N i

N Donde:

i =1

(3.18)

(Y - Y )
N i i =1

= S2 y

es la varianza total o marginal de las Yi .

29

Departamento de Estadstica e Investigacin Operativa II (Mtodos de Decisin)

e
i=1

N
N

= S2 ey es la varianza de los residuos ( e = 0 ) o varianza residual .


2

- Y) (Y
i i =1

= S2 Ry es la varianza de los valores estimados por el modelo de regresin lineal Y = Y , que se denomina varianza debida a la regresin o vaY i rianza explicada por la regresin.

Por tanto, la igualdad (3.18) se puede expresar tambin:


2 2 S2 y = S ey + S Ry (3.19)

Grficamente y de forma simblica: Yi = b1 + b2 Xi Y i Yi


S2 ey S2 y S2 Ry

Xi
El coeficiente de determinacin: R2

Xi

Se define como el porcentaje que, de la varianza total ( S 2 y ), supone la varianza explicada por la regresin ( S 2 Ry ). Dividiendo entre S en (3.19) se llega a 1 =
2 y

S2 Ry S
2 y

2 S ey

2 y

y R2 se obtendr como:

R =
2

S2 Ry S2 y

=1-

2 S ey

S2 y

(3.20)

30

Introduccin a la Econometra

Tema 3: ESTIMACIN DEL MODELO

Indicando la proporcin de la varianza de las observaciones de la variable endgena que es explicada por el modelo de regresin. Es decir, el porcentaje que, de las variaciones de Yi, explica las variaciones de Xi a travs del modelo estimado. Antes del modelo la dispersin en las observaciones de la variable endgena se mide por medio de su varianza muestral ( S 2 y ), pero al considerar, a travs del modelo de regresin, la influencia de las observaciones de la variable exgena, la dispersin respecto a los nuevos ) se mide por la varianza residual ( S 2 ), de valor inferior a la valores medios estimados ( Y ey i anterior. La proporcin de est reduccin o ganancia de varianza explicada es lo que representa el valor de R2. Todo lo anterior es vlido en nuestro modelo y en cualquier otro, como el modelo de regresin lineal mltiple, que verifique la descomposicin de la varianza representada en (3.19). nicamente en el modelo de regresin lineal simple se cumple que:
S
2 Ry

S2 xy S2 x

Demostracin: S2 Ry =
2 1 N 1 N 2 =b +b X Yi - Y = (b1 + b 2 X i - Y ) sabiendo que Y i 1 2 i N i =1 N i =1

sustituyendo b1 y b2 por sus respectivas expresiones (3.4) y (3.3) tenemos:

S y operando:
S2 Ry =

2 Ry

S xy S xy 1 N Y X X Y = + i 2 2 N i =1 S S x x

2 S2 S2 S2 1 N 1 N S xy 2 2 xy xy xy c.q.d. 2 2 (X i - X ) = 2 2 (X i - X ) = 2 2 S 2 = x N i =1 S x S x S2 Sx Sx S x S x N i =1 x

Obteniendo efectivamente que S 2 Ry =

S2 xy S2 x

Sustituyendo esta expresin de la varianza debida a la regresin, para el modelo de regresin simple, en (3.20), nos queda: S2 S2 xy Ry R 2 = 2 = 2 2 (3.21) Sy Sx Sy Al ser un porcentaje, el valor de R2 estar comprendido entre cero y uno, dando lugar a las siguientes situaciones extremas:

31

Departamento de Estadstica e Investigacin Operativa II (Mtodos de Decisin)

Si R2 = 0 S 2 Sxy = 0 b2 = 0 y b1 = Y . El modelo no explica nada. No Ry = 0 ; existe relacin lineal entre las variables. La especificacin del modelo podra i = 1, ... ,N siendo su estimacin: sustituirse por: Yi = + ui Yi = Y + e i i = 1, ... , N
2 Si R2 = 1 S ey = 0 ei = 0 i = 1, ... ,N . El ajuste es perfecto. Los datos revelan una

relacin lineal exacta entre las variables.

El coeficiente de correlacin lineal: r

Se define el coeficiente de correlacin lineal entre las variables estadsticas X e Y de las que se han obtenido N pares de valores observados, como:
r = S xy Sx Sy
(3.22)

Elevando al cuadrado los dos miembros de la igualdad, se obtiene: r =


2

S2 xy
2 S2 x Sy

. Igual,

por tanto, a la expresin resultante, en el modelo simple, del coeficiente de determinacin. Recordando que la covarianza es una medida de la dependencia lineal entre las variables X e Y, pero que su valor depende de las unidades de medida utilizada, podemos observar que el coeficiente de correlacin es esa misma medida normalizada al dividir entre el producto de las desviaciones tpicas, y nos indicar el grado de dependencia lineal entre las variables por medio de un valor acotado entre 1 y 1, distinguindose los siguientes casos: R2 = 1 ei = 0 i 0 < R2 < 1 0 < R2 < 1 R2 = 1 ei = 0 i

r = -1 -1 < r < 0 r=0 0<r<1 r=1

Correlacin lineal perfecta negativa Correlacin lineal negativa o decreciente Correlacin lineal positiva o creciente Correlacin lineal perfecta positiva

Incorrelacin: No existe relacin lineal entre X e Y R2 = 0 Yi = + ui i

Por ltimo, se obtiene, fcilmente que: b 2 =

S xy S2 x

=r

Sy Sx

32

Introduccin a la Econometra

Tema 3: ESTIMACIN DEL MODELO

3.5 Estimacin de la varianza de las perturbaciones.

Recordemos que en el modelo (3.1) bajo el cumplimiento de las hiptesis bsicas, 2 es la varianza de cada una de las perturbaciones aleatorias y, tambin, la varianza de cada Yi en el modelo: V[ Yi / Xi ] = V[1 + 2Xi + ui ] = V[ui ] = 2 Para su estimacin hemos de tener en cuenta que las variables ui no son observables pero, despus de estimados los parmetros 1 y 2, los residuos se pueden considerar estimaciones de sus valores ( siendo ui = Yi - 1 - 2Xi , los residuos se expresan como: ei = Yi - b1 - b2 Xi i ) y, por tanto, se propone como estimador de 2 a la varianza muestral de los residuos o = u varianza residual.
2 2* = S ey =

e
i =1

2 i

N Pero se demuestra (ver Apndice A3.4) que: E e i2 = (N - 2) 2 i =1


N 2 ei 1 2 2 2 Y, por tanto, resulta que: E S ey = E i =1 = ( N - 2) 2 = 2 N N N Siendo la varianza residual un estimador sesgado, aunque insesgado asintticamente, de la varianza constante del modelo.

[ ]

Para construir un estimador insesgado simplemente se tendr que dividir la suma de cuadrados de los residuos entre (N 2), en lugar de N, obteniendo la varianza residual corregida por los grados de libertad que representaremos por S2.

2 = S2 = que es insesgado: 2 = E S2 = E

e
i =1

2 i

N-2

[ ] [ ]
N

1 1 N (N - 2) 2 = 2 E e i2 = N - 2 i =1 N - 2

=S= su raz cuadrada,

e
i =1

2 i

N-2

recibe el nombre de error estndar de la regresin.

33

Departamento de Estadstica e Investigacin Operativa II (Mtodos de Decisin)

Nota:

e
i =1

2 i

se puede calcular por dos caminos:

1) a partir de (3.17)

e
i =1

2 i

= Yi2 - b1 Yi - b 2 X i Yi
i =1 i =1 i =1

2) calculando primero: R 2 = y sabiendo que R = 1 2

S2 xy
2 S2 x Sy 2 S ey = (1 - R 2 ) S 2 y

2 S ey

2 y

podemos calcular

e
i =1

2 i

= N (1 - R 2 ) S 2 y

3.6 Hiptesis de normalidad. Estimacin mximo verosmil.

Si suponemos que se cumplen las hiptesis bsicas, definidas en el Tema 2, incluida la hiptesis de normalidad, la distribucin de las observaciones muestrales de la variable endgena ser: Yi : N[1 + 2Xi ; 2 ] e independientes para i = 1, ... ,N Componiendo el conjunto de variables muestrales aleatorias observables en la estimacin del modelo. Su funcin de densidad conjunta, dependiendo de los valores que puedan tomar los parmetros 1, 2 y 2, constituir la funcin de verosimilitud. La funcin de densidad marginal para cada variable muestral Yi ser:
f ( Yi , X i ; 1 , 2 ,
2

( 2 2 ) 2 e 2

-1
2

( Yi - 1 - 2 X i )

Yi R X i R para 2 1 R 2 R > 0

Al ser las variables Yi independientes la funcin de verosimilitud se obtendr como producto de las funciones de densidad marginales.
L( Yi , X i ; 1 , 2 ,
2

f(Y , X
i i=1

; 1 , 2 , 2 ) =

= f ( Y1 , X 1 ; 1 , 2 , 2 ) . . . f ( YN , X N ; 1 , 2 , 2 ) =
= ( 2
1 2 2

-1

2 2

( Y1 - 1 - 2 X1 )

. . . ( 2
-1
N

1 2 2

-1

2 2

( YN - 1 - 2 X N )

= (2 )

-N 2

( )
2

-N 2

2 2

( Yi - 1 - 2 Xi ) 2
i=1

34

Introduccin a la Econometra

Tema 3: ESTIMACIN DEL MODELO

Resultando que la funcin de verosimilitud respecto a los parmetros del modelo de regresin lineal simple es: 1 R -1 N 2 -N -N Yi R 2 ( Yi - 1 - 2 X i ) L( Yi , X i ; 1 , 2 , 2 ) = (2 ) 2 ( 2 ) 2 e 2 i=1 para 2 R con X i R 2 > 0 Recordemos que la finalidad del mtodo de estimacin de la mxima verosimilitud es determinar los estimadores de los parmetros que asignen a stos, sea cual sea la muestra, los valores con los que obtienen la mayor verosimilitud posible.
El procedimiento que se sigue consiste en plantear el mximo de la funcin de verosimilitud respecto a los valores de los parmetros, tomando stos el papel de simples variables matemticas. Si en la condicin necesaria, o de primer orden, es posible despejar los valores de los parmetros en funcin de las variables muestrales, estas funciones resultarn ser los estimadores de mxima verosimilitud con tal de comprobar que verifican la condicin suficiente, o de segundo orden, de mximo. Si representamos por l(Yi, Xi ; 1, 2, 2) al logaritmo neperiano de la funcin de verosimilitud (tambin denominada segunda funcin de verosimilitud), esta funcin poseer los mximos y mnimos en los mismos puntos que L(Yi, Xi ; 1, 2, 2) con la ventaja de que los desarrollos necesarios para la determinacin de los puntos crticos son ms sencillos. Por tanto plantearemos la bsqueda del mximo de la funcin:
l( Yi , X i ; 1 , 2 ,
2

N 1 2 N N 2 = log2 log 2 ( Yi 1 2 X i ) 2 2 2 i=1

La condicin necesaria ser:


N l 1 = 0 2 + ( Y 1 2 Xi ) = 0 2 2 i=1 i 1 N l 1 = 0 + 2 2 ( Yi 1 2 X i ) X i = 0 2 i=1 2 N N 1 1 2 l Yi 1 2 X i ) = 0 = 0 + ( 2 4 2 2 2 i=1

Donde las dos primeras ecuaciones forman el sistema:

X = 0 ) i 1 2 i i=1 N ( Yi 1 2 X i ) X i = 0 i=1

( Y

Que, dependiendo slo de 1 y 2, es equivalente al sistema de ecuaciones normales de M.C.O., cuya solucin ya se expuso en el epgrafe 3.1 de este Tema. Por tanto, en la resolucin del anterior sistema se llega a despejar las siguientes expresiones de los parmetros 1 y 2 :

35

Departamento de Estadstica e Investigacin Operativa II (Mtodos de Decisin)

1 = Y

S xy X Y = X = b1 1 2 2 Sx Sx dando lugar a los estimadores: S xy S xy 2 = 2 = b2 2 = 2 Sx Sx S xy

Que coinciden con los estimadores de M.C.O.. A partir de estas soluciones, sustituyndolas en la tercera ecuacin, nos queda:
N N 1 1 2 2 + 4 ( Yi b 1 b 2 X i ) = 0 2 2 i=1 N

donde despejando 2:
i 1

N 1 2 = 2 = 4 ( Yi b 1 b 2 X i ) 2 2 i=1 2
N 4 N

( Y b
i=1 2 i

b2 Xi )

2 =

e
i=1

2 i

Quedando como estimador de 2: 2 =

e
i=1

= S2 ey (varianza residual)

Tan slo queda comprobar que la solucin obtenida cumple con la condicin de segundo orden. Se puede deducir que la matriz hessiana para dicha solucin es:
N S2 ey Xi i 2 H(b 1 , b 2 , S ey ) = 2 S ey 0 Donde se comprueba que: h11 < 0
h 11 h 21 h 12 h 22

X
i i

S2 ey X 2i S2 ey 0

0 0 N 2 2(S 2 ey )

>0

y H< 0

Siendo la matriz hessiana definida negativa y la solucin corresponde a un mximo. Por tanto, los estimadores de mxima verosimilitud son:

1 = Y

2 X = b1 Sx S xy 2 = 2 = b2 Sx
S xy

y 2 =

e
i=1

2 i

= S2 ey

36

Introduccin a la Econometra

Tema 3: ESTIMACIN DEL MODELO

De los dos primeros, que coinciden con los de M.C.O., ya conocemos sus propiedades, a las que podramos aadir que, ahora bajo el supuesto de normalidad, son los estimadores eficientes, es decir, son insesgados y de mnima varianza entre todos los estimadores insesgados que se pudieran proponer. Del estimador M.V. de la varianza podemos decir que es sesgado, como se comprob en el epgrafe anterior, aunque insesgado asintticamente. Y se puede comprobar que, como todo estimador de M.V., es consistente y eficiente asintticamente.

EJERCICIOS PROPUESTOS 3.1 En el contexto del modelo de regresin lineal simple, conteste razonadamente a las siguientes cuestiones: 1) Es lineal el estimador insesgado de 2?. 2) Dadas dos series de valores de X ( X1i y X2i ) Donde los valores X2i estn ms dispersos que los valores X1i , cul de las dos series elegira para obtener una mejor estimacin M.C.O. de 2 ?. 3) Se podra obtener la estimacin M.C.O. de 2 si todos los valores de Xi fueran iguales?.
(Recogido del libro Ejercicios de econometra de M T. Aparicio, F.J. Trvez y J. Mur)

3.2 Justifquese las respuestas a las siguientes preguntas: 1) Es posible que la varianza residual sea negativa?. E igual a cero?. 2) Hay algn caso en el que el coeficiente de determinacin pueda tomar un valor fuera del intervalo [ 0 ; 1 ] ?. 3) La suma de cuadrados de los residuos: ei2, es siempre menor que la suma de los cuadrados de los valores observados de la variable endgena: Yi2 ?. 3.3 En el contexto de la estimacin del modelo de regresin lineal simple: Yi = 1 + 2.Xi + ui con E(ui) = 0 , V(ui) = 2 y E(uiuj) = 0 para i = 1, ... ,N y sin concretar el modelo de distribucin de las perturbaciones aleatorias. Discuta razonadamente la veracidad o falsedad de las siguientes proposiciones: 1: El estimador de 2 obtenido por M.C.O., que es insesgado, posee la mnima varianza entre las de todos aquellos estimadores insesgados, sean lineales o no lineales, que se pudieran proponer. 2 . 2: El estimador insesgado de 2 coincide con la varianza residual: S ey

3: Las perturbaciones aleatorias o trminos de error coinciden con los residuos de la estimacin del modelo.
3.4 Dado el modelo lineal simple sin ordenada en el origen: Yi = Xi + ui i = 1, .. , N Determinar: 1) El estimador M.C.O. de . 2) El estimador insesgado de 2. 3) La varianza del estimador de . 4) La expresin del coeficiente de determinacin.

37

Departamento de Estadstica e Investigacin Operativa II (Mtodos de Decisin)

3.5 En el mbito de la estimacin del modelo de regresin lineal simple:

Yi = 1 + 2.Xi + ui con E(ui) = 0 , V(ui) = 2 y E(uiuj) = 0

para i = 1, ... ,N.

Discuta razonadamente la veracidad o falsedad de las siguientes proposiciones:

1: El estimador M.C.O. del parmetro 2 es una variable aleatoria. 2: El estimador M.V. del parmetro 2 es sesgado. 3: Es posible encontrar un estimador insesgado de 2 con menor varianza que el obtenido por M.C.O., si se supone que las perturbaciones aleatorias siguen una distribucin normal. 4: Cuanto menos dispersos estn los valores observados de la variable exgena ms precisa ser la estimacin del parmetro 2 .
3.6 Dado el modelo de regresin lineal simple: Yi = 1 + 2.Xi + ui . Qu hiptesis bsicas sobre la distribucin de probabilidad de las perturbaciones aleatorias ui se deben cumplir para poder afirmar que la distribucin de probabilidad del estimador M.C.O. del parmetro 2 es: b2 N[ 2; 2(b2)]?. Relacione cada una de las caractersticas de esta distribucin con las hiptesis bsicas que precise. Sabiendo que
2 (b 2 ) = 2 1 NS 2 x

3.7 Estime el modelo de regresin lineal simple que explica la calificacin del examen final segn la calificacin de un examen previo, con los datos del ejercicio 1.2 del TEMA 1. Calcule las estimaciones M.C.O. de los dos parmetros, la estimacin insesgada de 2 y el valor correspondiente del coeficiente de determinacin.

3.8 Utilizando los resultados obtenidos en el ejercicio 1.3 del TEMA 1 estime el modelo de regresin lineal del Consumo privado sobre la Renta disponible de las familias estadounidenses durante el periodo de 1960 a 2004. Calcule las estimaciones M.C.O. de los dos parmetros, la estimacin insesgada de 2 y el valor correspondiente del coeficiente de determinacin. 3.9 Estime el modelo de educacin de Mincer: logYi = 1 + 2Xi + ui , a partir de los datos obtenidos en la resolucin del ejercicio 2.1 del TEMA 2. Calcule las estimaciones M.C.O. de los dos parmetros, la estimacin insesgada de 2 y el valor correspondiente del coeficiente de determinacin. 3.10 Estime la lnea caracterstica del modelo del mercado de Sharpe: rjt = j +jRMt +ujt correspondiente a la volatilidad del ttulo A, a partir de los datos obtenidos en la resolucin del ejercicio 2.2 del TEMA 2. Calcule las estimaciones M.C.O. de los dos parmetros,

38

Introduccin a la Econometra

Tema 3: ESTIMACIN DEL MODELO

la estimacin insesgada de 2 y el valor correspondiente del coeficiente de determinacin.


APNDICES Apndice A3.1

Sea el modelo de regresin lineal simple: y i = 1 + 2 x i + u i i = 1 ... N con las hiptesis bsicas: E[ui] = 0 V[ui] = E[ui]2 = 2 Cov[ui ,uj] = E[ui.uj] = 0 i j y consideremos S xy S xy $1 = b1 = y 2 . x los estimadores M.C.O.: $2 = b2 = 2 Sx Sx Se deduce que:
b2 = S xy S
2 x

1 N

(x - x).(y - y) = ( x - x)y y (x ( x - x) (x - x)
i 1 N i 2 i i 2 i i

- x)

(x

- x)y i (x - x) = i 2 yi 2 NS x NS x
i

ya que

(x

x) = 0

(x

- x) 2 = NS 2 x
ki = xi - x NS 2 x

Obtenindose:

b 2 = k i y i (3.5) siendo

Para el otro estimador ser: b1 = y S xy S


2 x

.x =

1 - x. k i y i = xk i .y i N N
i

Llegando a:

1 b 1 = d i y i (3.6) siendo d i = xk i N

Los coeficientes ki y di verifican las siguientes igualdades: 1)

1 NS 2 x

(x

- x) = 0

k
i

=0

2) Por potro lado: Y tambin: Por tanto: 3)

k i (x i
i i

k x
( NS )
1

k (x - x) = k x - x. k = k x (x x) (x x) = NS x) = (x x) = NS NS NS
i i i i i i 2 i i 2 x i 2 x

2 x 2 x

=1

=1

k
d

2 i

2 2 x

( x

x) =
2

( NS )

2 2 x

NS 2 x =

1 NS 2 x

2 i

1 NS 2 x

4)

1 1 1 = xk i = xk i = N x k i = 1 0 = 1 por tanto: N N N

=1

39

Departamento de Estadstica e Investigacin Operativa II (Mtodos de Decisin)

5) 6)

xk x = d .x = N
i i i i

xi

x
N

x k i x i = x x.1 = 0

d x
i

=0

2 2 1 x2 1 1 N 2 2 xk i = 2 + x 2 k 2 xk = + x k x k = + = d = i i i N N N i N2 N N NS 2 x 2 a 20 S2 a 20 2 x + x = = es decir: d i = 2 2 NS 2 NS x NS x x
2 2 i

Apndice A3.2

A partir de los resultados (3.7) y (3.8), obtenidos en el segundo epgrafe de este Tema, se deduce que las expresiones de las varianzas de los estimadores de M.C.O. son:
2 2 2 V[ b 2 ] = E[ b 2 - 2 ] = E[ k i u i ] = E[ k 1 u 1 +...+k 2 N u N + 2k 1 k 2 u 1 u 2 +...] = 2 2

2 2 = k1 E[ u1 ] +...+k 2N E[ u 2N ] + 2k1k 2 E[ u1.u 2 ] +...= 2 k 2i 2 ya que E[ u 2 i ] = i y E u i .u j = 0 i j

y aplicando el resultado obtenido en 3) del Apndice A1 quedar: V[ b 2 ] = 2 Anlogamente para la varianza de b1:

1 (3.11) NS 2 x

V[ b 1 ] = E[ b 1 - 1 ] = E[ d i u i ] = 2 d 2 i por las mismas razones que antes.


2 2

Aplicando, el resultado obtenido en 6) del Apndice A1 quedar: V[ b 1 ] = 2 La covarianza entre b1 y b2 ser: Cov( b 1 , b 2 ) = E ( b 1 - 1 ) . ( b 2 - 2 ) = E ( d i u i ) . ( k i u i )
2 1 2 N

a 20 (3.12) NS 2 x

2 Cov( b 1 , b 2 ) = E[ d 1 k 1 u +...+d N k N u + d 1 k 2 u 1 u 2 +...] = d 1 k 1 E( u 1 ) +...+d N k N E( u 2N ) + d 1 k 2 E( u1 .u 2 ) +...=


2 = 2 d i k i ya que E( u 2 i y E u i .u j = 0 i j i ) =

pero

d k
i

1 1 1 = xk i .k i = k i x k 2 i = x N N NS 2 x
-x (3.13) NS 2 x

resultando : Cov( b 1 , b 2 ) = 2 .

40

Introduccin a la Econometra

Tema 3: ESTIMACIN DEL MODELO

Apndice A3.3

La varianza del estimador lineal 2* ser:


2 2 2 V( 2* ) = V( w i y i ) = w 2 i V(y i ) = w i = ( w i k i + k i ) = 2 2 2 2 = 2 . [ (w i k i ) 2 + k 2 i + 2 (w i k i ).k i ] = (w i k i ) +

1 2 2 2 + 2 (w i k i k i ) NS x

xi x 1 w i xi x w i 1 = 1 1 = 0 2 2 = NS x NS x NS2 NS2 NS2 NS2 NS2 x x x x x 1 * la varianza de 2* queda: V( 2 ) =2 + 2 (w i k i ) 2 NS 2 x

y dado que:

(w k
i

2 k2 i ) = wiki ki = wi

Apndice A3.4 Sea el modelo: y i = 1 + 2 x i + u i

i = 1, ... , N

[3.1] S xy S2 x x

siendo los estimadores M.C.O. de los parmetros: $1 = b1 = y S los residuos sern : e i = y i b1 b 2 x i


0 = y b1 b 2 x

$2 = b 2 =

S xy
2 x

, que se puede expresar tambin: b 2 = 2 + k i u i = 2 +


[3.3]

(x i x).u i [3.2] NS 2 x , sumando y dividiendo entre N:

[3.4] [3.5]

restando [3.3] - [3.4] nos queda : e i = (y i y) b 2 (x i x) i = 1, ... , N u i [3.6] en [3.1] sumando y dividiendo entre N : y = 1 + 2 x + N restando [3.1] - [3.6] : ui y i y = 2 (x i x) + (u i u) i = 1, .. , N [ 7] , llamando u = N sustituyendo [3.7] en [3.5] :

e i = 2 (x i x) + (u i u) b 2 (x i x) e i = (u i u) (b 2 2 )(x i x) [3.8]

elevando al cuadrado y sumando :

e = (u u)
2 i i

2(b2 2 ) (xi x)(ui u) + (b2 2 ) 2 (xi x) 2 [3.9]

2 2 2 e2 i = (u i u) 2(b 2 2 ) (x i x)u i + (b 2 2 ) NS x

al ser

(x x)(u u) = (x x)u u (x x) = (x x)u


i i i i i i

( x

x ) = NS 2 x
2

41

Departamento de Estadstica e Investigacin Operativa II (Mtodos de Decisin)

A partir de [3.2] se deduce que : sustituyendo en [3.9] : quedando :

(x

x)u i = (b 2 2 ) NS 2 x

2 i

2 2 = (u i u) 2 2(b 2 2 ) 2 NS 2 x + (b 2 2 ) NS x

2 i

= (u i u) 2 (b 2 2 ) 2 NS 2 x [3.10]

donde aplicando el operador esperanza :


2 2 E[ e 2 i ] = E[ (u i u) ] (x i x) E[ b 2 2 ] 2 2

[3.11]

2 2 2 E[ (u i u) 2 ] = E[ u i u] = E[ u 2 i + u 2uu i ] = [ E(u i ) + E(u ) 2E(uu i )] =

= 2 +

2
N

2
N

= N 2 + 2 2 2 = ( N 1) 2

[3.12]

2 E(u 2 i ) = 2 ui 1 1 2 2 2 2 2 2 por ser E(u ) = E = 2 E( u1 + u 2 +...+ u N +...) = 2 N = N N N N ui 1 2 2 = = + + + + + E(u.u ) E u E u u u .u ... u ... u u . . = ( ) i i 1 i 2 i i N i N N N E[ b 2 2 ] = V[ b 2 ] =


2

2
NS 2 x

[3.13]

sustituyendo [3.12] y [3.13] en [3.11] :


2 2 E[ e 2 i ] = (N 1) (x i x)

(x

2
i

x)

= (N 1) 2 2

2 por tanto E[ e 2 c.q.d. i ] = (N 2)

42

Anda mungkin juga menyukai