Anda di halaman 1dari 123

Regresin Lineal Simple

yi = b0 + b1xi + ui
Objetivo
Queremos determinar como x explica y

Problemas:
- La relacin entre x e y no es perfecta,

Cul es la relacin funcional entre x e y?


Cmo se permite que otros factores afecten a y?
Cmo asegurarnos que est captando una relacin
ceteris paribus?

Solucin: y = b 0 + b 1x + u
2
Relacin funcional
Si los dems factores contenidos en u se
mantienen fijos Du=0, entonces x tiene un efecto
lineal sobre y.

Dy= b1Dx Si Du=0

b1: parmetro de pendiente entre la relacin x e


y. Es el cambio en y cuando se produce cambio
en x.
b0: trmino constante (valor de y cuando x y u
son cero).
3
Relacin funcional - ejemplos
Ej1.: cosecha = b0 + b1fertilizante + u

u: calidad de la tierra, lluvia, etc.

Ej2.: ingreso = b0 + b1educacin + u

u: experiencia en el trabajo, habilidad innata,


antigedad en empleo actual, etc.

4
Anlisis ceteris paribus
b1: mide el efecto de x sobre y, con todos los dems
factores (en u) fijos.
Pero en qu sentido podemos mantener los
otros factores para llegar a tales conclusiones?
Slo se pueden obtener estimaciones fiables de los
parmetros 0 y 1 a partir del muestreo aleatorio
cuando establecemos supuestos que restringen el
modelo en que el error no observable u se relaciona
con la variable explicativa x.
Como x y u son VAs necesitamos un concepto
basado en su distribucin de probabilidad

5
Algunos supuestos
Siempre que incluyamos el trmino constante
en la ecuacin podemos suponer que:

El valor promedio de u, el trmino de error,


en la poblacin es = 0. Es decir,

E(u) = 0
Es simplemente una normalizacin: el efecto
medio de los otros factores se renormaliza a
cero.
6
Relacin entre x y u

Primera posibilidad: medir la relacin con el


coeficiente de correlacin

Si la correlacin es cero, las variables no


tienen una relacin lineal.

Pero pueden tener otro tipo de relacin (no


lineal): puede haber relacin con x2, etc.

7
Relacin entre x y u

Segunda posibilidad: definir la


independencia desde el punto de vista de la
distribucin de u condicional en x

E(u|x) = E(u) = 0

Para todos los posibles valores de x, la


media de u siempre es la misma, 0.

8
Ejemplos de relacin entre x y u
Si suponemos que u es igual a la habilidad
innata: El nivel medio de habilidad tiene que ser
el mismo independientemente del nmero de
aos de formacin:

E(habil|x=8) = E(habil|x=16)
Si pensamos que el nivel de habilidad debe
aumentar con los aos de educacin, el
supuesto entonces debe ser falso.
No podemos comprobarlo porque el nivel de
habilidad innata no se puede observar: pero es
una pregunta que hay que plantearse para
interpretar el modelo. 9
Ejemplos de relacin entre x y u
nota = b0 + b1asistencia + u
La nota depende de las clases a las que se ha
asistido, y de otros factores no observables, u,
Como: capacidad del estudiante que acude al
examen.
Cundo podremos esperar que el modelo
satisfaga:
E(u|x) = E(u) = 0
Cuando la capacidad del estudiante, la motivacin, la edad, y otras
variables contenidas en u, no estn relacionadas con la asistencia.

10
Relacin entre x y u
Si las cantidades de fertilizantes se establecen
independientemente de otras caractersticas de
las parcelas, entonces
E(u|x)=0
Si aplicamos mayores cantidades de fertilizante
en aquellas tierras de mayor calidad, entonces
el valor esperado de u cambia con el nivel de
fertilizante, y E(u|x) 0.

11
Relacin entre x y u

El supuesto E (u|x) = E (u) = 0 conlleva otra


interpretacin muy til. Tomando el valor esperado de y
condicional en el valor de x,

E(y/x) = b0 + b1x

Esta expresin proporciona el valor de la funcin de


regresin poblacional, que en este caso es lineal.
En este caso el incremento de una unidad de x provoca
un aumento esperado en y de una unidad.
Tambin se puede escribir

12
Relacin entre x y u

Tambin se puede escribir:

y= E(y/x) + u
y= b0 + b1x + u

Donde: E(y/x) es la parte explicada por x y u es la parte no


explicada por x

13
E(y|x) es una funcion lineal de x: para cada x,
la prediccin de y es E(y|x)
y
f(y)

. E(y|x) = b + b x
0 1
.

x1 x2
14
Supuestos detrs del mtodo MCO
1) El modelo es lineal en los parmetros

2) Los valores de X son fijos (no son aleatorios), estn dados

3) El valor medio de los errores es igual a cero.

E (ui / X i ) = 0

4) Los errores tienen igual varianza (HOMOCEDASTICIDAD)


Var(ui / X i ) = 2

15
Supuestos detrs del mtodo MCO
5) Los errores no estn autocorrelacionados
corr (ui , u j / X i , X j ) = 0
6) La covarianza entre el error y la variable independiente es = 0

corr (ui , X i ) = 0

7) No hay multicolinealidad perfecta entre las variables


independientes

16
Estimacin de parmetros b0 ,b1

Existen varias alternativas:

Mtodo de momentos
Mtodo de mnimos cuadrados ordinaries
Mtodo de mxima verosimilitud

Se necesita una muestra de la poblacin: {(xi ,


yi ) , i = 1, . . . , n} una muestra aleatoria de
tamao n.
17
Lnea de regresin, observaciones y errores

y E(y|x) = b0 + b1x
y4 .{
u4

y3 .} u3
y2 u2 {.

y1 .} u1

x1 x2 x3 x4 x
18
MCO / OLS

Intuitivamente, MCO ajusta una lnea a


travs de los datos muestrales, de modo que
la suma de residuales al cuadrado (SRC) sea
la mnima posible: de ah el trmino mnimos
cuadrados.
El residual, , es un estimado del trmino de
error entre lo observado y lo predicho, es
decir, la diferencia entre la lnea de regresin
(fitted line) y el dato observado.
Ver grfica...
19
estimador MCO / OLS: pendiente b1

x x y
i i y
cov(x, y )
b1 = i =1
n
=
x x
2 var( x)
i
i =1

b0 = y b1 x

20
El estimador MCO de b1
b1, es la covarianza muestral entre x y y, dividida
entre la varianza muestral de x.
Si x y y estn correlacionados positivamente, b1
ser positivo (pues la varianza del denominador
siempre es positiva).
Si x y y estn correlacionados negativamente, b1
ser negativo.
Si x y y no tienen correlacin alguna, b1 no ser
estadsticamente distinto de cero (volveremos a
esto ms tarde).
Obviamente, requerimos que x tenga cierta varianza
en la muestra.

21
Lnea de regresin muestral, observaciones, y
residuales estimados
y
y4 .
4 {
y = b0 b1 x
y3 .} 3
y2 { .
2

y1
}
. 1

x1 x2 x3 x4 x
22
Propiedades algebraicas de MCO / OLS

Al minimizar los residuales cuadrados:

La suma de los residuales de MCO ser igual a cero.


Por ende, la media muestral de los residuales ser cero
tambin.
La covarianza muestral entre las variables explicativas y
los residuales ser cero.
La lnea de regresin de MCO siempre cruzar la media
de la muestra, ie, la media de x y la media de y.

23
Propiedades algebraicas
(matemticamente)
n

n u i

ui = 0 por tanto,
i =1
i =1
n
=0
n

x u
i =1
i i = 0 por tanto, cov(x,u) = 0

y = b0 b1 x

La solucin de MCO es idntica a la del mtodo de momentos.

24
Suma de cuadrados: Terminologa
Podemos separar cada observacin en un componente
explicado (sistemti co) y un componente no explicado :
yi = y i ui De modo que podemos definir lo siguiente :

iy y 2
es la Suma Total de cuadrados : STC o SST

yi y es la Suma Explicada de cuadrados : SEC o SSE
2

i es la Suma Residual de cuadrados : SRC o SSR



u 2

Lo cual implica que STC = SEC SRC

STC es la suma de desviaciones al cuadrado de las observaciones


de la muestra: es proporcional, ms no igual, a VAR(y).

25
Funcin de Regresin Muestral FRM
FRP

FRM
Demostracin: STC = SEC + SRC
STC = yi y = yi y i y i y
2 2

= ui y i y
2

= u 2 ui y i y y i y
2 2
i

= SRC 2 ui y i y SEC
y como sabemos que ui y i y = 0
= SRC SEC

27
Algunas igualdades tiles

2
S xy
SRC = Syy
Sxx
2
S xy
SEC =
Sxx
STC = Syy

28
Bondad de ajuste: R 2

Cmo saber qu tan bueno es el ajuste


entre la lnea de regresin y los datos de la
muestra?
Podemos calcular la proporcin de la Suma
de cuadrados totales (STC) que es
explicada por el modelo.
Esto es la llamada R-cuadrada de una
regresin:
R2 = SEC/STC = 1 SRC/STC

29
Propiedades estadsticas de los estimadores
Bajo los supuestos establecidos los MCO cumplen
con el Teorema de Gauss-Markov. Son estimadores
MELI (BLUE)

Dos caractersticas deseables de cualquier estimador


estadstico son:
Insesgamiento (unbiasedness): que el parmetro
estimado sea, en promedio, igual al verdadero
parmetro poblacional.
Eficiencia (efficiency): que la varianza del
estimador sea mnima (ie, mxima precisin).
Adems, los estimadores MCO son Lineales.

30
Linealidad
b j estimadores lineales
Para b1:

S xy Si :
b1 = , donde
S xx
xi x
n
S xy = xi x yi y
ai =
i =1
Sxx
n Entonces :
S xy = xi x yi
n
b1 = ai yi
i =1

y,
S xx xi x i =1
2

31
Insesgamiento
E (b j ) = b j
Para b1:
xi x yi xi x
E ( b1 ) = E (ai yi ) = E = E ( yi )
Sxx Sxx

xi x
E ( b1 ) = E ( b 0 b1 xi ui )
Sxx
xi x xi x ( xi ) xi x
E ( b1 ) = b 0 b1 E (ui )
Sxx Sxx Sxx
xi x ( xi )
E ( b1 ) = b1
= b1
Sxx
32
Insesgamiento: resumen

Los estimadores MCO de b1 y b0 son


insesgados.
La demostracin de esto depende de los
supuestos: si alguno de ellos no se cumple,
MCO no necesariamente ser insesgado.
El insesgamiento es una propiedad del
estimador muestral: dada cierta muestra,
ste puede estar cerca o lejos del verdadero
parmetro poblacional.

33
Varianza de los estimadores

Ya vimos que la distribucin muestral de


nuestro estimador est centrada en torno al
verdadero parmetro.
Qu tan dispersa ser la distribucin del
estimador?
Para analizar esto, requerimos el supuesto:
var(u|x) = 2
conocido como homoscedasticidad
(homoskedasticity): varianza constante.

34
Homoscedasticidad
y
f(y|x)

. E(y|x) = b + b x
0 1
.

x1 x2
35
Heteroscedasticidad

f(y|x)

.
. E(y|x) = b0 + b1x

.
x1 x2 x3 x
36
Varianza de MCO (cont.)
Para b1:


Var b1 = Varai yi = ai2Var( yi )
2
n
n
( xi x ) i
( x x ) 2


Var b1 = i
Sxx
Var( y ) =
i
i
2
S xx
Var( yi )



Var b1
Sxx
= 2 2
S xx


Var b1 =
2
Sxx

37
Varianza de MCO: resumen

A mayor varianza del error, 2, mayor


varianza del estimador de b1.
A mayor varianza en xi, menor varianza
del estimador de b1.
Por ende, a mayor tamao de muestra, n,
menor varianza del estimador de b1.
Pero ojo, la varianza del error es
desconocida: necesitamos estimarla
tambin.

38
Estimacin de la varianza del error

No conocemos la varianza del error, 2, porque no


observamos los errores de la poblacin, ui
Lo que observamos son los residuales (estimados)
del modelo muestral:

ui = yi b0 b1 xi
Pero podemos usar los residuales estimados para
construir un estimador de la varianza del error.

39
Estimacin de la varianza del error
ui = yi b0 b1 xi , y sustituyen do para yi
= b b x u b b x
0 1 i i 0 1 i


= ui b0 b 0 b1 b1 xi
por insesgamie nto, ambos parntesis se eliminan.. .
de modo que un estimador insesgado de 2 es :

(ui u )
i
2

u 2
SRC
=
2
= =
n 2 n 2 n 2

40
Estimacin de la varianza del error
= = error estndar de la regresin
2

recordemos que : std.dev b =


sx

si sustituimo s en vez de , entonces tenemos
el error estndar de b : 1


se b1 =

x x
i
2
1
2

Y, una vez que conocemos el error estndar de b1 estimada, podemos


calcular su intervalo de confianza y hacer pruebas de hiptesis.

41
II. Inferencia
Bajo los supuestos establecidos,


b j ~ Normal b j , Var b j , de tal modo que :

b bj ~ Normal0,1

j

sd b j

b j se distribuye de manera normal porque es una


combinacin lineal de los errors.

42
The t Test
Bajo los supuestos establecidos,

b b

j j
~ t n2
se b j
Los parmetros siguen una distribucin t (y no una
normal) debido a que utilizamos el estimador de
sigma.

43
The t Test (cont)

Ahora podemos hacer pruebas de hiptesis


para nuestros estimadores.
Empezamos con una prueba de hiptesis
nula.
Donde: H0: bj=0
Si aceptamos la hiptesis nula, entonces
aceptamos que la variable x no tiene ningn
efecto sobre la variable y.

44
The t Test (cont)

Primero necesitamos definir un estadstico


-el estadstico t- para b j

b j
t b
j
se b j

Podemos utilizar el estadstico t, como una


regla para determinar el rechazo o no
rechazo de la hiptesis nula, H0

45
The t Test (cont)

Tambin necesitamos una hiptesis


alternative, H1, y un nivel de significancia
H1 puede ser de uno o dos lados
H1: bj > 0 y H1: bj < 0 son de un lado
H1: bj 0 es una alternativa de dos lados
Si queremos tener nicamente una
probabilidad de un 5% de rechazar H0 siento
sta verdadera, entonces decimos que el
nivel de significancia es del 5%

46
The t Test (cont)

Teniendo determinado el nivel de


significancia, a, podemos determinar el
percentil (1 a)th en una distribucin t con n-2
gl. A este valor, se lo conoce como el valor
crtico (c)
Se puede rechazar la hiptesis nula si el
estadstico t es mayor que el valor crtico.
Si el estadstico t es menor que el valor
crtico, entonces no podemos rechazar la
hiptesis nula.
47
The t Test (cont)

yi = b0 + b1xi + ui

H0: bj = 0 H1: bj > 0

No rechazo
Rechazo
1 a a
0 c
48
Una cola vs Dos colas
Como la distribucin t es simtrica, es sencillo
realizar el test H1: bj < 0. El valor crtico es
justo el negativo de lo obtenido antes.
Podemos rechazar la hiptesis nula si el
estadstico t < c, y si el estadstico t > c
entonces no podemos rechazar la hiptesis
nula.
Para un test de dos colas, debemos encontrar
el valor crtico basados en un nivel de
significancia a/2 y rechazamos H0: bj = 0 si el
valor absoluto del estadstico t > c
49
Dos colas
yi = b0 + b1Xi+ ui

H0: bj = 0 H1: bj 0
No rechazo

Rechazo Rechazo
a/2 1 a a/2
-c 0 c
50
Resmen H0: bj = 0

Si no se especifca lo contrario, se assume


que realizamos un test de dos colas.
Si rechazamos la hiptesis nula, se dice
tpicamente que xj es estadsticamente
significativo al nivel a%
Si NO rechazamos la hiptesis nula, se dice
tpicamente que xj NO es estadsticamente
significativo al nivel a%

51
Otras hiptesis

Una forma ms general de realizar test de


hiptesis es plantear que H0: bj = aj
En este caso, el estadstico t, es el apropiado

b aj
t=

j
, donde
se bj

a j = 0 representa el test estndar.

52
Intervalos de confianza
Otra forma de utilizar test estadsticos clsicos
es construir un interval de confianza usando el
mismo valor crtico que fue utilizado en el test de
dos colas
Un intervalo de confianza al (1 - a) % es
definido como:


a
b j c se b j , donde c es el 1 - percentil
2
en una distribuci n t n 2

53
Calculando p-valores para t tests

Una alternative clsica es preguntarse, Cul


es el nivel de significancia al cual la hiptesis
nula puede ser rechazada?
Entonces, calculamos el estadstico t,
miramos el percentil de la distribucin t y
vemos su p-valor.
p-valor es la probabilidad que podemos
observar de que la hiptesis nula sea
verdadera.

54
Programas y p-valores, t tests, etc.

La mayora de paquetes calculan el p-valor,


asumiendo un test de dos colas.
Si se quiere hacer un test de una cola, se
debe dividir el p-valor de dos colas, para dos.
La mayora de paquetes proven el estadstico
t, p-valor y los intervalos de confianza al 95%
para una prueba

H0: bj = 0

55
Econometra I
Regresin Mltiple
En la mayora de las relaciones econmicas intervienen ms de dos
variables. Los factores que afectan al fenmeno econmico objeto de
estudio suelen ser mltiples.

Esto supone una limitacin en la aplicacin del modelo de regresin


lineal simple.

Aunque el inters fundamental radique en determinar el efecto de una


variable X1 sobre una variable Y, generalmente intervienen ms factores
X1, X2, X3,., Xk, en el comportamiento de Y.

Dichos factores adicionales estn, generalmente, relacionados con X1

Hay que recodar que todos los factores no incorporados al modelo estn
contenidos en el trmino inobservable (la parte no explicada) del
modelo.
En la medida de que X1, no sea independiente de X2,, Xk entonces en
el modelo de regresin simple no se verificar que:

E(u|x1) = 0
Entonces debemos incorporar los efectos adicionales de los dems
factores X2,, Xk para poder aislar el efecto causal de la variable X1.

Solucin: y = b0 + b1x1 + b2x2 ++ bkxk + u

En este modelo ser ms fcil que se cumpla que el trmino


inobservable es independiente de los factores.
En el modelo de regresion lineal multiple, la pendiente bj se interpreta
como el efecto parcial o efecto ceteris paribus de un cambio en la
variable asociada Xj. (j = 1, . . . , k).

Para que dicha interpretacin sea verdadera, deben cumplirse algunos


supuestos, que se vern ms adelante.

Ejemplo 1: Efecto causal de la educacin sobre el salario.

Y= salario
X1 =educacin

Nuestro inters es determinar como influye la educacin en el salario.


Pero sabemos que otras variables tambin influyen en el salario: X2 =
sexo; X3 = experiencia; X4 = capacidad.
salario = b0 + b1educ + b2sexo + b3exp + b4capa+ u

Cabe esperar que la educacin no sea independientes del sexo, la


experiencia o la capacidad. En ese caso, al variar el nivel de educacin,
tambin varan los dems factores:

- Las proporciones de hombres y mujeres puede diferir por niveles de


Educacin?. A mayor educacin qu pasa con las proporciones?

- La Experiencia puede tener una distribucin diferente por niveles de


Educacin?. Qu relacin hay entre educacin y experiencia?

- La Capacidad puede tener una distribucin diferente por niveles de


Educacin?. Qu relacin hay entre educacin y capacidad?
salario = b0 + b1educ + b2sexo + b3exp + b4capa+ u

En nuestro ejemplo b1 es el parmetro de mayor inters.

En la regresin mltiple nos aseguramos que b1 captura el efecto parcial


de la educacin manteniendo otros factores fijos (en este caso: sexo,
experiencia y capacidad).

Hay que recordar que en la regresin simple, dichos factores formaban


parte del trmino inobservable y por lo tanto no se tena control sobre
ellos.
Ejemplo 2: Efecto del gasto en educacin sobre el rendimiento
escolar.

Supongamos que disponemos de datos de distintas escuelas pblicas en


distintos municipios, para las que observamos, para un curso determinado, la
calificacin media avgscore y el gasto en educacin por alumno expend

Nuestro inters radica en cuantificar el efecto del gasto en educacin por


alumno expend (que es una herramienta de poliltica pblica) en el rendimiento
escolar avgscore.

Pero el entorno familiar tambin afecta al rendimiento escolar, que a su vez esta
correlacionado con la renta media de las familias avginc. Adems el gasto en
educacin tiende a crecer con el ingreso de las familias avginc.

En un modelo de regresin lineal simple:

avgscore = b0 + b1expend + u
Qu problemas pueden existir?
Supuestos del modelo de
regresin mltiple
1. Lineal en los parmetros

y = b0 + b1x1 + b2x2 ++ bkxk + u


2. Tenemos una muestra aleatoria de n
observaciones
{(xk1 , xi2 , , xik , yi )

y1 = b0 + b1x11 + b2x12 ++ bkx1k + u1


.
.
.
yn = b0 + b1xn1 + b2xn2 ++ bkxnk + un
64
3. El valor esperado del trmino inobservable es cero,
dado cualquier valor de las variables independientes
E(u|x1, x2,., xk) = 0

4. Homocedasticidad
Var (u|x1, x2,., xk) = 2

5. No existe multicolinealidad perfecta, es decir, que los


vectores:

son linealmente independientes

Entonces: E(y/x1, x2, , xk) = b0 + b1x1 + b2x652 ++ bkxk


Notaciones:

El forma matricial el modelo se escribe:

Y = Xb U

Y las hiptesis:
E (U ) = 0 Var(U ) = 2 I Matriz identidad

66
E (u1 )
E (u )
2

.
i, E (ui ) = 0 E (U ) = 0 E (U ) =
.


.

E (u n
)

i,Var(ui ) = 2
Var(U ) = 2 I
i, jCov(ui ; u j ) = 0

u1
u
Var(ui ) = E (uu) = 2 * u u ........ u
.. 1 2 n

.
u n

67
E (u 12 ) E (u1 ; u 2 ) E (u1 ; u n ) Var(u1 ) Cov(u1 ; u2 ) Cov(u1 ; un )
2 Cov(u ; u )
E (u 2 ; u1 ) E (u 2
) E (u 2 ; u )
n 2 1 Var(u 2 ) Cov (u 2 ; u )
n
E (u n ; u1 ) E (un ; u2 ) E (u 2
) Cov(un ; u1 ) Cov(un ; u2 ) Var(u2 )
n

Covarianza = 0

2 0 0

0
2
0
0 0 2

Varianza constante = Homocedasticidad

68
Por lo tanto:

ui N (0; I )
2

La matriz X es de rango completo

- Xnxk, donde n > k, nmero de datos mayor a nmero de parmetros

- X es de rango completo rango (X) = k

- Esto equivale a decir que las columnas de X son linealmente


independientes

69
ESTIMACIN DE PARMETROS - MCO

Dado el modelo Y = X + U , se denomina estimador de mnimos


cuadrados de (en abreviado EMC) al vector b que minimiza
sobre Rk


= SRC(b1, bj)
b1


= SRC(b1, bj)
bj

n
= 2 ( yi b1 b2 xi 2 ........ bk xik )
b1 i =1

n
= 2 ( yi b1 b2 xi 2 ........ bk xik )( xij ); j = 2,3,4...., k
bj i =1

70
ESTIMACIN DE PARMETROS - MCO

Dado el modelo Y = Xb U y si la matriz X es de rango completo (no


es singular), el estimador de mnimos cuadrados existe, es nico y
esta dado por
t 1 t
b = ( X X ) X Y
n
n n n Y j
n X1 j
j =1
X2j
j =1
X3j
j =1 n
j =1

X1 j
n

X1 j X1 j
n

X1 j X 2 j
n

X1 j X 3 j Y X
j =1
j 1j

X X = j =1 j =1 j =1 j =1 X Y = n

Y X
n n n n

X
j =1
2j X
j =1
2j X1 j X
j =1
2j X2j X
j =1
2j X3j
j =1
j 2j

n n n n n
X
j =1
3j X
j =1
3j X1 j X
j =1
3j X2j X
j =1
3j X3j Y X j 3j
j =1

71
DISTRIBUCIN DE b
El vector de observaciones Y se distribuye como una normal multivariante de
media Xb y de matriz de varianzas y covarianzas 2 I.

Como b es una combinacin lineal de las variables Y, podemos concluir que


se distribuye como una variable normal.

Su esperanza y su varianza son:

Por tanto b es un estimador centrado de b.

72
INCLUSION DE VARIABLES IRRELEVANTES
Supongamos el modelo:

y = b 0 + b 1x 1 + b 2x 2 + b 3 x 3 + u
Sin embargo X3 no tiene efecto en y, lo que significa que b3 = 0. En trminos de
esperanza condicional, tenemos que:

E(y|x1, x2, x3) = E(y|x1, x2,)= b0 + b1x1 + b2x2 + b3x3


Si realizramos la estimacin incluyendo X3 en el modelo, para cada estimador
se cumplira que:
E (b j ) = b j
En conclusin incluir variables irrelevantes o sobreespecificar el modelo, no
influye en el INSESGAMIENTO de los estimadores MCO, pero puede tener
efectos indeseables en las varianzas de los estimadores.

73
Formas funcionales

* Linealidad en los parmetros


* Modelos Log - Log
* Modelos Log - Lin
* Modelos Lin - Log
* Modelos recprocos
* Ejercicios
1. Linealidad

La metodologa empleada hasta el momento se ha ocupado de modelos


lineales en los parmetros.

Las variables X y Y no tienen que ser lineales, de hecho existen


fenmenos econmicos para los cuales no es adecuado utilizar
relaciones lineales entre las variables.

Supongamos que en una curva de demanda se quiere estimar la


elasticidad del gasto, es decir, la variacin porcentual del gasto derivada
de la variacin porcentual en el ingreso. En este caso la pendiente de la
ecuacin que hemos venido trabajando no nos sirve, puesto que
representa nicamente la variacin absoluta. Sin embargo, esta
elasticidad se puede calcular fcilmente utilizando modelos en
logaritmos.
1. Linealidad
En esta parte del curso analizaremos los siguientes tipos de modelos:

1. Lineales en logaritmos o de elasticidad constante


2. Modelos semilog
3. Modelos recprocos

La caracterstica importante de todos estos modelos es que son


LINEALES en los parmetros ( o se pueden hacer lineales con
sencillas manipulaciones algebraicas).
2. Elasticidad
Cmo medir la elasticidad con un modelo lineal en logaritmos?

Analicemos el siguiente modelo:


b1
Yi = AX i

El modelo es lineal en los parmetros?

Cmo se puede linealizar?


2. Elasticidad
Entonces:
b 0 = LnA
Y se puede reescribir como: LnYi = b 0 b1LnX i

Estos modelos se denominan de doble logaritmo, o lineales en


logaritmos.

Este modelo es muy popular en trabajos empricos, ya que el coeficiente


de b1 mide la elasticidad de Y respecto a X. Es decir, la variacin
porcentual de Y frente a la variacin porcentual de X.

Variacin % en Y
=
Variacin % en X
2. Elasticidad

Funcin original Transformacin en logaritmos


Una caracterstica importante de este modelo es que la pendiente (-b2)
es constante en todos los puntos, por lo tanto la elasticidad es
constante en todos los puntos sin que importe el valor de X para el
que se calcule la elasticidad
4. Modelo Semilog
Gobiernos, economistas y hombres de negocio suelen estar interesados
en averiguar tasas de crecimiento de variables econmicas. Por
ejemplo la estimacin del dficit (supervit) del presupuesto pblico,
parte de la estimacin de la tasa de crecimiento del PIB.

Otros ejemplos son: estimar tasas de crecimiento de crditos, consumo,


etc.

Para medir la tasa de crecimiento de la poblacin por ejemplo podemos


partir de la frmula de inters compuesto.

Yt = Yo (1 r )t

Cmo puedo manipular la frmula anterior para poder hacer una


estimacin de regresin lineal??
4. Modelo Semilog

LnYt = LnYo t * Ln(1 r )


Por lo tanto puedo reescribir el modelo como:

LnYt = b 0 b1t
Multicolinealidad

4.1 Teora
4.2 Anlisis y correccin
4.3 Ejercicios
4.1 Teora

Qu es multicolinealidad?
Problema derivado de la relacin existente
entre los regresores.
Esto implica que no existe independencia entre
las variables explicativas y en el caso extremo
de dependencia lineal exacta se hace imposible
la estimacin MCO del modelo
Por qu no podemos estimar los parmetros
del modelo?
Porque la matriz XX es singular y por lo tanto no
invertible porque su determinante es nulo.
4.1 Teora

Qu problemas puede causar la


multicolinealidad?
Distorsiona el conocimiento del aporte de cada
una de las variables explicativas sobre la variable
dependiente, porque la varianza de los
estimadores se encuentra aumentada o inflada.
Cul es el efecto de esto?
Se tiende a aceptar la Ho de las pruebas individuales de los
parmetros del modelo. Rechazando coeficientes
significativos.
La multicolinealidad es mala cuando se quiere estimar
ecuaciones de comportamiento y necesitamos
fiabilidad de los parmetros
No es necesariamente mala si el objetivo es predecir
4.1 Teora

Cmo detectar la multicolinealidad para prevenir la


exclusin de variables significativas en el modelo de
regresin lineal clsico?
Anlisis lgico de regresores
La simple definicin de las variables incluidas en el modelo
puede indicar las relaciones existentes entre ellas.
Modelo globalmente bien estimado (coeficiente de
determinacin R2 elevado) y regresores individualmente no
significativos
Valor del determinante de la matriz de correlaciones entre
los regresores cercano a cero (alta dependencia)
Contraste de multicolinealidad de Farrar-Glauber
Medida de Klein o Factor de inflacin de la varianza
Medida de Theil
4.1 Teora

Qu hacer una vez identificada la


multicolinealidad?
Corregir la multicolinealidad
Suprimir variables
Cuando su informacin sea redundante y se vea
claramente que su efecto lo recoge otra variable
Se puede suprimir la variable cuando el coeficiente de
la variable supuesta causante de la colinealidad
aparece con el signo contrario al esperado y su
exclusin no modifica significativamente el ajuste
global.
Utilizacin de informacin adicional
Informacin extramuestral
Restricciones en el modelo
4.1 Teora

Utilizacin de primeras diferencias


Se desplaza un periodo las variables y se calcula las
diferencias entre dos periodos sucesivos.
El inconveniente es que puede surgir autocorrelacin
en las perturbaciones del modelo
Empleo de cocientes o ratios entre las
variables
Consiste en dividir todas las variables del modelo por
un factor de escala comn a todas ellas
El problema que surge es que las perturbaciones
transformadas pueden ser heteroscedsticas
Aumentar el tamao muestral
4.2 Anlisis y Correccin de la Multicolinealidad

Ejercicio de aplicacin e-views


Se dispone de informacin acerca de
ingresos de explotacin (INEX), el consumo
(CONS), los gastos de personal (GPER) y los
gastos de explotacin (GEX) relativos al
sector de metalurgia y fabricacin de
productos metlicos para 17 provincias.
El objetivo es analizar la presencia de
multicolinealidad en un modelo cuya
especificacin es la siguiente:
INEXi= b1 + b2Consi + b3GPERi + b4GEXi + mi
4.2 Anlisis y Correccin de la Multicolinealidad

Solucin
Estimamos el modelo planteado

Dependent Variable: INEX


Method: Least Squares
Sample: 1 17
Included observations: 17

Variable Coefficient Std. Error t-Statistic Prob.


C 3729.609 3240.869 1.150805 0.2705
CONS 0.392848 0.276641 1.420067 0.1791
GPER 0.663397 0.415687 1.595907 0.1345
GEX 0.648393 0.218018 2.974033 0.0108

R-squared 0.998971 Mean dependent var 235017.0


Adjusted R-squared 0.998734 S.D. dependent var 279592.1
S.E. of regression 9949.564 Akaike info criterion 21.45077
Sum squared resid 1.29E+09 Schwarz criterion 21.64682
Log likelihood -178.3315 F-statistic 4207.203
Durbin-Watson stat 1.589402 Prob(F-statistic) 0.000000
4.2 Anlisis y Correccin de la Multicolinealidad

Detectamos multicolinealidad
Significacin global e individual de los regresores
Significacin global
Prueba F: el modelo en su conjunto es significativo
Coeficiente de determinacin: 0.99
Significacin individual
Cons: no significativa, p-value cae dentro de la regin de
aceptacin de la Ho
Gper: no significativa, p-value cae dentro de la regin de
aceptacin de la Ho
Gex: significativa
Cuando esto ocurre se sospecha de la presencia de
multicolinealidad
Anlisis de la matriz de correlaciones de los regresores
Si los regresores son ortogonales, el determinante de la matriz
de correlaciones RXX sera 1
4.2 Anlisis y Correccin de la Multicolinealidad

Anlisis de la matriz de correlaciones de los


regresores
Quick/show/variables explicativas/view/correlations

Podemos analizar el determinante de la matriz


Show/variables explicativas/view/group members/name/group01
En la lnea de comandos: sym mcorrel=@cor(group01)
En la lnea de comandos: scalar detmcorrel=@det(mcorrel) =
0.0000339161
Valor muy cercano a cero lo que es indicativo de la posible
presencia de multicolinealidad
4.2 Anlisis y Correccin de la Multicolinealidad

Contraste de multicolinealidad de Farrar-


Glauber
Se testea la siguiente Ho: |Rxx| = 1
El estadstico experimental es:
1
G exp = T 1 (2k 5) ln Rxx
6
Gtco sigue una 2k -1
k
2

=-(17-1-(1/6)*((2*4)+5))*log(0.000033924) =142.364198
P-value: 0.0000000
Se rechaza la Ho, no existe ortogonalidad de los regresores
(hay presencia de multicolinealidad)
4.2 Anlisis y Correccin de la Multicolinealidad

Medida de Klein y Factor de inflacin


de la varianza
Esta metodologa se basa en REGRESIONES AUXILIARES en
las que se estima cada una de las variables explicativas en
funcin de las dems
De esta forma se conoce:
El grado en que cada uno de los regresores est explicado por el resto
Una aproximacin a la redundancia de informacin que se produce
cuando todos participan conjuntamente en la explicacin de la variable
dependiente
Se establecer una comparacin entre el coeficiente de
determinacin del modelo original, que incluye todos los
regresores y los coeficientes de determinacin obtenidos en
cada regresin auxiliar.
Si R2 < R2j puede considerarse que la variable j contiene informacin ya
incluida en el resto de regresores, por lo que dicha variable es causante
de multicolinealidad.
4.2 Anlisis y Correccin de la Multicolinealidad

A partir de estas regresiones se puede obtener el factor de inflacin de la


varianza:

1 bi2
= 2
1 R j bort
2

Donde:
R2j: representa el coeficiente de determinacin de las regresiones
auxiliares anteriormente especificadas
2bi: varianza del coeficiente bi en el supuesto de colinealidad
2bortogonal: varianza del coeficiente bi en el supuesto de ausencia de
colinealidad
4.2 Anlisis y Correccin de la Multicolinealidad

Regresiones auxiliares
1.- Cons C Gper Gex
=1/(1-0.996352) = 274.122
2.- Gper C Cons Gex
=1/(1-0.992389) = 131.3887
3.- Gex C Cons Gper
=1/(1-0.998229) = 564.6527
Los factores multiplicativos alcanzan valores elevados en los tres
casos, por lo que se puede considerar que la varianza de los
coeficientes del modelo original se encuentra muy inflada, por lo que se
toman como no significativos regresores que s podran serlo.
Usando la medida de Klein:
R2cons: 0.996352
R2gper: 0.992389
R2gex: 0.998229
Podemos concluir que aunque los R2i son menores que el del modelo original son
muy prximos al mismo, por lo que aunque no a un nivel preocupante s existe
colinealidad entre los regresores del modelo.
4.2 Anlisis y Correccin de la Multicolinealidad

Medida de Theil
Denominado como contribucin marginal o incremental
Mide el efecto de contribucin del regresor h, en el coeficiente
de determinacin R2, por lo que es considerado como una de
las medidas de la aportacin del regresor en la explicacin del
regresando
k
m = R (R 2 R 2h )
2

h =1

R2h: coeficiente de determinacin excluido el regresor h


R2: coeficiente de determinacin modelo inicial
En el caso de ortogonalidad el valor del estadstico ser
prximo a cero
4.2 Anlisis y Correccin de la Multicolinealidad

Deben realizarse las regresiones auxiliares necesarias para


calcular esta medida, excluyendo en cada uno de los casos un
regresor y calculando su aportacin al modelo completo.
1.- Inex C Gper Gex
La variable consumo aporta: 0.998971-0.998811 = 0.00016
2.- Inex C cons Gex
La variable gper aporta: 0.998971-0.998769 = 0.000202
3.- Inex C cons Gper
La variable gex aporta: 0.998971-0.998271 = 0.0007
Calculando la medida de Theil
0.997909
Por lo que puede admitirse que existe colinealidad, ya que el coeficiente
de determinacin de la regresin inicial no dista mucho de la medida de
Theil.
Si los regresores fueran ortogonales la medida de Theil sera cero.
4.2 Anlisis y Correccin de la Multicolinealidad

Correccin de colinealidad

En este caso particular y en la prctica depender del problema


a analizar se procede a corregir la colinealidad mediante el uso
de cocientes o ratios entre variables. Dividiendo todas las
variables para la variable PEROC.
En este caso dividimos para el nmero de personas ocupadas
en el sector de actividad econmica considerado.
Se eligi esta variable porque constituye un factor de escala de
todas las incluidas en el modelo y su divisin por dicho factor
de escala puede representar la solucin a la multicolinealidad.
4.2 Anlisis y Correccin de la Multicolinealidad

Correccin de colinealidad

Dependent Variable: INEXC


Method: Least Squares
Sample: 1 17
Included observations: 17

Variable Coefficient Std. Error t-Statistic Prob.


C 1.466301 0.280286 5.231453 0.0002
CONSC -0.257027 0.142161 -1.808005 0.0938
GPERC -1.220936 0.321050 -3.802943 0.0022
GEXC 1.379961 0.132546 10.41122 0.0000

R-squared 0.997072 Mean dependent var 12.37447


Adjusted R-squared 0.996397 S.D. dependent var 4.029936
S.E. of regression 0.241909 Akaike info criterion 0.201812
Sum squared resid 0.760758 Schwarz criterion 0.397863
Log likelihood 2.284594 F-statistic 1475.769
Durbin-Watson stat 2.149958 Prob(F-statistic) 0.000000
4.2 Anlisis y Correccin de la Multicolinealidad
La estimacin muestra un modelo globalmente significativo, con un coeficiente
de determinacin elevado, pero la variable CONSC no resulta significativa a ese
nivel de confianza. Es aconsejable retirarla del modelo y realizar una nueva
estimacin

Dependent Variable: INEXC


Method: Least Squares
Sample: 1 17
Included observations: 17
Variable Coefficient Std. Error t-Statistic Prob.
C 1.154356 0.238115 4.847894 0.0003
GPERC -0.795770 0.235620 -3.377348 0.0045
GEXC 1.155360 0.049824 23.18861 0.0000

R-squared 0.996336 Mean dependent var 12.37447


Adjusted R-squared 0.995813 S.D. dependent var 4.029936
S.E. of regression 0.260775 Akaike info criterion 0.308470
Sum squared resid 0.952053 Schwarz criterion 0.455508
Log likelihood 0.378003 F-statistic 1903.527
Durbin-Watson stat 1.713325 Prob(F-statistic) 0.000000

Se observa que el coeficiente de determinacin sigue siendo muy elevado,


todos los regresores son conjuntamente significativos e individualmente
tambin.

Puede considerarse que esta transformacin es adecuada para explicar los


ingresos de explotacin.
Heteroscedasticidad

5.1 Teora
5.2 Anlisis y correccin
5.3 Ejercicios
5.1 Teora

Qu es la heteroscedasticidad?
La violacin del supuesto que sostiene que las
perturbaciones aleatorias tienen varianza constantes y no
estn correlacionados entre s.
Este problema afecta la eficiencia del estimador porque
ya no es de mnima varianza. Sigue siendo insesgado
pero ya no es eficiente.
Si uso MCO estara estimando incorrectamente la matriz
de varianzas covarianzas de los estimadores y afectando
los tests y contrastes de hiptesis.
Para solucionar esto debo encontrar otro estimador con el
conocimiento de que la varianza de la perturbacin
aleatoria no es constante.
5.1 Teora

Modelo de regresin lineal generalizado


La matriz X es una matriz no aleatoria
Con estas nuevas especificaciones el estimador por mnimos
cuadrados sigue siendo insesgado pero ya no tiene mnima
varianza, por lo que no es eficiente. Utilizando MCO la matriz de
varianzas y covarianzas de los estimadores est mal calculada y
por lo tanto los tests y contrastes de hiptesis quedan
invalidados y ser necesario encontrar un nuevo estimador que
sea ELIO bajo las nuevas especificaciones.
Estimador mnimos cuadrados generalizados
El mtodo mnimos cuadrados generalizados consiste en
minimizar la suma de cuadrados de residuos ponderada por la
matriz W-1. Donde W es una matriz definida positiva y se
considera normalizada, es decir la traza de la matriz es igual al
nmero de observaciones
Si aplicamos en el modelo propuesto el mtodo de mnimos
cuadrados generalizados se obtienen estimadores lineales
insesgados y ptimos
5.1 Teora

Modelo de regresin lineal generalizado


El mtodo MCG obtiene el vector de estimadores a travs
de la siguiente expresin:

bG = X' W X X' W-1Y


1
-1

Este estimador se lo conoce como el estimador de mnimos


cuadrados generalizados o estimador de Aitken porque
tambin se lo puede obtener a travs de una
transformacin en el modelo utilizando el mtodo
propuesto por dicho autor.
5.1 Teora

Correccin de Heteroscedasticidad
Corregir la heteroscedasticidad utilizando la matriz de
transformacin de Aitken. El problema es que es necesario
conocer la forma de esa matriz de transformacin y esto no
siempre es posible. Este mtodo es equivalente al de MCG con
la matriz desconocida
Al aplicar MCO los estimadores son insesgados pero la matriz
de var-covar est mal calculada por lo que los contrastes de
hiptesis quedan invalidados. Puesto que los estimadores
siguen siendo insesgados se podr corregir la
heteroscedasticidad si se trabaja con una matriz var-covar
distinta Cul?
Matriz de varianzas covarianzas consistente de White. En
este caso los procesos de inferencia estadstica s son
asintticamente vlidos.
Contrastes de Heteroscedasticidad
Contraste de Breusch Pagan
Contraste de Golfeld-Quandt
Contraste de White
5.1 Deteccin y Correccin de
Heteroscedasticidad

Ejercicio de aplicacin e-views


Se quiere estimar la relacin existente entre el empleo
y el PIB entre pases de latinomrica. Para ello se
utilizan los datos del producto interno bruto (dlares
corrientes) y el nmero de ocupados (miles de
personas).
Existe la probabilidad de que haya
heteroscedasticidad en la varianza de las
perturbaciones dependiendo directamente de la
variable empleo o alguna transformacin de sta.
Encontrar la forma de heteroscedasticidad si es que existe y
en caso afirmativo corregirla:
Utilizando la transformacin de Aitken
Utilizando la estimacin por mnimos cuadrados ponderados
5.1 Deteccin y Correccin de
Heteroscedasticidad

Solucin
En el anlisis de heteroscedasticidad es
necesario estimar el modelo por MCO y
obtener una serie de residuos mnimos
cuadrticos que se utilizarn para la
realizacin de algunos contrastes de
heteroscedasticidad.
Estime el modelo PIB C EMPLEO y guarde la
ecuacin resultante
5.2 Deteccin y Correccin de Heteroscedasticidad

Generamos los residuos


Genr R = resid
Genr R2 = R^2
Genr absR = abs(R)
Genr empleo2 = empleo^2

10000000

8000000

6000000
PIB

4000000

2000000

0
0 500 1000 1500 2000 2500

EMPLEO

A niveles bajos de PIB existe pequea variabilidad en la ocupacin y, sin


embargo la dispersin aumenta a medida que lo hace el PIB
5.2 Deteccin y Correccin de Heteroscedasticidad

Se hace una grfica de los residuos con la variable explicativa

2000000
2.0E+12

1000000
1.5E+12

0
R

R2
1.0E+12

-1000000
5.0E+11

-2000000
0.0E+00
0 500 1000 1500 2000 2500
0 1000000
2 000000
3 000000
4 000000
5 000000

EMPLEO
EMPLEO2

A niveles elevados de la variable EMPLEO le corresponden valores


tambin elevados de los residuos.
5.2 Deteccin y Correccin de Heteroscedasticidad

Usando una escala normalizada, se obtienen distintos grficos de los residuos y


el regresor. Quick/graph/variables/show options/normaliza data

A valores grandes de la variable EMPLEO o EMPLEO2 le corresponden


por regla general valores grandes de los residuos, su cuadrado o su valor
absoluto
5.2 Deteccin y Correccin de Heteroscedasticidad

Contraste de Goldfeld y Quandt


Parte del supuesto de que la varianza de la perturbacin
depende de una variable zi. Esta variable es en general una de
las variables explicativas aunque no es preciso que lo sea.
Fases para la realizacin del contraste:
Se ordenan las observaciones por valores crecientes de la
variable zi supuesta causante de la heteroscedasticidad
Se omiten c observaciones centrales. Normalmente c
aproximadamente n/3
Se ajustan por separado dos regresiones una para las (n-c)/2
primeras observaciones y otra sobre las (n-c)/2 ltimas
observaciones
Se calculan las sumas de cuadrados de residuos de las
regresiones con las primeras y las ltimas observaciones
La forma del contraste es:
Ho: Homoscedasticidad
Ha: Heteroscedasticidad
Fexp=SCR2/SCR1
Ftco= F((n-c)/2-k;(n-c)/2-k)
5.2 Deteccin y Correccin de Heteroscedasticidad

Ordenamos las variables de forma ascendente


Para no perder el orden de las series generamos una
variable de tendencia que permita recuperar el orden
original
Genr/T=@trend(1)
Ordenamos las series procs/sort series/empleo
Se obtienen dos submuestras de 6 observaciones y se
ajustan dos regresiones
Finalmente dividimos los valores de las sumas de
cuadrados de residuos de las dos regresiones
anteriores.
36.3184
Calculamos el p-value
0.002115
Se rechaza la hiptesis nula al 5% de significancia. La
varianza de la perturbacin aleatoria no es constante
para toda la muestra
5.2 Deteccin y Correccin de Heteroscedasticidad

Contraste de Breusch Pagan


En este contraste se supone heteroscedasticidad LINEAL, es
decir la varianza del trmino de error en cada observacin
depende de un vector de variables zi de dimensin p (p
variables explicativas en donde se incluye la constante)
2i = h(zi,a) = a1 + a2z2i+ a3z3i+ + apzpi
Fases para la realizacin del contraste
Se estima por MCO el modelo original y se obtienen los
residuos
Se calcula el estimador de la varianza de la perturbacin
de la siguiente forma:

2 1 n 2
MV = ei
n i =1
5.2 Deteccin y Correccin de Heteroscedasticidad

Se genera una nueva variable gi de los residuos al cuadrado


normalizado

ei2
gi =
2
MV
Se realiza una regresin auxiliar de los cuadrados de los residuos
normalizados sobre las variables zi y se obtiene la suma de cuadrados
en dicha regresin
Forma del contraste:
Ho: Homoscedasticidad
Ha: Heteroscedasticidad
exp=SCE/2
tco= p-1
P es el nmero de regresores de la regresin auxiliar de los
cuadrados de los residuos normalizados sobre las variables zi
5.2 Deteccin y Correccin de Heteroscedasticidad

Se corre la regresin auxiliar con la variable dependiente (G) que es el


cociente entre el cuadrado de los residuos de la estimacin del modelo
original (R2) y la estimacin maximoverosmil de la varianza de las
perturbaciones.
Estimamos la varianza de las perturbaciones: 251.672913.648
Scalar varpert=@ssr/@regobs
Calculamos la variable g = R2/varpert
Estimamos g c empleo
Tomamos el valor de la SCE
SCT=SCR/(1-R2)
SCE = SCT-SCR = 15.188844739
El estadstico experimental es: 3,84
El estadstico de prueba es: @chisq(sce/2,1) = 0.00585491
A un nivel de confianza del 95% se rechaza la Ho de varianza constante para
toda la muestra
5.2 Deteccin y Correccin de Heteroscedasticidad

Contraste de White
Fases para la realizacin del contraste
Se estima el modelo original por MCO y se obtiene el vector de
residuos
Se realiza una regresin auxiliar del cuadrado de los residuos
de la regresin anterior sobre una constante, los regresores del
modelo original, sus cuadrados y sus productos cruzados de
segundo orden. De esta regresin se obtiene el valor del
coeficiente de determinacin
Forma del contraste:
Ho: Homoscedasticidad
Ha: Heteroscedasticidad
exp=n.R2
tco= 2p-1
Donde p es el nmero de regresores de la regresin
auxiliar estimada
Este procedimiento es automatizado en e-
views
5.2 Deteccin y Correccin de Heteroscedasticidad

View/residual test/white heteroskedasticity (cross terms)

White Heteroskedasticity Test:


F-statistic 3.698591 Probability 0.049458
Obs*R-squared 5.944912 Probability 0.051177

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample: 1 18 No se
Included observations: 18 rechaza
la HO
Variable Coefficient Std. Error t-Statistic Prob.
C -3.03E+11 2.39E+11 -1.266662 0.2246
EMPLEO 1.44E+09 6.56E+08 2.195207 0.0443
EMPLEO^2 -512657.3 302565.4 -1.694368 0.1109

R-squared 0.330273 Mean dependent var 2.52E+11


Adjusted R-squared 0.240976 S.D. dependent var 5.29E+11
S.E. of regression 4.61E+11 Akaike info criterion 56.70234
Sum squared resid 3.19E+24 Schwarz criterion 56.85073
Log likelihood -507.3210 F-statistic 3.698591
Durbin-Watson stat 1.230263 Prob(F-statistic) 0.049458
5.2 Deteccin y Correccin de Heteroscedasticidad

Contraste de Glesjer
Este contraste trata de estimar la verdadera estructura de heteroscedasticidad
considerando que la varianza de la perturbacin es una funcin lineal de
alguno de los regresores o de sus potencias.
Fases para la realizacin del contraste
Se estima el modelo MCO y se obtiene la serie correspondiente de residuos
Se obtiene una regresin del valor absoluto de los residuos (o de los residuos al
cuadrado) sobre una potencia de la variable zi variable supuestamente causante de la
heteroscedasticidad
2i = d0 + d1zh1+ mi
|i|= d0 + d1zh1+ mi
Donde h toma habitualmente los valores de 1,-1,1/2,-1/2,2,-2..
Se elige aquel valor h que proporcione una mejor regresin
(coeficientes significativos y menor suma de cuadrados de
residuos). Esto equivale a revisar en la regresin anterior:
Ho = d0 =0
Si no se rechaza esta hiptesis entonces se considera que no
existe heteroscedasticidad. Si se rechaza la Ho, existe
heteroscedasticidad y se conoce su forma:
2ui = 2zh1
5.2 Deteccin y Correccin de Heteroscedasticidad

Contraste de Glesjer
Este contraste necesita conocer cul es la variable que origina
heteroscedasticidad.
Generamos los regresores y corremos las regresiones
h=1 abs(R) c empleo
h=-1 abs(R) c 1/empleo
h=1/2 abs(R) c sqr(empleo)
h=-1/2 abs(R) c 1/sqr(empleo)
h=2 abs(R) c empleo^2
En cada caso de regresin hay que realizar un contraste de
significacin individual de los coeficientes asociados a las
variables. Se puede observar que en las regresiones primera y
tercera los estadsticos de prueba se sitan en la regin de
rechazo por lo que las correspondientes variables explican el
comportamiento de los residuos. Es decir la varianza de las
perturbaciones no permanece constante a lo largo de toda la
muestra.
5.2 Deteccin y Correccin de Heteroscedasticidad

Correccin con el Contraste de Glesjer


De las tres regresiones se retiene aquella con el coeficiente de
regresin significativo y con un coeficiente de determinacin mayor.
En este caso la regresin escogida es la de h=1/2, por lo que la
varianza de la variable aleatoria es proporcional a la raz cuadrada
de la variable EMPLEO.
De esto se deduce:
W = sqr(empleo).I
W-1= sqr(empleo)-1.I
PP=W-1
P=sqr(sqr(empleo)-1).I
P=sqr(empleo)-1/2.I
Donde P es la matriz de transformacin de Aitken e I la
matriz identidad.
5.2 Deteccin y Correccin de Heteroscedasticidad

Estimacin usando la transformacin de Aitken


Conocida la matriz de transformacin se puede premultiplicar el modelo y
aplicar MCO
Se genera la matriz de transformacin
Genr aempleo=1/sqr(sqr(empleo))
Multiplicamos cada una de las variables del modelo por esta nueva
variable

Dependent Variable: APIB


Method: Least Squares
Sample: 1 18
Included observations: 18

Variable Coefficient Std. Error t-Statistic Prob.


AC -36343.78 120156.1 -0.302471 0.7662
AAEMPLEO 4070.215 184.8007 22.02489 0.0000

R-squared 0.946682 Mean dependent var 504217.7


Adjusted R-squared 0.943350 S.D. dependent var 384839.0
S.E. of regression 91596.45 Akaike info criterion 25.79261
Sum squared resid 1.34E+11 Schwarz criterion 25.89154
Log likelihood -230.1335 Durbin-Watson stat 2.473158
5.2 Deteccin y Correccin de Heteroscedasticidad

Con White verificamos la existencia de heteroscedasticidad

White Heteroskedasticity Test:


F-statistic 1.559143 Probability 0.244423
Obs*R-squared 7.088548 Probability 0.214138

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares No se puede
Sample: 1 18 rechazar Ho
Included observations: 18

Variable Coefficient Std. Error t-Statistic Prob.


C 1.31E+12 4.26E+12 0.306873 0.7642
AC -3.83E+12 1.47E+13 -0.260693 0.7987
AC^2 3.34E+12 1.49E+13 0.224123 0.8264
AC*AAEMPLEO -7.63E+10 1.78E+11 -0.428512 0.6759
AAEMPLEO 1.08E+10 2.14E+10 0.503179 0.6239
AAEMPLEO^2 -6755533. 9357595. -0.721931 0.4842

R-squared 0.393808 Mean dependent var 7.46E+09


Adjusted R-squared 0.141228 S.D. dependent var 1.55E+10
S.E. of regression 1.44E+10 Akaike info criterion 49.88026
Sum squared resid 2.49E+21 Schwarz criterion 50.17705
Log likelihood -442.9223 F-statistic 1.559143
Durbin-Watson stat 1.453630 Prob(F-statistic) 0.244423
5.2 Deteccin y Correccin de Heteroscedasticidad

Estimacin por Mnimos Cuadrados Ponderados

Dependent Variable: PIB


Method: Least Squares
Sample: 1 18
Included observations: 18
Weighting series: AEMPLEO

Variable Coefficient Std. Error t-Statistic Prob.


C -36343.78 120156.1 -0.302471 0.7662
EMPLEO 4070.215 184.8007 22.02489 0.0000

Weighted Statistics
R-squared 0.946682 Mean dependent var 2218625.
Adjusted R-squared 0.943350 S.D. dependent var 1693343.
S.E. of regression 403036.6 Akaike info criterion 28.75588
Sum squared resid 2.60E+12 Schwarz criterion 28.85481
Log likelihood -256.8029 F-statistic 485.0958
Durbin-Watson stat 2.473158 Prob(F-statistic) 0.000000

Unweighted Statistics
R-squared 0.964063 Mean dependent var 2800764.
Adjusted R-squared 0.961817 S.D. dependent var 2744155.
S.E. of regression 536219.6 Sum squared resid 4.60E+12
Durbin-Watson stat 2.607590

Se observa que se obtienen las mismas estimaciones que con la matriz transformada de
Aitken. Lo que no se puede hacer es emplear el criterio de White para medir la
heteroscedasticidad

Anda mungkin juga menyukai