n>k
• Si esta condición no se cumple, el rango de
la matriz X' X no será k + 1 y no tendrá
inversa.
2. No colinealidad
• Las variables explicativas no son
linealmente dependientes:
– El rango de la matriz X es k + 1.
– El rango de la matriz X' X es k + 1. No es
singular –su determinante no es nulo y, en
consecuencia, tendrá inversa.
rango( X' X ) = k + 1
Modelo de regresión
Conocido Desconocido
No aleatorio No aleatorio
Y = Xβ + ε
Conocido Desconocido
Aleatorio Aleatorio
Modelo de regresión
Es constante
Y = Xβ + ε
E( ε) = 0
¡Es un vector!
4. Homocedasticidad
• Todos los términos de error tienen la misma
varianza.
Var ( ε i ) = σ 2
siendo 1 ≤ i ≤ n
4. Homocedasticidad (II)
• Cada observación de la variable dependiente ( yi ) es una
variable aleatoria -función de ε i -.
• La varianza de cada observación de la variable
dependiente (la varianza condicionada) y la varianza del
correspondiente término de error son iguales:
Var ( yi ) = σ 2
Y/X1 ,..., X k =σ 2
siendo 1 ≤ i ≤ n
Varianza condicionada de la
distribución de la variable dependiente
5. No correlación entre los errores
σ 2 0 ... 0
0 σ2 ... 0
E ( εε') = =σ I
2
E ( Y ) = E ( Xβ + ε ) = Xβ
[
Cov( B ) = Cov ( X' X ) ( X' Y ) ] =
−1
Cov ( B ) = σ ( X' X )
2 −1
( X' X ) −1 X' Cov( Y ) X( X' X ) −1 = σ 2 ( X' X ) −1
Teorema de Gauss-Markov
• Si se cumplen las hipótesis de G-M, entonces el
estimador B obtenido por el método de los
mínimos cuadrados es el estimador óptimo.
• Se dice entonces que B es un estimador BLUE:
– Best
– Linear
Mejor estimador lineal
– Unbiased e insesgado
– Estimator
B = ( X' X ) X' Y
−1
Error estándar de la estimación
• La varianza común de los términos de error
(σ ) es desconocida. Para estimar dicha
2
∑( y − yˆ i )
2
i
e' e
σˆ = s =
2 2 i =1
=
n − k −1 n − k −1
Error estándar de la estimación
(II)
n
∑( y − yˆ i )
2
i
e' e
σˆ = s =
2 2 i =1
=
n − k −1 n − k −1
∑( y − yˆ i )
2
i
e' e
s= i =1
=
n − k −1 n − k −1
Error estándar de la estimación
(III)
• El error estándar de la estimación es una
medida de la calidad del ajuste.
• Cuanto menor sea el error mejor es la
calidad del ajuste.
∑( y − yˆ i )
2
i
e' e
s= i =1
=
n − k −1 n − k −1
Estimación de la matriz de
covarianzas del estimador
• Hemos obtenido que Cov( B ) = σ 2 ( X' X ) −1
pero como no conocemos la varianza de los
errores utilizaremos su estimación:
s2 ( a) s 2 ( a, b1 ) ... s 2 ( a, bk )
2
s ( a, b1 ) s 2 ( b1 ) ... s ( b1 , bk )
2
S = s 2 ( X' X )
−1
=
... ... ... ...
s 2 ( a, b ) s 2 ( b1 , bk ) ... s 2 ( bk )
k
Estimación de la matriz de
covarianzas del estimador(II)
• A las raíces cuadradas de los elementos de
la diagonal principal de la matriz S los
llamaremos errores estándar de los
coeficientes.
• El error estándar de un coeficiente es una
medida de la variabilidad de ese
coeficiente. s ( a)
s ( a, b ) ... s ( a, b )
2
2
1
2
k
s ( a, b1 )
2
s ( b1 )
2
... s ( b1 , bk )
2
S = s 2 ( X' X )
−1
=
... ... ... ...
s 2 ( a, b ) s 2 ( b1 , bk ) ... s 2 ( bk )
k
Ejercicio
• En el ejemplo de ilustración (alquileres):
– Calcular el error estándar de la estimación.
– Calcular los errores estándar de los
coeficientes.