Mariana Marchionni
marchionni.mariana@gmail.com
Temario de la clase
Vimos el modelo
Y1 = β1 + β2 X21 + β3 X31 + · · · + βK XK 1 + u1
Y2 = β1 + β2 X22 + β3 X32 + · · · + βK XK 2 + u2
..
.
Y n = β1 + β2 X2n + β3 X3n + · · · + βK XKn + un
1
Y1 X21 K1
X31 ··· X β1 u1
Y2 1 X22 X32 XK 2 ··· β2 u2
.. = .. .. .. . . .. · .. + ..
. . . . . . . .
Y n 1 X2n X3n · · · XKn βK un
Y = X β + u
1
K1
X21 X31 ··· X
X22 X32 1 XK 2
···
X = .. ..
.. . . ..
. . . . .
1 X2n X3n · · · XKn
Y1 β1 u1
Y2 β2 u2
= . β = . u = .
Y
.. .. ..
Yn βK un
Entonces, el modelo
Y = Xβ +u
Supongamos n =3 y K = 2:
X21
1
X21 + X22 + X23
3
X = 1 X22 ⇒ X 0 X =
X21 + X22 + X23 X21
2 +X2 +X2
1 X23 22 23
Supongamos n =3 y K = 2:
X21
1
X21 + X22 + X23
3
X = 1 X22 ⇒ X 0 X =
X21 + X22 + X23 X21
2 +X2 +X2
1 X23 22 23
X21 X31 · · · X
1 K 1
1 X22 X32 · · · X K 2
X =
.
.
.
.
.
. .. .
.
. . . . .
1 X2 n X3 n ··· X
Kn
X21 X31 · · · X
1 K 1
1 X22 X32 · · · X K 2
X =
.
.
.
.
.
. .. .
.
. . . . .
1 X2 n X3 n ··· X
Kn
∂ (b 0 a)
⇒ ∂b es un escalar derivado por un vector. ¾Y eso?
b1 A11 A12
Supongamos otra vez K = 2: b = y A=
b2 A12 A22
Notar que b0 Ab = b12 A11 + b22 A22 + 2b1 b2 A12 es una función
cuadrática en b (y es un escalar)
∂ (b 0 Ab )
Entonces, ¾qué es ∂b ?
Derivamos:
∂ (b 0 Ab )
" #
∂ (b0 Ab) 2b1 A11 + 2b2 A12
= ∂ b1 = = 2Ab
∂ (b 0 Ab ) 2b2 A22 + 2b1 A12
∂b ∂ b2
MCO en matrices
La formulación matricial del modelo lineal general: Y = X β + u
Sea βˆ el vector que apila los estimadores del vector de
parámetros
ˆ
β1
βˆ2
βˆ = .
..
βˆK
Deniciones
1 Vector de estimaciones de Y (n × 1):
Ŷ ≡ X βˆ
2 Vector de residuos o errores de estimación (n × 1):
e ≡ Y − Ŷ = Y − X βˆ
Mariana Marchionni Formulación matricial del modelo lineal general 13 / 49
El modelo en notación matricial
Los estimadores MCO
Supuestos clásicos y propiedades
Inferencia
n 2 e2
SRC ≡ ∑ ei = e1 e2 ··· e n .
i =1 ..
e n
El problema de MCO:
Min SRC (βˆ ) ≡ e 0 e = (Y − X βˆ )0 (Y − X βˆ )
βˆ
∂ SRC (βˆ )
=0
∂ βˆ
= Y 0 Y − Y 0 X βˆ − βˆ0 X 0 Y + βˆ0 X 0 X βˆ
= Y 0 Y − 2βˆ0 X 0 Y + βˆ0 X 0 X βˆ
El último paso requiere notar que los términos 2do y 3ro son
escalares iguales
Ahora hay que derivar respecto del vector βˆ
Notar que el 2do término es de la forma b a (recordar
0
resultado 1)
Notar que el 3er término es de la forma b0 Ab (recordar
resultado 2)
La función a minimizar:
0
e e = Y 0 Y − 2βˆ0 X 0 Y + βˆ0 X 0 X βˆ
Las CPO:
∂ e 0e
= 0 − 2X 0 Y + 2X 0 X βˆ = 0 ⇒ X 0 X βˆ = X 0 Y
∂βˆ
βˆ = (X 0 X )−1 X 0 Y
βˆ = AY
Propiedad 2: X 0 e = 0
Puede obtenerse a partir de la CPO: X 0 X βˆ = X 0 Y
Implica 2 resultados que ya vimos antes:
n
1 ∑ ei = 0
i =1
n
2 ∑ Xki ei = 0 k = 2, ...K
i =1
¾Intuición?
Ŷ e
0
=0
2
0
Ŷ Ŷ − nȲ 2 0
e e
R = = 1 −
0
Y Y − nȲ 2 0
Y Y − n Ȳ
2
Ver R
2 ajustado
Modelo lineal:
Y = Xβ +u
Supuestos clásicos:
1 E (u ) = 0
2 V (u ) = σ 2 I n
Esperanza de u
Recordemos que u es un vector aleatorio
E (u ) es el vector de las esperanzas
u1 ( ) E u1
u2
E (u2 )
u = .. =⇒ E (u ) = ..
. .
un E (un )
( i ) = 0 para i = 1, ...n
E u
se dene como:
V u( ) = E [(u − E (u ))(u − E (u ))0 ]
[ ] V u1 [ , ] ···
Cov u1 u2 [ , n]
Cov u1 u
Insesgadez de βˆ
βˆ = (X 0 X )−1 X 0 Y
= (X 0 X )−1 X 0 (X β + u )
= (X 0 X )−1 X 0 X β + (X 0 X )−1 X 0 u
= β + (X 0 X )−1 X 0 u (∗)
E [βˆ] = β + (X 0 X )−1 X 0 E [u ]
= β
Varianza de βˆ
= 0
E [(X X )
−1 0
X u ((X X )
0 −1 X 0 u )0 ]
= 0
E [(X X )
−1 X 0 uu 0 X (X 0 X )−1 ]
= (X X ) X 0 E [uu 0 ] X (X 0 X )−1
0 −1
= (X 0 X )−1 X 0 σ 2 In X (X 0 X )−1
= σ 2 (X 0 X )−1 X 0 X (X 0 X )−1
= σ 2 (X 0 X )−1
Notar:
cada elemento de la diagonal es V [βˆ ] = σ 2 A , k = 1, ...K ,
k kk
donde A
kk es el elemento en la la k y columna k de la matriz
(X 0 X )−1
cada elemento fuera de la diagonal es
Cov [βˆ , βˆ ] = σ 2 A , j 6= k , donde A
j k jk jk es el elemento en la la
j y columna k de la matriz (X 0 X )−1
V (βˆ) en la práctica
n
2 = n−1K Σ ei2 = ne−eK
0
S
i =1
V̂ (βˆ ) = S 2 (X 0 X )−1
Teorema de Gauss-Markov
¾Por qué?
H0 : c 0 β − r = 0
H0 : Σ cj βj − r = 0
j =1
2 Valores particulares: H0 : β =r j
Luego:
ˆ−r
0β 0β − r , σ 2 c 0 (X 0 X )−1 c
c ∼N c
Bajo la H0 : c
0β − r el estadístico de prueba es:
c 0 βˆ−r ∼ N (0, 1)
V [c 0 βˆ−r ]
q
Luego,
c 0 βˆ−r ∼ T
n−K
V̂ [c 0 βˆ−r ]
q
En el modelo de K variables,
En el modelo de K variables,
consideradas en la H0 .
I
I
Estimación MCO
V c[ 0 βˆ ] = c 0 V [βˆ ]c ∀c ∈ RK
V c[ 0 βˆ ] = c 0 V [βˆ ]c ∀c ∈ RK
E (β˜ ) = AX β
γ̂ = β˜ − βˆ
o trivialmente:
β˜ = βˆ + γ̂
Noten que:
Computemos la covarianza:
h i
ˆ
COV (β , γ̂) = ˆ ˆ
E (β − E (β ))(γ̂ − E (γ̂))
0
h i
= ˆ
E (β − β )γ̂
0
[¾por qué?]
Noten que:
0 )−1 X 0 Y
γ̂ = AY − (X0 X − 1X 0 Y
= A − (X X )
= A − (X 0 X )−1 X 0 (X β + u )
= 0
A − (X X )
−1 X 0 u
= E (X X ) X uu (A − X (X X ) )
0 −1 0 0 1
0 0 −
= (X X ) X E (uu ) A − X (X X )
= σ 2 (X 0 X )−1 X 0 A0 − (X 0 X )−1 X 0 X (X 0 X )−1
= 0