(2) q ts = γ 22 pt + β 23 ω t + β 24 pt − 1 + u2 t
(3) q td = q ts = q t
Estrutura Estocástica
E u1t = E u2 t = 0
é u12t u1t u 2t ù éσ 11 σ 12 ù
ê ú ê ú
Eê ú =ê ú
êu 2t u1t 2 ú
u 2t û êëσ 21 σ 22 úû
ë
2
As identidades ou igualdades porventura existentes em um modelo estrutural podem
ser eliminadas do modelo diminuindo-se o número de variáveis endógenas através da
substituição de uma variável nas demais equações pelo seu valor na igualdade ou
identidade. No nosso exemplo, a equação (3) pode ser eliminada do modelo substituindo-se
q td e q ts , nas duas primeiras equações por qt. O resultado a que se chega, em notação
matricial, é o seguinte:
é ù é yt ù
ê éu ù
é1 − γ 12 ù é qt ù ê β11 β12 0 0 úú êê St úú ê 1t ú
(4) ê1 − γ ú ê ú=ê úê ωt ú ê ú
+
ë 22 û ë pt û
ê ú ê ú êu ú
ëê 0 0 β 23 β 24 ûú ëê pt −1 ûú ë 2t û
−1
é1 − γ 12 ù 1 é− γ 22 γ 12 ù
ê1 − γ ú =
ë 22 û γ 12 −γ 22 êë − 1 1 úû
obtém-se
é ù é yt ù
ê úê ú
é qt ù êπ 11 π 12 π 13 π 14 ú ê St ú é v1t ù
(5) ê p ú=êπ +ê ú
π 22 π 23 π 24 ú ê ω t ú ëv2t û
ë tû 21
ê úê ú
ë û êë pt −1 úû
onde:
é ù
êπ ú é− β γ − β γ β γ β γ ù
(6) ê 11 π 12 π 13 π 14 ú= 1 ê 11 22 12 22 23 12 24 12 ú
êπ 21 π 22 π 23 π 24 ú γ 12 −γ 22 ëê− β11 − β12 β 23 β 24 ûú
ê ú
ë û
3
regressão sejam satisfeitas pode-se aplicar o método de mínimos quadrados ordinários na
estimativa dos parâmetros de cada equação da foma reduzida (5).
Uma vez que os parâmetros da forma reduzida do modelo sempre podem ser
estimados surge, então, a questão de saber se a partir dessas estimativas os coeficientes da
forma estrutural do modelo podem ou não serem estimados. Este tipo de indagação,
constitui-se no chamado problema de identificação.
Para estudar esse tipo de problema consideremos, em primeiro lugar, a identificação
dos parâmetros da equação de demanda (1). Subtraindo-se dos elementos da primeira linha
da matriz que aparece no lado esquerdo de (6) os elementos da segunda linha, depois de
multiplicados pelo coeficiente γ12, resulta:
ìπ 11 −π 21γ 12 =β11
ï
ïπ 12 −π 22 γ 12 = β12
í
(7) ïπ 13 −π 23γ 12 =0
ïπ −π γ =0
î 14 24 12
(8) Q1 δ 1 = π 1
onde:
éπ 11 ù éπ 2110 ù
ê ú ê ú éγ 12 ù
êπ 12 ú êπ 22 01 ú ê ú
π 1 =ê ú,Q1 =ê ú,δ 1 =ê β11 ú
π π 00 êβ ú
ê 13 ú ê 23 ú
êëπ 14 úû êëπ 24 00úû ë 12 û
4
Condição de Posto Para Identificação
ρ ( Q1 ) = L1 − 1 + K1 = 3
onde ρ(Q1) indica o posto da matriz Q1. Essa condição é denominada de condição de posto
para identificação.
K ≥ L1 - 1 + K1
ou ainda:
K2 ≥ L1 - 1
Esta última desigualdade foi obtida levando-se em conta que o número de variáveis
predeterminadas do modelo é igual à soma do número de variáveis predeterminadas que
aparecem na equação de demanda e do número de variáveis predeterminadas que foram
excluídas da referida equação: K = K1 + K2.
A condição de ordem é uma condição de fácil verificação pois requer apenas a
contagem do número de variáveis predeterminadas excluidas da equação e do número de
variáveis endógenas incluidas na equação. Se o número de variáveis predeterminadas
excluídas for maior ou igual ao número de variáveis endógenas incluídas na equação,
menos 1, é possível que a equação seja identificada. Caso contrário, pode-se afirmar que a
equação não é identificada
Equação Superidentificada
Admita que os coeficientes β23 e β24 sejam diferentes de zero. Portanto, de acordo
com (6), os parâmetros π23 e π24 são, também, diferentes de zero. Segue-se, então, que o
coeficiente γ12 pode ser obtido de duas maneiras diferentes, segundo (7) , através das
seguintes fórmulas:
π 13
γ 12 =
π 23
e
π 14
γ 12 =
π 24
5
Observe-se que, neste caso, o número de linhas da matriz Q1 é maior do que o seu
número de colunas pois K>L1 - 1+K1. A equação de demanda é então dita superidentificada
em virtude de não existir solução única para a estimativa do parâmetro γ 12 a partir das
estimativas dos parâmetros de forma reduzida. Cabe salientar que esse problema pode ser
contornado como se mostrará mais adiante.
Admita-se agora que, por exemplo, o parâmetro β24 seja igual a zero. Esta hipótese
implica em que o coeficiente π24 também é igual a zero. Assim, a última equação de (7)
deixa de existir e a matriz Q1 passa a ser uma matriz quadrada de ordem igual ao número K
de variáveis predeterminadas do modelo. Segue-se, então, que o parâmetro estrutural γ12
agora é calculado através de uma única expressão, que é a seguinte:
π 13
γ 12 =
π 23
Suponha que tanto o coeficiente β23 como o coeficiente β24 sejam iguais a zero, o
que significa dizer que π23 = π24 = 0. Esta hipótese faz com que o sistema de equações (7)
reduza-se a um sistema de duas equações e três incógnitas, γ12,, β11 e β12. A conclusão
óbvia é de que é impossível estimar-se os parâmetros γ12,, β11 e β12 , individualmente, a
partir dos valores conhecidos das estimativas dos parâmetros da forma reduzida do modelo.
É interessante examinar-se com mais detalhes este caso para que se possa
compreender melhor o porquê da impossibilidade de identificação dos parâmetros da
equação de demanda, quando a quantidade ofertada é função apenas do preço do produto. A
Figura 1 mostra que, a não ser por choques aleatórios, a curva de oferta permanece estável,
enquanto a curva de demanda se desloca em virtude de mudanças na renda dos
consumidores e no preço do bem substituto. Estes deslocamentos da curva de demanda
geram observações de preços e quantidades que estão dispersos em torno da curva de
oferta. Consequentemente, estes dados não permitirão que se obtenha os parâmetros da
equação de demanda mas sim os parâmetros da curva de oferta.
6
Figura 1
ì π 11 −γ 22π 21 =0
ï π −γ π =0
ï 12 22 22
í
ïπ 13 −γ 22π 23 =β 23
ïî π 14 γ 22π 24 = β 24
Alternativamente, esta equação pode ser escrita em forma matricial do seguinte modo:
π 1 = Q2 δ 2
onde:
éπ 11 ù éπ 21 0 0ù
ê ú ê ú éγ 22 ù
êπ 12 ú êπ 22 0 0ú ê ú
π 1 =ê ú,Q2 =ê ú ,δ 2 =ê β 23 ú
π π 1 0 êβ ú
ê 13 ú ê 23 ú
êëπ 14 úû êëπ 24 0 1 úû ë 24 û
7
Observe-se que a matriz Q2 é diferente da matriz Q1. De maneira análoga ao que foi
estabelecido para a equação de demanda, a condição necessária e suficiente para que os
parâmetros da equação de oferta sejam identificados é que o posto de matriz Q2 seja igual
ao seu número de colunas. Isto é:
ρ ( Q2 ) = L2 − 1 + K2
i = 1,K , L
γ i l y1t + γ i 2 y 2 t + K + γ i L y L t = β i l x1t + K + β i K x K t + ui t ,
t = 1, K , T
(9) YΓ=XB+U
onde:
8
é y11 y21K y L1 ù é β11 β 21K β L1 ù
ê ú ê ú
ê y12 y22K y L2 ú ê β12 β 22K β L2 ú
ê' '' ú ê''' ú
Γ= ê ú,B= ê ú
ê' '' ú ê''' ú
ê' '' ú ê ú
ê ú ê' '' ú
ê y1 L y2LK y LL ú ê β1K β 2 K β LK ú
ë û ë û
éu11u21Ku L1 ù
ê ú
êu12 u22Ku L2 ú
ê' '' ú
U =ê ú
ê' '' ú
ê' '' ú
ê ú
êu 1T u2T Ku LT ú
ë û
A matriz Y das variáveis endógenas é uma matriz de ordem T x L, X é uma matriz de ordem
T x K das variáveis predeterminadas, Γ é uma matriz quadrada de tamanho L cujos
elementos são os coeficientes das variáveis endógenas, B é uma matriz de ordem K x L dos
coeficientes das variáveis predeterminadas e U é uma matriz de ordem T x L dos termos
aleatórios. Observe que estamos adotando notação contrária à usual em relação as matrizes
acima: o primeiro índice indica a coluna e o segundo refere-se à linha da matriz.
Pósmultilplicando-se o sistema de equações (9), pela matriz inversa da matriz Γ,
obtém-se a forma reduzida do modelo:
(10) Y=XΠ+V
onde:
Π = B Γ-1 ou Π Γ = B
V = U Γ-1
onde Π e V são matrizes de ordens K x L e T x L, respectivamente.
Admitamos que a primeira equação do sistema (9) exclua algumas variáveis
endógenas e predeterminadas do modelo e que seja expressa por:
(11) y1 = Y1 γ 1 + X 1 β1 + u1 = Z1 δ 1 + u1
9
Y =[ y1MY1MY2 ], X =[ X 1MX 2 ],U =[u1MU 2 ]
é 1 Γ21 ù
ê ú éβ B21 ù
Γ=ê−γ 1 Γ22 ú, B=ê 1
B22 úû
Γ23 úû ë
0
ê 0
ë
Usando-se esta notação a forma reduzida (10) passa, então, a ser escrita como:
éΠ11 Π 21 Π 31 ù
(12) [ y1MY1MY2 ]=[X 1MX 2 ]êê ú+[v MV MV ]
ú 1 1 2
êëΠ12 Π 22 Π 32 úû
é1Γ21 ù
éΠ11 Π 21 Π 31 ù ê ú é β1 B21 ù
ê úê ú ê ú
ê ú ê−γ Γ ú=ê ú
êëΠ12 Π 22 Π 32 úû ê 1 22 ú êë0 B22 úû
ë0Γ23 û
ìΠ11 =Π 21γ 1 + β1
(14) í
î Π12 =Π 22 γ 1
(15) Q1 δ 1 = π 1
onde:
éΠ11 ù
éΠ Iù
π 1 =êê úú,Q1 =ê 21
ëΠ 22 0úû
êëΠ12 úû
Observe-se que π1 é um vetor com K elementos, Π21 e Π22 são matrizes de ordem
K1 x (L1-1) e K2 x (L1 - 1), respectivamente. A matriz Q1 é de ordem K x (L1 - 1 + K1). A
10
condição necessária e suficiente para identificação da primeira equação do modelo, como
vimos anteriormente, é que o posto da matriz Q1 seja igual L1 - 1 + K1. Esta condição é
equivalente a que o posto da matriz Π 12 M Π 22 seja igual ao posto da matriz Π22 e igual a
L1 - 1. Isto é:
(16) ρ Π 12 M Π 22 = ρ ( Π 22 ) = L1 − 1
é0 B22 ù
∆* =ê ú
ë0 Γ23 û
éB ù
∆=ê 22 ú
ë Γ23 û
A matriz ∆ é uma matriz de ordem (K2 + L -L1 ) x (L-1). Cabe salientar que a matriz
∆ é formada pelos coeficientes das variáveis endógenas predeterminadas e endógenas
excluídas da equação, que se deseja saber se é ou não identificada, e que entram nas demais
equações do modelo.
A matriz ∆* é igual ao produto das seguintes matrizes:
éΠ12 Π 22 Π 32 ù é 1 Γ21 ù
é0 B22 ù
∆ *=êê ú ê−γ Γ22 úú=ê
úê 1
ë 0 Γ23 úû
êë0 01 úû êë 0 Γ23 úû
éΠ12 Π 22 Π 32 ù
∆ *Γ =êê
−1 ú
ú
êë0 0 I úû
Como o posto da matriz ∆* Γ-1 é igual ao posto da matriz ∆*, e como o posto de
∆* Γ-1 , segundo a expressão anterior é igual ao posto da submatriz Π 12 M Π 22 adicionado
ao posto da matriz identidade I, segue-se, então que:
ρ ( ∆ ) = ρ ( ∆ *) = L − 1
11
Isto é, o posto da matriz ∆ deve ser igual ao número de variáveis endógenas do
modelo, menos um, para que a primeira equação estrutural seja identificada.
Observe-se que a matriz ∆ tem (K2 + L -L1) linhas e (L-1). colunas. Quando a
equação for identificada e o número de linhas de ∆ for maior que seu número de colunas, K2
> L1 -1, a equação é dita superidentificada. Quando a equação for identificada e a matriz ∆
tiver um número de colunas igual ao número de linhas a equação é dita exatamente
identificada.
éβ ù
∆=ê 23 ú
ë β 24 û
O posto de ∆ deve ser igual a L-1 = 2-1 = 1 para que a equação de demanda seja
identificada. Cabe salientar que se ambos os coeficientes, β23 e β24, forem diferentes de
zero, a equação de demanda é superidentificada enquanto que se um destes coeficientes for
nulo a equação é exatamente identificada.
No caso da equação de oferta a matriz ∆ é igual a:
éβ ù
∆=ê 11 ú
ë β12 û
pois não existe variável endógena excluída da equação de oferta. O posto de ∆ será igual a
um se pelo menos um dos coeficientes , β11 e β12, for diferente de zero. Quando ambos os
coeficientes forem nulos a equação de oferta não será identificada. A equação de oferta será
superidentificada se ambos os coeficientes forem diferentes de zero e será exatamente
identificada se um desses coeficientes for nulo.
É interessante observar que em um modelo com apenas duas variáveis endógenas, a
exclusão de uma variável predeterminada de cada equação do modelo garante a sua
identificação.
12
O estimador de mínimos quadrados em duas etapas é bastante popular devido à sua
fórmula simples comparada com outros estimadores. No que toca ao estimador indireto
generalizado de mínimos quadrados a maioria dos livros textos de econometria afirmam,
erroneamente, que este estimador não pode ser aplicado a equações superidentificadas pois
gerariam estimativas que não são únicas. Discutiremos, também, nesta subseção os
problemas que surgem quando se usa o método de mínimos quadrados ordinários na
estimação dos parâmetros de uma equação estrutural. Veremos ainda a aplicabilidade do
método de mínimos quadrados ordinários quando o modelo de equações simultâneas for de
um tipo particular, o chamado modelo recursivo.
u2 t − u1t
pt = π 21 y t + π 22 S t + π 23 ω t + π 24 pt − 1 +
γ 12 − γ 22
éæ u −u ö ù σ −σ
E pt u1t =E êç 2t 1t ÷u1t ú= 21 11
êëçè γ 12 −γ 22 ÷ø úû γ 12 −γ 22
éæ u −u ö ù σ −σ
E pt u2 t =E êç 2t 1t ÷u2t ú= 22 12
êëçè γ 12 −γ 22 ÷ø úû γ 12 −γ 22
Modelos Recursivos
13
Suponha agora que a quantidade ofertada independa do preço pt do produto no
período t mas que ainda seja função do preço ωt do insumo e do preço pt-1 do produto com
um período de defasagem. Isto é:
(17) q t = β 23 ω t + β 24 pt − 1 + u2 t
A equação de demanda de mercado continua sendo dada por (1), porém, preferimos
agora escrevê-la de maneira ligeiramente diferente, com preço pt do produto no lado
esquerdo da equação:
1 β11 β u1t
(18) pt = qt − γ t − 12 S t −
γ 12 γ 12 γ 12 γ 12
Admita também a hipótese de que os termos aleatórios u1t e u2t não estejam
correlacionados. As variáveis endógenas do modelo de mercado continuam sendo o preço
pt e a quantidade qt. As variáveis predeterminadas, como antes, são o preço ωt do insumo, o
preço pt-1 do bem defasado de um período, a renda yt e o preço St do bem substituto.
A equação de oferta (17) além de estar na forma estrutural está, também, na forma
reduzida, pois o lado direito daquela equação só contém variáveis predeterminadas. Logo, a
aplicação de mínimos quadrados ordinários conduz a estimadores não tendenciosos dos
seus parâmetros.
O termo aleatório u2t, por hipótese, não está correlacionado com o termo aleatório
u1t. Segue-se, então, que a quantidade qt não está correlacionada com o termo u1t .
Consequentemente, a aplicação de mínimos quadrados ordinários na estimação dos
parâmetros da equação de demanda conduz a estimadores não tendenciosos dos seus
parâmetros. Observe que neste caso é importante prestar atenção para que a regressão seja
feita do preço pt contra as variáveis qt, yt e St. A ordem das variáveis nos modelos
recursivos é bastante importante e daí porque escrevemos a equação de demanda como em
(18).
O sistema de equações formado por (17) e (18) é denominado recursivo em virtude
do modelo ser resolvido recursivamente: a primeira equação fornece o valor da quantidade
qt e, conhecido este valor, a segunda equação nos dá o valor do preço pt. Em notação
matricial, o modelo de mercado expresso por (17) e (18) pode ser escrito como:
é yt ù
ê ú
é ùê ú é ù
é 1 0 ù q ê0 0 β β ú ê S ú u2t úê
ê ú éê t ùú ê 23 24
úê t ú ê ú
ê ú ê ú =ê úê ú + ê ú
ê− 1 ú ê ú ê ú ê ú
úû ë û ê− β11 − β12 00ú êω t ú ê− u1t ú
1 ê pt ú
êë γ 12
êë γ 12 γ 12 úû ê ú êë γ 12 úû
êp ú
ë t −1 û
14
é 1 0ù
ê ú
ê ú
ê− 1 1ú
êë γ 12 úû
é 2 u2t u1t ù
ê u2t éσ 0 ù
ê γ 12 úú ê 22 ú
Eê ú =ê ú
êu u 2 ú ê
σ 11 ú
u1t 0
ê 2t 1t ú êë γ 12 úû
êë γ 12 γ 12 úû
Q1 δ 1 = π 1
δ 1 = ( Q1 ' Q1 ) −1 Q1 ' π 1
(19) $ MD
Q$1 = Π ,
2
15
e a matriz D é dada por:
éI ù
D=ê ú
ë0 û
δ 1 = Q1 −1 π 1
−1
éΠˆ 'D Πˆ 2 ' D ù éΠ
ˆ '2 ù
δˆ1 =ê 2 ú ê úπˆ1
ë D'Π 2 D' D û ë D' û
ˆ
−1
éY ' X ( X ' X ) −2 X ' Y1Y1' X ( X ' X ) −2 X ' X 1 ù
(22) δˆ1 =ê 1 ' −2
ú
êë X 1 X ( X ' X ) X ' Y1 I úû
= D ' ( X ' X ) −1 X ' Y = D ' X ' X ( X ' X ) −1 ( X ' X ) −1 X ' Y = X ' X ( X ' X ) −2 X ' Y
D' Π 2 1 1 1 1
$ .
tendo em vista que D'X'= X 1' . De maneira similar calcula-se o produto D' Π 1
Usando-se uma notação mais simples a expressão (22) pode ser escrita como:
−1
(23) δˆ1 = Z1' X ( X ' X ) −2 X ' Z1 Z1' X ( X ' X ) −2 X ' y1
16
pois D'D = I.
Propriedades do Estimador δ 1
Substituímos o valor de y1, dado pelo lado direito do segundo sinal de igualdade de
(10), em (23), obtemos:
−1
(24) δ 1 = δ 1 + Z1' X ( X ' X ) −2 X ' Z1 Z1' X ( X ' X ) −2 X ' u1
−1
é Z1' X æ X ' X ö −2 X ' Z1 ù
limp ê ç ÷ ú é finita, e
ëê T è T ø T ûú
limp δ 1 = δ 1
−1
é Z1' X æ X ' X ö −2 X 'Z1 ù Z1' X æ X ' X ö −2 X ' u1
T (δ 1 −δ 1 ) =ê
ˆ ç ÷ ú ç ÷
ëê T è T ø T ûú T è T ø T
Por outro lado, as hipóteses a que nos referimos abaixo da expressão (24) nos
possibilita afirmar que:
−1
é Z1' X æ X ' X ö −2 X ' Z1 ù Z1' X æ X ' X ö −2
limp ê ç ÷ ú ç ÷ =G
ëê T è T ø T ûú T è T ø
onde G é uma matriz cujos elementos são finitos. Em seguida, lançamos mão do teorema
que afirma que a distribuição assintótica de X ' u1 / T é normal com valor esperado zero e
1Essas hipóteses estão listadas em H.Theil (1971), Principles of Econometrics, John Wiley, capítulo 10.
17
æ X'X ö
matriz de variância-covariância igual a σ11 limp ç ÷ . Podemos, então, concluir que a
è T ø
distribuição assintótica de é T ( δ 1 − δ 1 ) é normal com média zero e matriz de variância-
covariância, Var δ 1 , igual a:
é æ X'X öù
(25) σ 11 G êlimpç ÷úG '=Varδˆ1
ë è T øû
A estatística
1
(26) s11 = ( y1 − Z1 δ 1 )' ( y1 − Z1 δ 1 )
T
u1' u1
limp s11 = limp = σ 11
T
éΠ ù
y1 =[ X 1MX 2 ]ê 11 ú+v1
ëΠ12 û
éΠ11 ù éΠ 21 I ù éγ 1 ù
êΠ ú = êΠ 0 ú ê β ú
ë 12 û ë 22 û ë 1 û
18
Substituindo-se esta relação na expressão anterior concluímos que:
éΠ I ù éγ 1 ù
y1 =[ X 1MX 2 ]ê 21 +v1
ëΠ 22 0úû êë β1 úû
Entretanto, devido ao fato de que Π21 e Π22 serem parâmetros que têm de ser
estimados, visto não serem conhecidos a priori, o estimador acima não pode ser aplicado na
prática. Todavia, o problema é facilmente contornado usando-se a matriz
éΠ
ˆ Iù
Qˆ1 =ê 2 ú
ëΠ 22
ˆ 0û
eΠ
ao invés da matriz Q1, onde Π são os estimadores de mínimos quadrados da forma
21 22
reduzida do modelo. Dessa maneira, obtemos o estimador de mínimos quadrados em duas
etapas:
−1
δ 1 = Q1 ' X ' X Q1 Q1 ' X ' y1
−1
éΠˆ 'X ' X Π
2
ˆ Π
2
ˆ 'X ' X Dù
2
éΠˆ X 'ù
2
~ ê ú ê ú
δ 1 =ê ú ê úY1
ê D' X ' X Π
ˆ D' X ' X D ú ê D' X ' ú
ë 2 û ë û
−1 −1 −1
~ éY1 ' X ( X ' X ) X ' Y1Y1 ' X 1 ù éY1 ' X ( X ' X ) X 'ù
δ 1 =ê ú ê ú y1
ë X 1 'Y1 X 1 ' X 1 û ë X1' û
Alternativamente, essa expressão pode ser escrita de maneira mais compacta do seguinte
modo:
−1
δ 1 = Z1 ' X ( X ' X ) −1 X ' Z1 Z1 ' X ( X ' X ) −1 X ' y1
19
que denominamos por Y1 , é igual ao produto da matriz X vezes a estimativa de mínimos
, da forma reduzida:
quadrados ordinários, Π 2
= X ( X ' X ) −1 X ' Y
Y1 = X Π 2 1
Como,
Y1 ' Y1 = Y1 ' X ( X ' X ) −1 X ' X ( X ' X ) −1 X ' Y1 = Y1 ' X ( X ' X ) −1 X ' Y1
e:
Y1 ' X 1 = Y1 ' X ( X ' X ) −1 X ' X 1 = Y1 ' X ( X ' X ) −1 X ' XD = Y1 ' X D = Y1 ' X 1
Segue-se que:
−1
éYˆ1 ' Yˆ1Yˆ1 ' X 1 ù éYˆ1 ' ù
~ ê ú ê ú
δ 1 =ê ú ê ú y1
ê X ' Yˆ X ' X ú ê X 'ú
ë 1 1 1 1û ë 1û
Pode-se provar, de maneira análoga ao que foi feito para o estimador indireto
generalizado de mínimos quadrados, que o estimador de mínimos quadrados em duas
estapas é consistente, limp δ i = δ 1 , e que T ( δ 1 − δ 1 ) tem uma distribuição asintótica
normal com média zero e matriz de variância-covariância igual a:
−1
éæ Z1 ' X öæ X ' X ö −1 æ X ' Z1 öù
σ 11 limpêç ÷ç ÷ ç ÷ú
ëêè T øè T ø è T øûú
Portanto, os erros padrões da estimativa dos elementos do vetor δ 1 são dados pelas
raízes quadradas dos elementos da diagonal principal da matriz:
−1
s11 Z1 ' X ( X ' X ) −1 X ' Z1
20
computação que calculasse diretamente a estimativa de mínimos quadrados em duas etapas
resolvesse aplicar, em duas etapas, mínimos quadrados ordinários. Nestas circunstâncias a
estimativa da variância σ11 seria fornecida pela seguinte expressão:
onde u1 = y1 − Y1 γ 1 − X 1 β 1 .
Alternativamente:
Como
limp σ 11 ≠ σ 11
21
V1 = I − X ( X ' X ) −1 X V1 = M V1
Logo,
ou ainda:
−1
Vˆ1 'Vˆ1 V1 'V1 V1 ' X æ X ' X ö X 'V1
limp =limp −limp ç ÷
T T T è T ø T
Em virtude de
V1 ' X
limp =0
T
U'X
pois VΓ = U e limp = 0, segue-se que:
T
onde u1 = y1 − Z1 δ 1 = N u1 , e
−1
N = I − Z1 Z1 ' X ( X ' X ) −1 X ' Z1 Z1 ' X ( X ' X ) −1 X '
v1 − V1 γ 1 = u1
Consequentemente:
22
v1 'V1 V 'V
limp σ 11 = σ 11 + 2 ( limp ) γ 1 − γ 1 ' ( limp 1 1 ) γ 1
T T
E U' U = Σ
que é igual a:
Portanto:
v1 'V1
limp = Ω12
T
V1 'V1
limp = Ω 22
T
23
manipulações algébricas. A equação estrutural (10), que deseja estimar, passa a ser então
escrita como:
[ y1MY1 ]éê
1 ù
ú = X 1 β1 +u1
ë−γ 1 û
ou:
(28) Yc γ = X 1 β1 + u1
onde:
é1 ù
Yc =[ y1MY1 ]eγ =ê ú
ë−γ 1 û
(29) Yc = X 1 Π 1 + X 2 Π 2 + Vc
onde:
Π 1 = Π 11 Π 21
Π 2 = Π 12 Π 22
Vc = v1 V1
Π 11 = Π 21 γ 1 + β1
Π 12 = Π 22 γ 1
(30) Π 1 γ = β1
(31) Π2 γ = 0
2Mudamos, por conveniência, a notação adotada até aqui: o símbolo Π2 representa agora outra matriz.
24
L1 T
− − T /2 1
p (Vc ) = ( 2 Π ) 2 Ωc exp ( − tr Vc 'Vc Ω c− 1 )
2
onde exp( ) indica o número natural e elevado ao termo entre parênteses e o símbolo tr
representa o traço da matriz.
Como o Jacobiano da transformação de Vc para Yc é igual a 1, o logaritmo da
função de densidade de probabilidade de Yc é igual a:
L1 T T
log p ( Yc / Π 1 , Π 2 , Ω c , X ) = − log 2 Π − log Ω c
(32) 2 2
1
− tr ( Yc − X 1 Π 1 − X 2 Π 2 )' ( Yc − X 1 Π 1 − X 2 Π 2 ) Ω c− 1
2
(33) l = log p ( Π 1 , Π 2 , Ω c / Yc , X )
log p ( Π 1 , Π 2 , Ω c / Yc , X )
sujeito a restrição:
Π2 γ = 0
∂ tr
( Y − X Π )' ( Y − X Π ) Ω −1 = − 2 Ω − 1 ( Y ' X − Π ' X ' X )
∂Π
∂ log
Ωc = − Ωc
∂ Ω c −1
∂ tr
V 'V Ω − 1 = Vc 'Vc
−1 c c
∂Ω
−1
e derivamos em relação a Ω c , ao invés de Ωc, pois a derivada é mais fácil e a propriedade de invariância do
método de máxima verossimilhança permite que isto seja feito.
25
∂l 1
= − ( −2 Ω c− 1 ) ( Yc − X 2 Π 2 )' X 1 − Π 1 ' Y1 ' X 1 = 0
∂ Π1 2
∂l T 1
−1
= Ω c − Vc 'Vc = 0
∂ Ωc 2 2
Portanto,
= ( X ' X ) −1 X '( Y − X Π )
Π 1 1 1 1 c 2 2
Vc 'Vc
Ωc =
T
Como
Vc = Yc − X 1 Π 1 − X 2 Π 2 = Yc − X 1 ( X 1 ' X 1 ) − 1 X 1 '( Yc − X 2 Π 2 ) − X 2 Π 2
= I − X 1 ( X 1 ' X 1 ) −1 X 1 ' ( Yc − X 2 Π 2 ) = M 1 ( Yc − X c Π 2 )
Vc 'Vc ( Yc − X 2 Π 2 )' M 1 ( Yc − X 2 Π 2 )
Ωc = =
T T
L1T T ( Y − X 2 Π 2 )' M 1 ( Yc − X 2 Π 2 1
log p ( Π 2 / Yc , X ) = − log 2 Π − log c − tr I
2 2 T 2
minimizar
log ( Yc − X 2 Π 2 ) ' M 1 ( Yc − X 2 Π 2 )
Π2 γ = 0
26
(34) L = log ( Yc − X 2 Π 2 )' M 1 ( Yc − X 2 Π 2 ) − 2 λ ' Π 2 γ
∂L
(35) = 2 ( X 2 ' M 1 Yc − X 2 ' M 1 X 2 Π 2 ) W − 1 − 2 λ γ ' = 0
∂ Π2
∂L
(36) = 2 Π2 γ = 0
∂λ
∂L
(37) = − 2 Π2 ' λ = 0
∂γ
onde W = ( Yc − X 2 Π 2 ) ' M 1 ( Yc − X 2 Π 2 ) .
( X 2 ' M 1 X 2 ) − 1 ( X 2 M 1 Yc − λ γ ' W ) γ = 0
Logo:
X 2 ' M 1 Yc γ
λ=
γ'W γ
(39) − Π 2 γ γ 'W
Π2 = Π
γ 'W γ
2
onde:
= ( X ' M X ) −1 X ' M Y
Π 2 2 1 2 2 1 c
27
A equação (37) implica em que Π2 λ = 0. Substituindo-se os valores de Π2 e λ
obtidos anteriormente nesta expressão, resulta que:
'
æˆ Πˆ γ γ 'W ö X 2 'M 1Yc
÷ γ 'W γ γ = 0
çΠ2− 2 ÷
ç γ 'W γ
è ø
ou alternativamente:
onde:
) ' M (Y − X Π
W = ( Yc − X 2 Π )
2 1 c 2 2
e denominando-se por:
θ = γ 'W γ
' X 'M Y γ
θ1 = γ ' Π 2 2 1 c
æ θWö
(41) ç Yc 'M 1Yc −Wˆ − 1 ÷γ =0
è θ ø
(42) W = W + θ − 2 θ1 W γ γ ' W
W γ = W γ + θ − 2 θ1 W γ γ ' W γ
e daí obtém-se:
1
(43) Wγ= W γ
1−φ
onde φ = θ1/θ
28
φ
( Yc ' M 1 Yc − W − W) γ = 0
1−φ
Alternativamente:
( Yc ' M 1 Yc − µ W ) γ = 0
ou ainda:5
(44) ( Yc M 1 Yc − µ Yc ' M Yc ) γ = 0
onde µ = 1 / 1 − φ . Para que este sistema de equações tenha uma solução diferente da solução
trivial γ = 0 é necessário que o valor de µ seja tal que:
Yc M 1 Yc − µ Yc ' M Yc = 0
W γ γ ' W
W = W + θ −2 θ1
(1 − φ ) 2
γ ' W γ = 1
γ ' W γ 1
θ = γ'W γ = =
1−φ 1−φ
29
Com esses dois últimos resultados a expressão anterior de W transforma-se em:
(45) W = W + ( µ − 1) W γ γ ' W
pois θ1 = φ θ = µ-1.
C' W C = I
(46) = C 2 W = 1
C ' WC
Por outro lado, pré-multiplicando-se (45) por C' e pós-multiplicando-a por C
obtemos:
+ ( µ − 1) C ' W γ γ ' WC
C ' W C = C ' WC
k (k ) (k )
que é igual a:
C ' W C = I + ( µ k − 1) ek ek'
em virtude da regra de normalização e do fato que C' W γ(k) = ek, onde ek ' = ( 0 , K1, K , 0 ) ,
com o valor 1 na késima posição. Segue-se, então, que:
C' W C = µ k
W = µ k W
30
Estimador de Máxima Verossimilhança de Informação Limitada: Enfoque de Minimização
da Razão da Variância
γ ' Yc ' M 1 Yc γ
µ=
γ ' Yc ' M Yc γ
Esta expressão pode ser interpretada de uma maneira bastante interessante. Com
efeito, como
(47) Yc γ = X 1 β1 + µ 1
Se γ fosse conhecido, a soma dos quadrados dos resíduos desta regressão seria igual a :
Yc γ = Y1 β1 + X 2 β 2 + u1 ,
Como o vetor de coeficientes β2 é igual a zero, uma idéia de certo modo intuitiva é
obter o valor de γ que minimiza a razão das somas dos quadrados dos resíduos, de sorte a se
obter o menor valor para µ. Consequentemente, derivando-se µ em relação a γ,
( Yc ' M 1 Yc − µ Yc ' M Yc ) γ = 0
que nada mais é do que a equação (44). Uma vez determinado o valor de γ a estimativa de
β1 é facilmente calculada através de:
β 1 = ( X 1 ' X 1 ) −1 X 1 ' Yc γ
31
Vale ressaltar que estas duas propriedades mencionadas asseguram a consistência
dos estimadores de mínimos quadrados ordinários dos parâmetros das equções de um
modelo recursivo.
Q1 δ 1 = π 1
δ 1 = ( Q1 ' Q1 ) −1 Q1 ' π 1
(19) $ MD
Q$1 = Π ,
2
éI ù
D=ê ú
ë0 û
δ 1 = Q1 −1 π 1
32
Cuidemos, agora, de obter expressões algébricas para o estimador δ 1 em função das
matrizes de observações X e y1 M Y1 . Usamos a relação (19) para escrever o estimador δ 1
da seguinte forma:
−1
éΠˆ 'D Π ˆ 2 ' D ù éΠˆ '2 ù
δˆ1 =ê 2 ú πˆ
Πˆ 2 D' D ë D' úû 1
ê
ë D ' û
−1
éY1' X ( X ' X ) −2 X ' Y1Y1' X ( X ' X ) −2 X ' X 1 ù
(22) δ 1 =ê '
ˆ
−2
ú
ëê X 1 X ( X ' X ) X ' Y1 I ûú
= D ' ( X ' X ) −1 X ' Y = D ' X ' X ( X ' X ) −1 ( X ' X ) −1 X ' Y = X ' X ( X ' X ) −2 X ' Y
D' Π 2 1 1 1 1
$ .
tendo em vista que D'X'= X 1' . De maneira similar calcula-se o produto D' Π 1
Usando-se uma notação mais simples a expressão (22) pode ser escrita como:
−1
(23) δˆ1 = Z1' X ( X ' X ) −2 X ' Z1 Z1' X ( X ' X ) −2 X ' y1
pois D'D = I.
Propriedades do Estimador δ 1
Substituímos o valor de y1, dado pelo lado direito do segundo sinal de igualdade de
(10), em (23), obtemos:
−1
(24) δ 1 = δ 1 + Z1' X ( X ' X ) −2 X ' Z1 Z1' X ( X ' X ) −2 X ' u1
6Essas hipóteses estão listadas em H.Theil (1971), Principles of Econometrics, John Wiley, capítulo 10.
33
−1
é Z1' X æ X ' X ö −2 X ' Z1 ù
limp ê ç ÷ ú é finita, e
ëê T è T ø T ûú
limp δ 1 = δ 1
−1
é Z1' X æ X ' X ö −2 X 'Z1 ù Z1' X æ X ' X ö −2 X ' u1
T (δ 1 −δ 1 ) =ê
ˆ ç ÷ ú ç ÷
ëê T è T ø T ûú T è T ø T
Por outro lado, as hipóteses a que nos referimos abaixo da expressão (24) nos
possibilita afirmar que:
−1
é Z1' X æ X ' X ö −2 X ' Z1 ù Z1' X æ X ' X ö −2
limp ê ç ÷ ú ç ÷ =G
ëê T è T ø T ûú T è T ø
onde G é uma matriz cujos elementos são finitos. Em seguida, lançamos mão do teorema
que afirma que a distribuição assintótica de X ' u1 / T é normal com valor esperado zero e
æ X'X ö
matriz de variância-covariância igual a σ11 limp ç ÷ . Podemos, então, concluir que a
è T ø
distribuição assintótica de é T ( δ 1 − δ 1 ) é normal com média zero e matriz de variância-
covariância, Var δ 1 , igual a:
é æ X'X öù
(25) σ 11 G êlimpç ÷úG '=Varδˆ1
ë è T øû
A estatística
1
(26) s11 = ( y1 − Z1 δ 1 )' ( y1 − Z1 δ 1 )
T
34
é um estimador consistente da variância σ11. A prova dessa propriedade é bastante simples.
Substituindo-se (10) na expressão anterior obtemos:
u1' u1 u1' Z1 ( δ 1 − δ 1 )' Z1' u1 Z1' Z1
s11 = − ( δ1 − δ1 ) − + ( δ 1 − δ 1 )' ( δ1 − δ1 )
T T T T
u1' u1
limp s11 = limp = σ 11
T
éΠ ù
y1 =[ X 1MX 2 ]ê 11 ú+v1
ëΠ12 û
éΠ11 ù éΠ 21 I ù éγ 1 ù
êΠ ú = êΠ 0 ú ê β ú
ë 12 û ë 22 û ë 1 û
éΠ I ù éγ 1 ù
y1 =[ X 1MX 2 ]ê 21 +v1
ëΠ 22 0úû êë β1 úû
35
Entretanto, devido ao fato de que Π21 e Π22 serem parâmetros que têm de ser
estimados, visto não serem conhecidos a priori, o estimador acima não pode ser aplicado na
prática. Todavia, o problema é facilmente contornado usando-se a matriz
éΠ
ˆ Iù
Qˆ1 =ê 2 ú
ëΠ 22
ˆ 0û
eΠ
ao invés da matriz Q1, onde Π são os estimadores de mínimos quadrados da forma
21 22
reduzida do modelo. Dessa maneira, obtemos o estimador de mínimos quadrados em duas
etapas:
−1
δ 1 = Q1 ' X ' X Q1 Q1 ' X ' y1
−1
éΠˆ 'X ' X Π
2
ˆ Π
2
ˆ 'X ' X Dù
2
éΠˆ X 'ù
2
~ ê ú ê ú
δ 1 =ê ú ê úY1
ê D' X ' X Π
ˆ D' X ' X D ú ê D' X ' ú
ë 2 û ë û
−1 −1 −1
~ éY ' X ( X ' X ) X ' Y1Y1 ' X 1 ù éY1 ' X ( X ' X ) X 'ù
δ 1 =ê 1 ú ê ú y1
ë 1 1 1 1
X '
Y X ' X û ë 1
X ' û
Alternativamente, essa expressão pode ser escrita de maneira mais compacta do seguinte
modo:
−1
δ 1 = Z1 ' X ( X ' X ) −1 X ' Z1 Z1 ' X ( X ' X ) −1 X ' y1
= X ( X ' X ) −1 X ' Y
Y1 = X Π 2 1
Como,
Y1 ' Y1 = Y1 ' X ( X ' X ) −1 X ' X ( X ' X ) −1 X ' Y1 = Y1 ' X ( X ' X ) −1 X ' Y1
e:
Y1 ' X 1 = Y1 ' X ( X ' X ) −1 X ' X 1 = Y1 ' X ( X ' X ) −1 X ' XD = Y1 ' X D = Y1 ' X 1
36
Segue-se que:
−1
éYˆ1 ' Yˆ1Yˆ1 ' X 1 ù éYˆ1 ' ù
~ ê ú ê ú
δ 1 =ê ú ê ú y1
ê X ' Yˆ X ' X ú ê X 'ú
ë 1 1 1 1û ë 1û
Pode-se provar, de maneira análoga ao que foi feito para o estimador indireto
generalizado de mínimos quadrados, que o estimador de mínimos quadrados em duas
estapas é consistente, limp δ i = δ 1 , e que T ( δ 1 − δ 1 ) tem uma distribuição asintótica
normal com média zero e matriz de variância-covariância igual a:
−1 −1
éæ Z ' X öæ X ' X ö æ X ' Z1 öù
σ 11 limpêç 1 ÷ç ÷ ç ÷ú
êëè T øè T ø è T øúû
Portanto, os erros padrões da estimativa dos elementos do vetor δ 1 são dados pelas
raízes quadradas dos elementos da diagonal principal da matriz:
−1
s11 Z1 ' X ( X ' X ) −1 X ' Z1
37
onde u1 = y1 − Y1 γ 1 − X 1 β 1 .
Alternativamente:
Como
limp σ 11 ≠ σ 11
V1 = I − X ( X ' X ) −1 X V1 = M V1
Logo,
ou ainda:
−1
Vˆ1 'Vˆ1 V1 'V1 V1 ' X æ X ' X ö X 'V1
limp =limp −limp ç ÷
T T T è T ø T
Em virtude de
38
V1 ' X
limp =0
T
U'X
pois VΓ = U e limp = 0, segue-se que:
T
onde u1 = y1 − Z1 δ 1 = N u1 , e
−1
N = I − Z1 Z1 ' X ( X ' X ) −1 X ' Z1 Z1 ' X ( X ' X ) −1 X '
v1 − V1 γ 1 = u1
Consequentemente:
v1 'V1 V 'V
limp σ 11 = σ 11 + 2 ( limp ) γ 1 − γ 1 ' ( limp 1 1 ) γ 1
T T
E U' U = Σ
39
év1 ' ù év1 ' v1 v1 'V1 v1 'V2 ù
E êV1 ' ú[v1MV2MV2 ]=E êêV1 ' v1V1 'V1V1 'V2 úú
ê ú
êëV2 'úû êëV2 ' v1V2 'V1V2 'V2 úû
que é igual a:
Portanto:
v1 'V1
limp = Ω12
T
V1 'V1
limp = Ω 22
T
[ y1MY1 ]éê
1 ù
ú = X 1 β1 +u1
ë−γ 1 û
ou:
(28) Yc γ = X 1 β1 + u1
onde:
é1 ù
Yc =[ y1MY1 ]eγ =ê ú
ë−γ 1 û
40
A equação (11), da forma reduzida do modelo de equações simultâneas,permite
escrever7
(29) Yc = X 1 Π 1 + X 2 Π 2 + Vc
onde:
Π 1 = Π 11 Π 21
Π 2 = Π 12 Π 22
Vc = v1 V1
Π 11 = Π 21 γ 1 + β1
Π 12 = Π 22 γ 1
(30) Π 1 γ = β1
(31) Π2 γ = 0
onde exp( ) indica o número natural e elevado ao termo entre parênteses e o símbolo tr
representa o traço da matriz.
Como o Jacobiano da transformação de Vc para Yc é igual a 1, o logaritmo da
função de densidade de probabilidade de Yc é igual a:
L1 T T
log p ( Yc / Π 1 , Π 2 , Ω c , X ) = − log 2 Π − log Ω c
(32) 2 2
1
− tr ( Yc − X 1 Π 1 − X 2 Π 2 )' ( Yc − X 1 Π 1 − X 2 Π 2 ) Ω c− 1
2
7Mudamos, por conveniência, a notação adotada até aqui: o símbolo Π2 representa agora outra matriz.
41
(33) l = log p ( Π 1 , Π 2 , Ω c / Yc , X )
log p ( Π 1 , Π 2 , Ω c / Yc , X )
sujeito a restrição:
Π2 γ = 0
∂l 1
= − ( −2 Ω c− 1 ) ( Yc − X 2 Π 2 )' X 1 − Π 1 ' Y1 ' X 1 = 0
∂ Π1 2
∂l T 1
−1
= Ω c − Vc 'Vc = 0
∂ Ωc 2 2
Portanto,
= ( X ' X ) −1 X '( Y − X Π )
Π 1 1 1 1 c 2 2
Vc 'Vc
Ωc =
T
8Aplicamos aqui os seguintes resultados:
∂ tr
( Y − X Π )' ( Y − X Π ) Ω −1 = − 2 Ω − 1 ( Y ' X − Π ' X ' X )
∂Π
∂ log
Ωc = − Ωc
∂ Ω c −1
∂ tr
V 'V Ω − 1 = Vc 'Vc
−1 c c
∂Ω
−1
e derivamos em relação a Ω c , ao invés de Ωc, pois a derivada é mais fácil e a propriedade de invariância do
método de máxima verossimilhança permite que isto seja feito.
42
Como
Vc = Yc − X 1 Π 1 − X 2 Π 2 = Yc − X 1 ( X 1 ' X 1 ) − 1 X 1 '( Yc − X 2 Π 2 ) − X 2 Π 2
= I − X 1 ( X 1 ' X 1 ) −1 X 1 ' ( Yc − X 2 Π 2 ) = M 1 ( Yc − X c Π 2 )
Vc 'Vc ( Yc − X 2 Π 2 )' M 1 ( Yc − X 2 Π 2 )
Ωc = =
T T
L1T T ( Y − X 2 Π 2 )' M 1 ( Yc − X 2 Π 2 1
log p ( Π 2 / Yc , X ) = − log 2 Π − log c − tr I
2 2 T 2
minimizar
log ( Yc − X 2 Π 2 ) ' M 1 ( Yc − X 2 Π 2 )
Π2 γ = 0
∂L
(35) = 2 ( X 2 ' M 1 Yc − X 2 ' M 1 X 2 Π 2 ) W − 1 − 2 λ γ ' = 0
∂ Π2
∂L
(36) = 2 Π2 γ = 0
∂λ
43
∂L
(37) = − 2 Π2 ' λ = 0
∂γ
onde W = ( Yc − X 2 Π 2 ) ' M 1 ( Yc − X 2 Π 2 ) .
( X 2 ' M 1 X 2 ) − 1 ( X 2 M 1 Yc − λ γ ' W ) γ = 0
Logo:
X 2 ' M 1 Yc γ
λ=
γ'W γ
(39) − Π 2 γ γ 'W
Π2 = Π
γ 'W γ
2
onde:
= ( X ' M X ) −1 X ' M Y
Π 2 2 1 2 2 1 c
'
æˆ Πˆ γ γ 'W ö X 2 'M 1Yc
÷ γ 'W γ γ = 0
çΠ2− 2 ÷
ç γ 'W γ
è ø
ou alternativamente:
onde:
44
) ' M (Y − X Π
W = ( Yc − X 2 Π )
2 1 c 2 2
e denominando-se por:
θ = γ 'W γ
' X 'M Y γ
θ1 = γ ' Π 2 2 1 c
æ θW ö
(41) ç Yc 'M 1Yc −Wˆ − 1 ÷γ =0
è θ ø
(42) W = W + θ − 2 θ1 W γ γ ' W
W γ = W γ + θ − 2 θ1 W γ γ ' W γ
e daí obtém-se:
1
(43) Wγ= W γ
1−φ
onde φ = θ1/θ
φ
( Yc ' M 1 Yc − W − W) γ = 0
1−φ
Alternativamente:
( Yc ' M 1 Yc − µ W ) γ = 0
ou ainda:10
45
(44) ( Yc M 1 Yc − µ Yc ' M Yc ) γ = 0
onde µ = 1 / 1 − φ . Para que este sistema de equações tenha uma solução diferente da solução
trivial γ = 0 é necessário que o valor de µ seja tal que:
Yc M 1 Yc − µ Yc ' M Yc = 0
W γ γ ' W
W = W + θ −2 θ1
(1 − φ ) 2
γ ' W γ = 1
γ ' W γ 1
θ = γ'W γ = =
1−φ 1−φ
(45) W = W + ( µ − 1) W γ γ ' W
pois θ1 = φ θ = µ-1.
C' W C = I
46
(46) = C 2 W = 1
C ' WC
Por outro lado, pré-multiplicando-se (45) por C' e pós-multiplicando-a por C
obtemos:
+ ( µ − 1) C ' W γ γ ' WC
C ' W C = C ' WC
k (k ) (k )
que é igual a:
C ' W C = I + ( µ k − 1) ek ek'
em virtude da regra de normalização e do fato que C' W γ(k) = ek, onde ek ' = ( 0 , K1, K , 0 ) ,
com o valor 1 na késima posição. Segue-se, então, que:
C' W C = µ k
W = µ k W
γ ' Yc ' M 1 Yc γ
µ=
γ ' Yc ' M Yc γ
Esta expressão pode ser interpretada de uma maneira bastante interessante. Com
efeito, como
(47) Yc γ = X 1 β1 + µ 1
Se γ fosse conhecido, a soma dos quadrados dos resíduos desta regressão seria igual a :
47
Yc γ = Y1 β1 + X 2 β 2 + u1 ,
Como o vetor de coeficientes β2 é igual a zero, uma idéia de certo modo intuitiva é
obter o valor de γ que minimiza a razão das somas dos quadrados dos resíduos, de sorte a se
obter o menor valor para µ. Consequentemente, derivando-se µ em relação a γ,
( Yc ' M 1 Yc − µ Yc ' M Yc ) γ = 0
que nada mais é do que a equação (44). Uma vez determinado o valor de γ a estimativa de
β1 é facilmente calculada através de:
β 1 = ( X 1 ' X 1 ) −1 X 1 ' Yc γ
48