Y i =b 1 +b 2 X i +e t i = 1 n
b 1 = y - b 2x
n
å (x
i =1
i -x )( y i - y )
b2= n 2
å (x
i =0
i -x )
Preuves. La première méthode consiste à remarquer que la fonction S (b 1 ,b 2 )
est strictement convexe, donc qu’elle admet un minimum en un unique point
ìdS n
ï = - 2å y i - b 1 - b 2 x i = 0
( )
ïd b 1 i =1
í
ïdS n
ï = - 2å x i y i - b 1 - b 2 x i = 0
( )
ïî d b 2 i =1
i =1 i =1 i =1
i =1
å(
i =0
xi - x )
La consistance de la méthode d estimation
Théorème 1 (Estimateurs sans biais)
Preuve
1 æn ö
E b1( ) ( = E y - b 2 x = E y - E b 2 x = E çå y i ÷ - b 2 x
) () ( )
n è i =1 ø
1 æn ö
E çå b 1 +b 2 x i ÷ - b 2 x =b 1 - b 2 x i +b 2 x i =b 1
n è i =1 ø
æn ö æn ö
ç å x i - x y i - y ÷ E çå x i - x y i - y ÷
( )( ) ( )( )
= E çç i =1 n ÷ = è i =1 ø
E b ( ) 2
çç å
2 ÷
÷ å
n 2
è i =0
xi - x ÷
ø ( i =0
xi - x ) ( )
n n n
å (x
i =1
i )
- x E (yi ) å (x
i =1
i -x ) (b 0 +b 1x i ) å (x
i =1
i )
- x b 1x i
= n 2
= n 2
= n 2
=
å (x
i =0
i -x ) å (x
i =0
i -x ) å (x
i =0
i -x )
n n 2
=
å (x
i =1
i ) (
- x b 1 xi - x ) =b å (x - x )
1
i =0
i
=b 1
n 2 n 2
å (x
i =0
i -x ) å (x - x )
i =0
i
è i =0
( ) ÷
ø i =0
(x i -x )
Preuve
2
( ) (
var b 1 = var y - b 2 x = var y + x ) ( ) ( ) var (b ) 2
æ ö
2 2 ç 2 ÷
s s 1 x
= çç + n ÷s
2
=
n
+ x() n 2
çç n å x i - x
2 ÷
2
å (x
i =0
i -x ) è i =0
( ) ÷
÷
ø
æn ö
çå x i - x y i - y ÷
( )( )
( )
var b 2 = var çç i =1 n 2
÷
÷
çç
è
å
i =0
xi - x ÷
÷
ø ( )
1 æn ö
= var çå x i - x ( )( yi - y ÷ )
æn 2ö
2
è i =1 ø
çå ( xi - x ÷ )
è i =0 ø
n 2
å (x
i =1
i ) var ( y - y ) = s
-x i 2
=
æ ö 2 n 2
å (x
n
çå ( x - x ) ÷
è i =0 ø
i
2
i =0
i -x )
2
s x
cov b 1 ,b ( 2 ) =- n
å (x
2
i =0
i -x )
Preuve
2
(
cov b 1 ,b 2 ) (
= cov y - b 2 x ,b 2 ) (
= cov y ,b 2 ) ( ) cov (b ,b )
- x 2 2
2
= cov y ,b ( 2 ) ( ) var (b )
- x 2
æ n ö
ç å xi - x yi - y ÷ ( )( )
cov y ,b ( 2 ) = cov çç y , i =1 n 2
÷
÷
çç
è
å
i =0
xi - x ÷
÷
ø ( )
1 æn ö
= n
cov çå x i - x ( )( )
yi - y ;y ÷
2
è i =1 ø
å(
i =0
xi - x )
1 æn ö
= n
cov çå i x - x y i ; y ÷= ( )
2
è i =1 ø
å(
i =0
xi - x )
1 æn n ö
= n
cov çå x i - x y i ; å y i ÷ ( )
nå
2
è i =1 ø
i =0
( xi - x ) i =0
1 n
= n 2 å (x i ) (
- x cov y i ; y j )
nå x i - x ( ) j ;i =0
i =0
On a
(
cov y i ; y j = E) ( (
( y i - Ey i ) y j - Ey j )) = E (e ie i) =s 2
d ij
Donc
( )
cov y ,b 2 = 0
2 2
cov (b ,b ) = cov ( y ,b ) - ( x ) var (b ) = - ( x ) var (b )
1 2 2 2 2
2
s x
cov (b ,b ) = -1 2 n 2
å x -x i =0
( i )
Théorème 1.3 (Gauss-Markov)
Parmi les estimateur sans biais linéaires en Y les estimateurs b 1 et b 2 variance
minimale.