• Définition et exemple
• Avantages et inconvénients
Définition (1)
Un panel : des observations sur un
ensemble d’individus à plusieurs moments du
temps
Individus = unité statistique observée
(consommateur, firme, région, etc.)
Exemples :
Enquêtes revenus sur les ménages : un
échantillon de ménages est observé sur plusieurs
années
Séries de PIB par tête pour les pays de l’OCDE
observés sur plusieurs années
Définitions (2) : exemple
France Allemagne … Italie
(i=1) (i=2) (i=30)
• Un modèle général
• Différents schémas de variation des
paramètres
• Rappels:
• Le produit Kronecker
• MCO, MCG purs et MCG réalisables
Un modèle général (1)
Modèle général, où les coefficients
varient dans le temps et/ou par individu
yit it x1,it 1,it ... xK ,it K ,it it
K
yit it xk ,it k ,it it
k 1
1 4 2
3
Un modèle général (2)
Deux problèmes :
Aucun pouvoir explicatif
Cette expression n’est pas estimable (NT
observations et NT(K+1) paramètres à estimer)
On doit munir cette expression d’une
structure :
1 : Nature des variables explicatives
2 : Distribution des erreurs
3 : La relation entre les deux
4 : le degré de variabilité des coefficients de
régression
Un modèle général (3)
Hypothèses :
1 : les variables explicatives sont non-
stochastiques et les matrices correspondantes
sont de rang complet
3 : les variables explicatives sont indépendantes
des erreurs
Les différentes hypothèses sur la
distribution des erreurs (2) et le degré
de variabilité des coefficients (4)
conduisent aux principaux modèles de
panel.
Modèle I : Régression
ordinaire (1)
Hypothèses :
it
H 4 (I) :
k ,it k k 1,...K
H
2 (I) : it iid (0, 2
)
Le modèle :
K
yit xk ,it k it
k 1
Modèle I : Régression
ordinaire (2)
Les hypothèses de la régression
classique sont vérifiées
On peut estimer le modèle par les MCO
Avantages :
Simplicité des calculs
Modèle parcimonieux
Inconvénient :
Admettre l’uniformité des comportements et
l’homogénéité des observations, c’est nier toutes
sortes d’hétérogénéités
Modèle II : Régressions
individuelles (1)
Hypothèses :
it i
H 4 (II) :
k ,it k ,i k 1,...K
H
2 (II) : it iid (0, 2
)
Le modèle :
K
yit i xk ,it k ,i it
k 1
Modèle II : Régressions
individuelles (2)
Les hypothèses de la régression classique sont
vérifiées équation par équation
On peut estimer chaque équation individuelle par les MCO
Avantages :
Modélisation parfaite de l’hétérogénéité individuelle
Simplicité des calculs
On peut tester l’uniformité des comportements
Inconvénients :
Un grand nombre de paramètres à estimer
L’estimation individuelle n’est possible que si T > K + 1
Néglige toutes sortes d’interdépendances des
comportements individuels
Modèle III : Modèle SUR
de Zellner (1)
Hypothèses :
H 4 (III) H 4 (II)
E ( it ) 0
V ( it ) i i 1,... N
2
Cov( , ) 0 t s, i, j
it js
Inconvénient :
Lorsque N est grand, le nombre de paramètres à
estimer est prohibitif :
K paramètres pour
N paramètres pour les effets fixes
Modèle V : Modèle à erreurs composées ou
modèle à effets aléatoires (1)
Hypothèses :
H 4 (V) H 4 (I)
it ui wit
wit iid (0, w )
2
H 2 (V) :
u
i iid (0, 2
u)
w , u indépendants
it i
L’effet individuel n’est plus un paramètre fixe
à estimer mais une variable aléatoire non
observable
Effets fixes ou effets aléatoires?
Le choix entre effets fixes et effets
aléatoires dépend des
considérations suivantes :
La nature de l’effet individuel
Le nombre d’unités statistiques
La nature de l’échantillon
Le type d’induction qu’on veut faire
Modèle VI: Modèle à coefficients
aléatoires
Hypothèses :
i ui
H 4 (II) :
k ,i k u k ,i
H
2 (II) : it iid (0, 2
i )
H 0 : i et i
H0 rejetée H0 vraie
H 0 : i yit xit' it
Panel homogène
H0 rejetée H0 vraie
yit i xit' i it H 0 : i
Panel hétérogène
H0 vraie H0 rejetée
am1 B am 2 B amn B
1:( A B) C A C B C
2 : ( A B) ' A ' B '
3 : ( A B)(C D) AC BD
1 1 1
4 : ( A B) A B
Rappels (2) : MCO et MCG –
Hypothèses des MCO
Soit le modèle de régression :
Y( N ,1) X ( N , K ) ( K ,1) ( N ,1)
3 corps d’hypothèses :
Sur les variables explicatives : non-
stochastiques et de rang complet
Sur les erreurs : E ( ) 0 et E ( ') 2 I N
Indépendance entre les erreurs et les
variables explicatives
Rappels (2) : MCO et MCG –
Estimation par les MCO
On minimise la somme des carrés des
résidus : SS ' ( y X )( y X ) '
Le résultat : ˆ ( X ' X ) 1 X 'Y
Propriétés :
Estimateur centré : E ( ˆ )
Estimateur BLUE
Estimateur convergent
Rappels (2) : MCO et MCG –
Hypothèses des MCG purs
Soit le modèle de régression :
Y( N ,1) X ( N , K ) ( K ,1) ( N ,1)
Mêmes hypothèses que la régression
classique sauf :
Sur les erreurs :
V ( ) ( ') 2V
On suppose V connue et définie-positive
Rappels (2) : MCO et MCG –
Estimation par les MCG purs
Si on applique les MCO, l’estimateur des MCO reste
centré mais n’est plus efficient.
L’estimateur des MCG :
ˆMCG ( X 'V 1 X )1 X 'V 1Y
paramètres inconnus.
Les MCG réalisables – 2 étapes :
1ère étape : on estime de façon convergente le
vecteur de paramètres inconnus dont dépend V.
2ème étape : on applique les MCG avec ˆ qui
remplace
On démontre que sous des conditions
générales, les MCGR sont asymptotiquement
équivalents aux MCG purs
Modèles SUR de Zellner
• Spécification et hypothèses
• Estimation
• Tests
• Exemple sur E-Views 4
Motivations
SUR = Seemingly Unrelated Regressions
Grünfeld (1958) : étude de fonctions
d’investissement (5 firmes, période = 1935-
1954)
Les comportements d’investissement des
entreprises :
ne sont nécessairement les mêmes : paramètres
différents selon les entreprises
sont interdépendants : interdépendance captée
par le biais des erreurs
Spécification (1)
Structure matricielle du modèle :
Pour chaque individu i et chaque période t :
yit xit' i i
Pour chaque individu i :
yi X i i i
E ( it js ) 0 t s
D’une régression à l’autre :
E ( it jt ) ij t
Au total : V IT
H3 : Indépendance entre les variables explicatives et les
erreurs
Spécification (3)
Exemple : structure de la matrice de variances-
covariances pour 2 périodes et 3 individus :
11 I 2 12 I 2 13 I 2
V 21 I 2 22 I 2 23 I 2
31 I 2 32 I 2 33 I 2
11 0 12 0 13 0
0 0 0
11 12 13
21 0 22 0 23 0
V
0 21 0 22 0 23
31 0 32 0 33 0
0 31 0 32 0 33
Estimation (1)
Cas simple : V 2 I NT
Dans ce cas, on peut faire les MCO individuels
équation par équation :
ˆ ( X ' X ) 1 X ' Y