Академический Документы
Профессиональный Документы
Культура Документы
Ecole
des sciences de la gestion
Universite du Quebec a` Montreal
c
2014
: Steve Ambler
Automne 2014
Ces notes sont en cours de developpement. Jai besoin de vos commentaires et de vos suggestions pour
les ameliorer. Vous pouvez me faire part de vos commentaires en personne ou en envoyant un message a`
ambler.steven@uqam.ca.
Introduction
Objectifs du cours
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
. 9
. 10
.
.
.
.
10
11
12
17
.
.
.
.
17
18
18
18
19
.
.
.
.
.
.
.
20
20
20
22
23
23
24
28
Tests dhypoth`ese
8.1 Approche general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Hypoth`ese alternative bilaterale . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3 Hypoth`ese alternative unilaterale . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
41
42
42
45
51
12 Concepts a` retenir
56
13 References
56
Introduction
Objectifs du cours
Presenter le mod`ele de regression simple.
Deriver lestimateur moindres carres ordinaires (MCO).
Etudier
les proprietes algebriques de cet estimateur.
Etudier
la mesure habituelle de lajustement statistique, le R2 .
Regarder les hypoth`eses statistiques derri`ere le mod`ele et analyser leurs consequences pour
lestimateur MCO (absence de biais, convergence, efficience).
Montrer labsence de biais de lestimateur MCO.
Deriver les proprietes e chantillonnales de lestimateur MCO et montrer sa convergence.
Distinguer entre les cas derreurs heteroscedastiques et erreurs homoscedastiques.
Montrer, sous les hypoth`eses dhomoscedasticite et normalite, lefficience de lestimateur
MCO (theor`eme Gauss-Markov).
Analyser les tests dhypoth`ese concernant les param`etres estimes du mod`ele.
Analyser le calcul dintervalles de confiance pour les param`etres estimes dans le cadre du
mod`ele.
Yi = 0 + 1 Xi + ui .
Lidee de base est quune variable e conomique Yi peut e tre predite ou explique par une autre variable e conomique Xi . La relation entre les deux variables est lineaire. Sans le terme ui , lequation
est lequation dune droite. Si on mesure Yi sur laxe vertical, 0 est lordonnee a` lorigine et 1 est
la pente de la droite. On peut penser au param`etre 0 comme e tant associe a` une deuxi`eme variable
explicative qui est une constante quon normalise pour e tre e gale a` un. Autrement dit, on aurait pu
e crire le mod`ele comme
Yi = 0 1 + 1 Xi + ui .
Le mod`ele de regression simple contient une constante par defaut. Il est possible aussi detudier le
mod`ele suivant :
Yi = Xi + ui .
Ce mod`ele, sans constante, a des proprietes statistiques assez differentes. Pour ceux qui sinteressent
a` poursuivre ce sujet, voir Windmeijer (1994), ou Eisenhauer (2003).
On appelle communement Yi la variable dependante du mod`ele de regression, et on appelle
Xi la variable explicative du mod`ele de regression.
dequations lineaires. Il est tr`es facile de resoudre un syst`eme de deux e quations lineaires.
2. Deuxi`ement, sous certaines conditions (`a voir plus tard), lestimateur MCO des coefficients 0 et 1 est lestimateur avec la plus petite variance parmi tous les estimateurs
lineaires et non biaises autrement dit, il est lestimateur le plus efficient parmi les
estimateur lineaires non biaises.
Le probl`eme de minimisation peut secrire comme suit.
min
0 ,1
n
X
(Yi 0 1 Xi )2 .
i=1
Les conditions du premier ordre (CPOs) pour ce probl`eme sont comme suit. Dabord par
rapport au choix de 0 :
2
n
X
Yi 0 1 Xi = 0.
i=1
n
X
Yi 0 1 Xi Xi = 0,
i=1
o`u jai e crit un chapeau sur 0 et 1 pour souligner le fait quil sagit de nos estimateurs
MCO, cest a` dire les solutions au probl`eme de minimisation. 1
Il sagit de deux e quations o`u les deux inconnus sont 0 et 1 .
Il est facile disoler 0 en fonction de 1 et par la suite de trouver la solution pour 1 .
Nous avons a` partir de la premi`ere CPO :
n
X
Yi 0 1 Xi = 0
i=1
n
X
0 = n 0 =
i=1
n
X
Yi 1 Xi
i=1
1. En principe, il faudrait verifier les conditions du deuxi`eme ordre pour savoir que nous avons trouve un minimum
et non un maximum. Nous nallons pas faire cet exercice ici.
0 =
1X
1X
Yi 1
Xi
n i=1
n i=1
0 = Y 1 X.
1 Xi Xi = 0.
Yi Y + 1 X
i=1
1
n
1X
1X
1X
1X
1 (Xi )2 +
1 XXi = 0
Yi Xi
Y Xi
n i=1
n i=1
n i=1
n i=1
n
1X
1X
Yi Xi Y
Xi
n i=1
n i=1
1
n
n
1X
1X
2
(Xi ) X
Xi
n i=1
n i=1
!
=0
1X
Yi Xi Y X
n i=1
n
1X
X
(Xi )2 X
n i=1
1 =
1 =
1
n
1
n
1
n
Pn
!
=0
Yi Xi X Y
Pi=1
n
2
2
i=1 (Xi ) X
Pn
i=1 Yi Y
Pn
1
i=1 Xi
n
Xi X
.
2
X
X
1X
Y = 1
Yi Xi X
Yi Y Xi X
n i=1
n i=1
7
et
n
X
1X
2 = 1
2.
(Xi )2 X
Xi X
n i=1
n i=1
Ceci est facile a` montrer. Nous avons
n
1X
Yi Y Xi X
n i=1
n
1X
Xi Y + X
Y
Yi Xi Yi X
n i=1
n
1X
1X 1X
1X
Yi Xi
Yi X
Xi Y +
XY
n i=1
n i=1
n i=1
n i=1
n
X
1X
1X
n
1
Y
=
Yi X i X
Yi Y
Xi + X
n i=1
n i=1
n i=1
n
n
1X
Y Y X
+X
Y
=
Yi Xi X
n i=1
n
1X
Y .
Yi Xi X
=
n i=1
La preuve pour le denominateur est semblable.
Cest une premi`ere facon dexprimer la solution. Multipliant numerateur et denominateur
par n nous avons aussi
1 =
Pn
Yi Y
i=1
Xi X
.
2
Xi X
Pn
i=1
Cest une deuxi`eme facon dexprimer la solution. Maintenant, divisant numerateur et denominateur
par (n 1) nous avons aussi
1 =
1
(n1)
Pn
i=1
1
(n1)
Yi Y
Pn
i=1
Xi X
.
2
Xi X
4.1
Lestimateur MCO poss`ede quelques proprietes de base que nous allons demontrer dans
cette section.
Nous allons par la suite nous servir de ces proprietes a` maintes reprises par la suite pour
trouver dautres proprietes de lestimateur MCO.
Jappelle ces proprietes les proprietes algebriques puisquelles ne dependent pas dhypoth`eses concernant les proprietes statistiques des variables aleatoires Y , X ou u.
Autrement dit, pour nimporte quelles series de donnees sur deux variables X et Y , ces
proprietes doivent tenir. On na meme pas besoin de supposer que X et Y sont des variables
aleatoires en bonne et due forme.
Plusieurs de ces proprietes dependent du fait que le mod`ele de regression inclut une constante.
Pour le cas de mod`eles qui nincluent pas une constante, voir larticle de Windmeijer
(1994), ou encore celui dEisenhauer (2003).
4.1.1
Definissons
ui Yi 0 1 Xi ,
le residu de la regression pour lobservation i.
Nous voulons montrer que :
n
1X
ui = 0.
n i=1
Voici la preuve.
n
1X
1 X
Y i Y + 1 X 1 Xi
ui =
n i=1
n i=1
n
4.1.2
1X
1X
= 0.
Yi Y 1
Xi X
n i=1
n i=1
Definissons
Yi 0 + 1 Xi ,
la valeur predite de Yi .
Nous voulons montrer que :
n
1X
Yi = Y .
n i=1
Voici la preuve :
Yi Yi ui
n
1X
1X
1X
1X
Yi =
Yi
ui =
Yi Y .
n i=1
n i=1
n i=1
n i=1
10
4.1.3
Xi ui = 0.
i=1
n
X
u1
u2
X 0 U = 0.
..
.
un
. . . Xn
Xi ui =
X1 X2
i=1
Donc cest la definition habituelle dorthogonalite entre deux vecteurs en alg`ebre lineaire.
Nous verrons plus loin quil y a aussi une interpretation geometrique.
Voici la preuve :
n
X
Xi ui =
n
X
i=1
Xi ui X
i=1
n
X
n
X
ui
i=1
ui
Xi X
i=1
n
X
Xi X
1 Xi
Yi Y + 1 X
i=1
n
X
Xi X
Y i Y 1 Xi X
i=1
n
X
Xi X
n
X
2
Yi Y 1
Xi X
i=1
i=1
n
X
Xi X
i=1
11
Yi Y
Pn
i=1
Pn
i=1
n
X
n
Yi Y X
2
Xi X
2
Xi X
Xi X
Xi X
i=1
n
X
Yi Y
Yi Y
Xi X
i=1
i=1
= 0.
Lorthogonalite est reliee a` linterpretation geometrique de la methode des MCO. Estimer
un mod`ele par MCO revient a` projeter la variable dependante dans lespace traverse par la
variable explicative (ou les variables explicatives dans le cas de la regression multiple).
Le principe est illustre par la Figure 1 ci-dessous. Nous constatons sur le graphique que si
nous prenons la ligne de regression comme un vecteur, la ligne pointillee sur le graphique
est un vecteur dont la longueur e gale la valeur de ui a` ce point. Il forme un angle droit par
rapport a` la ligne de regression, do`u le terme orthogonal .
Pour ceux qui veulent aller plus loin, tout ce quon pourrait vouloir savoir concernant linterpretation geometrique de la regression simple se trouve dans larticle de Davidson et
MacKinnon (1999).
Figure 1
4.2
Definissons :
TSS
n
X
i=1
12
Yi Y
2
SSR
n
X
Yi Yi
2
i=1
ESS
n
X
Yi Y
2
i=1
n
X
Yi Y
2
i=1
n
X
2
Yi Yi + Yi Y
i=1
n
X
Yi Yi
2
n
X
2
i=1
i=1
+2
Yi Y
n
X
Yi Yi
Yi Y
i=1
= SSR + ESS + 2
n
X
ui Yi Y
i=1
= SSR + ESS + 2
n
X
ui Yi 2Y
i=1
n
X
ui
i=1
= SSR + ESS + 2
n
X
ui Yi
i=1
= SSR + ESS + 2
n
X
i=1
13
ui 0 + 1 Xi
= SSR + ESS + 20
n
X
ui + 21
i=1
n
X
ui Xi
i=1
= SSR + ESS.
Notez que nous avons invoque a` quelques reprises les proprietes algebriques de lestimateur
MCO que nous avons dej`a demontrees.
Maintenant, definissons
R2
ESS
.
TSS
Puisque TSS, ESS et SSR sont la somme de termes au carre (et pour cette raison sont des
termes positifs sinon strictement positifs), il faut que :
0 R2 1.
SSR
.
TSS
R2 = Corr (X, Y ) .
Je demontre ici que lajustement statistique (dans le mod`ele de regression simple) doit e tre e gal
au carre du coefficient de correlation entre X et Y . Nous avons
2
Pn
i=1 Yi Y
R2 Pn
2
i=1 Yi Y
Nous avons aussi (en multipliant le numerateur et le denominateur dans la definition de la
correlation e chantillonnale par (n 1))
Corr (X , Y )
2
2
Yi Y
i=1 Xi X
q
2 Pn
2
Xi X
i=1 Yi Y
Pn
q
Pn
i=1
Yi Y 2
Xi X
2 Pn Yi Y 2
Xi X
Pn
= Pn
i=1
i=1
i=1
Y
Yi Y 2
i
i=1
i=1 Xi X
= Pn
Pn
2
2 Pn Yi Y 2
Y
Y
i
i=1
i=1 Xi X
i=1
n
X
Yi Y
n
2 X
i=1
Xi X
2
i=1
n
X
Xi X
Yi Y
i=1
n
X
Yi Y
n
2 X
Xi X
i=1
0 + 1 Xi Y
n
2 X
i=1
n
X
2
Xi X
2
i=1
+ 1 Xi Y
Y 1 X
i=1
n
2 X
i=1
15
Xi X
2
!2
n
X
1 Xi 1 X
n
2 X
i=1
= 12
i=1
n
X
Xi X
Pn
i=1
2
i=1
Xi X
n
2 X
i=1
Pn
Xi X
2
i=1
Yi Y
2
Xi X
n
X
Xi X
!2
n
X
!2
Xi X
2
i=1
!2
Xi X
Yi Y
i=1
Tel quindique plus tot, lajustement statistique R2 est defini independamment des hypoth`eses statistiques derri`ere le mod`ele.
Nous venons de voir (dans lencadre precedant) quil y a un lien stricte dans le mod`ele
de regression simple entre le R2 et le coefficient de correlation entre la variable
dependante Y et la variable explicative X.
Le R2 a aussi une autre interpretation statistique. On peut lutiliser pour tester lhypoth`ese nulle de labsence de relation entre la variable explicative (les variables explicatives a` part la constante dans le mod`ele de regression multiple). Voir Giles (2013b,
2013c). Selon Giles, le R2 suit, sous lhypoth`ese nulle (et sous lhypoth`ese de lhomoscedasticite), une distribution Beta.
Nous allons voir dans le chapitre sur la regression multiple quon peut construire une
16
autre statistique pour tester la meme hypoth`ese qui suit une distribution F de Fisher.
4.3
Definissons :
n
s2u
X
1
SSR
=
(
ui )2 =
.
(n 2) i=1
(n 2)
Dans le cas o`u nous supposons une variance constante du terme derreur du mod`ele (voir la
section suivante concernant les hypoth`eses statistiques du mod`ele), cest un estimateur non
biaise de la variance du terme derreur.
Il sagit du cas o`u les erreurs sont homoscedastiques, o`u donc Var (ui ) = u2 , une variance
constante.
Notez que cette hypoth`ese (variance constante des erreurs) ne fera pas partie des hypoth`eses
statistiques de base que nous adopterons.
Nous divison par (n 2) afint dobtenir un estimateur non biaise.
Il y a une autre raison pour la division par (n 2). On perd deux degres de liberte car il faut
estimer deux param`etres inconnus (0 et 1 ) afin de calculer les residus de la regression.
Maintenant, definissons :
q
su s2u .
su est lecart type de la regression.
Lecart type de la regression est un des resultats destimation que fournissent automatiquement la plupart des logiciels e conometriques.
17
Ces hypoth`eses seront cruciales pour montrer les proprietes dabsence de biais et de convergence.
Nous en aurons besoin aussi (avec une hypoth`ese additionnelle) pour montrer lefficience
de lestimateur MCO.
5.1
5.2
Observations i.i.d.
5.3
Cette hypoth`ese sert a` nous rappeler que lestimateur MCO peut e tre sensible aux observations aberrantes.
Il est toujours bon dexaminer les residus afin de detecter la presence de ces observations,
qui pourraient indiquer des probl`emes comme des erreurs de transcription des valeurs dans
les donnees, etc.
Il est important de noter quen presence dobservations aberrantes importantes, la valeur de
1 peut e tre tr`es sensible a` cette ou a` ces valeurs, meme si elles sont peu nombreuses. Intuitement, meme un nombre tr`es faible de ces observations aberrantes peut avoir une influence
preponderantes sur les valeurs estimees des param`etres. Dans un tel cas, les estimateurs
MCO ne seront pas convergents puisquils dependent dun petit nombre dobservations.
5.4
Notre approche
Par rapport a` lapproche dans certains manuels de base en e conometrie, nous adoptons une
approche plus generale.
1. Souvent, la premi`ere fois quon presente le mod`ele de regression simple, on suppose que
les observations sur la variable explicative X sont constantes a` travers des e chantillons
differents. Pour deriver les proprietes statistiques de notre estimateur MCO, on peut traiter
les observations comme des constantes au lieu de les traiter comme des realisations dune
variable aleatoire. Lalg`ebre est plus facile, mais cest beaucoup moins realiste.
2. Souvent, lorsquon presente le mod`ele de base, on suppose aussi que la variance conditionnelle du terme derreur est e gale a` sa variance non conditionnelle et quelle est constante.
Autrement dit,
Var (ui |X = Xi ) = Var (ui ) = u2 .
Lavantage de ces hypoth`eses simplificatrices est de simplifier lalg`ebre. On arrive a` une
expression plus simple pour la variance e chantillonnale de nos estimateurs MCO. Malheureusement, ce sont des hypoth`eses qui tiennent rarement dans les donnees utilisees par
19
les e conom`etres appliques. Cette hypoth`ese nest pas retenue ici, ce qui va mener a` une
expression plus compliquee mais plus generale pour la variance e chantillonnale de nos estimateurs.
3. Souvent, lorsquon presente le mod`ele de base, on suppose que le terme derreur est distribue selon une loi normale. Ceci permet de faire de linference exacte (voir le chapitre sur
les tests dhypoth`ese pour une definition). Cette hypoth`ese nest pas retenue ici.
4. Au lieu de supposer la normalite, nous allons faire lhypoth`ese que les e chantillons de
donnees que nous avons a` notre disposition sont assez grandes pour que les statistiques
utilisees pour faire des tests dhypoth`ese soient approximatiement distribuees selon une loi
normale.
6.1
6.1.1
Nous avons :
1 =
Pn
i=1
Xi X
Pn
i=1
Pn
i=1
Xi X
Yi Y
2
Xi X
u
0 + 1 Xi + ui 0 1 X
Pn
2
i=1 Xi X
2 + Pn Xi X
(ui u)
X
X
i
i=1
i=1
Pn
2
X
X
i
i=1
Pn
)
i=1 Xi X (ui u
= 1 +
2
Pn
Xi X
Pn
i=1
Pn
= 1 + Pi=1
n
i=1
ui
Xi X
.
2
Xi X
Ceci montre que lestimateur est e gal a` sa vraie valeur plus un terme qui depend du produit
20
des erreurs avec les e carts des Xi par rapport a` leurs moyennes e chantillonnales.
Notez ce que lon fait pour passer de la premi`ere ligne a` la deuxi`eme. On substitut Yi
utilisant sa valeur si le mod`ele de regression est literalement vrai. Cela fait apparatre les
vraies valeurs de 0 et de 1 , et fait apparatre aussi lerreur (la vraie et non le residu). On
fera souvent une substitution semblable lorsquon veut analyser les proprietes statistiques
dun estimateur.
Maintenant, il sagit de calculer la valeur esperee de cette expression :
Pn
E 1 = 1 + E
i=1
Pn
i=1
Pn
= 1 + E E
i=1
Pn
i=1
!
ui
Xi X
2
Xi X
!
!
ui
Xi X
|X1 , X2 , . . . Xn
2
Xi X
!
X
E
(u
|X
,
X
,
.
.
.
X
)
i
i
1
2
n
i=1
= 1 + E
2
Pn
i=1 Xi X
!
Pn
X
E
(u
|X
)
i
i
i
i=1
= 1 + E
2
Pn
Xi X
Pn
i=1
= 1 .
Pour passer de la premi`ere ligne a` la deuxi`eme dans cette suite degalites, nous avons utilise
la loi des esperances iterees, qui dit que pour nimporte quelle variable aleatoire Y ,
i=1
Pn
i=1
ui
Xi X
.
2
Xi X
Pour passer de la deuxi`eme a` la troisi`eme ligne, il faut noter que les esperances des X conditionnelles aux valeurs des X ne sont plus stochastiques. Nous pouvons les traiter comme
21
Nous avons :
E 0 = E Y 1 X
n
X
+1
ui 1 X
= E 0 + 1 X
n i=1
n
X
+1
= 0 + E 1 1 X
E (ui )
n i=1
n
1X
= 0 +
E (E (ui |Xi ))
n i=1
= 0 ,
o`u encore une fois nous avons utilise la loi des esperances iterees :
Ici, jai suivi la reponse a` la question 4.7 du manuel. Il nest pas forcement e vident que
= 0,
E 1 1 X
doit e tre considere comme une variable aleatoire. Il faut remonter a` labsence
puisque X
de biais de 1 , o`u on a montre que
Pn
1 1 = Pi=1
n
i=1
22
ui
Xi X
.
2
Xi X
Donc, on a
Pn
= E
E 1 1 X
i=1
Pn
i=1
= E X
!
ui
Xi X
X
2
Xi X
!!
X
E
(u
|X
)
i
i
i
i=1
2
Pn
Xi X
Pn
i=1
= 0.
Encore une fois, nous avons utilise la loi des esperances iterees.
6.2
Convergence de lestimateur
Nous allons remettre ce sujet a` un peu plus tard. En calculant les proprietes e chantillonnales
de lestimateur, nous allons montrer que sa variance decrot avec la taille de lechantillon
n.
Si cest le cas, nous avons a` toutes fins pratiques montre sa convergence. Nous avons montre
labsence de biais, et la variance converge a` zero lorsque n tend vers linfini.
6.3
Efficience de lestimateur
Pour montrer lefficience de lestimateur MCO, nous aurons besoin dune hypoth`ese additionnelle, que le terme derreur du mod`ele de regression est homoscedastique, ce qui veut
dire a une variance constante.
Si ce nest pas le cas, et si nous connaissons de quoi depend la variance du terme derreur, il
peut e tre possible de trouver un estimateur plus efficient que lestimateur MCO. Il sagit de
lestimateur moindres carres generalises (generalised least squares ou GLS en anglais),
que nous naurons pas loccasion detudier en detail dans ce cours. Voir le chapitre 15 du
manuel.
Une preuve detaillee du theor`eme Gauss-Markov se trouve dans lecadre qui suit. Nous
naurons probablement pas le temps de voir cette preuve en detail dans le cours. Je vous
invite fortement a` la lire et a` la comprendre.
23
6.3.1
Theor`eme Gauss-Markov
Il sagit dune preuve que lestimateur 1 est lestimateur le plus efficient parmi les
estimateurs qui sont lineaires en Yi .
Rappelons dabord les hypoth`eses qui doivent tenir pour demontrer le theor`eme GaussMarkov.
1. E (ui |X1 , . . . , Xn ) = 0 .
2. Var (ui |X1 , . . . , Xn ) = u2 ,
0 < u2 < .
3. E (ui uj |X1 , . . . , Xn ) = 0,
i 6= j.
La derni`ere hypoth`ese dit que les erreurs ne sont pas correlees entre elles.
Dabord, montrons que 1 est un estimateur lineaire en Yi . Nous avons
1 =
Pn
i=1
Yi Y
Pn
i=1
Pn
=
i=1
Xi X
2
Xi X
Y Pn Xi X
Yi X i X
i=1
Pn
2
i=1 Xi X
Pn
Y
X
X
i
i
= Pi=1
n
2
X
X
i
i=1
n
X
Xi X
=
Yi
Pn
2
Xi X
i=1
i=1
n
X
a
i Yi ,
i=1
o`u donc
a
i Pn
Xi X
i=1
Xi X
2
Les poids a
i ne dependent pas des Yi , et donc lestimateur est lineaire en Yi .
Nous avons vu que sous lhypoth`ese de lhomoscedasticite, la variance conditionnelle
24
Var 1 |X1 , . . . , Xn = Pn
i=1
Xi X
2 .
Nous avons aussi montre que lestimateur 1 est conditionnellement non biaise.
Maintenant, considerons nimporte quel estimateur lineaire
1 =
n
X
ai Y i
i=1
E 1 |X1 , . . . , Xn = 1 .
Nous avons
1 =
n
X
ai Y i
i=1
n
X
ai (0 + 1 Xi + ui )
i=1
= 0
n
X
ai + 1
i=1
n
X
ai X i +
i=1
n
X
ai u i .
i=1
n
X
!
ai ui |X1 , . . . , Xn
i=1
n
X
ai E (ui |X1 , . . . , Xn ) = 0.
i=1
E 1 |X1 , . . . , Xn = 0
n
X
i=1
25
!
ai
+ 1
n
X
i=1
!
ai X i
Par hypoth`ese, notre estimateur est conditionnellement non biaise et donc il faut que
n
X
!
ai
n
X
+ 1
i=1
!
ai X i
= 1 .
i=1
Pour que cette e galite tienne pour des valeurs quelconques de 0 et de 1 il faut que
n
X
ai = 0
i=1
et
n
X
ai Xi = 1.
i=1
n
X
ai + 1
n
X
i=1
ai X i +
n
X
i=1
ai ui = 1 +
i=1
n
X
ai u i .
i=1
n
X
!
ai ui |X1 , . . . , Xn
i=1
n
X
i=1
i<j
n
X
i=1
u2
n
X
ai 2 .
i=1
26
Definissons
d i ai a
i
Nous avons
n
X
ai =
i=1
n
X
n
X
(
ai + d i ) =
i=1
a
2i
+2
i=1
n
X
a
i di +
i=1
n
X
di 2 .
i=1
Pn
a
i di =
i=1
i=1
Pn
i=1
di
Xi X
2
Xi X
Pn d i
X i di X
=
i=1
Pn
2
i=1 Xi X
Pn
Pn (ai a
i )
i ) X
i=1 Xi (ai a
=
i=1
Pn
2
Xi X
Pn
i=1
i=1
P
P
(Pn ai Pn a
i ) X
( ni=1 Xi ai ni=1 Xi a
i=1 i )
=
2 i=1
Pn
Xi X
i=1
= 0.
La derni`ere e galite tient puisque les deux estimateurs 1 et 1 sont conditionnellement
non biaises et pour cette raison il faut que
n
X
X i ai
i=1
n
X
!
Xi a
i
i=1
n
X
ai =
i=1
i=1
Var 1 |X1 , . . . , Xn
u2
n
X
i=1
27
ai 2
n
X
a
i = 0.
n
X
= u2
a
2i +
i=1
n
X
!
di 2
i=1
n
X
2
= Var 1 |X1 , . . . , Xn + u
di 2
i=1
Var 1 |X1 , . . . , Xn
=
u2
n
X
Var 1 |X1 , . . . , Xn
di 2 > 0
i=1
6.4
Cette section est une peu plus ardue que les autres. Sa lecture est facultative.
Nous avons vu que lefficience dun estimateur est un concept relatif. Un estimateur est
plus efficient quun autre si les deux estimateurs sont non biaises et que le premier a une
variance moins e levee que le deuxi`eme.
Une autre facon de comparer deux estimateurs est de comparer leurs erreurs quadratiques
moyennes. Nous avons dej`a vu ce concept dans le chapitre sur la statistique.
Voici la definition de lerreur quadratique moyenne dun estimateur quelconque :
2
.
EQM E
Voici la preuve. Nous savons que pour une variable aleatoire quelconque X,
Var (X) = E X 2 (E (X))2 .
Cette formule sapplique aussi a` la variable aleatoire . Donc nous avons
2
2
Var = E
E
2
2
= Var + E
2
2
= Var + E
,
Var = Var
29
Les articles de Giles (2013d, 2013e) portent sur lerreur quadratique moyenne dans le
contexte du mod`ele de regression simple.
Il e tudie le mod`ele de regression simple sans constante :
Yi = Xi + ui ,
o`u les Xi sont non aleatoires et o`u on a ui i.i.d. (0, 2 ) (les erreurs sont
independamment et identiquement distribuees avec moyenne nulle et variance e gale
a` 2 ). (Le fait de travailler avec des Xi non stochastiques et dimposer une hypoth`ese
concernant lesperance non conditionnelle des erreurs simplifie lanalyse.)
Il montre que si on minimise lerreur quadratique moyenne,
lestimateur quon
obtient depend de lui-meme, qui est non observable. Donc, cest un estimateur qui
est non operationnel , cest a` dire que nous pouvons meme pas calculer.
Dans son deuxi`eme article (2013e), Giles montre quil est possible de trouver un estimateur operationnel ( operationnel veut dire que nous pouvons effectivement le
calculer avec les donnees que nous avons) si on minimise une combinaison lineaire de
la variance et du biais de lestimateur. Le probl`eme peut secrire
2
e
E
Var
+ (1 )
min Q =
.
2
e
La fonction objectif est une somme ponderee de la variance relative (par rapport a` la
30
n
X
ai Y i
i=1
n
X
ai X i + E
i=1
n
X
!
ai ui
i=1
n
X
ai Xi
i=1
E e =
n
X
i=1
31
!
ai X i 1
puisque nous avons fait lhypoth`ese que les Xi sont non stochastiques et que E (ui ) = 0.
La variance de lestimateur est donnee par
n
n
X
X
ai 2
Var e =
ai 2 Var (Yi ) = 2
i=1
i=1
pusque nous faisons lhypoth`ese que la variance des erreurs est constante.
Notre probl`eme de minimisation peut donc secrire
min Q =
ai
Pn
i=1
2
ai 2
Pn
2
i=1 (ai Xi 1)
+ (1 )
ou bien
min Q =
ai
n
X
!
ai 2
n
X
+ (1 )
i=1
!2
(ai Xi 1)
i=1
ai + (1 ) Xi
n
X
n
X
!
aj X j 1
j=1
!
aj X j 1
= 0.
j=1
n
X
j=1
32
!
aj X j 1
=0
n
X
ai Yi + (1 )
n
X
i=1
Xi Yi
i=1
e + (1 )
n
X
n
X
aj X j 1
=0
j=1
n
X
Xi Yi
i=1
!
aj X j 1
=0
(1)
j=1
P
puisque nous avons defini au depart notre estimateur comme e ni=1 ai Yi .
Nous pouvons aussi multiplier chaque CPO par Xi et calculer la somme a` travers les n
termes, ce qui donne
n
X
ai Xi + (1 ) Xi 2
!
aj X j 1
=0
j=1
n
X
n
X
ai Xi + (1 )
i=1
i=1
n
X
n
X
aj Xj + (1 )
j=1
Xi 2
n
X
!
aj X j 1
=0
j=1
Xi
n
X
i=1
!
aj X j 1
=0
j=1
n
X
aj Xj + (1 )
j=1
n
X
n
X
Xi
n
X
i=1
+ (1 )
aj X j
aj Xj (1 )
j=1
n
X
j=1
n
X
Xi 2 = 0
i=1
!
Xi 2
(1 )
n
X
i=1
!
Xi 2
i=1
n
X
P
(1 ) ni=1 Xi 2
Pn
aj X j =
2
+
(1
)
X
.
i
i=1
j=1
Maintenant, substituons cette solution pour
Pn
j=1
fions :
e + (1 )
n
X
i=1
Xi Yi
!
2
X
i
i=1
1 =0
P2
+ (1 ) i=1 Xi 2 .
(1 )
33
P2
!
Pn
2
+ (1 ) i=1 Xi (1 ) i=1 Xi
e = (1 )
X i Yi
P
+ (1 ) 2i=1 Xi 2
i=1
!
n
X
e = (1 )
Xi Yi
P2
2
+
(1
)
X
i
i=1
i=1
!
n
X
(1
)
e =
X i Yi
P2
2
+
(1
)
X
i
i=1
i=1
n
X
Pn
Pn
Pn
2
(1
)
X
Y
i
i
i=1 Xi
i=1
e
= Pn
P2
2
2
i=1 Xi + (1 )
i=1 Xi
Pn
2
(1
)
i=1 Xi
= b
P
+ (1 ) 2i=1 Xi 2 .
Ceci est le cas puisque pour ce mod`ele lestimateur MCO b est donne par (exercice)
Pn
Xi Yi
b = Pi=1
n
2 .
i=1 Xi
Pn
i=1
Pn
i=1
34
ui
Xi X
2
Xi X
Pn
= 1 +
1
n
1
n
i=1
Pn
i=1
ui
Xi X
.
2
Xi X
X
X ,
ce qui veut dire que la moyenne e chantillonnale converge en probabilite a` la moyenne dans
la population. Donc, pour des e chantillons assez grands, nous avons
n
X
1X
1X
ui 1
Xi X
(Xi X ) ui v
vi .
n i=1
n i=1
n i=1
La variable aleatoire vi que nous venons de definir satisfait les proprietes suivantes :
1. E (vi ) = 0 ;
2. vi est i.i.d. ;
3. v2 < .
La variable satisfait les hypoth`eses pour pouvoir invoquer le theor`eme de la limite centrale.
Donc, nous avons
v d
N (0 , 1) ,
v
o`u v2 = v2 /n.
Maintenant, travaillons avec le denominateur. Nous avons dej`a vu a` la fin du chapitre sur
la statistique que la variance e chantillonnale est un estimateur convergent de la variance
dune variable aleatoire. Donc nous avons :
n
X
p 2
1 X
2 1
2
Xi X
Xi X
X .
n 1 i=1
n i=1
Mettant ensemble numerateur et denominateur, nous avons
Var 1 1 =
35
v2
2
2
n (X
)
et,
d
1 1
N
0,
v2
2
n (X
)
Notez tr`es bien ce que nous venons de faire. Nous avons montre la convergence en distribution du numerateur, et la convergence en probabilite du denominateur, et par la suite
nous avons saute tout de suite a` la convergence en distribution du ratio des deux.
Ceci est un tour de passe-passe que nous pouvons employer lorsque nous parlons de proprietes asymptotiques (proprietes en grand e chantillon) de nos statistiques. Notez que nous
ne pouvons pas le faire lorsquil sagit desperances. Par exemple,
E
X
Y
6=
E(X)
E(Y )
X
X ,
p
Y
Y
p X
X
,
Y
Y
et
d
X
N X ,
2
X
Y
Y
d
X
N
Y
X
,
Y
1
Y
2
!
2
X
Nous avons utilise le Theor`eme de Slutsky, un des theor`emes les plus utiles en theorie
des probabilites. Il permet de scinder des expressions compliquees de variables aleatoires
(produits ou ratios) en morceaux. Si nous pouvons montrer la convergence des morceaux,
la convergence de lexpression suit immediatement.
Nous aurons frequemment loccasion dutiliser une version de ce theor`eme. Pour plus de
details, voir le chapitre des notes sur le mod`ele de regresson multiple.
Notez que la variance de 1 decrot avec n et tend vers zero lorsque n tend vers linfini. Lorsquon parle de convergence en distribution, on utilise normalement une variable
aleatoire normalisee de telle facon a` ce sa variance ne diminue pas avec la taille de lechan36
0,
v2
2
2
(X
)
Maintenant, definissons
21
v2
2.
2
n (X
)
Maintenant, si nous divisons 1 1 par la racine carree de 2 , nous obtenons une
1
statistique qui converge en distribution vers une loi normale centree reduite :
1 1
q
2
1 1
d
N (0 , 1) .
Notez que nous venons de montrer a` toutes fins pratiques la convergence de lestimateur
MCO de 1 . Nous avions dej`a montre que lestimateur MCO est non biaise. Maintenant,
nous venons de montrer que la variance de notre estimateur tend vers zero lorsque la taille
de lechantillon tend vers linfini. Autrement dit,
lim 21 = 0.
Nous avons tous les prerequis pour conclure que lestimateur MCO de 1 converge en
probabilite a` sa vraie valeur.
7.1
Estimateur convergent de 2
37
Definissons :
21
Pn
1
2 (
ui )2
1 n2 i=1 Xi X
P
2 2
n
n
1
X
i
i=1
n
La plupart des logiciels de regression calculent cet e cart type. Il faut, par contre, verifier si
loption par defaut est de calculer cet e cart type robuste (robuste a` la presence de lheteroscedasticite) ou plutot de calculer lecart type qui suppose lhomoscedasticite.
7.2
21
1 n1
P
n1 n
n
Pn
(
ui )2
.
2
Xi X
i=1
i=1
robuste de la
bien denseigner le cas general et lestimateur robuste comme loption par defaut dun
e conom`etre applique.
Lorsquon utilise un logiciel de regression comme R, STATA ou GRETL, il faut lire attentivement la documentation pour savoir quelle est loption par defaut utilisee pour estimer la
matrice variance-covariance des coefficients estimes. Dans la plupart des cas loption par
defaut suppose lhomoscedasticite et il faut specifier loption robuste ou lequivalent
si vous netes pas prets a` supposer lhomoscedasticite, ce qui sera generalement le cas.
Les e carts types robustes peuvent e tre plus grands ou plus petits que les e carts types non robustes. Pour une explication plus detaillee et une illustration dans un cas tr`es simple, voir Auld
(2012). Auld demontre les points suivants.
1. En presence dheteroscedasticite, si la variance des erreurs nest pas fortement correlee
avec la variable explicative du mod`ele (X), il y aura peu de difference entre lecart
type calcule avec la methode robuste et lecart type calcule sous lhypoth`ese de lhomoscedasticite.
2. Si la variance des erreurs augmente pour des valeurs des Xi qui sont loin de leur
lecart type calcule avec la methode non robuste (supmoyenne e chantillonnale X,
posant lhomoscedasticite) sera biaise vers zero (trop petit). Lecart type calcule avec
la methode robuste sera en general plus grand que lecart type non robuste.
3. Si la variance des erreurs est plus grande pour des valeurs des Xi qui sont pr`es de leur
lecart type calcule avec la methode non robuste (suppomoyenne e chantillonnale X,
sant lhomoscedasticite) sera biaise et sera en moyenne trop grand. Lecart type calcule
avec la methode robuste sera en general plus petit que lecart type non robuste.
4. Avec les donnees reeles on rencontre plus souvent le cas o`u lecart type non robuste est
baisie vers zero (est trop petit). Donc, typiquement les e carts types robustes sont plus
e leves que les e carts types non robustes.
39
7.3
Detecter lheteroscedasticite
ou encore
u2i = 0 + 1 Xi 2 + i .
Lidee est destimer les valeurs de 0 et de 1 par MCO. Soit 1 la valeur estimee du coefficient 1 Une valeur significative de 1 (voir la section suivante sur les tests dhypoth`ese)
serait un indice clair de la presence dheteroscedasticite. 3 Nous allons revenir sur cette
question et sur quelques tests formels pour detecter lhomoscedasticite dans le chapitre sur
la regression multiple.
2. Nous verrons certains de ces tests formels dans le chapitre sur le mod`ele de regression multiple.
3. Notez quil ne sagit pas dun test formel avec des proprietes statistiques connues. Il faut interpreter le resultat
du test a` titre indicatif seulement. Par contre, le test formel appele test Breusch-Pagan est essentiellement base sur une
regression de ce type.
40
Tests dhypoth`ese
8.1
Approche general
Le principe de base pour tester des hypoth`eses simples est presquidentique a` ce que nous
avons vu dans le chapitre sur linference statistique.
Lhypoth`ese nulle specifie generalement que le coefficient dinteret (qui peut e tre 0 ou
1 prend une certaine valeur. Lhypoth`ese alternative peut e tre bilaterale ou unilaterale,
dependant du contexte.
Dabord, il faut creer une statistique normalisee qui a une moyenne nulle et une variance
unitaire sous lhypoth`ese nulle. Il sagit dune
1 1,0
SE 1
o`u SE 1 est un estimateur convergent de lecart type du coefficient 1 et 1,0 est la
valeur que prend le coefficient 1 sous lhypoth`ese nulle.
Si nous sommes prets a` faire lhypoth`ese que le terme derreur du mod`ele ui obeit a` une loi
normale avec variance constante, nous pouvons montrer que la statistique t suit une loi t de
Student. Dans ce cas, bien sur, il est preferable dutiliser la forme homoscedastique pour le
calcul de lecart type de lestimateur 1 .
Si non, sous les hypoth`eses du mod`ele de regression, la statistique t obeit en grand e chantillon
a` une loi normale centree reduite. Voir la section precedente sur les proprietes e chantillonnales
de lestimateur.
Comme il est habituellement le cas, nous remplacons lecart type dans le denominateur par
un estimateur convergent.
Maintenant, nous procedons exactement comme dans le chapitre sur la statistique.
41
8.2
H1 : 1 6= 1,0 ,
nous rejetons lhypoth`ese nulle si la statistique calculee est suffisamment loin de zero. La
p-value du test est donnee par :
p-value = Pr |z| > |tact | = 2 |tact |
o`u tact est la valeur calculee de la statistique et, comme auparavant, (z) est la valeur de la
distribution normale centree reduite cumulee a` z.
On appelle appelle communement un test de significativite un test de lhypoth`ese nulle
que la variable explicative nest pas significative, et donc naide pas a` expliquer la variabilite
de la variable dependante. Dans, ce cas, lhypoth`ese nulle est H0 : 1 = 0 et lhypoth`ese
alternative est bilaterale. On peut aussi parler dun test de significativite de la constante
dans le mod`ele de regression simple. Les tests de significativite sont tellement repandus
que, si loutput fourni par un logiciel deconometrie donne les statistiques t associees
aux coefficients estimes, il sagit de statistiques appropriees pour tester lhypoth`ese nulle
que le coefficient est e gal a` zero.
8.3
Ensuite, si lhypoth`ese alternative est unilaterale, il faut distinguer entre les deux cas possibles.
1. Dabord,
H1 : 1 > 1,0 .
Nous rejetons lhypoth`ese nulle si la statistique calculee est suffisamment positive. La
42
p-value = Pr z > tact = 1 tact .
p-value = Pr z < tact = tact .
1 X/100
.
2
(100X)
%
2
de la distribution normale
centree reduite se trouve a` gauche de z. Cela veut dire bien sur que
bution normale centree reduite se trouve a` droite de z.
Nous avons (pour 1 : le principe pour 0 est identique) :
X
1 1
= Pr z
z
100
= Pr z
1 1 1 z
1
43
(100X)
%
2
de la distri-
= Pr z
1 1 1 z
1
= Pr 1 z
1 1 1 + z
1 ,
o`u
1 SE 1 , notre estimateur convergent de lecart type de 1 .
Cela implique que lintervalle de confiance de X% autour de 1 peut e tre e crit de la facon
suivante :
1 z
1 ,
o`u
(z) =
9.1
1 X/100
.
2
44
Donc, procedant de la meme mani`ere que pour lintervalle de confiance pour 1 lui-meme on a
X
= Pr z
100
Xi
1 1
(Xi ) 1
= Pr z (Xi ) 1 Xi 1 1 z (Xi ) 1
= Pr z (Xi ) 1 Xi
1 1 z (Xi ) 1
= Pr z (Xi ) 1 + Xi 1 Xi 1 z (Xi ) 1 + Xi 1 .
Donc, lintervalle de confiance pour le changement predit est donne par
Xi 1 z (Xi ) 1
Si nous remplacons lecart type de 1 par un estimateur convergent (notre truc habituel), lintervalle
de confiance peut secrire
Xi 1 z (Xi )
1
10
Lexemple provient de Kleiber et Zeileis (2008, chapitre 3), qui contient une analyse beaucoup plus
de detaillee. Vous pouvez facilement jouer avec le code une fois que le logiciel est installe. Le but
du mod`ele est de predire la demande pour les abonnements a` des revues scientifiques (abonnements
par des biblioth`eques universitaires) o`u la variable explicative est le prix par nombre de citations.
Le mod`ele est
ln (subsi ) = 0 + 1 ln (citepricei ) + ui ,
45
o`u la variable dependante subsi est le nombre dabonnements a` la revue i (mesure en logs), et la
variable explicative citepricei est le prix annuel dun abonnement divise par le nombre de citations
annuel darticles publies dans la revue (mesure aussi en logs). Notez que le choix de mesurer les
deux variables en logs est celui des auteurs. Nous allons revenir sur cette question dans le chapitre
sur les mod`eles de regression non lineaires. 4
Les donnees sont dans une banque de donnees qui sappelle
Journals . Il sagit de
donnees (avec n = 180) sur les abonnements par des biblioth`eques universitaires a` des revues
scientifiques. La taille de lechantillon est le nombre de revues dans lechantillon.
Afin deffectuer lestimation dun mod`ele de regression simple de base et afin deffectuer tous les calculs et tous les tests, il faut non seulement la version de base de R mais
aussi les
packages AER (qui contient les donnees utilisees pour estimer le mod`ele),
lmtest, sandwich et zoo (ces trois packages permettent de calculer les e carts types robustes du mod`ele estime et deffectuer des tests dhypoth`ese utilisant les e carts types robustes). Si les packages ne sont pas dej`a installes, il faut les installer avec la commande
install.packages() :
install.packages("AER")
install.packages("lmtest")
install.packages("zoo")
install.packages("sandwich")
Notez que sous Linux il est preferable dinstaller le package comme administrateur du syst`eme
ou super-utilisateur. Pour le faire, invoquer le logiciel R avec la commande sudo R.
Une fois les packages installes, on peut proceder a` charger les donnees et estimer le mod`ele
par MCO. Dans le code R qui suit, jajoute des commentaires pour expliquer ce que font les
4. Entretemps, a` moins davis contraire, je vous demande dutiliser des variables non transformees dans les exercices empiriques.
46
47
points.
R> abline(jour lm)
R> # Calculer des statistiques de base avec loutput de
lestimation.
R> summary(jour lm)
R> # Ouvrir un fichier pour contenir ces statistiques.
R> # Le nom du fichier est
regumm.out
48
Call:
lm(formula = log(subs) log(citeprice), data = journals)
Residuals:
Min 1Q Median 3Q Max
-2.72478 -0.53609 0.03721 0.46619 1.84808
Coefficients:
(Intercept)
Estimate
Std. Error
4.76621
0.05591
t value
Pr(>|t|)
log(citeprice) -0.53305
0.03561
-14.97 <2e-16 ***
Signif. codes: 0 *** 0.001 ** 0.01 * 0.05 . 0.1 1
49
la valeur associee au premier quartile (la valeur pour laquelle 25% des residus on une valeur
inferieure), la valeur mediane (qui nest pas forcement e gale a` la moyenne), la valeur associee
au troisi`eme quartile, et la valeur maximale. Ces valeurs (surtout les valeurs minimale et maximale) peuvent e tre utiles pour reperer des observations aberrantes.
Une mise en garde : le code ci-dessus estime le mod`ele par MCO utilisant les options
par defaut. La fonction lm utilise par defaut une hypoth`ese dhomoscedasticite. Donc, les
e carts types des deux coefficients (0 et 1 dans notre notation) ne sont pas des e carts types
robustes. Afin dobtenir des e carts types robustes a` la presence de lheteroscedasticite, il faut
utiliser la commande suivante :
(Intercept)
log(citeprice)
Estimate
Std. Error
t value
Pr(>|t|)
4.7662
0.0555
85.8
<2e-16
-0.5331
0.0345
-15.5
<2e-16
Ce mod`ele est un exemple dun mod`ele o`u il ny a pas une difference e norme entre les e carts
types robustes et non robustes. Puisque lordinateur est capable de calculer les e carts types en
une fraction de seconde, il coute presque rien de les calculer des deux facons afin de verifier si
50
4
3
log(subs)
log(citeprice)
Figure 2
11
X, est une variable aleatoire continue. Il es souvent le cas que la variable explicative est une
variable qualitative qui ne peut prendre que deux valeurs : oui ou non, vrai ou faux, present ou
51
absent, etc.
On peux representer ces deux valeurs possibles de la variable explicative variable dichotomique par soit 0 soit 1. Dans lexample du livre, limpact de la taille des classes sur le rendement
scolaire dans les conseils scolaires en Californie, on aurait pu avoir des donnees sur la taille des
classes o`u Di = 1 pour des ratios e l`eves/professeurs inferieurs a` 20 est Di = 0 pour des ratios
e l`eves/professeurs au moins e gaux a` 20.
Dans ces cas, 1 na pas linterpretation dun coefficient de pente. Il a linterpretation de la
moyenne conditionnelle de la variable dependante Y lorsque Di = 1. Lordonnee 0 a linterpretation de la moyenne conditionnelle de Y lorsque Di = 0. Donc, 1 a linterpretation de
la difference entre les moyennes de deux populations ou plutot de sous-populations.
Algebriquement, nous avons
Yi = 0 + 1 Xi + ui
E (Yi |Xi = 0) = 0 + 1 0 + E (ui |Xi = 0) = 0
et
E (Yi |Xi = 1) = 0 + 1 1 + E (ui |Xi = 1) = 0 + 1 .
On e crit dans le manuel quil y a e quivalence entre dune part estimer le mod`ele de regression
simple par MCO avec une variable explicative X et dautre part calculer les moyennes e chantillonnales des sous-echantillons. Dans lencadre qui suit, je montre cette e quivalence. Je montre aussi
lequivalence entre tester la significativite du coefficient estime 1 et tester la significativite de la
difference entre deux moyennes.
Yi = 0 + 1 Di + ui ,
o`u Di prend deux valeurs possibles, soit 0 soit 1. Soit n1 le nombre dobservations pour les-
52
X
n1
1
Di = .
D
n i=1
n
Lestimateur 0 est donne par la formule habituelle
0 = Y 1 D.
Lestimateur 1 est donne par la formule habituelle
1 =
Pn
i=1
Yi Y
Pn
i=1
Di D
.
2
Di D
Di D
2
i=1
n0
X
2 +
D
i=1
n1
X
1D
2
i=1
n1 2
+ n1 1
n
n
n 2
n 2
1
0
= n0
+ n1
n
n
= n0
n 2
1
=
=
n0 n1 2 + n1 n0 2
n2
n0 n1 (n0 + n1 )
n0 n1
=
.
2
n
n
Definissons Yi1 la valeur de Yi dans le cas o`u Di = 1. Definissons Yi0 la valeur de Yi dans le
53
Pn
i=1
Yi Y Di D
n0 n1 /n
Pn0
0
1
Y
(n1 /n)
Y
Y
(1
n
/n)
Y
1
i
i=1
= i=1 i
n0 n1 /n
Pn1
Pn0
1
0
n1
n0
1 X
1 X
1
Yi Y
Yi0 Y
=
n1 i=1
n0 i=1
n1
n0
n1
n0
1 X
1 X
1 X
1 X
1
0
=
1
1
Y Y
Y + Y
n1 i=1 i
n1 i=1
n0 i=1 i
n0 i=1
n1
n0
1 X
1 X
n1
n0
Yi1 Y
Yi0 + Y
n1 i=1
n1
n0 i=1
n0
n1
n0
1 X
1 X
1
=
Y
Y 0.
n1 i=1 i
n0 i=1 i
Ceci est tout simplement la difference entre la moyenne e chantillonnale de Y pour le souse chantillon o`u Di = 1 et sa moyenne e chantillonnale pour le sous-echantillon o`u Di = 0.
Il faut maintenant montrer que 0 est tout simplement e gal a` la moyenne e chantillonnale
de Y pour le sous-echantillon o`u Di = 0. Nous avons
Pn
n1
0 = Y
n
n1
= Y
n
Pn1
i=1
n1
= Y
n
i=1
!
P 0
Yi1 Y (1 n1 /n) ni=1
Yi0 Y (n1 /n)
n0 n1 /n
n0 Pn1
n
!
Yi Y Di D
n0 n1 /n
n1
= Y
n
n0
n
Pn0
Yi0 Y n0nn1 + Y n0nn1
n0 n1 /n
Pn1 1 n1 Pn0 0
i=1 Yi n
i=1 Yi
n0 n1 /n
1
i=1 Yi
n1
n
54
i=1
1
0
1X
n1 X
1X
=
Yi
Yi1 +
Y0
n i=1
n i=1
n0 n i=1 i
1
=
n
n1
X
Yi1
n0
X
i=1
!
Yi0
i=1
=
1
n1
+
n n0 n
=
1
0
1X
n1 X
Yi1 +
Y0
n i=1
n0 n i=1 i
X
n0
Yi0
i=1
n0
1 X
Y 0,
n0 i=1 i
ce qui fut a` demontrer. La statistique t pour tester la significativite du coefficient estime 1 est
donnee par la formule habituelle :
t=
1
.
SE 1
Y 1 Y 0
Var Y 1 Y 0
,
Y 1 Y 0
=q
,
1
0
Var Y + Var Y
Y 1 Y 0 0
= q 2
,
2 0
1
Y
Y
+ n0
n1
o`u
n1
n0
1 X
1 X
Y 1
Yi1 , Y 0
Y 0.
n1 i=1
n0 i=1 i
Cette formule correspond exactement a` la formule derivee dans le chapitre sur la statistique
et les tests dhypoth`eses pour tester la difference entre les moyennes de deux populations
differentes.
Ici, lhypoth`ese dheteroscedasticite permet a` la variance de lerreur du mod`ele de
regression de dependre des deux valeurs differentes possibles de Di .
55
12
Concepts a` retenir
Comment e crire le mod`ele de regression simple.
Le probl`eme de minimisation auquel lestimateur MCO est une solution.
Les proprietes algebriques de lestimateur MCO. Il est important de pouvoir suivre les
demonstrations de ces proprietes et de les comprendre, mais il nest pas necessaire detre
capable de les reproduire.
Le concept du R2 , et les concepts de somme totale des carres, somme expliquee des carres,
et somme des residus carres et la relation entre ces sommes.
Les hypoth`eses statistiques de base du mod`ele de regression simple qui sont requises pour
montrer labsence de biais et la convergence.
Les hypoth`eses additionnelles necessaires pour montrer lefficience de lestimateur MCO
(theor`eme Gauss-Markov).
Il faut avoir suivi et compris la derivation des proprietes e chantillonnales des coefficients
estimes.
Comment tester des hypoth`eses concernant les coefficients estimes du mod`ele, contre des
hypoth`eses alternatives bilaterales ou unilaterales.
Comment calculer un intervalle de confiance pour les coefficients du mod`ele.
Comment calculer un intervalle de confiance pour un changement predit.
13
References
Voir ce lien :
http://www.er.uqam.ca/nobel/r10735/4272/referenc.pdf
56