Вы находитесь на странице: 1из 298

UNIVERSIT PARIS-SUD 11

FA CULT J EA N MONN ET
Droit conomie Gestion

Enseignement A Distance CANEGE


M1 Master ETT

Economtrie

Enseignant responsable : Anne Plunket

La multicolinearite

La multicolinearite parfaite versus imparfaite

Anne Plunket

1.1

La multicolinearite parfaite
X1i = 0 + 1X2i
Yi = 0 + 1X1i + 2X2i + i
X1i = 3X2i ou X1i = 6 + X2i ou X1i = 2 + 4X2i

www.adislab.net

(1)
(2)
(3)

X1

Un exemple :
int = irt + inft = irt +
int le taux dinteret nominal en t

(4)

irt le taux dinteret reel en t

X2
Figure 1:

La multicolinearite parfaite

inft le taux dinflation en t


le taux constant dinflation
La question est alors quelle est la consequence de la multicolinearite parfaite sur lestimation e conometrique. La methode
des MCO est incapable de donner une estimation des coefficients
de la regression, et le programme informatique donnera un message derreur.
(5)
k = indetermine ET (k ) =

1.2

La multicolinearite imparfaite

X1i = 0 + 1X2i + ui

Les consequences de la multicolinearite : Estimation des coefficients et significativite

1. Les estimations sont non biaisees

X1

2. Les variances et e cart-types des estimations vont augmenter.


On peut montrer que lecart-type dun coefficient de la regression
secrit
ET (1) = s1 =

La multicolinearite imparfaite

par rapport a` une situation sans multicolinearite.


En fait, ce resultat provient de la definition du coefficient
k = (X X)1X y

e2i /(n k 1)
2 )
1)2(1 r12
(X1i X

(6)

En cas de multicolinearite, la correlation entre X1 et X2 qui


2
) sera petit et
secrit r12 sera tr`es forte. Dans ce cas, (1 r12
par consequent ET (1) sera e levee. Ainsi, la multicolinearite
conduit a` accrotre lecart type et la variance des coefficients

X2

Figure 2:









deux variables. Et donc on peut ree crire la variance :


s2k =

(7)

Si on note Rk2 , le R2 de la regression de xk sur toutes les autres


variables; et Skk , est la variation de la ki`eme variable autour de
2
, la correlation entre les
sa moyenne; si k = 2 alors Rk2 = r12

dont la matrice de variance covariance des coefficients k


secrit
(8)
2(X X)1

1
or le k i`eme e lement de la diagonal de (X X) secrit
1
(9)
(1 Rk2 )Skk

2
2
=
2 ) (x x
2 )s
(1 r12
k )2 (1 r12
ik
kk


(10)

plus la correlation Rk2 est forte et plus sa variance sera e levee.


Dans le cas extreme xk est une combinaison lineaire, autrement
dit Rk2 = 1, s2
plus Rk2 est grand et plus e levee est la variance de du fait
de la multicolinearite
plus Skk (variation de xk ) est grande et plus petite sera la
variance de k
meilleur est lajustement, + petit est 2 est plus faible est la
variance

3. La valeur du t du Student calculee sera plus faible.


(k H0 )
tc =
sk

Sans multicollinearite
sev`ere

sk plus e leve, le resultat est un t calcule plus faible, do`u tc <


t/2 do`u risque daccepter H0 a` tort.

Avec une forte


multicollinearite

10

Figure 3:

On suppose que lon a des donnees sur un petit nombre detudiants

Exemples de multicolinearite

Supposons que lon veuille estimer la fonction de consommation


detudiants. Apr`es une e tude preliminaire, on determine la fonction suivante :
(12)

COi : la consommation annuelle du i`eme e tudiant sur des depenses


autres que les frais de scolarite, le logement et alimentation
LAi : actifs liquides (epargnes, etc.) du i`eme e tudiant
i : un terme derreur

12

11

avec

Y di : le revenu disponible annuel de letudiant

4. Lestimation devient sensible aux changements de specification.


5. La significativite globale de lequation et lestimation des coefficients des variables non multicolineaires seront largement non
affectees.
un signe de risque de multicolinearite serait des t calcules faibles
2 e leve.
donc peu significatifs et un R

La multicolinearite imparfaite

COi = f (Y di, LAi) + i = 0 + 1Y di + 2LAi + i

(11)

Etudiant
1
2
3
4
5
6
7

COi
2000
2300
2800
3800
3500
5000
4500

Y di
2500
3000
3500
4000
4500
5000
5500

LAi
25000
31000
33000
39000
48000
54000
55000

La methode des moindres carres ordinaires sur cet e chantillon


donne les resultats destimation suivants :
i = 376, 83 + 0, 5113 Y di + 0, 0427 LAi
CO
(1,0307)

t = 0, 496
2 = 0, 835
R

Prenons un autre exemple. Supposons que lon cherche a` e tudier


la consommation dessence dans differentes regions. Lequation
testee est la suivante :
ESCONi = f (KM AU T Oi, T AXi, DECi) + i

(0,0942)

t = 0, 453
ryd,LA = 0, 986

avec
ESCONi : Consommation dessence dans la i`eme region

14

13

Si lon omet une variable on obtient :


i = 471, 43 + 0, 9714 Y di
CO

KM AU T Oi : Km de routes et autoroutes dans la i`eme region


T AXi : le taux de taxe sur lessence dans la i`eme region

(0,157)

DECi : le nombre de declaration de vehicules a` la prefecture


dans la i`eme region.

t = 6, 187
R = 0, 861
2

Lestimation donne les resultats suivants :



ESCON
i = 389, 6 + 60, 8 KM AU T Oi

2 = 0, 919
R

(t=5,92)

(t=2,77)

4.1

(t=1,43)

53, 6 T AXi + 0, 186 DECi


(t=3,18)

(t=15,88)

Coefficients de correlation simple e leves. Le test de Klein

2
il y a une presomption de multicolinearite.
Si R2 < rxi,xj

4.2

Le facteur dinflation de la variance e leve VIF

16

15

2 = 0, 861
R

Test de detection dune multicolinearite

36, 5 T AXi 0, 061 DECi

Que se passe-t-il si on omet une des variables collineaires?



ESCON
i = 551, 7

(13)

Y = 0 + 1X1 + 2X2 + . . . + k Xk + 
Il faut donc calculer k differents VIF, pour chaque Xi. Pour chaque
variable, il faut suivre les trois e tapes suivantes :
Faire une regression des MCO de Xi en fonction des autres
variables explicatives de lequation.

Une r`egle habituelle propose que si V IF (i) > 5, on peut dire que
la multicolinearite est sev`ere.
Certains logiciels deconometrie remplace le VIF par sa reciproque
(1 Ri2 ) appelee tolerance ou TOL.

Par exemple pour X1,


X1 = 1 + 2X2 + 3X3 + . . . + k Xk + v

(14)

v est un terme derreur.


Calculer le VIF pour 1
1
(1 Ri2 )

(15)
18

17

V IF (1) =

o`u Ri2 est le coefficient de determination de la regression auxiliaire de letape 1.


Analyser le degre de multicolinearite par levaluation de la taille
du V IF (i).

2 = 0, 861
R
Si lon omet Y d on obtient :
i = 199, 44 + 0, 08876 LAi
CO

Remedier a` la multicolinearite

1. Ne rien faire
2. Omettre une variable redondante Dans le cas de la consommation des e tudiants on avait :
i = 376, 83 + 0, 5113 Y di + 0, 0427 LAi
CO
(0,0942)

t = 0, 453

Si lon omet LA on obtient :


i = 471, 43 + 0, 9714 Y di
CO
(0,157)

t = 6, 187

20

19

(1,0307)

t = 0, 496
2 = 0, 835
R

(0,01443)

t = 6, 153
2 = 0, 860
R
3. Transformer les variables multicolineaires
(a) Former une combinaison des variables multicolineaires.
(16)
Yi = 0 + 3X3i + i = 0 + 3(X1i + X2i) + i
(b) Transformer lequation en utilisant un decalage dans le temps
dune periode; par exemple, Xt = Xt Xt1.
4. Accrotre la taille de lechantillon

Fiche de TD 1 : la multicolinearite

. use http://www.ats.ucla.edu/stat/stata/webbooks/reg/elemapi2, clear


. describe

Il sagit dun fichier qui donne les performances academique des


e coles (api00).
On cherche a` expliquer ces performances par un certain nombre de
variables telles que :
22

21

le nombre moyen denfants par classe en maternelle (acs k3),


le niveau deducation des parents (avg ed),
le pourcentage des parents ayant le niveau lycee (grad sch),
le pourcentage des parents ayant un diplome universitaire (col grad),
le pourcentage de parents qui ont e te a` luniversite (some col).

hsg
some_col
col_grad
grad_sch
avg_ed
full
emer
enroll
mealcat

byte
byte
byte
byte
float
byte
byte
int
byte

%4.0f
%4.0f
%4.0f
%4.0f
%9.0g
%8.2f
%4.0f
%9.0g
%18.0g

collcat

float

%9.0g

mealcat

parent hsg
parent some college
parent college grad
parent grad school
avg parent ed
pct full credential
pct emer credential
number of students
Percentage free meals in 3
categories

. pwcorr

api00 acs_k3 avg_ed grad_sch col_grad some_col, star(.05)

|
api00
acs_k3
avg_ed grad_sch col_grad some_col
-------------+-----------------------------------------------------api00 |
1.0000
acs_k3 |
0.1710* 1.0000
avg_ed |
0.7930* 0.0794
1.0000
grad_sch |
0.6332* 0.0983* 0.7973* 1.0000
col_grad |
0.5273* -0.0174
0.8089* 0.4439* 1.0000
some_col |
0.2615* 0.0915
0.3031* 0.0718
0.1555* 1.0000
24

23

-----------------------------------------------------------------------------

Contains data from http://www.ats.ucla.edu/stat/stata/webbooks/reg/elemapi2.dta


obs:
400
vars:
22
9 Feb 2002 01:28
size:
15,200 (98.5% of memory free)
------------------------------------------------------------------------------storage display
value
variable name
type
format
label
variable label
------------------------------------------------------------------------------snum
int
%9.0g
school number
dnum
int
%7.0g
dname
district number
api00
int
%6.0g
api 2000
api99
int
%6.0g
api 1999
growth
int
%6.0g
growth 1999 to 2000
meals
byte
%4.0f
pct free meals
ell
byte
%4.0f
english language learners
yr_rnd
byte
%4.0f
yr_rnd
year round school
mobility
byte
%4.0f
pct 1st year in school
acs_k3
byte
%4.0f
avg class size k-3
acs_46
byte
%4.0f
avg class size 4-6
not_hsg
byte
%4.0f
parent not hsg

. regress

api00 acs_k3 avg_ed grad_sch col_grad some_col

Source |
SS
df
MS
-------------+-----------------------------Model | 5056268.54
5 1011253.71
Residual | 2623191.21
373 7032.68421
-------------+-----------------------------Total | 7679459.75
378 20316.0311

Number of obs
F( 5,
373)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

379
143.79
0.0000
0.6584
0.6538
83.861

. vif
Variable |
VIF
1/VIF
-------------+----------------------

_cons |
283.7446
70.32475
4.03
0.000
145.4848
422.0044
------------------------------------------------------------------------------

27

Variable |
VIF
1/VIF
-------------+---------------------col_grad |
1.28
0.782726
grad_sch |
1.26
0.792131
some_col |
1.03
0.966696
acs_k3 |
1.02
0.976666
-------------+---------------------Mean VIF |
1.15

. regress

26

25

-----------------------------------------------------------------------------api00 |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------acs_k3 |
11.45725
3.275411
3.50
0.001
5.016669
17.89784
avg_ed |
227.2638
37.2196
6.11
0.000
154.0773
300.4504
grad_sch | -2.090898
1.352292
-1.55
0.123
-4.749969
.5681735
col_grad | -2.967831
1.017812
-2.92
0.004
-4.969199
-.9664626
some_col | -.7604543
.8109676
-0.94
0.349
-2.355096
.8341872
_cons | -82.60913
81.84638
-1.01
0.313
-243.5473
78.32904
------------------------------------------------------------------------------

. vif

avg_ed |
43.57
0.022951
grad_sch |
14.86
0.067274
col_grad |
14.78
0.067664
some_col |
4.07
0.245993
acs_k3 |
1.03
0.971867
-------------+---------------------Mean VIF |
15.66
api00 acs_k3 grad_sch col_grad some_col

Source |
SS
df
MS
-------------+-----------------------------Model | 4180144.34
4 1045036.09
Residual | 3834062.79
393 9755.88497
-------------+-----------------------------Total | 8014207.14
397 20186.9197

Number of obs
F( 4,
393)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

398
107.12
0.0000
0.5216
0.5167
98.772

-----------------------------------------------------------------------------api00 |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------acs_k3 |
11.7126
3.664872
3.20
0.002
4.507392
18.91781
grad_sch |
5.634762
.4581979
12.30
0.000
4.733936
6.535588
col_grad |
2.479916
.3395548
7.30
0.000
1.812345
3.147487
some_col |
2.158271
.4438822
4.86
0.000
1.28559
3.030952

CHAPITRE 1. LA MULTICOLINARIT

22

1.7 Fiche de TD 1.2 : la multicolinarit

Il sagit dun fichier qui donne les performances acadmique des coles (api00). On cherche
expliquer ces performances par un certain nombre de variables telles que le nombre moyen
denfants par classe en maternelle (acs_k3), le niveau dducation des parents (avg_ed), le pourcentage des parents ayant le niveau lyce (grad_sch), le pourcentage des parents ayant un diplome universitaire (col_grad), et le pourcentage de parents qui ont t luniversit (some_col).
. use http://www.ats.ucla.edu/stat/stata/webbooks/reg/elemapi2, clear
. describe
Contains data from http://www.ats.ucla.edu/stat/stata/webbooks/reg/elemapi2.dta
obs:
400
vars:
22
9 Feb 2002 01:28
size:
15,200 (98.5% of memory free)
------------------------------------------------------------------------------storage display
value
variable name
type
format
label
variable label
------------------------------------------------------------------------------snum
int
%9.0g
school number
dnum
int
%7.0g
dname
district number
api00
int
%6.0g
api 2000
api99
int
%6.0g
api 1999
growth
int
%6.0g
growth 1999 to 2000
meals
byte
%4.0f
pct free meals
ell
byte
%4.0f
english language learners
yr_rnd
byte
%4.0f
yr_rnd
year round school
mobility
byte
%4.0f
pct 1st year in school
acs_k3
byte
%4.0f
avg class size k-3
acs_46
byte
%4.0f
avg class size 4-6
not_hsg
byte
%4.0f
parent not hsg
hsg
byte
%4.0f
parent hsg
some_col
byte
%4.0f
parent some college
col_grad
byte
%4.0f
parent college grad
grad_sch
byte
%4.0f
parent grad school
avg_ed
float %9.0g
avg parent ed
full
byte
%8.2f
pct full credential
emer
byte
%4.0f
pct emer credential
enroll
int
%9.0g
number of students
mealcat
byte
%18.0g
mealcat
Percentage free meals in 3
categories
collcat
float %9.0g
-----------------------------------------------------------------------------

On commence par sortir un tableau de corrlation pour voir quelles sont les relations entre
les variables.
. pwcorr

api00 acs_k3 avg_ed grad_sch col_grad some_col, star(.05)

|
api00
acs_k3
avg_ed grad_sch col_grad some_col
-------------+------------------------------------------------------

1.7. FICHE DE TD 1.2 : LA MULTICOLINARIT


api00
acs_k3
avg_ed
grad_sch
col_grad
some_col

|
|
|
|
|
|

1.0000
0.1710* 1.0000
0.7930* 0.0794
0.6332* 0.0983*
0.5273* -0.0174
0.2615* 0.0915

1.0000
0.7973*
0.8089*
0.3031*

1.0000
0.4439*
0.0718

23

1.0000
0.1555*

1.0000

Certaines corrlations sont trs fortes, il peut y avoir un problme de multicolinarit. On


peut dterminer le VIF pour lensemble de ces variables. Pour cela on commence par faire une
rgression suivit de VIF
. regress

api00 acs_k3 avg_ed grad_sch col_grad some_col

Source |
SS
df
MS
-------------+-----------------------------Model | 5056268.54
5 1011253.71
Residual | 2623191.21
373 7032.68421
-------------+-----------------------------Total | 7679459.75
378 20316.0311

Number of obs
F( 5,
373)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

379
143.79
0.0000
0.6584
0.6538
83.861

-----------------------------------------------------------------------------api00 |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------acs_k3 |
11.45725
3.275411
3.50
0.001
5.016669
17.89784
avg_ed |
227.2638
37.2196
6.11
0.000
154.0773
300.4504
grad_sch | -2.090898
1.352292
-1.55
0.123
-4.749969
.5681735
col_grad | -2.967831
1.017812
-2.92
0.004
-4.969199
-.9664626
some_col | -.7604543
.8109676
-0.94
0.349
-2.355096
.8341872
_cons | -82.60913
81.84638
-1.01
0.313
-243.5473
78.32904
-----------------------------------------------------------------------------. vif
Variable |
VIF
1/VIF
-------------+---------------------avg_ed |
43.57
0.022951
grad_sch |
14.86
0.067274
col_grad |
14.78
0.067664
some_col |
4.07
0.245993
acs_k3 |
1.03
0.971867
-------------+---------------------Mean VIF |
15.66

On constate que les valeurs pour avg_ed, grad_sch et col_grad sont leves et donc plutt inquitantes. En fait
toutes ces variables mesurent le niveau dducation des parents et le VIF lev indique que ces variables sont sans
doute redondantes. Par exemple, il suffit de connatre grad_sch et col_grad pour connatre le niveau dducation
des parents avg_ed. Dans cet exemple, la multicolinarit se produit parce que de nombreuses variables mesurent le
mme phnomne savoir le niveau dducation des parents. Essayons domettre une varible, mettons avg_ed.
. regress

api00 acs_k3 grad_sch col_grad some_col

Source |
SS
df
MS
-------------+-----------------------------Model | 4180144.34
4 1045036.09

Number of obs =
F( 4,
393) =
Prob > F
=

398
107.12
0.0000

24

CHAPITRE 1. LA MULTICOLINARIT

Residual | 3834062.79
393 9755.88497
-------------+-----------------------------Total | 8014207.14
397 20186.9197

R-squared
=
Adj R-squared =
Root MSE
=

0.5216
0.5167
98.772

-----------------------------------------------------------------------------api00 |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------acs_k3 |
11.7126
3.664872
3.20
0.002
4.507392
18.91781
grad_sch |
5.634762
.4581979
12.30
0.000
4.733936
6.535588
col_grad |
2.479916
.3395548
7.30
0.000
1.812345
3.147487
some_col |
2.158271
.4438822
4.86
0.000
1.28559
3.030952
_cons |
283.7446
70.32475
4.03
0.000
145.4848
422.0044
-----------------------------------------------------------------------------. vif
Variable |
VIF
1/VIF
-------------+---------------------col_grad |
1.28
0.782726
grad_sch |
1.26
0.792131
some_col |
1.03
0.966696
acs_k3 |
1.02
0.976666
-------------+---------------------Mean VIF |
1.15

On remarque que les VIF sont bien moins leves. On peut galement remarquer que les
cart-types se sont rduits pour les variables dducation des parents grad_sch et col_grad. Ceci
sexplique par le fait que le degr lev de colinarit a conduit une augmentation importante
des cart-types. Par ailleurs, une fois la multicolinarit limine, le coefficient de grad_sch est
devenu significatif alors quil ne ltait pas auparavant !

UNIVERSITE DE PARIS 11
Fiche de TD 2 : la multicolinarit

Il sagit dun fichier qui donne les performances acadmique des coles (api00). On cherche
expliquer ces performances par un certain nombre de variables telles que le nombre moyen
denfants par classe en maternelle (acs_k3), le niveau dducation des parents (avg_ed), le pourcentage des parents ayant le niveau lyce (grad_sch), le pourcentage des parents ayant un diplome universitaire (col_grad), et le pourcentage de parents qui ont t luniversit (some_col).
1. Y a t-il de la multicolinarit dans la premire rgression ? Par quels biais le remarquezvous ?
2. Dterminez la VIF pour avg_ed
3. Quelles solutions peut-on envisager pour rsoudre le problme ? Comment justifiezvous cette solution ?
. pwcorr

api00 acs_k3 avg_ed grad_sch col_grad some_col, star(.05)

|
api00
acs_k3
avg_ed grad_sch col_grad some_col
-------------+-----------------------------------------------------api00 |
1.0000
acs_k3 |
0.1710* 1.0000
avg_ed |
0.7930* 0.0794
1.0000
grad_sch |
0.6332* 0.0983* 0.7973* 1.0000
col_grad |
0.5273* -0.0174
0.8089* 0.4439* 1.0000
some_col |
0.2615* 0.0915
0.3031* 0.0718
0.1555* 1.0000
. regress

api00 acs_k3 avg_ed grad_sch col_grad some_col

Source |
SS
df
MS
-------------+-----------------------------Model | 5056268.54
5 1011253.71
Residual | 2623191.21
373 7032.68421
-------------+-----------------------------Total | 7679459.75
378 20316.0311

Number of obs
F( 5,
373)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

379
143.79
0.0000
0.6584
0.6538
83.861

-----------------------------------------------------------------------------api00 |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------acs_k3 |
11.45725
3.275411
3.50
0.001
5.016669
17.89784
avg_ed |
227.2638
37.2196
6.11
0.000
154.0773
300.4504
grad_sch | -2.090898
1.352292
-1.55
0.123
-4.749969
.5681735
col_grad | -2.967831
1.017812
-2.92
0.004
-4.969199
-.9664626
some_col | -.7604543
.8109676
-0.94
0.349
-2.355096
.8341872
_cons | -82.60913
81.84638
-1.01
0.313
-243.5473
78.32904
------------------------------------------------------------------------------

regress

avg_ed

acs_k3 grad_sch col_grad some_col

Source |
SS
df
MS
-------------+-----------------------------Model | 216.114961
4 54.0287402
Residual | 5.07665699
374 .013573949
-------------+-----------------------------Total | 221.191618
378
.58516301

Number of obs
F( 4,
374)
Prob > F
R-squared
Adj R-squared
Root MSE

=
379
= 3980.33
= 0.0000
= 0.9770
= 0.9768
= .11651

-----------------------------------------------------------------------------avg_ed |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------acs_k3 |
.0004584
.0045504
0.10
0.920
-.0084892
.0094061
grad_sch |
.0347897
.0005417
64.22
0.000
.0337245
.0358549
col_grad |
.0261866
.0004074
64.28
0.000
.0253855
.0269876
some_col |
.0188694
.0005634
33.49
0.000
.0177616
.0199771
_cons |
1.412384
.0871539
16.21
0.000
1.241011
1.583757
-----------------------------------------------------------------------------. vif
Variable |
VIF
1/VIF
-------------+---------------------avg_ed |
43.57
0.022951
grad_sch |
14.86
0.067274
col_grad |
14.78
0.067664
some_col |
4.07
0.245993
acs_k3 |
1.03
0.971867
-------------+---------------------Mean VIF |
15.66
. regress

api00 acs_k3 grad_sch col_grad some_col

Source |
SS
df
MS
-------------+-----------------------------Model | 4180144.34
4 1045036.09
Residual | 3834062.79
393 9755.88497
-------------+-----------------------------Total | 8014207.14
397 20186.9197

Number of obs
F( 4,
393)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

398
107.12
0.0000
0.5216
0.5167
98.772

-----------------------------------------------------------------------------api00 |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------acs_k3 |
11.7126
3.664872
3.20
0.002
4.507392
18.91781
grad_sch |
5.634762
.4581979
12.30
0.000
4.733936
6.535588
col_grad |
2.479916
.3395548
7.30
0.000
1.812345
3.147487
some_col |
2.158271
.4438822
4.86
0.000
1.28559
3.030952
_cons |
283.7446
70.32475
4.03
0.000
145.4848
422.0044
------------------------------------------------------------------------------

Lautocorrelation.
Dans le cas de donnees en coupe transversale, le fait que les erreurs ne sont plus independantes peut e tre du a` des effets de voisinage. Les observations qui sont semblables auront leurs erreurs
correlees.
Lorsque lon consid`ere des donnees en series temporelles, une
relation similaire peut e tre observee pour les donnees au cours du
temps. Les observations qui sont proches dans le temps seront
correlees, limportance de la correlation augmente avec leur proximite dans le temps. Bien quil ny ait pas de mesure de proximite
des variables dans le cas des series en coupe, dans le cas des series
temporelles, la proximite est definie naturellement par le temps qui
secoule, on parle dautocorrelation.

On impose une restriction || < 1 pour sassurer que  est stationnaire et de variance finie, ce qui implique que les effets
dun choc ut se dissiperont au cours du temps.
Si = 1, le processus est totalement aleatoire, e galement qualifie de random walk, ce qui implique que la variance de  est
infinie et qu devient non stationnaire, e galement qualifie de
processus integre dordre un et note I(1).
Plus sera grand en valeur absolue et plus les chocs seront
persistants au cours du temps et plus les erreurs t seront autocorrelees. En effet, dans le cas du mod`ele AR(1), la fonction
dautocorrelation des  sera une suite geometrique , 2, 3, . . . ,
et la correlation entre erreurs separees par periodes sera .

Definir lautocorrelation

Comme dans le cas de lheteroscedasticite, les tests dautocorrelation


sappuient sur les residus des regressions.
Dans le cas le plus simple, les erreurs autocorrelees suivent un
mod`ele AR(1) : il sagit dun processus autoregressif dordre 1,
e galement qualifie de processus de Markov dordre 1:
|| < 1
(1)
t = t1 + ut
ut est une variable aleatoire non correlee de moyenne nulle et de
variance constante.

Tester lautocorrelation

Dans Stata, la fonction dautocorrelation pour une serie temporelle


peut e tre calculee a` laide de la commande ac ou corrgram (le
corrgram represente le correlogramme de la serie). Afin de diagnostiquer lautocorrelation :
1. on va sappuyer sur les residus estimes obtenus apr`es une regression
des MCO a` laide de la commande predict,
2. on estime ensuite une regression auxiliaire de t sur t1
sans
constante puisque les residus ont une moyenne nulle,
3. la pente obtenue pour cette regression est un estimateur a` variance minimale du coefficient dautocorrelation dordre un, note
pour la serie,

4. Sous lhypoth`ese nulle = 0, un rejet de cette hypoth`ese nulle


par le test LM indique que les erreurs suivent un processus autoregressif dordre un.

Les tests de lautocorrelation :


1. Un generalisation du processus implique que lon teste des processus autoregressifs dun ordre plus e leve que un, ce qui peut
se faire a` laide du multiplicateur de Langrange de Breusch et
Godfrey.
Dans ce test, on ajoute des decalages des residus dordre p a`
la regression. Lhypoth`ese nulle est alors que les erreurs sont
independantes jusqu`a lordre p. Le test est disponible dans
stata sous la commande estat bgodfrey.

2. Une variante du test de Breusch-Godfrey est donnee par la statistique Q de Box et Pierce, suivant la definition de Ljung et Box,
qui examine les premi`eres p autocorrelations de lechantillon
des residus :
rj2
(2)
j=1 T j
rj2 est la j`eme autocorrelation de la serie des residus. Contrairement au test de Breusch-Godfrey, le test du Q sappuie sur les
simples correlations des residus plutot que les correlation partielles. Pour cette raison, ce test est moins puissant que celui de
Breusch-Godfrey lorsque lhypoth`ese nulle (de non correlation
entre les  jusqu`a lordre p) est rejetee.
Neanmoins le test du Q peut e tre applique a` toute serie temQ = T (T + 2)

p


porelle quelle contient ou non les residus tires de lestimation


dun mod`ele.
Sous lhypoth`ese nulle,
Q 2(p)
Le test Q peut se realiser dans Stata a` laide de la commande
wntestq, que lon qualifie e galement de test du bruit blanc white noise, une propriete des variables aleatoires qui ne presentent
pas dautocorrelation.

3. Le test le plus ancien et largement utilise (malgre ses inconvenients)


est la statistique d de Durbin and Watson:
d=

)
t=2 (t t1
T
2


t
t=2

T

ne doit pas contenir de variables decalees dans le temps). Au


lieu davoir un ensemble de valeurs critiques, le test du D-W a
deux valeurs critiques dL (limite inferieur - L comme lower) dU
(limite superieure - U comme upper).

 2(1 )

Le test de Durbin-Watson (D-W) repose sur une statistique pour


laquelle le numerateur contient la variance des residus moins
deux fois lautocorrelation des residus :

La r`egle de decision est la suivante :


si d < dL on rejette lhypoth`ese null;
si d > dU on ne la rejette pas ;
si dL < d < dU il y a un doute

si = 0, son autocovariance sera proche de zero et d sera


proche de 2
quand 1,
d0
alors que si 1,
d4

(Pour lautocorrelation negative < 0, on test 4 d contre les


memes valeurs critiques.)
Le test peut e tre fait dans Stata a` laide de la commande estat
dwstat et est automatiquement donne avec lestimation prais.

Neanmoins, la distribution exacte de la statistique depend de la


matrice des regresseurs (qui doit contenir un terme constant et

En presence dune variable independante decalee, la statistique


d est biaisee vers 2, et la statistique h doit e tre utilisee. Il
sagit dun test de LM qui se calcule a` partir des residus de
la regression sur les valeurs decalees de la matrice X. Le test
est e quivalent a` celui de Breusch-Godfrey pour p = 1 et il est
disponible dans Stata estat durbinalt.

2.0.1

Application

Reprenons lexemple dune base de donnees mensuelles portant


sur les taux dinteret a` court et long terme, allant de 1952, 3`eme
mois a` 1995, 12`eme mois.
Les statistiques descriptives sont donnees par la commande summarize :
. use http://www.stata-press.com/data/imeus/ukrates, clear
. summarize rs r20
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------rs |
526
7.651513
3.553109
1.561667
16.18
r20 |
526
8.863726
3.224372
3.35
17.18

Le mod`ele exprime la variation du taux dinteret a` court terme

rs, qui est ici linstrument de politique monetaire de la Banque


dAngleterre, comme une fonction de la variation du taux de change
mensuelle de long terme r20. Les variables sont obtenues a` laide
des operateurs D. et L.

-----------------------------------------------------------------------D.rs |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
---------+-------------------------------------------------------------r20 |
LD. |
.4882883
.0671484
7.27
0.000
.356374
.6202027
_cons |
.0040183
.022384
0.18
0.858 -.0399555
.0479921
------------------------------------------------------------------------

On fait la regression et on sauvegarde les residus a` laide de predict afin de realiser le test wntestq.

. predict double eps, residual


(2 missing values generated)

. regress D.rs LD.r20


. estat bgodfrey, lags(6)
=
=
=
=
=
=

524
52.88
0.0000
0.0920
0.0902
.51228

-----------------------------------------------------------------------H0: no serial correlation


. wntestq eps

0.10

Portmanteau test for white noise


--------------------------------------Portmanteau (Q) statistic =
82.3882
Prob > chi2(40)
=
0.0001

Breusch-Godfrey LM test for autocorrelation


-----------------------------------------------------------------------lags(p) |
chi2
df
Prob > chi2
----------+------------------------------------------------------------6
|
17.237
6
0.0084

0.15

Number of obs
F( 1,
522)
Prob > F
R-squared
Adj R-squared
Root MSE

Autocorrelations of eps
0.05
0.00
0.05
0.10

Source |
SS
df
MS
---------+-----------------------------Model | 13.8769739
1 13.8769739
Residual | 136.988471
522 .262430021
---------+-----------------------------Total | 150.865445
523 .288461654

Le graphe des autocorrelation obtenu avec la commande ac D.rs

10

20
Lag

30

40

Bartletts formula for MA(q) 95% confidence bands

Le test de Breusch-Godfrey realise consid`ere lhypoth`ese nulle


dindependance des erreurs jusqu`a lordre six, et cette hypoth`ese
est fortement rejetee.
Le test Q obtenu a` laide wntestq qui est plus general, confirme le premier diagnostique. Le graphique ci-dessus donne des

e lements supplementaires en montrant une forte autocorrelation


dordre un - AR(1) -.

lestimation par les moindres carres quasi generalises

Pour les erreurs de type AR(1), si e tait connu, on pourrait estimer


les coefficients par la methode des moindres carres generalises. La
forme de  est simplifiee lorsque lon consid`ere lautocorrelation
a` lordre un puisquon a quun seul param`etre .

1 2 0 . . . 0

1
.
.
.
0

1
2
.
.
.
.
. . .
.
.
 = 

0
1 0

0
. . . 1
Comme pour lheteroscedasticite, on ne construit pas explicitement cette matrice, en revanche on applique la methode des moindres carres generalises en transformant les variables originales. Pour

les observations 1,..., T, on quasi differencie les donnees : yt


yt1, xjt
xjt1, etc. Les premi`eres observations sont multipliees par 1 2.

Lestimateur de Prais et Winsten propose une estimation de


1
obtenue a` laide des residus des MCO pour estimer
 comme
ci-dessus.

Neanmoins lestimateur des moindres carres generalises nest


pas applicable car est inconnu de meme que et 2. On applique donc la methode des moindres carres quasi generalises, en
ce sens que lon remplace linconnu par un estimation a` variance
.
minimale permettant de determiner

Cochrane et Orcutt propose une variante de Prais et Winsten en


proposant un traitement different de la premi`ere observation des
donnees transformees.
La resolution des deux procedures destimation se fait par iteration
entre les estimations de et . Les deux estimations sont presentes
dans Stata a` laide de la commande prais. Application :

Lestimation par la methode des moindres carres quasi generalises


pour la politique monetaire trouve une valeur de de 0,19 et un coefficient pour le taux decale considerablement plus faible dans le
cas des moindres carres ordinaires.
. prais D.rs LD.r20
Iteration
Iteration
Iteration
Iteration
Iteration
Iteration
Iteration
Iteration
Iteration
Iteration

0:
1:
2:
3:
4:
5:
6:
7:
8:
9:

rho
rho
rho
rho
rho
rho
rho
rho
rho
rho

=
=
=
=
=
=
=
=
=
=

0.0000
0.1488
0.1803
0.1874
0.1891
0.1894
0.1895
0.1895
0.1895
0.1895

Prais-Winsten AR(1) regression -- iterated estimates


Source |
SS
df
MS
---------+-----------------------------Model | 6.56420242
1 6.56420242
Residual | 133.146932
522
.25507075
---------+-----------------------------Total | 139.711134
523
.2671341

Number of obs
F( 1,
522)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

524
25.73
0.0000
0.0470
0.0452
.50505

-----------------------------------------------------------------------D.rs |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
---------+-------------------------------------------------------------r20 |
LD. |
.3495857
.068912
5.07
0.000
.2142067
.4849647
_cons |
.0049985
.0272145
0.18
0.854 -.0484649
.0584619
---------+-------------------------------------------------------------rho |
.1895324
-----------------------------------------------------------------------Durbin-Watson statistic (original)
1.702273

Durbin-Watson statistic (transformed) 2.007414

En resume, bien que lon puisse regler les probl`emes dautocorrelation


par la methode des moindres carres quasi generalises, il faut sassurer
que lautocorrelation ne provient pas simplement dune mauvaise
specification dun mod`ele dynamique (avec variables explicatives
decalees) ou dune omission dune ou plusieurs variables importantes du mod`ele.

Si les erreurs sont i.i.d. - distribuees de mani`ere independante et


identique -, la methode des MCO produira des estimations a` variance minimale. Pour les grands e chantillons, les estimateurs sont
normaux avec une moyenne a` la vraie valeur de la population et
une matrice des variances-covariances minimale estimee par

La methode des moindres carres generalisees est appropriee dans


le cas des processus autoregressif dordre un, mais pour des ordres
superieures dautres techniques doivent e tre appliquees, comme
lestimation des processus autoregressifs en moyenne mobile (ARMA).


(3)
N k1 N k1
Si la condition desperance nulle est vraie mais que les erreurs
ne sont pas i.i.d., les MCO produiront des estimations qui suivent une loi normale pour les grands e chantillons centres sur la
moyenne mais pour lesquelles la matrice des variances-covariances

Resume et conclusion

s2 =

2i
i=1 

N

nest plus minimale.


2 options sont alors possibles si les erreurs ne sont pas i.i.d. :
1. utiliser les estimations des coefficients de la methode des MCO
et adopter un estimateur different pour la matrice des variancescovariances afin de tenir compte des erreurs non i.i.d
2. si on peut specifier la mani`ere dont les erreurs secartent de
li.i.d. dans le mod`ele, on peut utiliser un estimateur different
pour produire un estimateur des coefficients plus efficace et a`
variance minimale.

quil suffit de corriger la matrice des variances-covariances des


estimateurs.
Lapproche efficace int`egre une specification explicite de la distribution i.i.d. des erreurs dans le mod`ele. Si la specification
est appropriee, les restrictions supplementaires introduites produiront un estimateur plus efficace que lapproche robuste.

Larbitrage entre les deux methodes est un arbitrage entre la robustesse et lefficacite
Une approche robuste imposera moins de restrictions a` lestimateur
: lidee est que lestimation des coefficients est suffisante et

4.0.2

Annexe

Les operateurs des series temporelles :


L.x = xt1 est une variable decalee dune periode ; ainsi L4.x
indique le quatri`eme decalage de x.
D.x = x = xt xt1 est une difference dordre un
D2.x = (xt) = (xt xt1) = xt 2xt1 + xt2 est une
difference dordre deux.
Les operateurs peuvent e tre combines ainsi LD.x est le decalage
dune periode de la difference premi`ere. LD.x = DL.x = xt1
xt2
S. est loperateur de saison, il calcule la difference entre la valeur
de la periode courante et la meme periode un an auparavant.

Sur une donnee trimestrielle, S.x donne xt xt4 et S2.x donne


xt xt8
on peut e galement obtenir une variable decalee a` laide de x[ n1] et la premi`ere difference a` laide de x[ n]-x[ n-1], mais cette
construction est plus lourde et e galement dangereuse.

UNIVERSITE DE PARIS 11
TD dconomtrie

Anne Plunket
Autocorrlation

1 Problme 1
Vous disposez de donnes agrges portant sur linvestissement invest, les taux dintrt
interest et le PNB GNP sur 30 annes (1960 1989).
1. Analysez le tableau de la rgression ci-dessous.
2. Proposez un test du Durbin et Watson. Quelles sont vos conclusions ?
. use invest.dta", clear
. tsset year /* cette commande indique quil sagit de variables temporelles*/
time variable: year, 60 to 89
. regdw

invest GNP

interest

Source |
SS
df
MS
-------------+-----------------------------Model | 1329.98699
2 664.993493
Residual | 299.335855
27 11.0865131
-------------+-----------------------------Total | 1629.32284
29 56.1835462

Number of obs
F( 2,
27)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

30
59.98
0.0000
0.8163
0.8027
3.3296

-----------------------------------------------------------------------------invest |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------GNP |
.7699114
.0717905
10.72
0.000
.6226094
.9172134
interest | -.1841962
.1264157
-1.46
0.157
-.4435798
.0751874
_cons |
6.224938
2.510894
2.48
0.020
1.073009
11.37687
-----------------------------------------------------------------------------Durbin-Watson Statistic =

.852153

3. On vous propose le graphique suivant. Laspect des rsidus corrobore-t-il vos conclusions
pour le test du Durbin et Watson ?
. predict res, resid
. scatter res year, yline(0)

4
2
Residuals
2
0
4
6
60

70

80

90

year

4. Il vous est propos deux tests de Breusch-Godfrey ? Quelle est la diffrence entre les deux
tests ? Quelles sont vos conclusions ?
. reg invest GNP interest
Source |
SS
df
MS
-------------+-----------------------------Model | 1329.98699
2 664.993493
Residual | 299.335855
27 11.0865131
-------------+-----------------------------Total | 1629.32284
29 56.1835462

Number of obs
F( 2,
27)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

30
59.98
0.0000
0.8163
0.8027
3.3296

-----------------------------------------------------------------------------invest |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------GNP |
.7699114
.0717905
10.72
0.000
.6226094
.9172134
interest | -.1841962
.1264157
-1.46
0.157
-.4435798
.0751874
_cons |
6.224938
2.510894
2.48
0.020
1.073009
11.37687
-----------------------------------------------------------------------------. estat bgodfrey, lags(1)
Breusch-Godfrey LM test for autocorrelation
--------------------------------------------------------------------------lags(p) |
chi2
df
Prob > chi2
-------------+------------------------------------------------------------1
|
10.025
1
0.0015
--------------------------------------------------------------------------H0: no serial correlation
. estat bgodfrey, lags(4)
Breusch-Godfrey LM test for autocorrelation
--------------------------------------------------------------------------lags(p) |
chi2
df
Prob > chi2
-------------+------------------------------------------------------------4
|
11.918
4
0.0180

--------------------------------------------------------------------------H0: no serial correlation

5. On vous propose la rgression suivante. Apporte-t-elle une amlioration ?


. prais invest GNP interest
Iteration
Iteration
Iteration
Iteration
Iteration
Iteration
Iteration
Iteration

0:
1:
2:
3:
4:
5:
6:
7:

rho
rho
rho
rho
rho
rho
rho
rho

=
=
=
=
=
=
=
=

0.0000
0.5677
0.6234
0.6272
0.6275
0.6275
0.6275
0.6275

Prais-Winsten AR(1) regression -- iterated estimates


Source |
SS
df
MS
-------------+-----------------------------Model | 270.876071
2 135.438036
Residual | 189.038992
27 7.00144413
-------------+-----------------------------Total | 459.915063
29 15.8591401

Number of obs
F( 2,
27)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

30
19.34
0.0000
0.5890
0.5585
2.646

-----------------------------------------------------------------------------invest |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------GNP |
.7337751
.125379
5.85
0.000
.4765187
.9910315
interest | -.2893788
.0766134
-3.78
0.001
-.4465765
-.1321812
_cons |
8.704382
3.110804
2.80
0.009
2.321539
15.08723
-------------+---------------------------------------------------------------rho |
.6275201
-----------------------------------------------------------------------------Durbin-Watson statistic (original)
0.852153
Durbin-Watson statistic (transformed) 1.619036

2 Problme 2
1. On vous propose la rgression suivante pour des donnes allant de 1950 1999. Yt reprsente le PIB agrg et Ct la consommation en t. Les tableaux de rgressions vous donnent
les cart-types entre parenthse et DW est la statistique du Durbin et Watson. Analysez le
tableau de la rgression OLS(1), est-il satisfaisante ?
2. La seconde rgression OLS(2) apporte-t-elle une amlioration ?
Dependent variable : Yt National Income
----------------------------------------OLS(1)
OLS(2)
----------------------------------------C(t)
0.800
0.250
(0.004)
(0.200)
C(t-1)
0.540
(0.300)
Constant
10.598
10.660
(0.335)
(5.500)
R2
0.915
0.995
DW
0.450
1.521
----------------------------------------

UNIVERSITE DE PARIS 11
TD dconomtrie

Anne Plunket
Autocorrlation

1 Problme 1
Vous disposez de donnes agrges portant sur linvestissement invest, les taux dintrt
interest et le PNB GNP sur 30 annes (1960 1989).
1. Analysez le tableau de la rgression ci-dessous.
On cherche tester limpact du PIB et du taux dintrt sur linvestissement. Le PIB rend
compte dun effet revenu (si le PIB augmente, le revenu augmente et par consquent on
peut imaginer que les entreprises vont faire face cette demande par de linvestissement)
alors que linvestissement rend compte dun effet prix (si les taux dintrt baissent, le
cot de lemprunt diminue et les entreprises sont incites investir). La rgression montre
que nos hypothses sont confirmes au niveau du signe, en revanche, le taux dintrt ne
semble pas significatif.
2. Proposez un test du Durbin et Watson. Quelles sont vos conclusions ?
DW = 0,8521, il y a deux variables explicatives, k = 2, et il y a 30 observations par
consquent 5%, dL = 1, 2 et dU = 1, 57
DW < dL , on rejette donc lhypothse nulle de non autocorrlation des rsidus. On
conclut donc quil y a de lautocorrlation.
Par consquent, les coefficients de la mthode des MCO sont donc non biaiss mais les
cart-types des coefficients sont biaiss. Par consquent, les statistiques du student et du
Fisher de mme que les intervalles de confiance ne sont pas acceptables.
. use invest.dta", clear
. tsset year /* cette commande indique quil sagit de variables temporelles*/
time variable: year, 60 to 89
. regdw

invest GNP

interest

Source |
SS
df
MS
-------------+-----------------------------Model | 1329.98699
2 664.993493
Residual | 299.335855
27 11.0865131
-------------+-----------------------------Total | 1629.32284
29 56.1835462

Number of obs
F( 2,
27)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

30
59.98
0.0000
0.8163
0.8027
3.3296

-----------------------------------------------------------------------------invest |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------GNP |
.7699114
.0717905
10.72
0.000
.6226094
.9172134
interest | -.1841962
.1264157
-1.46
0.157
-.4435798
.0751874
_cons |
6.224938
2.510894
2.48
0.020
1.073009
11.37687
-----------------------------------------------------------------------------Durbin-Watson Statistic =

.852153

3. On vous propose le graphique suivant. Laspect des rsidus corrobore-t-il vos conclusions
pour le test du Durbin et Watson ?
Le graphique suggre des priodes dautocorrlations positives (dans les annes 1960)
suivies dautocorrlations ngatives (dans les annes 1970) suivies dautocorrlation postivies (dans les annes 1980). Ces successions dautocorrlations positives et ngatives
sont un signe dautocorrlation positive dun degr suprieur 1. Or le test de DW ne
teste que lautocorrlation dordre 1.
. predict res, resid

Residuals
2
0

. scatter res year, yline(0)

60

70

80

90

year

4. Il vous est propos deux tests de Breusch-Godfrey ? Quelle est la diffrence entre les deux
tests ? Quelles sont vos conclusions ?
Le test de BG test lexistence dautocorrlation lordre p. Ici on teste lordre 1 puis
lordre 4. Dans les deux cas, on rejette lhypothse nulle de non autocorrlation.
1 = 10.025 > 1 (5%) = 3, 84 et 4 = 11.918 > 4 (5%) = 9, 49
. reg invest GNP interest
. estat bgodfrey, lags(1)
Breusch-Godfrey LM test for autocorrelation
--------------------------------------------------------------------------lags(p) |
chi2
df
Prob > chi2
-------------+------------------------------------------------------------1
|
10.025
1
0.0015
--------------------------------------------------------------------------H0: no serial correlation
. estat bgodfrey, lags(4)
Breusch-Godfrey LM test for autocorrelation
--------------------------------------------------------------------------lags(p) |
chi2
df
Prob > chi2
-------------+-------------------------------------------------------------

4
|
11.918
4
0.0180
--------------------------------------------------------------------------H0: no serial correlation

5. On vous propose la rgression suivante. Apporte-t-elle une amlioration ?


La rgression de Prais et Winsten permet de corriger lautocorrlation. On constate que le
taux dintrt qui ntait pas significatif, lest prsent.
. prais invest GNP interest
Iteration
Iteration
Iteration
Iteration
Iteration
Iteration
Iteration
Iteration

0:
1:
2:
3:
4:
5:
6:
7:

rho
rho
rho
rho
rho
rho
rho
rho

=
=
=
=
=
=
=
=

0.0000
0.5677
0.6234
0.6272
0.6275
0.6275
0.6275
0.6275

Prais-Winsten AR(1) regression -- iterated estimates


Source |
SS
df
MS
-------------+-----------------------------Model | 270.876071
2 135.438036
Residual | 189.038992
27 7.00144413
-------------+-----------------------------Total | 459.915063
29 15.8591401

Number of obs
F( 2,
27)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

30
19.34
0.0000
0.5890
0.5585
2.646

-----------------------------------------------------------------------------invest |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------GNP |
.7337751
.125379
5.85
0.000
.4765187
.9910315
interest | -.2893788
.0766134
-3.78
0.001
-.4465765
-.1321812
_cons |
8.704382
3.110804
2.80
0.009
2.321539
15.08723
-------------+---------------------------------------------------------------rho |
.6275201
-----------------------------------------------------------------------------Durbin-Watson statistic (original)
0.852153
Durbin-Watson statistic (transformed) 1.619036

2 Problme 2
1. On vous propose la rgression suivante pour des donnes allant de 1950 1999. Yt reprsente le PIB agrg et Ct la consommation en t. Les tableaux de rgressions des MCO
vous donnent les cart-types entre parenthse et DW est la statistique du Durbin et Watson. Analysez le tableau de la rgression OLS(1), est-il satisfaisante ?
On dispose de 50 annes de donnes, pour n=50 et k = 1 5%, dL = 1, 50 et dU = 1, 59
On rejette donc lhypothse nulle puisque DW = 0,45
Par consquent, les coefficients de la mthode des MCO sont donc non biaiss mais les
cart-types des coefficients sont biaiss. Par consquent, les statistiques du student et du
Fisher de mme que les intervalles de confiance ne sont pas acceptables.

2. La seconde rgression OLS(2) apporte-t-elle une amlioration ?


La seconde rgression peut constituer une amlioration car le fait dintroduire des dcalages dans le temps peut aider corriger lautocorrlation. A prsent, pour k = 2,
dL = 1, 44 et dU = 1, 63, dL < DW < dU . Dans la mesure o DW se situe entre les
limites infrieures et suprieures des valeurs critiques, il existe un doute quant lexistence dautocorrlation dordre 1. Dans ce cas, la prudence simpose, on penche plutt
pour lexistence dautocorrlation.
Dependent variable : Yt National Income
----------------------------------------OLS(1)
OLS(2)
----------------------------------------C(t)
0.800
0.250
(0.004)
(0.200)
C(t-1)
0.540
(0.300)
Constant
10.598
10.660
(0.335)
(5.500)
R2
0.915
0.995
DW
0.450
1.521
----------------------------------------

Lheteroscedasticite.
La methode des moindres carres ordinaires suppose que les erreurs sont independantes et distribuees de mani`ere identique
(- i.i.d.).
Cette hypoth`ese est violee lorsque :
la variance des erreurs, conditionnelle aux variables explicatives (ou regresseurs) varie avec les observations. A ce moment
l`a, lhypoth`ese de distribution identique est violee. Ce probl`eme
est connu sous le terme dheteroscedasticite des erreurs par opposition a` lhomoscedasticite ou variance commune.
Lorsque les erreurs sont i.i.d., on suppose quelles sont conditionnellement homoscedastiques : les regresseurs napportent
pas dinformation concernant la variance des erreurs.

Lorsque les erreurs sont correlees les unes aux autres, elles ne
sont plus distribuees de mani`ere independante; on parle alors
dautocorrelation des erreurs - chapitre suivant.
1

Quest-ce que lheteroscedasticite


Dans les series en coupe transversale representant des individus, des menages ou des entreprises, la variance des erreurs
est souvent dependante dune certaine taille ou e chelle de grandeur;
Il peut y avoir homoscedasticite au sein de groupes dindividus
similaires mais heteroscedasticite entre les groupes (ex: travailleurs a` la commission et travailleurs salaries).
La methode des moindres carres quasi generalises qui tient compte

de cette particularite attribuera des valeur differentes pour 2;


elles seront similaires pour les individus du meme groupe mais
differentes entre les groupes.
Lheteroscedasticite se rencontre lorsque les donnees sont agregees,
cest-`a-dire lorsque chaque observation est la moyenne de donnees
microeconomiques telles que pour une region ou un Etat.
1.1

Lheteroscedasticite liee a` une e chelle de grandeur.

La variance des erreurs depend dune certaine e chelle de grandeur


(ex: dispersion dans la consommation des menages ou des investissements pour les entreprises) :
i2 zi

zi est une variable representant lechelle de grandeur de la i`eme


unite
il ne faut estimer que 2 en fonction dun facteur de proportionnalite z.
Quelle est nature de la proportionnalite?
1. si = 2, on sait que lecart-type de lerreur sera proportionnelle
a` zi (par exemple, le revenu du menage ou les actifs ou lemploi
de lentreprise)
2. si = 1, on sait que la variance de lerreur est proportionnelle

a` zi, de sorte que lecart-type est proportionnelle a` zi


le choix de zi et permettra de definir lestimateur des moindres carres quasi generalises a` utiliser.

1.1.1

Test de lheteroscedasticite liee a` lechelle de grandeur

Apr`es avoir fait la regression des moindres carres ordinaires, on


peut faire un test dheteroscedasticite en prenant les residus de
la regression.
(1)
H0 : V ar[|X] = 2
Sous lhypoth`ese nulle, la variance conditionnelle des erreurs ne
depend pas des variables explicatives.
Etant donne que
E[] = 0
cette hypoth`ese nulle est e quivalente a`
E[2|X] = 2

Lesperance des residus au carre conditionnelle a` nimporte quelle


source dinformation zi ne devrait pas avoir dimpact sur son pouvoir explicatif ( zi doit e tre une fonction du regresseur).
Le test le plus courant qui decoule de ce type de raisonnement
est celui de Breusch-Pagan (BP). Le test de BP est un test
du multiplicateur de Lagrange qui implique que lon fasse une
regression du carre des residus sur un ensemble de variables :
2 = d0 + d1zi1 + d2zi2 + . . . + dl zil + vi

(2)

a` partir de la regression de lequation auxiliaire ci-dessus, sous


lhypoth`ese nulle,
LM = n R22 2l
l represente le nombre de regresseur de la regression auxiliaire.
Dans Stata, on peut obtenir le test de BP a` laide de la com-

mande estat hettest apr`es la commande regress. Si aucune


liste de regresseur (z) nest fournie, le test hettest sappuie sur
les valeurs de la regression precedente (les yi).
test de White : Le test de BP avec z = x est un cas particulier
du test de White : il repose sur une regression auxiliaire de
2i sur les variables explicatives, leurs carres et leurs produits
croises.
Si on ne parvient pas a` rejeter lhypoth`ese nulle dhomoscedasticite,
ca ne signifie pas une absence dheteroscedasticite mais plutot
que lheteroscedasticite (si elle existe) nest pas de la forme
specifiee..

1.1.2

Application

Considerons un exemple dheteroscedasticite liee a` lechelle de


mesure dans le cas des prix medians du logement. La taille peut
e tre comprise ici comme la taille du logement dans chaque quartier,
mesuree par le nombre de pi`eces.
. use http://www.stata-press.com/data/imeus/hprice2a, clear
(Housing price data for Boston-area communities)
. regress

lprice rooms crime ldist

Source |
SS
df
MS
-----------+-----------------------------Model | 47.9496883
3 15.9832294
Residual | 36.6325827
502 .072973272
-----------+-----------------------------Total | 84.5822709
505 .167489645

Number of obs
F( 3,
502)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

506
219.03
0.0000
0.5669
0.5643
.27014

---------------------------------------------------------------------------lprice |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-----------+---------------------------------------------------------------rooms |
.3072343
.0178231
17.24
0.000
.2722172
.3422514
crime | -.0174486
.001591
-10.97
0.000
-.0205744
-.0143228
ldist |
.074858
.0255746
2.93
0.004
.0246115
.1251045
_cons |
7.984449
.1128067
70.78
0.000
7.762817
8.20608
---------------------------------------------------------------------------. estat hettest
Breusch-Pagan / Cook-Weisberg test for heteroskedasticity
Ho: Constant variance
Variables: fitted values of lprice
chi2(1)
Prob > chi2

. estat hettest

=
=

140.84
0.0000

rooms crime ldist

Breusch-Pagan / Cook-Weisberg test for heteroskedasticity


Ho: Constant variance
Variables: rooms crime ldist
chi2(3)
Prob > chi2

=
=

252.60
0.0000

. whitetst
Whites general test statistic :

144.0052

Chi-sq( 9)

P-value =

Chacun de ces tests indique quil y a de lheteroscedasticite et de


mani`ere significative puisque par exemple, P rob > chi2 = 0.0000.

1.5e-26

1.2

Lheteroscedasticite entre des groupes dobservations

Lheteroscedasticite entre des groupes dobservations est souvent


associee au fait de regrouper des donnees qui peuvent e tre des ensembles dobservations distribuees de mani`ere non identique (Ex.
Expliquer la depense de consommation a` laide dune e tude menee
dans differentes regions).
Le mod`ele est-il structurellement stable : les deux populations
peuvent avoir les memes coefficients mais des variances differentes.
Cette situation peut se retrouver dans differents cas, tels que celui
du revenu dun salarie par rapport a` celui dun travailleur independant
ou a` la commission. Cest e galement le cas pour les profits des

entreprises (ou chiffres daffaires ou linvestissement en capital)


qui sont plus variables dans certaines industries que dautres; les
marches qui vendent des produits financiers sont, par exemple,
plus soumis a` une demande cyclique que les producteurs/vendeurs
delectricite.
1.2.1

le test de lheteroscedasticite entre groupes

Pour deux groupes, on peut construire un test du Fisher qui est


le rapport des variances des residus, avec la variance la plus
grande au denominateur; les degres de liberte sont constitues
par les degres de liberte des residus de chaque groupe. Ce test
peut se realiser a` laide de la commande sdtest en specifiant
une option by groupvar, loption indiquant les groupes (lEtat

ou lindustrie, etc).
Sil y a plus de deux groupes, par exemple, un ensemble de
10 industries, cette procedure nest pas possible. On peut alors
utiliser la commande robvar. Loption by groupvar est ici aussi
specifiee1 .
Dapr`es laide dans Stata : robvar reports Levenes statistic (W 0)
and two statistics proposed by Brown and Forsythe that replace the
mean in Levenes formula with alternative location estimators. The
first alternative (W 50) replaces the mean with the median. The
second alternative replaces the mean with the 10 percent trimmed
mean (W 10).
1

1.2.2

Application

Prenons comme exemple, les donnees portant sur six Etats americains
de la Nouvelle Angleterre entre 1981 et 1990. Les statistiques descriptives sont obtenues a` laide de la commande summarize pour
la variable dpipc - state disposable personal income per capita, a`
savoir le revenu disponible par habitant.
. use http://www.stata-press.com/data/imeus/NEdata, clear
. summarize dpipc
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------dpipc |
120
18.15802
5.662848
8.153382
33.38758
La r
egression de dpipc sur lann
ee (\textsf{year}) nous donne une tendance du
revenu au cours du temps.

. regress

dpipc year

Source |
SS
df
MS
----------+-----------------------------Model | 3009.33617
1 3009.33617
Residual | 806.737449
118 6.83675804
----------+-----------------------------Total | 3816.07362
119 32.0678456

Number of obs
F( 1,
118)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

120
440.17
0.0000
0.7886
0.7868
2.6147

--------------------------------------------------------------------------dpipc |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
----------+---------------------------------------------------------------year |
.8684582
.0413941
20.98
0.000
.7864865
.9504298
_cons | -1710.508
82.39534
-20.76
0.000
-1873.673
-1547.343
---------------------------------------------------------------------------

. predict double eps, residual


. robvar eps, by(state)
|
Summary of Residuals
state |
Mean
Std. Dev.
Freq.
------------+-----------------------------------CT |
4.167853
1.3596266
20
MA |
1.618796
.86550138
20
ME | -2.9841056
.93797625
20
NH |
.51033312
.61139299
20
RI |
-.8927223
.63408722
20
VT | -2.4201543
.71470977
20
------------+-----------------------------------Total | -6.063e-14
2.6037101
120
W0

= 4.3882072

df(5, 114)

Pr > F = .00108562

W50 = 3.2989849

df(5, 114)

Pr > F = .00806752

W10 = 4.2536245

df(5, 114)

Pr > F = .00139064

Dans cet exemple, on voit que lhypoth`ese nulle degalite des


variances est rejetee par les trois statistiques (W0, W50, W10) du
test robvar. On peut voir que les residus pour le Connecticut (CT)
ont un e cart-type plus e leve (Std. Dev. = 1,359) que pour les autres
Etats.

1.3

Lheteroscedasticite au sein des groupes dobservations

Le troisi`eme cas dheteroscedasticite se produit pour les donnees


en coupe, lorsque les observations sont regroupees ou agregees.
Cette situation se produit lorsque les variables de la base de donnees
sont des moyennes ou des e cart-types de groupes dobservations,
comme par exemple, un ensemble dobservations pour les 50 Etats
des Etats-Unis. Nous savons que les observations pour la Californie seront plus precises (fondees sur 30 millions dindividus)
que celles du Vermont (quelques millions dhabitants).

Le mod`ele lineaire generalise

Si lhypoth`ese desperance conditionnelle e gale a` zero est vraie,


la methode des MCO produira des estimations des coefficients a`
variance minimale (consistent estimates en anglais).
y = X + 
E[|X] = 0
E[|X] = 
avec  = 2IN
En revanche, la methode des moindres carres generalises (MCG
ou GLRM - generalized linear regression model) permet de prendre en compte les consequences des erreurs non i.i.d sur lestimation

de la matrice de covariance des coefficients .


Lorsque  = 2IN , lestimateur des MCO de est sans biais,
de variance minimale et distribue selon une loi normale lorsque les
e chantillons sont grands, mais ils ne sont plus efficaces :
= (XX)1Xy
= (XX)1X(X + )
= + (XX)1X
E[ ] = 0

e tant donne lhypoth`ese desperance conditionnelle nulle des erreurs, la variance de lestimateur (conditionnel a` X) secrit :

(3)
V ar[|X]
= E[(XX)1XX(XX)1]
= (XX)1(XX)(XX)1

(4)

La matrice des variances-covariances des estimateurs dans le cas


des MCO est e gale a` 2(X X)1 avec 2 remplace par son estimation s2.
Lorsque  = 2IN , cet estimateur de la matrice des variancescovariances des estimateurs nest pas de variance minimale et
la procedure destimation habituelle nest plus appropriee. On ne
peut plus utiliser les tests dhypoth`eses et les intervals de confiance
donnes par les MCO avec la commande regress dans Stata.
2.1

Les types de violation de lhypoth`ese i.i.d.

La methode des moindres carres generalises - MCG - permet de


considerer des mod`eles pour lesquels  = 2IN . Trois cas particuliers peuvent e tre consideres comme precedemment :

1. Pure heteroscedasticite
Lorsquil y a heteroscedasticite pure,  est une matrice diagonale et cela viole lhypoth`ese de distribution identique. Lorsque
les e lements de la diagonale diff`erent, la variance de , conditionnelle a` X, varie selon les observations.

12
0
 = E(N ) = .
.
0

0
22
..
0

...
...
...
...

0
0
..
2
N

Exemple : lorsque lon utilise des donnees sur les menages, la


variance des erreurs pour les individus a` revenu e leve est plus
grande que la variance des erreurs pour les bas revenus.

2. Le regroupement dobservations
Les observations peuvent e tre regroupees en plusieurs groupes
separes, aussi appeles clusters au sein desquels les erreurs sont
correlees. Le regroupement a pour consequence de rendre la
matrice  bloc-diagonale parce que les erreurs des differents
groupes sont independantes. Ce cas viole lhypoth`ese de distribution independante dune mani`ere particuli`ere puisque chaque
groupe peut avoir sa propre variance des erreurs.
Exemple : dans le cas des depenses des menages, il peut y
avoir une correlation des erreurs pour les menages habitants
dans le meme voisinage. En effet, habituellement le voisinage
regroupera des menages ayant des caracteristiques socioprofessionnelles et de revenu similaires.

1 0 . . . 0
0 ... 0
 = . .m . .
. ..
. .
0 0 . . . M

m represente une matrice de covariance intra-cluster. Pour


chaque groupe (ou cluster) m constitue de m observations, m
sera de taille m m. La covariance nulle entre les observations des M differents clusters donne a` la matrice de covariance
 une forme bloc-diagonale.
3. Lautocorrelation Les erreurs dans les series temporelles (voir
chapitre suivant) peuvent se caracteriser par de lautocorrelation,
cest-`a-dire une correlation entre les erreurs a` travers le temps.

La matrice de covariance des erreurs peut secrire alors :

1
1
..

1 . . . 2N 1

1
.
.
.

2N 3
2
 = 
..
..
...

1
N 1 2N 3 . . .
1, 2, . . . , [N (N 1)]/2 representent les correlations entre les e lements
successifs des erreurs. Ce cas viole e galement lhypoth`ese de
distribution independante des erreurs .

2.2

Un estimateur robust de la matrice des variance-covariances


des estimateurs

Lestimateur de Huber-White-sandwich de la variance permet


dappliquer une approche robuste aux erreurs qui sont condition-

nellement heteroscedastiques.
Il nous faut estimer le terme (X E[|X]X) de la variance qui
est pris en sandwich entre les termes (X X)1.

V ar[|X]
= (XX)1(XX)(XX)1]
(5)

1



1
(6)
= (X X) (X E[ |X]X)(X X)
Hubert (1967) et White (1980) ont montre que
N 2 
1 
S0 =
 x xi
(7)
N i=1 i i
permet destimer (X E[|X]X) lorsque i est conditionnellement
heteroscedastique.
Si lon substitue lestimateur (7) a` son e quivalent pour la population a` partir de (5), on obtient un estimateur de la matrice de

variance covariance des erreurs robuste.

N 2 
N


1

(X X) i XiXi (XX)1
(8)
V ar[|X]
=
i=1
N k
Loption robust dans stata applique lestimateur sandwich. Lorsque
lon calcule des e cart-types robustes cela affecte les e cart-types

des coefficients mais pas leur estimation .


Le F de la table de lANOVA sera supprimee de meme que le
R2 ajuste parce quaucun des deux nest plus valide apr`es cette
procedure. Si lhypoth`ese dhomoscedasticite est valide, le simple
estimateur de la matrice de variance et covariance est plus efficace
que celui de la version robuste.
1. Pour un e chantillon de taille modeste avec homoscedasticite,
on a plutot interet a` utiliser la procedure simple et voir dans

quelle mesure les estimations sont fragiles ou non.


2. Pour de grands e chantillons, il est devenu courant dutiliser
systematiquement des estimateurs robustes pour la matrice de
variance-covariance.
2.2.1

Application

Soit des observations dune base de donnees (fertil2) qui contient


des donnees pour 4.361 femmes vivant dans des pays en voie de
developpement. Nous souhaitons modeliser le nombre denfants
quelles ont mis au monde ceb pour chaque femme en fonction de
leur a ge age, leur a ge lors de la premi`ere naissance (agefbrth),
dun indicateur dusage dun moyen contraceptif (usemeth)2.
2 Dans

la mesure o`u la variable dependante est un entier, il faudrait appliquer une procedure de Poisson, mais dans ce cas, nous utiliseront une regression lineaire

. use http://www.stata-press.com/data/imeus/fertil2, clear


. regress ceb age agefbrth usemeth
Source |
SS
df
MS
----------+-----------------------------Model | 9202.53439
3 3067.51146
Residual | 6868.49331 3209 2.14038433
----------+-----------------------------Total | 16071.0277 3212 5.00343328

Number of obs
F( 3, 3209)
Prob > F
R-squared
Adj R-squared
Root MSE

=
3213
= 1433.16
= 0.0000
= 0.5726
= 0.5722
=
1.463

--------------------------------------------------------------------------ceb |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
----------+---------------------------------------------------------------age |
.2237368
.003448
64.89
0.000
.2169763
.2304974
agefbrth | -.2606634
.0087954
-29.64
0.000
-.2779085
-.2434184
usemeth |
.1873702
.0554298
3.38
0.001
.0786888
.2960516
_cons |
1.358134
.1737828
7.82
0.000
1.017397
1.69887
---------------------------------------------------------------------------

. estimates store nonRobust


. summarize ceb age agefbrth usemeth children if e(sample)
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------ceb |
3213
3.230003
2.236836
1
13
age |
3213
29.93931
7.920432
15
49
agefbrth |
3213
19.00498
3.098121
10
38
usemeth |
3213
.6791161
.4668889
0
1
children |
3213
2.999378
2.055579
0
13

On apprend que les femmes ont en moyenne 30 ans, quelles ont


eu leur premier enfant a` 19 ans et quelles ont donne naissance a`
3,2 enfants en moyenne et quun peu moins de 3 enfants vivent
dans le menage.

Lusage de la contraception est suppose reduire le nombre denfants


mis au monde par une femme.
On proc`ede a` lestimation du mod`ele par la methode robuste et
on sauvegarde les resultats XE[|X]X.

. regress ceb age agefbrth usemeth, robust


Linear regression

Number of obs
F( 3, 3209)
Prob > F
R-squared
Root MSE

=
=
=
=
=

3213
874.06
0.0000
0.5726
1.463

---------------------------------------------------------------------------|
Robust
ceb |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
----------+---------------------------------------------------------------age |
.2237368
.0046619
47.99
0.000
.2145962
.2328775
agefbrth | -.2606634
.0095616
-27.26
0.000
-.2794109
-.2419159
usemeth |
.1873702
.0606446
3.09
0.002
.0684642
.3062762
_cons |
1.358134
.1675624
8.11
0.000
1.029593
1.686674
---------------------------------------------------------------------------. estimates store Robust

. estimates table nonRobust Robust, se t style(oneline) title(Estimates


of CEB with OLS and Robust standard errors)
Estimates of CEB with OLS and Robust standard errors
---------------------------------------Variable | nonRobust
Robust
-------------+-------------------------age | .22373685
.22373685
| .00344802
.00466191
|
64.89
47.99
agefbrth | -.26066343
-.26066343
| .00879535
.00956162
|
-29.64
-27.26
usemeth | .18737022
.18737022
|
.0554298
.06064456
|
3.38
3.09
_cons | 1.3581336
1.3581336

| .17378284
.16756239
|
7.82
8.11
---------------------------------------legend: b/se/t

Contrairement a` nos attentes, lusage dun contraceptif ne semble pas avoir deffet negatif sur le nombre denfants nes alors meme
que la variable apparat significative. Par ailleurs, il ne semble pas
y avoir de difference notable entre la regression robuste et la simple
regression indiquant quil ny a pas dheteroscedasticite conditionnelle.

Lestimateur des matrices de variances-covariances pour les


regroupements

Stata propose un estimateur robuste de la matrice des variancescovariances des coefficients lorsque les erreurs sont correlees au
sein des groupes et non distribuees de mani`ere independante.
Cet estimateur est qualifie de cluster-robust-VCE estimator.
La correlation au sein des groupes produit une matrice  qui
est diagonale par blocs avec des e lements differents de zero au
sein de chaque bloc sur la diagonale. Cette construction permet
lautocorrelation au sein des groupes mais les erreurs des differents
groupes ne sont pas correlees.

Lorsque lon ignore les correlations au sein des groupes, les estimations produisent des estimateurs des variance-covariances non
convergents. Dans la mesure o`u lestimation robust de la matrice
des variance-covariances suppose que les erreurs sont distribuees
de mani`ere independante, son estimation (X E[|X]X) nest par
consequent pas convergente.
Lapplication de la commande cluster naffecte pas lestimation
du coefficient3 mais simplement lestimation de la matrice des variances et covariances du coefficient. Loption cluster() suppose que
lon specifie une variable dappartenance a` un groupe qui indique
comment les observations sont regroupees.
3a
`

linstar de la commande robust

Lestimateur robuste secrit :

M
N 1 M


V ar[|X]
=
(XX)1 j j (XX)1
j=1
N kM 1

(9)

k
o`u M represente le nombre de clusters, j = i=1
ixi, Nj represente
le nombre dobservations du j`eme cluster, i est alors le i`eme residu
du j`eme cluster, et xi un vecteur de regresseurs de taille 1 k de la
i`eme observation du j`eme cluster.

3.0.2

Application

La variable de cluster children, indique le nombre denfants qui


vivent dans le menage. On suppose que les erreurs des menages
de taille similaire seront correlees entre elles, mais quelles seront

independantes pour des menages de taille differente.


. regress ceb age agefbrth usemeth, cluster(children)
Linear regression
Number of obs =
3213
F( 3,
13) =
20.91
Prob > F
= 0.0000
R-squared
= 0.5726
Number of clusters (children) = 14
Root MSE
=
1.463
--------------------------------------------------------------------------|
Robust
ceb |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
----------+---------------------------------------------------------------age |
.2237368
.0315086
7.10
0.000
.1556665
.2918071
agefbrth | -.2606634
.0354296
-7.36
0.000
-.3372045
-.1841224
usemeth |
.1873702
.0943553
1.99
0.069
-.016472
.3912125
_cons |
1.358134
.4248589
3.20
0.007
.4402818
2.275985

Lestimateur qui permet la correlation des erreurs au sein des


clusters conduit a` des e cart-types plus larges (et des t plus petits)

que dans le cas precedent.


3.1

Lestimateur Newey-West de la matrice de variance-convariance

En presence dheteroscedasticite et dautocorrelation, il est possible dutiliser lestimateur Newey-West (1987). Cet estimateur a
la meme forme que lestimateur robuste pour les clusters, mais il
utilise un estimateur different pour (XE[|X]X). Plutot que de
specifier une variable de cluster, lestimateur Newey-West requiert
que lon specifie lordre maximal dautocorrelation des erreurs connu comme le decalage maximal, note L.
En plus du terme qui ajuste lestimateur pour lheteroscedasticite,
lestimateur utilise des produits croises ponderes des residus pour

tenir compte de lautocorrelation :


T
= S0 + 1 l 
Q
l tt1(xtxtl + xt+xt )
T l=1 t=l+1
o`u S0 est lestimateur robust de la matrice de variances-covariances,
t est le t`eme residu et xt est la t`eme ligne de la matrice des regresseurs. La forme de Newey-West prend un nombre specifique
L pour engendrer les poids :
l
l = 1
L+1

La r`egle est de choisir L = 4 N .


Cet estimateur HAC (-heteroskedastic and autocorrelation consistent) est disponible dans Stata a` laide de la commande newey.

3.1.1

Application

Prenon lexemple dune base de donnees mensuelle portant sur les


taux dinteret a` court et long terme, allant de 1952, 3`eme mois a`
1995, 12`eme mois.
. use http://www.stata-press.com/data/imeus/ukrates, clear
. summarize rs r20
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------rs |
526
7.651513
3.553109
1.561667
16.18
r20 |
526
8.863726
3.224372
3.35
17.18

Le mod`ele exprime la variation du taux dinteret a` court terme


rs, qui est ici linstrument de politique monetaire de la Banque

dAngleterre, comme une fonction de la variation mensuelle du


taux dinteret de long terme r20. Les variables sont obtenues a`
laide des operateurs D. et L.
Le tableau ci-dessous donne un exemple pour la variable r20.
. list r20 l20 d20 ld20

1.
2.
3.
4.
5.
6.

+---------------------------------------+
|
r20
lr20
dr20
ldr20 |
|---------------------------------------|
| 4.33
.
.
. |
| 4.23
4.33
-.0999999
. |
| 4.36
4.23
.1300001
-.0999999 |
| 4.57
4.36
.21
.1300001 |
| 4.36
4.57
-.21
.21 |
|---------------------------------------|
| 4.11
4.36
-.25
-.21 |

7.
8.
9.
10.

|
4.2
4.11
.0899997
-.25 |
| 4.19
4.2
-.0099998
.0899997 |
| 4.15
4.19
-.04
-.0099998 |
| 4.22
4.15
.0699997
-.04 |
|---------------------------------------|
11. | 4.13
4.22
-.0899997
.0699997 |
12. |
4.1
4.13
-.0300002
-.0899997 |

On estime le mod`ele avec la methode des MCO et avec la methode


Newey-West. Comme il y a 524 observations, lar`egle pour determiner
les decalages recommande de prendre 5 ( L = 4 524) decalages.

. regress D.rs LD.r20


Source |
SS
df
MS
----------+-----------------------------Model | 13.8769739
1 13.8769739
Residual | 136.988471
522 .262430021
----------+-----------------------------Total | 150.865445
523 .288461654

Number of obs
F( 1,
522)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

524
52.88
0.0000
0.0920
0.0902
.51228

--------------------------------------------------------------------------D.rs |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
----------+---------------------------------------------------------------r20 |
LD. |
.4882883
.0671484
7.27
0.000
.356374
.6202027
_cons |
.0040183
.022384
0.18
0.858
-.0399555
.0479921
---------------------------------------------------------------------------

. estimates store nonHAC


. newey D.rs LD.r20, lag(5)
Regression with Newey-West standard errors
maximum lag: 5

Number of obs
F( 1,
522)
Prob > F

=
=
=

524
36.00
0.0000

--------------------------------------------------------------------------|
Newey-West
D.rs |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
----------+---------------------------------------------------------------r20 |
LD. |
.4882883
.0813867
6.00
0.000
.3284026
.648174
_cons |
.0040183
.0254102
0.16
0.874
-.0459004
.0539371
--------------------------------------------------------------------------. estimates store NeweyWest

. estimates table nonHAC NeweyWest, b(%9.4f) se(%5.3f) t(%5.2f) title(


Estimation de D.rs avec les
ecart-types MCO et Newey-West)
Estimation de D.rs avec les
ecart-types MCO et Newey-West
-------------------------------------Variable | nonHAC
NeweyWest
-------------+-----------------------LD.r20 |
0.4883
0.4883
|
0.067
0.081
|
7.27
6.00
_cons |
0.0040
0.0040
|
0.022
0.025
|
0.18
0.16
-------------------------------------legend: b/se/t
Les
ecart-types sont plus grands dans le cas Newey-West que pour la m
ethode
des MCO, les coefficients restent n
eanmoins significatifs.

Lestimateur des moindres carres generalises

Alors que lestimateur robuste utilise le coefficient des MCO et


calcule un estimateur pour la matrice des variance-covariances,
lestimateur des moindres carres quasi generalises permet en plus
de determiner une estimation du coefficient plus efficace.
y = X + 
E[ |X] = 


 est defini symetrique et positif, ce qui implique que son inverse



u P est une matrice triangulaire. Lorsque lon pre1
 = P P o`
multiplie le mod`ele par P on obtient,

Py = PX + P


y = X + 

(10)
(11)

avec

V ar[] = E[] = PP = IN


A partir dune matrice  connue, la regression de y sur X est
asymptotiquement efficace suivant le theor`eme de Gauss-Markov.
Cet estimateur est simplement une regression lineaire standard sur les donnees transformees :
GLS = (X X)1(X y )

La matrice de variances-covariances de lestimateur des moindres


carres generalises GLS secrit :
1
V ar[GLS|X] = (X1
 X)

4.1

Lestimation dans le cas de lheteroscedasticite liee a` lechelle


de grandeur

Il faut estimer la matrice  en fonction dun facteur de proportionnalite.


On applique la methode des moindres carres quasi generalises en
transformant les variables et en estimant a` nouveau lequation
sur les variables transformees. Les transformations doivent e tre
telles quelle purge les residus de lheteroscedasticite et rendent
les erreurs i.i.d.
Supposons que la variance de lerreur pour la i`eme entreprise
est proportionnelle a` zi2 sachant que z est une mesure de lechelle

de grandeur en relation avec les variables. On suppose que zi est


strictement positif ou quil a e te transforme pour e tre positif.
La transformation appropriee pour rendre les erreurs homoscedastiques
serait de diviser chaque variable de y, X (y compris la constante ,
la premi`ere colonne de X) par zi. Lequation aura un residu i/zi
et comme zi est une constante :
V ar[i/zi] = (1/zi2)V ar[i]
yi = 0 + 1xi1 + . . . + k xik + i
en specifiant lequation transformee
k xik i
yi 0 1xi1
=
+
+ ... +
+
zi
zi
zi
zi
zi

(12)

yi = 0 + 1xi1 + . . . + k xik + i

(14)

o`u = 1/zi.

(13)

La signification e conomique des coefficients dans lequation


transformee na pas change; 2 et son estimation 2 representent
toujours y/x2 .
Dans la mesure o`u la variable dependante a e te transformee,
les mesures telles que le R2 ne sont plus comparables a` ceux
dorigine. En particulier, lequation transformee na pas de constante.
Dans ce context, les moindres carres quasi generalises peuvent
e tre estimes a` laide des moindres carres ponderes. La transformation consiste a` ponderer chaque observation (dans ce cas, il
sagit duns ponderation analytique -analytical weights (aw) 1/zi2).

4.1.1

Application

On reprend lexemple de lestimation de la valeur mediane dun


logement dans lagglomeration de Boston.
. generate rooms2 = rooms2
. regress lprice rooms crime ldist [aweight = 1/ rooms2]
(sum of wgt is
1.3317e+01)
Source |
SS
df
MS
----------+-----------------------------Model | 39.6051883
3 13.2017294
Residual |
41.426616
502 .082523139
----------+-----------------------------Total | 81.0318042
505 .160459018

Number of obs
F( 3,
502)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

506
159.98
0.0000
0.4888
0.4857
.28727

--------------------------------------------------------------------------lprice |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]

----------+---------------------------------------------------------------rooms |
.2345368
.0194432
12.06
0.000
.1963367
.272737
crime | -.0175759
.0016248
-10.82
0.000
-.0207682
-.0143837
ldist |
.0650916
.027514
2.37
0.018
.0110349
.1191483
_cons |
8.450081
.1172977
72.04
0.000
8.219626
8.680536
------------------------------------------------------------------------------

On precise dans cette regression la ponderation a` adopter, ici il


sagit dune ponderation 1/rooms2. Ces estimations sont qualitativement similaires a` celles qui utilisent loption robust, avec des
mesures de signification globale leg`erement plus faibles.
Les series que lon specifie comme ponderation analytique (aw)
doivent e tre linverse de la variance de lobservation, et non son
e cart-type, et les donnees originales sont multipliees par la ponderation
analytique et non divisees.

Dans les travaux e conometriques, il est courant destimer les


e quations sous la forme de ratios. Ainsi, pour les donnees de pays
ou de region, on utilise les variables dependantes et independantes
par tete (par habitants ou travailleurs), de meme que lon utilise
des ratios financiers pour les entreprises ou les industries. Il nen
reste pas moins que meme pour ces mod`eles il faudrait considerer
lexistence dheteroscedasticite.

4.2

Lestimation dans le cas de lheteroscedasticite entre groupes


dobservations

Si differents groupes dobservations ont des erreurs avec des variances differentes, il est possible dappliquer la methode des moindres carres generalises avec une ponderation analytique.
Dans le cadre des groupes, on definit la ponderation analytique
comme une valeur constante pour chaque observation dans un groupe.
Cette valeur est calculee comme la variance estimee des residus
MCO de ce groupe. A laide de la serie des residus ainsi obtenus,
on peut construire une estimation de la variance pour chaque groupe,
chaque Etat ou region par exemple, avec la commande egen et engendrer ainsi une serie de poids analytique.

4.2.1

Application

On reprend lexemple ci-dessus et les r


esidus \textsf{eps} d
ej`
a calcul
es pour l
de la Nouvelle Angleterre.
. by state, sort : egen sd_eps = sd(eps)
. generate double gw_wt = 1/sd_eps2
. tabstat sd_eps gw_wt, by(state)
Summary statistics: mean
by categories of: state
state |
sd_eps
gw_wt
------+-------------------CT | 1.359627 .5409545
MA | .8655014 1.334948
ME | .9379762 1.136623
NH |
.611393 2.675218

RI | .6340872
2.48715
VT | .7147098 1.957675
------+-------------------Total | .8538824 1.688761
---------------------------

La commande tabstat rev`ele que les e cart-types des residus pour


le New Hampshire (NH) et Rhode Island (RI) sont beaucoup plus
petits que pour les autres quatre Etats.
On reestime cette fois lequation avec la methode des moindres
carres quasi generalises en utilisant des series de poids analytiques.

. regress dpipc year [aw=gw_wt]


(sum of wgt is
2.0265e+02)
Source |
SS
df
MS
----------+-----------------------------Model | 2845.55409
1 2845.55409
Residual | 480.921278
118 4.07560405
----------+-----------------------------Total | 3326.47537
119 27.9535745

Number of obs
F( 1,
118)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

120
698.19
0.0000
0.8554
0.8542
2.0188

--------------------------------------------------------------------------dpipc |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
----------+---------------------------------------------------------------year |
.8444948
.0319602
26.42
0.000
.7812049
.9077847
_cons |
-1663.26
63.61705
-26.14
0.000
-1789.239
-1537.281
---------------------------------------------------------------------------

Si on compare ces resultats avec ceux obtenus plus haut sur une

simple regression sans ponderation en utilisant la commande regress,


Root MSE est bien plus petite que dans le cas precedent.
4.3

Lestimation dans le cas des donnees groupees

On peut considerer dans ce cas que la precision de la moyenne


(cest-`a-dire lecart-type) pour chaque groupe depend de la taille
du groupe a` partir duquel la moyenne est calculee.
La ponderation analytique, proportionnelle a` linverse de la variance de lobservation doit prendre en compte la taille du groupe.
Par exemple, si on a des donnees par tete (epargne ou revenu par
tete) pour une region, on pourra estimer :
regress saving income [aw=pop]

pour laquelle on specifie la ponderation analytique pop. Les


grandes regions auront des ponderations plus importantes, refletant
ainsi la plus grande precision de la moyenne du groupe.
4.3.1

Application

On peut illustrer ce dernier cas a` laide de donnees portant sur les


caracteristiques de 420 quartiers comportant des e coles publiques.
La moyenne du score pour le test de lecture par e l`eve (read scr)
est modelisee comme une fonction des depenses par e l`eve (expn stu),
le nombre dordinateurs par e l`eve (comp stu), et le pourcentage
del`eves recevant des repas gratuits (meal pct, il sagit dun indicateur de pauvrete du quartier). Nous connaissons e galement le
nombre dinscriptions a` lecole par quartier (enrl tot).

. use http://www.stata-press.com/data/imeus/pubschl, clear


. summarize

read_scr expn_stu comp_stu meal_pct enrl_tot

Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------read_scr |
420
654.9705
20.10798
604.5
704
expn_stu |
420
5312.408
633.9371
3926.07
7711.507
comp_stu |
420
.1359266
.0649558
0
.4208333
meal_pct |
420
44.70524
27.12338
0
100
enrl_tot |
420
2628.793
3913.105
81
27176

Nous commencons par estimer le mod`ele sans tenir compte du


nombre dinscrits qui varie considerablement dun quartier a` lautre.
On sattend a` ce que les scores des tests de lecture soient plus
e leves (relation positive) lorsque les depenses par e l`eve et le nombre dordinateurs par e l`eve sont plus importants et on sattent a` une
relation negative avec la pauvrete (scores moins bons).

. regress read_scr expn_stu comp_stu meal_pct


Source |
SS
df
MS
----------+-----------------------------Model | 136046.267
3 45348.7558
Residual | 33368.3632
416 80.2124115
----------+-----------------------------Total | 169414.631
419 404.330861

Number of obs
F( 3,
416)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

420
565.36
0.0000
0.8030
0.8016
8.9561

--------------------------------------------------------------------------read_scr |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
----------+---------------------------------------------------------------expn_stu |
.0046699
.0007204
6.48
0.000
.0032538
.006086
comp_stu |
19.88584
7.168347
2.77
0.006
5.795143
33.97654
meal_pct |
-.635131
.0164777
-38.54
0.000
-.667521
-.602741
_cons |
655.8528
3.812206
172.04
0.000
648.3592
663.3464
---------------------------------------------------------------------------

Nos hypoth`eses concernant les relations entre la variable read scr


et les facteurs explicatifs sont confirmees par les resultats. On va
neanmoins reestimer le mod`ele en utilisant le nombre dinscrits
comme ponderation analytique

. regress read_scr expn_stu comp_stu meal_pct [aw=enrl_tot]


(sum of wgt is
1.1041e+06)
Source |
SS
df
MS
----------+-----------------------------Model | 123692.671
3 41230.8903
Residual | 18915.9815
416 45.4711093
----------+-----------------------------Total | 142608.652
419 340.354779

Number of obs
F( 3,
416)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

420
906.75
0.0000
0.8674
0.8664
6.7432

--------------------------------------------------------------------------read_scr |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
----------+---------------------------------------------------------------expn_stu |
.0055534
.0008322
6.67
0.000
.0039176
.0071892
comp_stu |
27.26378
8.197228
3.33
0.001
11.15063
43.37693
meal_pct | -.6352229
.013149
-48.31
0.000
-.6610696
-.6093762
_cons |
648.988
4.163875
155.86
0.000
640.8031
657.1728
---------------------------------------------------------------------------

Lorsque lon introduit les ponderations, les coefficients sont modifies et le Root MSE est sensiblement reduit.
En effet, si on donne le meme poids aux grands et aux petits
e tablissements, on donne en fait trop dimportance aux petits e tablissements
et pas assez aux grands.
Ainsi, limpact du nombre dordinateurs par e tudiant est presque
50% superieur dans le cas o`u lon tient compte de la ponderation,
et limpact des depenses par e l`eve est plus faible dans le mod`ele
MCO. La ponderation apporte e galement une meilleure precision
dans les estimations.

UNIVERSITE DE PARIS 11
TD dconomtrie

Anne Plunket
Heteroscdasticit

1 Problme 1
Pour ce problme, il vous ait demand de travailler partir du fichier hetdat2.dta"
Cette base de donnes comprend des informations sur les niveaux de PIB (GDP) et les
population de 40 pays de lOCDE :
1. Ouvrez le fichier hetdat2.dta dans Stata et fates un graphique de la production manufacturire (manuf) en fonction du PIB - GDP -. Pour obtenir le nom des pays sur le graphique,
utilisez la commande suivante :
twoway (scatter manuf gdp, mlabel(country)), ytitle(manuf) xtitle(gdp)
2. Fates la rgression de la production manufacturire sur le PIB, sauvegardez les rsidus et
proposez un graphique des rsidus en fonction du PIB
3. Que vous apprend laspect des rsidus ?
4. On vous propose le test de Breush et Pagan suivant quen dduisez-vous ?
. estat hettest
Breusch-Pagan / Cook-Weisberg test for heteroskedasticity
Ho: Constant variance
Variables: fitted values of manuf
chi2(1)

12.77

5. Supposons que lon ne sache pas sil y a de lhtroscdasticit. Appliquez une procdure
robuste aux erreurs de la rgression. Y a t-il une diffrence avec la rgression des MCO
prcdente et y a t-il un risque appliquer une procdure robuste dans ce cas.

2 Problme 2
Le fichier CRIME.dta contient des donnes sur les arrestations de lannes 1986 ainsi que
dautres informations sur 2725 hommes ns en 1960 ou 1961 en Californie. Chaque homme de
lchantillon a t arrt au moins une fois avant lanne 1986.
les variables sont les suivantes :
narr86 "# times arrested, 1986"
nfarr86 "# felony arrests, 1986"
nparr86 "# property crme arr., 1986"
pcnv "proportion of prior convictions"
avgsen "avg sentence length, mos."
1

tottime "time in prison since 18 (mos.)"


ptime86 "mos. in prison during 1986"
qemp86 "# quarters employed, 1986"
inc86 "legal income, 1986, $100s"
durat "recent unemp duration"
black "=1 if black"
hispan "=1 if Hispanic"
born60 "=1 if born in 1960"

pcnvsq "pcnv2"

pt86sq "ptime862"

inc86sq "inc862"

1. Lire le fichier CRIME1.dta


2. Pour chacune des variables, dcrivez et expliquez quel est son signe attendu (positif ou
ngatif).
3. Proposez une rgression des MCO et une rgression robuste de lquation suivante :
narr86 = f( narr86 pcnv avgsen avgsen2 ptime86 qemp86 inc86 black hispan).
4. Commentez vos rsultats (signes attendus, cart-types...). Comment analyser limpact de
la variable avgsen
5. Fates le test de Breusch et Pagan partir du carr des rsidus. Quen dduisez-vous ?

3 Problme 3.
Pour ce dernier problme, nous allons tudier le comportement des pargnants. Nous disposons du fichier SAVING.RAW qui contient des donnes sur 100 personnes pour lanne 1970.
Les variables du modle sont les suivantes :
sav annual savings, $ (1970)
inc annual income, $ (1970)
size family size
educ years education, household head
age age of household head
black =1 if household head is black
cons annual consumption, $ (1970)
1. A partir du fichier saving.raw et des noms de variables donnes ci-dessous, entrez les
donnes, associez leur une dfinition laide de la commande variable label
2. Compte tenu des variables du modles, pensez vous quelles peuvent crer de lhtroscdasticit, expliquez pourquoi ?
3. On vous propose la rgression et le test suivants ? Quen dduisez-vous quant lhtroscdasticit ?
. reg sav inc
Source |
SS
df
MS
-------------+------------------------------

Number of obs =
F( 1,
98) =

100
6.49

Model |
66368437
1
66368437
Residual | 1.0019e+09
98 10223460.8
-------------+-----------------------------Total | 1.0683e+09
99 10790581.8

Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=

0.0124
0.0621
0.0526
3197.4

-----------------------------------------------------------------------------sav |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------inc |
.1466283
.0575488
2.55
0.012
.0324247
.260832
_cons |
124.8424
655.3931
0.19
0.849
-1175.764
1425.449
-----------------------------------------------------------------------------. estat hettest inc educ
Breusch-Pagan / Cook-Weisberg test for heteroskedasticity
Ho: Constant variance
Variables: inc educ
chi2(2)
Prob > chi2

=
=

68.82
0.0000

4. Proposez une rgression des Moindres Carrs Quasi Gnraliss. Expliquez

UNIVERSITE DE PARIS 11
TD dconomtrie

Anne Plunket
Heteroscdasticit

1 Problme 1
Pour ce problme, il vous ait demand de travailler partir du fichier hetdat2.dta"
Cette base de donnes comprend des informations sur les niveaux de PIB (GDP) et les
population de 40 pays de lOCDE :
1. Ouvrez le fichier hetdat2.dta dans Stata et fates un graphique de la production manufacturire (manuf) en fonction du PIB - GDP -. Pour obtenir le nom des pays sur le graphique,
utilisez la commande suivante :
twoway (scatter manuf gdp, mlabel(country)), ytitle(manuf) xtitle(gdp)
2. Fates la rgression de la production manufacturire sur le PIB, sauvegardez les rsidus et
proposez un graphique des rsidus en fonction du PIB
. regress

manuf gdp

Source |
SS
df
MS
-------------+-----------------------------Model | 1.1600e+11
1 1.1600e+11
Residual | 1.4312e+10
26
550464875
-------------+-----------------------------Total | 1.3031e+11
27 4.8264e+09

Number of obs
F( 1,
26)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

28
210.73
0.0000
0.8902
0.8859
23462

-----------------------------------------------------------------------------manuf |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------gdp |
.1936932
.0133428
14.52
0.000
.1662666
.2211197
_cons |
603.8754
5699.688
0.11
0.916
-11112
12319.75
-----------------------------------------------------------------------------. predict res, resid
. scatter res gdp
. twoway (scatter res gdp, mlabel(country)), yline(0) ytitle(residuals) xtitle (gdp)

3. Que vous apprend laspect des rsidus ?


On constate que les rsidus augmentent avec la valeur du PIB, avec une exc eption qui est
la France. Le rsultat est donc quelque peu ambigu quant lexistence ou non dhtroscdasticit
4. On vous propose le test de Breush et Pagan suivant quen dduisez-vous ?

. estat hettest
Breusch-Pagan / Cook-Weisberg test for heteroskedasticity
Ho: Constant variance
Variables: fitted values of manuf
chi2(1)
Prob > chi2

=
=

12.77
0.0004

Le test de Breusch et Pagan rejette trs largement lhypothse dhomoscdasticit avec


une pvaleur infrieure 1%
5. Supposons que lon ne sache pas sil y a htroscdasticit. Appliquez une procdure
robuste aux erreurs de la rgression. Y a t-il une diffrence avec la rgression des MCO
prcdente et y a t-il un risque appliquer une procdure robuste dans ce cas.
. quietly regress

manuf gdp

. estimates store model1sansrobuste


. regress

manuf gdp, robust

Linear regression

Number of obs =
F( 1,
26) =
Prob > F
=
R-squared
=
Root MSE
=

28
116.39
0.0000
0.8902
23462

-----------------------------------------------------------------------------|
Robust
manuf |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------gdp |
.1936932
.0179542
10.79
0.000
.1567879
.2305985
_cons |
603.8754
3542.399
0.17
0.866
-6677.629
7885.38
-----------------------------------------------------------------------------. estimates store model1robust
. estimates table model1sansrobuste

model1robust, star(.05 .01 .001) style(oneline)

---------------------------------------------Variable | model1sansr~e
model1robust
-------------+-------------------------------gdp | .19369316***
.19369316***
_cons | 603.87543
603.87543
---------------------------------------------legend: * p<.05; ** p<.01; *** p<.001
. estimates table model1sansrobuste

model1robust, se style(oneline)

---------------------------------------Variable | model1sa~e
model1ro~t
-------------+-------------------------gdp | .19369316
.19369316
|
.0133428
.01795416
_cons | 603.87543
603.87543

|
5699.688
3542.3987
---------------------------------------legend: b/se

Il ne semble pas y avoir de diffrences importantes. En revanche, il peut tre risqu dutiliser une procdure robuste pour un si petit chantillon On constate malgr tout que les
cart-types sont un peu plus grands et par consquent les tsont plus faibles et les intervals
de confiance plus larges. La procdure robuste nest valable que de manire asymptotique
donc pour de grands chantillons, il se peut que les cart-types ajusts soient tout aussi
faux que ceux de la procdure par les MCO.

2 Problme 2
Le fichier CRIME.dta contient des donnes sur les arrestations de lannes 1986 ainsi que
dautres informations sur 2725 hommes ns en 1960 ou 1961 en Californie. Chaque homme de
lchantillon a t arrt au moins une fois avant lanne 1986.
les variables sont les suivantes :
narr86 "# times arrested, 1986"
nfarr86 "# felony arrests, 1986"
nparr86 "# property crme arr., 1986"
pcnv "proportion of prior convictions"
avgsen "avg sentence length, mos."
tottime "time in prison since 18 (mos.)"
ptime86 "mos. in prison during 1986"
qemp86 "# quarters employed, 1986"
inc86 "legal income, 1986, $100s"
durat "recent unemp duration"
black "=1 if black"
hispan "=1 if Hispanic"
born60 "=1 if born in 1960"

pcnvsq "pcnv2"

pt86sq "ptime862"

inc86sq "inc862"
1. Lire le fichier CRIME1.dta
2. Pour chacune des variables, tentez de donner limpact attendu (positif ou ngatif) sur la
variable narr86
3. Proposez une rgression des MCO et une rgression robuste de lquation suivante :
narr86 = f( narr86 pcnv avgsen avgsen2 ptime86 qemp86 inc86 black hispan).
. gen avgsen2 = avgsen*avgsen
. reg narr86 pcnv avgsen avgsen2

ptime86 qemp86 inc86 black hispan

Source |
SS
df
MS
-------------+------------------------------

Number of obs =
F( 8, 2716) =

2725
26.66

Model | 146.349121
8 18.2936401
Residual | 1863.99804 2716 .686302664
-------------+-----------------------------Total | 2010.34716 2724 .738012906

Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=

0.0000
0.0728
0.0701
.82843

-----------------------------------------------------------------------------narr86 |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------pcnv | -.1355954
.0403699
-3.36
0.001
-.2147542
-.0564366
avgsen |
.0178411
.009696
1.84
0.066
-.0011713
.0368534
avgsen2 | -.0005163
.000297
-1.74
0.082
-.0010987
.0000661
ptime86 |
-.03936
.0086935
-4.53
0.000
-.0564065
-.0223134
qemp86 | -.0505072
.0144345
-3.50
0.000
-.0788109
-.0222034
inc86 | -.0014797
.0003405
-4.35
0.000
-.0021474
-.0008119
black |
.3246024
.0454188
7.15
0.000
.2355435
.4136614
hispan |
.19338
.0397035
4.87
0.000
.115528
.2712321
_cons |
.5670128
.0360573
15.73
0.000
.4963102
.6377154
-----------------------------------------------------------------------------. estimates store MCO
. reg narr86 pcnv avgsen avgsen2

ptime86 qemp86 inc86 black hispan, robust

Linear regression

Number of obs
F( 8, 2716)
Prob > F
R-squared
Root MSE

=
=
=
=
=

2725
29.84
0.0000
0.0728
.82843

-----------------------------------------------------------------------------|
Robust
narr86 |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------pcnv | -.1355954
.0336218
-4.03
0.000
-.2015223
-.0696685
avgsen |
.0178411
.0101233
1.76
0.078
-.0020091
.0376913
avgsen2 | -.0005163
.0002077
-2.49
0.013
-.0009236
-.0001091
ptime86 |
-.03936
.0062236
-6.32
0.000
-.0515634
-.0271566
qemp86 | -.0505072
.0142015
-3.56
0.000
-.078354
-.0226603
inc86 | -.0014797
.0002295
-6.45
0.000
-.0019297
-.0010296
black |
.3246024
.0585135
5.55
0.000
.2098669
.439338
hispan |
.19338
.0402983
4.80
0.000
.1143616
.2723985
_cons |
.5670128
.0402756
14.08
0.000
.4880389
.6459867
-----------------------------------------------------------------------------. estimates store robust
. estimates table MCO

robust, se style(oneline)

---------------------------------------Variable |
MCO
robust
-------------+-------------------------pcnv | -.13559539
-.13559539
| .04036988
.03362179
avgsen | .01784106
.01784106
| .00969602
.01012332

avgsen2 | -.00051633
-.00051633
| .00029702
.00020769
ptime86 | -.03935998
-.03935998
|
.0086935
.00622356
qemp86 | -.05050717
-.05050717
| .01443452
.01420152
inc86 | -.00147966
-.00147966
| .00034053
.00022951
black | .32460243
.32460243
| .04541881
.05851354
hispan | .19338004
.19338004
| .03970348
.0402983
_cons | .56701278
.56701278
| .03605733
.04027557
----------------------------------------

4. Commentez vos rsultats (signes attendus, cart-types...)


Les grandes diffrences proviennent de avgsen et avgsen2 qui ont des cart-types robustes
plus faibles et donc des t plus levs, les coefficients sont plus significatifs. Dans la mesure
o limpact de la variable avgsen sur narr86 est quadratique, il importe de comprendre
partir de quel point la relation se retourne. La dure de la sentence a un impact positif sur
le nombre de fois que lindividu a t arrt mais au del dune certaine dure limpact
devient ngatif. Quelle est ce point ? Pour calculer le point, il faut diviser le coefficient de
avgen par 2 fois la valeur du coefficient au carr
. di _b[avgsen]/(2*_b[avgsen2])
-17.276862
Le point de retournement est donc .0178/[2*0,00052] soit 17,12 ; cela signifie que le
nombre darrestations est reli de manire positive la dure moyenne de la sentence
lorsque cette dure est infrieure 17 mois ; au del, la dure moyenne de la sentence a
bien un effet ngatif sur le nombre darrestations.
5. Fates le tes de Breusch et Pagan dexistence dhtroscdasticit partir du carr des
rsidus. Quelle statistique utilisez-vous ? Quen dduisez-vous ?
. reg narr86 pcnv avgsen avgsen2

ptime86 qemp86 inc86 black hispan

Source |
SS
df
MS
-------------+-----------------------------Model | 146.349121
8 18.2936401
Residual | 1863.99804 2716 .686302664
-------------+-----------------------------Total | 2010.34716 2724 .738012906

Number of obs
F( 8, 2716)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

2725
26.66
0.0000
0.0728
0.0701
.82843

-----------------------------------------------------------------------------narr86 |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------pcnv | -.1355954
.0403699
-3.36
0.001
-.2147542
-.0564366
avgsen |
.0178411
.009696
1.84
0.066
-.0011713
.0368534
avgsen2 | -.0005163
.000297
-1.74
0.082
-.0010987
.0000661
ptime86 |
-.03936
.0086935
-4.53
0.000
-.0564065
-.0223134
qemp86 | -.0505072
.0144345
-3.50
0.000
-.0788109
-.0222034
inc86 | -.0014797
.0003405
-4.35
0.000
-.0021474
-.0008119

black |
.3246024
.0454188
7.15
0.000
.2355435
.4136614
hispan |
.19338
.0397035
4.87
0.000
.115528
.2712321
_cons |
.5670128
.0360573
15.73
0.000
.4963102
.6377154
-----------------------------------------------------------------------------. predict res, resid
. gen res2 = res*res
. reg res2 pcnv avgsen avgsen2

ptime86 qemp86 inc86 black hispan

Source |
SS
df
MS
-------------+-----------------------------Model | 738.907487
8 92.3634359
Residual | 40686.1478 2716 14.9801723
-------------+-----------------------------Total | 41425.0553 2724 15.2074359

Number of obs
F( 8, 2716)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

2725
6.17
0.0000
0.0178
0.0149
3.8704

-----------------------------------------------------------------------------res2 |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------pcnv |
.0172283
.1886071
0.09
0.927
-.3525997
.3870562
avgsen |
.000862
.0452996
0.02
0.985
-.0879631
.0896871
avgsen2 | -.0002494
.0013877
-0.18
0.857
-.0029704
.0024716
ptime86 | -.0797674
.0406158
-1.96
0.050
-.1594084
-.0001264
qemp86 | -.2254136
.0674377
-3.34
0.001
-.357648
-.0931792
inc86 |
-.001374
.001591
-0.86
0.388
-.0044936
.0017456
black |
.7024677
.2121956
3.31
0.001
.2863865
1.118549
hispan |
.344285
.1854937
1.86
0.064
-.019438
.708008
_cons |
1.119298
.168459
6.64
0.000
.7889776
1.449619
-----------------------------------------------------------------------------* PB LM statisti
. display 2725*0.0178
48.505
ou
. display e(N)*e(r2)
et la pvaleur est
display chi2tail(8,48.505)
7.563e-08
. display invchi2(8, 0.95)
15.507313

On rejette lhypothse nulle, il y a de lhtroscdasticit

3 Problme 3.
Pour ce dernier problme, nous allons tudier le comportement des pargnants. Nous disposons du fichier SAVING.RAW qui contient des donnes sur 100 personnes pour lanne 1970.
Les variables du modle sont les suivantes :
sav annual savings, $ (1970)
inc annual income, $ (1970)
size family size
educ years education, household head
age age of household head
black =1 if household head is black
cons annual consumption, $ (1970)
1. A partir du fichier saving.raw et des noms de variables donnes ci-dessous, entrez les
donnes, associez leur une dfinition laide de la commande variable label
. infile sav inc size educ age black cons using "C:\SAVING.RAW"
(100 observations read)
2. Compte tenu des variables du modles, pensez vous quelles peuvent crer de lhtroscdasticit, expliquez pourquoi ?
3. On vous propose la rgression et le test suivants ? Quen dduisez-vous quant lhtroscdasticit ?
. reg sav inc
Source |
SS
df
MS
-------------+-----------------------------Model |
66368437
1
66368437
Residual | 1.0019e+09
98 10223460.8
-------------+-----------------------------Total | 1.0683e+09
99 10790581.8

Number of obs
F( 1,
98)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

100
6.49
0.0124
0.0621
0.0526
3197.4

-----------------------------------------------------------------------------sav |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------inc |
.1466283
.0575488
2.55
0.012
.0324247
.260832
_cons |
124.8424
655.3931
0.19
0.849
-1175.764
1425.449
-----------------------------------------------------------------------------. estat hettest
Breusch-Pagan / Cook-Weisberg test for heteroskedasticity
Ho: Constant variance
Variables: fitted values of sav
chi2(1)

14.22

Le tes de Breusch et Pagan montre quil y a de lhtroscdasticit. Il nest pas possible


daccepter lhypothse nulle. La valeur critique du chi2(1) = 3,84
. display invchi2(1,.95) 3.8414588
7

4. Proposez une rgression des Moindres Carrs Quasi Gnraliss. Expliquez


. reg sav inc [aw = 1/inc]
(sum of wgt is
1.3877e-02)
Source |
SS
df
MS
-------------+-----------------------------Model | 58142339.8
1 58142339.8
Residual |
623432468
98
6361555.8
-------------+-----------------------------Total |
681574808
99 6884594.02

Number of obs
F( 1,
98)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

100
9.14
0.0032
0.0853
0.0760
2522.2

-----------------------------------------------------------------------------sav |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------inc |
.1717555
.0568128
3.02
0.003
.0590124
.2844986
_cons | -124.9528
480.8606
-0.26
0.796
-1079.205
829.2994
------------------------------------------------------------------------------

pour e valuer la stabilite structuelle et tester les changements


structurels

Chapitre 4. Les variables indicatrices

quantitatif (ou cardinal), il sagit de variables continues, reelles


qui peuvent conceptuellement prendre nimporte quelle valeur

pour e valuer les effets de facteurs qualitatifs

ordinal (ou ordonne) : elles expriment une inegalite entre deux


e lements et non une mesure de leur difference; il sagit par exemple de lechelle de Likert repondant la question : combien
e valuer les resultats du president? 5 = tr`es bon, 4 = bon, 3 =
correct, 2 = mauvais, 1 = tr`es mauvais. Il sagit donc du reponse

dans des mod`eles qui melangent variables qualitatives et quantitatives


pour les ajustements saisonniers

sous la forme dun classement ordonne. On sait que 5 est plus


e leve que 4 qui est lui meme plus e leve que 3. Mais celui-ci ne
nous permet pas de dire que celui qui a repondu 5 est cinq fois
plus susceptible de soutenir le president que celui qui a repondu
1 ou 25% plus enclin a` soutenir le President, ...

En revanche, les variables purement qualitatives, sans ordre particulier, sont tr`es largement utilisees dans les donnees e conomiques.

qualitatif : Si les variables sont codees comme des caract`eres M


et F pour le genre du repondant au questionnaire, on ne risque
pas de les confondre avec des variables quantitatives.

Tester la significativite dun facteur qualitatif

Les variables e conomiques peuvent e tre de trois types :


2

Les variables indicatrices sont parmi les concepts les plus utilises
en e conomie appliquee dans la mesure o`u elles signalent la presence
ou labsence de certaines caracteristiques. Les variables indicatrices sont e galement connues sous le nom de variables binaires ou
booleennes et se retrouvent en e conometrie sous le nom de variable dummy. Nous allons considerer comment utiliser les variables
indicatrices

La regression avec une variable qualitative

Supposons que lon dispose du revenu disponible par tete pour six
Etats de la Nouvelle Anglette (dpipc) pour les annees 1981-2000.
La question que lon se pose est de savoir si lEtat de residence explique une proportion significative de la variation de dpipc a` travers
les differentes annees. On calcule le dpipc moyen (en millier de
dollars) sur deux decennies.
. use http://www.stata-press.com/data/imeus/NEdata, clear
. mean dpipc, over(state)
Mean estimation
Number of obs
=
CT:
MA:
ME:
NH:

state
state
state
state

=
=
=
=

CT
MA
ME
NH

120

La question est de savoir si ces differences sont significatives. Il


faut creer des variables indicatrices mutuellement exclusives et
exhaustives.

RI: state = RI
VT: state = VT

Pour e viter une colinearite parfaite avec la constante, il faut


laisser la premi`ere indicatrice lorsque lon fait des regressions
(CT).
6

-------------------------------------------------------------Over |
Mean
Std. Err.
[95% Conf. Interval]
-------------+-----------------------------------------------dpipc
|
CT |
22.32587
1.413766
19.52647
25.12527
MA |
19.77681
1.298507
17.20564
22.34798
ME |
15.17391
.9571251
13.27871
17.06911
NH |
18.66835
1.193137
16.30582
21.03088
RI |
17.26529
1.045117
15.19586
19.33473
VT |
15.73786
1.020159
13.71784
17.75788
--------------------------------------------------------------

Le revenu disponible moyen pour 2000 varie de mani`ere considerable dun Etat a` lautre (CT - Connecticut (22.326 $) et
ME- Maine (15.174 $).

Total |

120

Nous avons exclus le premier Etat CT, de sorte que la constante


est la moyenne des valeurs de CT au cours du temps (22.32587)

100.00

regress dpipc NE2- NE6


Source |
SS
df
MS
-------------+-----------------------------Model | 716.218512
5 143.243702
Residual | 3099.85511
114 27.1917115
-------------+-----------------------------Total | 3816.07362
119 32.0678456

. tabulate state, generate(NE)


state |
Freq.
Percent
Cum.
------------+----------------------------------CT |
20
16.67
16.67
MA |
20
16.67
33.33
ME |
20
16.67
50.00
NH |
20
16.67
66.67
RI |
20
16.67
83.33
VT |
20
16.67
100.00
------------+-----------------------------------

Number of obs
F( 5,
114)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

Les coefficients de la regression representent la difference entre


la valeur moyenne de dpipc de chaque Etat et celle de CT. (ex:
pour MA: 22.32587 - 2.549057=19.77681).

120
5.27
0.0002
0.1877
0.1521
5.2146
8

-----------------------------------------------------------------------------dpipc |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------NE2 | -2.549057
1.648991
-1.55
0.125
-5.815695
.7175814
NE3 | -7.151959
1.648991
-4.34
0.000
-10.4186
-3.88532
NE4 |
-3.65752
1.648991
-2.22
0.029
-6.924158
-.3908815
NE5 | -5.060575
1.648991
-3.07
0.003
-8.327214
-1.793937
NE6 | -6.588007
1.648991
-4.00
0.000
-9.854646
-3.321369
_cons |
22.32587
1.166013
19.15
0.000
20.01601
24.63573

Le test de significativite de la variable qualitative state est simplement le F de lanova de la regression.


H0 : 1 = 2 = ... = 5 = 0 : tous les Etats ont le meme revenu
disponible e gale a` .

(white) et R2 (black) dans la regression.

Une regression avec deux variables qualitatives

union : syndique ou non

On peut utiliser deux ensembles de variables indicatrices pour e valuer


les effets de deux facteurs qualitatifs.
Prenons pour exemple, un extrait de lenquete Nationale longitudinale americaine (U.S. National Longitudinal Survey - NLSW)
sur lemploi des femmes en 1988.

tenure : duree doccupation dun emploi en annees

10

log du salaire log(wage);


la variable race est codee 1 pour white, 2 pour black et
3 pour autre; On ne peut pas faire la regression avec deux
ensembles complets de variables indicatrices, de sorte que lon
va exclure une indicatrice de chaque groupe. On conserve R1

-------------+---------------------------------------------------------------R1 | -.0349326
.1035125
-0.34
0.736
-.2379444
.1680793
R2 | -.2133924
.1049954
-2.03
0.042
-.4193126
-.0074721
union |
.239083
.0270353
8.84
0.000
.1860606
.2921054
_cons |
1.913178
.1029591
18.58
0.000
1.711252
2.115105
------------------------------------------------------------------------------

. tabulate race, generate(R)


race |
Freq.
Percent
Cum.
------------+----------------------------------white |
1,353
72.04
72.04
black |
501
26.68
98.72
other |
24
1.28
100.00
------------+----------------------------------Total |
1,878
100.00
12

11

. regress lwage R1 R2 union


Source |
SS
df
MS
Number of obs =
1878
-------------+-----------------------------F( 3, 1874) =
38.73
Model | 29.3349228
3 9.77830761
Prob > F
= 0.0000
Residual | 473.119209 1874 .252464893
R-squared
= 0.0584
-------------+-----------------------------Adj R-squared = 0.0569
Total | 502.454132 1877 .267690001
Root MSE
= .50246
-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]

. use http://www.stata-press.com/data/imeus/nlsw88, clear


(NLSW, 1988 extract)
. keep if !missing(wage+race+union)
(368 observations deleted)
. generate lwage= log(wage)
. summarize wage race union tenure
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------wage |
1878
7.565423
4.168369
1.151368
39.23074
race |
1878
1.292332
.4822417
1
3
union |
1878
.2454739
.4304825
0
1
tenure |
1868
6.571065
5.640675
0
25.91667

test R1 R2 // test joint pour leffet de la race


( 1) R1 = 0
( 2) R2 = 0
F(

2, 1874) =
Prob > F =

23.25
0.0000

On teste le fait que les variables raciales R1 et R2 sont e gales a` zero


(autrement dit, quelles ne sont pas significative). Ces regresseurs
doivent e tre utilises ou retires en tant que groupe. Ils indiquent

conjointement le fait que race a un impact sur lwage.


Ce mod`ele avec deux facteurs qualitatifs est un cas particulier
dans la mesure o`u il suppose qeu les effets des deux facteurs qualitatifs sont independants et cumulables :

14

13

pour une personne noire, le (log) du salaire est suppose e tre plus
faible dune valeur 0,213 par rapport a` quelquun de la categorie
autre

deux effets, a` savoir (-0,213 + 0,23 = +0,026).


-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------R1 | -.0349326
.1035125
-0.34
0.736
-.2379444
.1680793
R2 | -.2133924
.1049954
-2.03
0.042
-.4193126
-.0074721
union |
.239083
.0270353
8.84
0.000
.1860606
.2921054
_cons |
1.913178
.1029591
18.58
0.000
1.711252
2.115105
------------------------------------------------------------------------------

une personne syndiquee aura un salaire superieur de 0,239 par


rapport a` une personne non syndiquee
La question est alors de savoir quel sera le revenu dune personne noire syndiquee par rapport a` la classe exclue (cest-`adire une personne dune race autre et non syndiquee)?
Le mod`ele prevoit que le salaire sera superieur de la somme des

3.1

Il se peut quil y ait des effets dinteractions permettant de mieux


apprehender limpact de ces facteurs.

les termes dinteraction

De meme, les travailleurs issus des minorites ont des taux de


chomage plus e leves du fait de discrimination a` lembauche ou
dautres facteurs lies a` la qualite de leur e ducation.
Il se peut que le fait detre tr`es jeune et detre issu dune minorite aura un effet plus negatif que simplement la somme des
contributions individuelles.

Introduire des variables indicatrices est e quivalent a` loperateur


booleen ou alors que la multiplication revient a` introduire un
operateur et &.
Nous allons donc inclure une interaction race*union.
16

15

Lindependance entre les facteurs qualitatifs peut e tre consideree


comme plausible pour un certain nombre de cas, dans dautres ca
ne lest pas :
Les tr`es jeunes travailleurs ont des difficultes a` trouver un emploi du fait de leur manque dexperience, par consequent leur
taux de chomage est e leve par rapport aux jeunes de 30 ans.

lwagei = 1+2R1i+3R2i+4unioni+5(R1iunioni)+6(R2iunioni)+ui
Le log du salaire moyen pour ceux qui sont issus de la race R1
(white) est 1 + 2 pour les membres non syndiques, mais 1 +
2 + 4 + 5 pour les membres syndiques. Ceci donne la regression
suivante :
. generate R1u = R1*union
. generate R2u = R2*union

. regress lwage R1 R2 union R1u R2u

F(

18

17

Source |
SS
df
MS
Number of obs =
1878
-------------+-----------------------------F( 5, 1872) =
26.63
Model | 33.3636017
5 6.67272035
Prob > F
= 0.0000
Residual |
469.09053 1872 .250582548
R-squared
= 0.0664
-------------+-----------------------------Adj R-squared = 0.0639
Total | 502.454132 1877 .267690001
Root MSE
= .50058
-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------R1 | -.1818955
.1260945
-1.44
0.149
-.4291962
.0654051
R2 | -.4152863
.1279741
-3.25
0.001
-.6662731
-.1642995
union | -.2375316
.2167585
-1.10
0.273
-.6626452
.187582
R1u |
.4232627
.2192086
1.93
0.054
-.0066561
.8531816
R2u |
.6193578
.2221704
2.79
0.005
.1836302
1.055085
_cons |
2.07205
.1251456
16.56
0.000
1.82661
2.317489
------------------------------------------------------------------------------

. test R1u R2u


( 1) R1u = 0
( 2) R2u = 0

La regression avec des facteurs qualitatifs et quantitatifs

8.04
0.0003

Le test des deux variables R1u et R2u rejette lhypoth`ese nulle


dindependance des variables qualitatives race et union. Dans la
mesure o`u les effets sont significatifs, le mod`ele serait mal specifie
si on nintroduisait pas les interactions.

R1 |
-.070349
.0976711
-0.72
0.471
-.2619053
.1212073
R2 | -.2612185
.0991154
-2.64
0.008
-.4556074
-.0668297
union |
.1871116
.0257654
7.26
0.000
.1365794
.2376438
tenure |
.0289352
.0019646
14.73
0.000
.0250823
.0327882
_cons |
1.777386
.0975549
18.22
0.000
1.586058
1.968715
------------------------------------------------------------------------------

On va ajouter a` la regression precedente une variable continue


caracterisant les individus, a` savoir lexperience des travailleurs
(tenure), a` savoir, le nombre dannee dans un emploi. La regression
donne les resultats suivants :
20

19

. regress lwage R1 R2 union tenure


Source |
SS
df
MS
Number of obs =
1868
-------------+-----------------------------F( 4, 1863) =
85.88
Model | 77.1526731
4 19.2881683
Prob > F
= 0.0000
Residual | 418.434693 1863 .224602626
R-squared
= 0.1557
-------------+-----------------------------Adj R-squared = 0.1539
Total | 495.587366 1867 .265445831
Root MSE
= .47392
-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+----------------------------------------------------------------

2, 1872) =
Prob > F =

. test R1 R2
( 1) R1 = 0
( 2) R2 = 0
F(

2, 1863) =
Prob > F =

29.98
0.0000

On constate que ce mod`ele explique une plus grande part de la


variance du lwage que le mod`ele fonde uniquement sur les variables qualitatives.
Comment interpreter tenure? : Si on utilise lapproximitation

standard selon laquelle log(1 + x) x alors on en deduit quun


travailleur donne ayant une annee dexperience de plus peut
sattendre a` une remuneration superieure de lordre de 2,89%
(autrement dit, la semi-elasticite de wage par rapport a` tenure).

Tester les differences de pentes

On cherche a` mettre en e vidence des profils differents. On va commencer par faire une interaction entre union et tenure.
. generate uTen = union * tenure
. regress lwage R1 R2 union tenure uTen

22

21

Comment interpreter la constante ? : il sagit du log du salaire


moyen pour un travailleur non syndique dune origine raciale
autre avec aucune experience dans le poste.

4.1

Source |
SS
df
MS
-------------+-----------------------------Model |
77.726069
5 15.5452138
Residual | 417.861297 1862 .224415304
-------------+-----------------------------Total | 495.587366 1867 .265445831

Number of obs
F( 5, 1862)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1868
69.27
0.0000
0.1568
0.1546
.47372

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------R1 | -.0715443
.0976332
-0.73
0.464
-.2630264
.1199377

R2 | -.2638742
.0990879
-2.66
0.008
-.4582093
-.0695391
union |
.2380442
.0409706
5.81
0.000
.157691
.3183975
tenure |
.0309616
.0023374
13.25
0.000
.0263774
.0355458
uTen | -.0068913
.0043112
-1.60
0.110
-.0153467
.001564
_cons |
1.766484
.0977525
18.07
0.000
1.574768
1.9582
------------------------------------------------------------------------------

(tenure + uT ten) pour les membres syndiques.


La difference entre les deux valeurs est le coefficient uT ten) qui
nest pas significativement different de zero au niveau de 10%
(on voit que P > |t| = 0, 11) et negatif.
Ce resultat va a` lencontre de notre intuition, les donnees ne peuvent pas rejeter lhypoth`ese selon laquelle les pentes pour les pro-

24

23

Leffet tenure sera alors mesure comme


lwage/tenure = tenure pour les membres non syndiques et

fils des syndiques et non syndiques sont identiques.


Quen est-il du profil pour lorigine racial? Il est souvent avance
que les employes issus des minorites ne sont pas traites de la meme
mani`ere au cours du temps, en particulier, les promotions et les
grosses augmentations de salaires vont plutot aux blancs plutot
quaux noirs et aux hispaniques. Nous allons interagir cette categorie
race avec tenure :
. quietly generate R1ten = R1*tenure
. quietly generate R2ten = R2*tenure
. regress lwage R1 R2 union tenure R1ten R2ten
Source |
SS
df
MS
-------------+-----------------------------Model | 77.2369283
6 12.8728214
Residual | 418.350438 1861 .224798731
-------------+------------------------------

Number of obs
F( 6, 1861)
Prob > F
R-squared
Adj R-squared

=
=
=
=
=

1868
57.26
0.0000
0.1558
0.1531

Total |

495.587366

1867

.265445831

Root MSE

.47413

F(

2, 1861) =
Prob > F =

26

25

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------R1 |
-.082753
.1395
-0.59
0.553
-.3563459
.1908398
R2 |
-.291495
.1422361
-2.05
0.041
-.570454
-.012536
union |
.1876079
.0257915
7.27
0.000
.1370246
.2381912
tenure |
.0257611
.0186309
1.38
0.167
-.0107785
.0623007
R1ten |
.0024973
.0187646
0.13
0.894
-.0343045
.0392991
R2ten |
.0050825
.018999
0.27
0.789
-.032179
.0423441
_cons |
1.794018
.1382089
12.98
0.000
1.522957
2.065078
-----------------------------------------------------------------------------. test R1ten R2ten
( 1) R1ten = 0
( 2) R2ten = 0
0.19
0.8291

_cons |
1.76904
.1390492
12.72
0.000
1.496331
2.041749
------------------------------------------------------------------------------

. regress lwage R1 R2 union tenure uTen R1ten R2ten

. test
( 1)
( 2)
( 3)

uTen R1ten R2ten


uTen = 0
R1ten = 0
R2ten = 0
F(

28

27

Source |
SS
df
MS
Number of obs =
1868
-------------+-----------------------------F( 7, 1860) =
49.48
Model | 77.8008722
7 11.1144103
Prob > F
= 0.0000
Residual | 417.786494 1860 .224616394
R-squared
= 0.1570
-------------+-----------------------------Adj R-squared = 0.1538
Total | 495.587366 1867 .265445831
Root MSE
= .47394
-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------R1 | -.0697096
.1396861
-0.50
0.618
-.3436676
.2042485
R2 | -.2795277
.1423788
-1.96
0.050
-.5587668
-.0002886
union |
.238244
.0410597
5.80
0.000
.1577161
.3187718
tenure |
.0304528
.0188572
1.61
0.106
-.0065308
.0674364
uTen | -.0068628
.0043311
-1.58
0.113
-.0153572
.0016316
R1ten | -.0001912
.0188335
-0.01
0.992
-.0371283
.0367459
R2ten |
.0023429
.0190698
0.12
0.902
-.0350576
.0397433

On ne peut pas rejetter lhypoth`ese nulle selon laquelle les coefficients dinteraction sont e gals a` zero, ce qui implique quil ne
semble pas y avoir devidence des discriminations au niveau des
salaires, autrement dit la croissance des salaires des femmes ne
semble pas e tre reliee a` lorigine raciale.
La regression suivante teste cinq profils differents.
Le test qui suit montre que les profils pour les membres syndiques et les membres non syndiques ont les memes pentes pour
une origine raciale donnee. Le test conjoint des trois hypoth`eses
consid`ere lhypoth`ese nulle dune pente versus six pentes distinctes pour les six categories. Cette hypoth`ese ne peut pas e tre
rejetee par les donnees, signifiant quune pente unique pourrait suffire.

3, 1860) =
Prob > F =

0.96
0.4098

A present, considerons un mod`ele plus simple pour lequel on


consid`ere une seule variable indicatrice union et une variable
quantitative, tenure. Comparons lequation
lwagei = 1 + 2unioni + 3tenurei + 4(unioni tenurei) + ui
avec les e quations
lwagei = 1 + 2tenure + wi, i = union
Les deux e quations reviennent a` estimer de mani`ere separee le
salaire pour la cohorte des individus qui sont, dans le premier cas,
non syndiques i = union, dans le second cas, syndiques i = union.
Les estimations peuvent e tre les memes pour les coefficients de
lequation compl`ete et les deux autres e quations, en revanche les
e cart-types des coefficients seron plus faibles car ils sont calcules

Le test de student pour uTen indique que les effets de tenure


ne diff`erent pas a` travers les classifications. Faisons a` present la
regression pour les sous-ensembles de ceux qui sont syndiques et
ceux qui ne le sont pas :

. regress lwage union tenure uTen


Source |

SS

df

MS

Number of obs =

1868

. regress lwage tenure if !union


Source |
SS
df
MS
-------------+-----------------------------Model | 36.8472972
1 36.8472972
Residual | 349.032053 1406 .248244703
-------------+-----------------------------Total |
385.87935 1407 .274256823
32

31

-------------+-----------------------------F( 3, 1864) =
92.25
Model | 64.0664855
3 21.3554952
Prob > F
= 0.0000
Residual |
431.52088 1864 .231502618
R-squared
= 0.1293
-------------+-----------------------------Adj R-squared = 0.1279
Total | 495.587366 1867 .265445831
Root MSE
= .48115
-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------union |
.2144586
.0414898
5.17
0.000
.1330872
.29583
tenure |
.0298926
.0023694
12.62
0.000
.0252456
.0345395
uTen | -.0056219
.0043756
-1.28
0.199
-.0142035
.0029597
_cons |
1.655054
.0193938
85.34
0.000
1.617018
1.69309
------------------------------------------------------------------------------

30

29

lwagei = 1 + 2tenure + vi, i = union

sur sous-ensemble de lechantillon. Par ailleurs, lorsque les deux


e quations sont estimees separement, elles ont chacune leur estima2
. En estimant lequation compl`ete, on suppose que u
tion de epsilon
est homoscedastique par rapport aux travailleurs syndiques union
et non syndiques, mais cette hypoth`ese nest pas necessaire appropriee. Dun point de vue de lanalyse behaviorial, les negociations
collectives peuvent reduire la volatilite des salaires (par exemple en
supprimant les remunerations au merite en faveur daugmentations
generales) en dehors meme du fait que ces negociations ont pour
effet dagir sur le niveau des salaires.
Presentons en premier lieu, la regression qui utilise tout lechantillon

Number of obs
F( 1, 1406)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1408
148.43
0.0000
0.0955
0.0948
.49824

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------tenure |
.0298926
.0024536
12.18
0.000
.0250795
.0347056
_cons |
1.655054
.0200828
82.41
0.000
1.615659
1.69445
-----------------------------------------------------------------------------. predict double unw if e(sample), res
(470 missing values generated)

Les Root MSE des deux sous-echantillons sont differents et on


pourrait tester leur e galite pour savoir sil y a de lheteroscedasticite.

. regress lwage tenure if union


Source |
SS
df
MS
-------------+-----------------------------Model | 10.0775663
1 10.0775663
Residual | 82.4888278
458 .180106611
-------------+-----------------------------Total | 92.5663941
459 .201669704

Number of obs
F( 1,
458)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

460
55.95
0.0000
0.1089
0.1069
.42439

. replace allres = unw if unw<.


(1408 real changes made)
34

33

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------tenure |
.0242707
.0032447
7.48
0.000
.0178944
.0306469
_cons |
1.869513
.0323515
57.79
0.000
1.805937
1.933088
------------------------------------------------------------------------------

. generate double allres = nunw


(1418 missing values generated)

. sdtest allres, by(union)


Variance ratio test
-----------------------------------------------------------------------------Group |
Obs
Mean
Std. Err.
Std. Dev.
[95% Conf. Interval]
---------+-------------------------------------------------------------------nonunion |
1408
7.51e-17
.0132735
.4980645
-.0260379
.0260379
union |
460
3.33e-17
.0197657
.4239271
-.0388425
.0388425
---------+--------------------------------------------------------------------

. predict double nunw if e(sample), res


(1418 missing values generated)

Linear regression

combined |
1868
6.48e-17
.0111235
.4807605
-.0218157
.0218157
-----------------------------------------------------------------------------ratio = sd(nonunion) / sd(union)
f =
1.3803
Ho: ratio = 1
degrees of freedom = 1407, 459
Ha: ratio < 1
Pr(F < f) = 1.0000

Ha: ratio != 1
2*Pr(F > f) = 0.0000

Ha: ratio > 1


Pr(F > f) = 0.0000

. regress lwage union tenure uTen, robust

36

35

On conclut que contrairement a` nos premiers resultats, les travailleurs non syndiques ont une variance beaucoup plus faible que
celle des travailleurs syndiques. Il faudrait donc corriger pour
lheteroscedasticite a` travers les differents groupes ou utiliser des
e cart-types robustes pour faire des inferences a` partir du mod`ele incluant les travailleurs syndiques et non syndiques. On peut illustrer
ce point a` laide de la regression suivante :

Number of obs
F( 3, 1864)
Prob > F
R-squared
Root MSE

=
=
=
=
=

1868
109.84
0.0000
0.1293
.48115

-----------------------------------------------------------------------------|
Robust
lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------union |
.2144586
.0407254
5.27
0.000
.1345864
.2943308
tenure |
.0298926
.0023964
12.47
0.000
.0251928
.0345924
uTen | -.0056219
.0038631
-1.46
0.146
-.0131984
.0019546
_cons |
1.655054
.0210893
78.48
0.000
1.613693
1.696415
------------------------------------------------------------------------------

Bien que lintroduction des e cart-types robustes augmentent les


statistiques t de uTen, le coefficient nest pas significativement
different de zero quelque soit le niveau de significativite choisi. On

conclut que linteraction entre tenure et union nest pas requise


pour avoir une specification appropriee.
Tester la stabilite et le changement structurel

5.1

38

37

Les variables indicatrices sont utilisees pour tester la stabilite structurelle dans une fonction de regression dans laquelle on specifie a
priori les possibles points de ruptures. Aux paragraphes precedents,
nous avons constate que les ordonnees a` lorigine de la regression
e taient differentes entre les cohortes syndiquees et non syndiquees
mais quil suffisait dun seul coefficient pour tenure. Par ailleurs,
nous avons trouve que 2 e tait significativement different pour les
deux cohortes de lechantillon. Lorsque lon a un doute sur la
stabilite structurelle - par exemple, une regression au niveau de

Les contraintes de continuite et de differentiation

. generate tTen12 = tenure*Ten12


(15 missing values generated)

.use "C:\Users\ANNE\Documents\COURS\econo2\stata_baum\imeus\nlsw88.dta", clear


(NLSW, 1988 extract)
generate lwage =
generate Ten2 =
generate Ten7 =
generate Ten12 =
generate Ten25 =

log(wage)
tenure <=2
!Ten2 & tenure <=7
!Ten2 & !Ten7 & tenure <=12
!Ten2 & !Ten7 & !Ten12 & tenure <.

Nous generons a` present les interactions avec tenure avec chacun


des profils demploi.
. generate tTen2 = tenure*Ten2
(15 missing values generated)
. generate tTen7 = tenure*Ten7
(15 missing values generated)

. generate tTen25 = tenure*Ten25


(15 missing values generated)
. regress lwage Ten* tTen*, nocons hascons
40

39

.
.
.
.

lindustrie avec des industries intensives en ressources naturelles


et des industries manufacturi`eres - il peut e tre utile dintroduire
des variables indicatrices pour identifier les groupes au sein de
lechantillon et tester si les ordonnees a` lorigine et les pentes sont
stables a` travers les groupes.
Lintroduction de variables indicatrices pour distinguer les groupes
permet de controler pour des differences structurelles potentielles.

Source |
SS
df
MS
Number of obs =
2231
-------------+-----------------------------F( 7, 2223) =
37.12
Model | 76.6387069
7 10.9483867
Prob > F
= 0.0000
Residual | 655.578361 2223 .294907045
R-squared
= 0.1047
-------------+-----------------------------Adj R-squared = 0.1018
Total | 732.217068 2230 .328348461
Root MSE
= .54305
-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------Ten2 |
1.55662
.0383259
40.62
0.000
1.481462
1.631778

tenure if tenure>12 &

Ten12 |
1.870808
.1877798
9.96
0.000
1.502566
2.23905
Ten7 | -.1620807
.1971581
-0.82
0.411
-.548714
.2245527
Ten25 |
1.751961
.1691799
10.36
0.000
1.420194
2.083728
tTen2 |
.0897426
.0331563
2.71
0.007
.0247221
.1547631
tTen7 |
.027988
.0242808
1.15
0.249
-.0196274
.0756035
tTen12 |
.0154208
.019786
0.78
0.436
-.0233801
.0542218
tTen25 |
.0238014
.0102917
2.31
0.021
.0036191
.0439837
------------------------------------------------------------------------------

Les differents profils peuvent e tre representes graphiquement de la


mani`ere suivante :

42

. label var lwagehat "Predicted log(wage)"


. sort tenure

Predicted log(wage)
1.8
2
2.2

2.4

. twoway (line lwagehat tenure if tenure<=2) (line lwagehat tenure if tenure>2


& tenure<= 7) (line lwagehat tenure if tenure>7 & tenure<=12) (line lwagehat

44

43
1.6

41

. predict double lwagehat


(option xb assumed; fitted values)
(15 missing values generated)

tenure<.),legend(off)

10
15
job tenure (years)

20

25

Le graphique precedent montre que cette approche par groupe


permet des pentes differentes selon les profils de travailleurs, mais
cette representation nest pas continue. Par exemple, les estimations predisent quau point qui correspond a` deux annees dexperience,
le salaire moyen du travailleur va faire un bon abrupt de 1.73 par
heure a` 1.80 par heure et ensuite decliner de 2.01 a` 1.98 par heure
au point qui correspond a` 7 annees dexperience.
On souhaiterait en fait que la relation soit continue plutot que discontinue en utilisant la fonction mkspline : il sagit dune fonction
mathematique qui force la continuite entre les segments adjacents.
Les fonctions spline sont caracterisees par leur degre. Un spline
lineaire est de degre 1, un spline quadratique est de degre 2 et ainsi
de suite. Un spline lineaire sera continu mais pas differentiable
aux points de rupture correspondant aux differents segments de

la fonction. Ce dernier point depasse le cadre de ce cours.

45

Chapitre 4. Les mod`eles a` variables categorielles

Les mod`eles de regression pour variables binaires constituent le


fondement a` partir duquel on construit des mod`eles plus complexes
pour les variables categorielles ordinales, nominales et les count
models ou mod`eles de comptages.

Les mod`eles pour les variables categorielles (ou qualitatives) sont


non lineaires. Il est important de comprendre les implications de la
non linearite pour bien interpreter les mod`eles.
1.1
2

Les variables dependantes binaires prennent deux valeurs codees


0 (pour une occurence negative, cest-`a-dire, levenement ne sest
pas produit) et 1 (pour une occurence positive, cest-`a-dire, levenement
sest produit) : exemple : la personne a t-elle votee? La personne
est-elle feministe? Cinq annees apr`es le diagnostic dun cancer,
la personne est-elle toujours en vie? Larticle achete a t-il e te retourne?

d=1

x1

x2

Un mod`ele lineaire simple


y ( + x + d)
=
=
x
x

Les mod`eles lineaires

La figure suivante presente un mod`ele lineaire simple. y est la


variable dependante et x est une variable independante continue, et
d est une variable independante binaire. Le mod`ele que lon estime
est le suivant :
y = + x + d
Pour la simplicite, on suppose quil ny a pas derreur.

d=0

Interpretation des mod`eles non lineaires

Dans un mod`ele lineaire, la variation marginale est constante,


autrement dit elle est la meme en tout point pour toutes les valeurs
de x et d.
y
= ( + x + 1) ( + x + 0) =
d
Lorsque d varie de 0 a` 1, y varie de unites independamment de
x. Cest ce que represente la fl`eche qui represente la distance qui
separe les deux droites.

1.2

Le mod`ele non lineaire

d=0

La figure 2 represente un mod`ele logit dans lequel y = 1 si levenement


se produit (exemple : e tre un homme) sinon y = 0. Les courbes
sont issues de lequation logit :
exp( + x + d)
P r(y = 1) =
1 + exp( + x + d)
x est une variable continue, et d un variable binaire.
La non linearite du mod`ele fait quil est plus difficile dinterpreter
les effets de x et de d sur la probabilite doccurence dun e venement.
Par exemple, ni les changements marginaux, ni discret par rapport
a` x ne sont constants :
P r(y = 1)
=
x

d=1

4
3

2.1
8

x1

x2

Le mod`ele statistique

Il y a trois mani`eres denvisager les mod`eles de regression binaires MRB, chacune de ces methodes conduit au meme mod`ele
mathematique :

P r(y = 1)
=
d
Cest illustre par les triangles dans la figure 2. Dans la mesure o`u
la courbe continue pour d = 0 et la courbe en pointilles pour d = 1
ne sont pas parall`eles 1 = 4. Leffet dune variation dune unite
de x diff`ere selon les valeurs de x et d : 2 = 3 = 5 = 6.
Dans les mod`eles non lineaires, limpact dun changement sur une
variable depend des valeurs des autres variables du mod`ele et il
nest pas simplement e gal a` un des param`etres du mod`ele.

Relation entre la variable latente y et P r(y = 1) pour MRB

Une variable latente

On fait lhypoth`ese que lon a une variable latente ou non observee


qui est associee a` un mod`ele qui permet de relier cette variable aux
observations binaires.
On suppose entre la variable latente y va de a` et quelle
est reliee aux variables par lequation suivante :
yi = xi + i

ou

E(y | x)
P r(y = 1 | x)

y=1

=0

y=0

10

yi = + xi + i
Ce mod`ele est similaire au mod`ele de regression lineaire a` la difference
que la variable dependante nest pas observee.
Le lien avec la variable binaire observee y et la variable latente y
est le suivant :

1 si yi >
yi =
0 si yi

est le point seuil. Si y alors y = 0. Si y coupe le point


seuil (autrement dit si y > alors y = 1.
Par exemple, si

1 si yi > 0
yi =
0 si yi 0

P r(y = 0 | x)
x

Relation entre la variable latente y et P r(y = 1) pour MRB


P r(y = 1 | x) = P r(y > 0 | x)
P r(y = 1 | x) = P r( > [ + x] | x)

On fait lhypoth`ese de deux distributions pour , chacune avec


une esperance mathematique de 0, mais avec des variances differentes
qui conduisent a` 2 mod`eles :

Cette e quation montre que la probabilite depend de la distribution


de lerreur .

12

11

1. un mod`ele probit binaire pour lequel  est distribuee normalement avec une variance V ar() = 1
 2
 +x
1
t
exp
dt
P r(y = 1 | x) =
2
2

2. un mod`ele logit binaire avec une variance V ar() = 2/3 pour


lequel lequation devient :
exp( + x)
P r(y = 1 | x) =
1 + exp( + x)
La probabilite est comprise entre 0 et 1. Pour contraindre la

Cette e quation est e quivalente au mod`ele logit vu precedemment


exp( + x)
P r(y = 1 | x) =
1 + exp( + x)
Lorsque lon interprete ce mod`ele logit on sinteresse souvent
aux changements des facteurs du ratio.
14

13

prevision a` cet intervalle, on transforme la probabilite en odds :


P r(y = 1 | x)
P r(y = 1 | x)
(x) =
=
P r(y = 0 | x) 1 P r(y = 1 | x)
Ceci indique le rapport de la probabilite quun e venement se
produise (y = 1) par rapport a` la probabilite quil ne se produise
pas (y = 0).
- Ce ratio est e gale a` 0 lorsque P r(y = 1 | x) = 0 et
- lorsque P r(y = 1 | x) = 1.
- Le log du ratio ou logit va de - a` . Ceci sugg`ere que le
mod`ele est lineaire :

Pour chaque mod`ele, la probabilite que levenement se produise


est une fonction de densite cumulative de  pour des valeurs
donnees des variables independantes :
Le mod`ele lineaire est y = + x +  et le mod`ele de probabilite
non lineaire est

Logit : ln (x) = x

P r(y = 1 | x) = F ( + x)
P r(y = 1 | x) = F (x)

F est la fonction de densite cumulative pour les mod`eles probit


et pour les mod`eles logit.
3

L( | y, X) =


y=1

Lestimation avec logit et probit


y=1

Lestimateur du maximum de vraissemblance



si yi = 1 est observe
P r(yi = 1 | xi)
pi =
1 P r(yi = 1 | xi) si yi = 0 est observe
Si les observations sont independantes, alors lequation de la vraissemblance secrit :
N

pi
L( | y, X) =

3.1


[1 P r(yi = 1 | xi)] (1)
y=0


F (xi ) [1 F (xi)]


y=1

16

15

i=1

P r(yi = 1 | xi)

y=0

ln F (xi) +

ln[1 F (xi)]

(2)
(3)

y=0

sachant que la fonction de densite cumulative normale secrit :


P r(y = 1x) = F (x)
On obtient les estimations en maxisant le logarithme du maximum de vraissemblance ln L/

Application
P r(lf p = 1) = F (0 + k5k5 + k618k618 + ageage + wcwc
+ hchc + lwg lwg + incinc)

. outreg using modele103


. probit lfp k5 k618 age wc hc lwg inc, nolog

. logit

Log likelihood = -452.69496

Probit estimates

lfp k5 k618 age wc hc lwg inc, nolog

Logit estimates

Log likelihood = -452.63296

Number of obs
LR chi2(7)
Prob > chi2
Pseudo R2

=
=
=
=

753
124.48
0.0000
0.1209
18

17

-----------------------------------------------------------------------------lfp |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------k5 | -1.462913
.1970006
-7.43
0.000
-1.849027
-1.076799
k618 | -.0645707
.0680008
-0.95
0.342
-.1978499
.0687085
age | -.0628706
.0127831
-4.92
0.000
-.0879249
-.0378162
wc |
.8072738
.2299799
3.51
0.000
.3565215
1.258026
hc |
.1117336
.2060397
0.54
0.588
-.2920969
.515564
lwg |
.6046931
.1508176
4.01
0.000
.3090961
.9002901
inc | -.0344464
.0082084
-4.20
0.000
-.0505346
-.0183583
_cons |
3.18214
.6443751
4.94
0.000
1.919188
4.445092
------------------------------------------------------------------------------

=
=
=
=

753
124.36
0.0000
0.1208

-----------------------------------------------------------------------------lfp |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------k5 | -.8747112
.1135583
-7.70
0.000
-1.097281
-.6521411
k618 | -.0385945
.0404893
-0.95
0.340
-.117952
.0407631
age | -.0378235
.0076093
-4.97
0.000
-.0527375
-.0229095
wc |
.4883144
.1354873
3.60
0.000
.2227642
.7538645
hc |
.0571704
.1240052
0.46
0.645
-.1858754
.3002161
lwg |
.3656287
.0877792
4.17
0.000
.1935847
.5376727
inc |
-.020525
.0047769
-4.30
0.000
-.0298875
-.0111626
_cons |
1.918422
.3806536
5.04
0.000
1.172355
2.66449
-----------------------------------------------------------------------------. outreg using modele103, append

Tests dhypoth`eses

4
4.1

20

19

(1) Logit
(2) Probit
Paid Labor Force: 1=yes 0=no
Paid Labor Force: 1=yes 0=no
------------------------------------------------------------# kids < 6
-1.463
-0.875
(7.43)**
(7.70)**
# kids 6-18
-0.065
-0.039
(0.95)
(0.95)
Wifes age in years
-0.063
-0.038
(4.92)**
(4.97)**
Wife College: 1=yes 0=no
0.807
0.488
(3.51)**
(3.60)**
Husband College: 1=yes 0=no
0.112
0.057
(0.54)
(0.46)
Log of wifes estimated wages
0.605
0.366
(4.01)**
(4.17)**
Family income excluding wifes
-0.034
-0.021
(4.20)**
(4.30)**
Constant
3.182
1.918
(4.94)**
(5.04)**
---------------------------------------------------------Observations
753
753
* significant at 5% level; ** significant at 1% level
probit x 1,67 = logit

Number of obs
LR chi2(7)
Prob > chi2
Pseudo R2

The Wald Test

Pour un coefficient
Les estimateurs du maximum de vraissemblance MV sont distribues asymptotiquement selon une loi normale.
H0 : k = 0
k N (k , s)
k H0
z=
sk
2

k H0
W =
21
sk

Pour plusieurs coefficients


Lhypoth`ese H0 : k = ... = J = 0 peut e tre testee avec la
statistique de Wald qui suit un 2 a` autant de degres de liberte
que de contraintes.
H0 : k = ... = J = 0
J
J


k
=
z2 2J
k
sk
k=1

. logit lfp k5 k618 age wc hc lwg inc, nolog


(on omet les r
esultats)
. test k5
( 1) k5 = 0.0
chi2( 1) =
55.14
Prob > chi2 =
0.0000

22

21

W =

Applications
H0 : k5 = 0 on fait

k=1

On conclut que le fait davoir un enfant de moins de 5 ans a un impact significatif sur la probabilite de travail. Ce resultat est significatif au 0,01=1%. (2 = 55, 14, degre de liberte=ddl=1, p < 0, 01).
La valeur dun chi2 a` un degre de liberte est identique au carre de la
normale centree reduite z. On peut voir cela en calculant la racine
carre du chi2 :
. display sqrt(55.14)
7.4256313
(soit - 7.426 des r
esultat du logit)

4.2

Application

Likelihood Ratio

Pour faire un test sur un seul coefficient

lhypoth`ese nulle est que les contraintes imposees sur le mod`ele


contraint Mc sont vraies. Si L(M ) est la valeur de la fonction
de vraissemblance pourle mod`ele non contraint et si L(Mc) est la
valeur de la fonction de vraissemblance pour le mod`ele contraint,
la statistique du LR est e gale a`
Si H0 est vrai, alors G2 2J
J e tant le nombre de contraintes.

. lrtest, saving(0)
. logit lfp k618 age wc hc lwg inc, nolog
(on omet les r
esultats)
24

23

G2(Mc | M ) = 2 ln L(M ) 2 ln L(Mc)

. logit lfp k5 k618 age wc hc lwg inc, nolog


(on omet les r
esultats)

. lrtest
Logit: likelihood-ratio test

chi2(1)
=
Prob > chi2 =

66.48
0.0000

Le test du Likelihood ratio peut e tre interprete de la mani`ere


suivante :
le fait davoir un enfant en bas a ge a un impact significatif a` 1%
(LR 2 = 66, 48, ddl=1, p < 0, 01)

Test sur plusieurs coefficients


H0 : wc = hc = 0 et H0 : wc = hc
. test hc wc
( 1) hc = 0.0
( 2) wc = 0.0
chi2( 2) =
Prob > chi2 =

. logit lfp k5 k618 age wc hc lwg inc, nolog


(on omet les r
esultats)
. estimates store fmodel

17.66
0.0001

. logit lfp k5 k618 age lwg inc, nolog


(on omet les r
esultats)
3.54
0.0600

26

25

. test hc=wc
( 1) - wc + hc = 0.0
chi2( 1) =
Prob > chi2 =

Le meme test avec lrtest

. lrtest fmodel nmodel


likelihood-ratio test
(Assumption: nmodel nested in fmodel

Dans le premier cas, lhypoth`ese selon laquelle le niveau detude


de la femme et de lhomme sont simultanement nuls peut e tre
rejetee a` 1% (2 = 17, 66, degre de liberte=ddl=2, p < 0, 01).
Dans le second cas, lhypoth`ese nulle que leducation de lhomme
et de la femme ont un impact identique est marginalement significatif a` 5%. (2 = 3, 54, degre de liberte=ddl=1, p < 0, 06).

lfp, nolog

Logit estimates

Log likelihood =

-514.8732

Number of obs
LR chi2(0)
Prob > chi2
Pseudo R2

=
=
=
=

753
0.00
.
0.0000
28

27

-----------------------------------------------------------------------------lfp |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------_cons |
.275298
.0735756
3.74
0.000
.1310925
.4195036
-----------------------------------------------------------------------------. estimates store intercept_only
. lrtest fmodel intercept_only
likelihood-ratio test
chi2(7)
=
124.48
(Assumption: intercept_only nested in fmodel)
Prob > chi2 =
0.0000

chi2(2)
=
Prob > chi2 =

18.50
0.0001

fmodel est le mod`ele complet full et nmodel est le mod`ele niche


nested.
Lhypoth`ese nulle est rejetee a` 1% (LR (2 = 18, 50, ddl=2,
p < 0, 01)

On peut tester la significativite globale du mod`ele


. logit

. estimates store nmodel

Le meme test global avec le Chi2 de Wald


Les tests sont fondes sur la comparaison du log maximum de
la vraissemblance du mod`ele complet Log-Lik Full Model et le
log de la vraissemblance lorsquaucun des coefficients nest significatifs Log-Lik Intercept Only qui correspond a` lhypoth`ese
H0 : 1 = ... = k = 0. :
LR = G2 = 2 ln L(MF ull ) 2 ln L(Mintercept).
lnL(Mfull) = -452,65.
lnL(Minter) = -514,87.
G2=2*(-452,65)-2*(-514,87) = 124,48.Ce qui correspond au
LR chi2(7) = 124,48.

On pref`ere la statisque ajustee :

Significativite globale et Efficacite du mod`ele

5
5.1

F ull) k
ln L(M
2
McF
R
=1
intercept )
ln L(M

Tests fondes sur le Log-likelihood : les pseudos R2

k est le nombre de param`etres (et non le nombre de variables


independantes).
30

29

Les tests sont fondes sur la comparaison du log maximum de la


vraissemblance du mod`ele complet Log-Lik Full Model et le log
de la vraissemblance lorsquaucun des coefficients nest significatifs Log-Lik Intercept Only. Deux tests seront e voques :
McFadden R2 : il compare le mod`ele avec uniquement la constrainte au mod`ele complet.
F ull )
ln L(M
452, 63
2
=1
=1
RMcF
intercept)
514, 87
ln L(M

Maximum Likelihood R2 a e te suggere par Maddala :

2/n
L(Mintercept)
2

= 1 exp(G2/N )
RML = 1
L(MF ull )

2
Si MF ull = Mintercept alors le RMcF
=0. Mais ce nest jamais le
cas.

5.2

Crit`ere dinformation bayesien BIC Soit deux mod`eles M1 et


M2, le posterior odds de M2 est
P r(M2 | Donnees obervees)
P r(M1 | Donnees obervees)

Mesures dinformation : pour les mod`eles non imbriques

Ces mesures sont utilisees pour comparer des mod`eles.

32

31

Crit`ere dinformation dAkaike AIC


) + 2P
2 ln L(M
AIC =
N

o`u L(M ) est la vraissemblance pour le mod`ele et P est le nombre de param`etre du mod`ee (par exemple k+1 pour le mod`ele de
regression binaire avec k variables independantes). AIC permet
de comparer des mod`eles qui ne sont pas niches les uns dans les
autres. la r`egle de decision est la suivante :
le mod`ele qui a lAIC le plus petit est considere comme e tant
le mod`ele qui correspond le mieux aux observations.

Si P r(M2) e tant donnees les observations est P r(M1) e tant


donnees les observations, M2 sera prefere. Sous lhypoth`ese
que les odds davant P r(M2)/P r(M1) des deux mod`eles est
e gal a` 1 (autrement dit, il ny a pas de preference anterieure
entre les deux mod`eles), le theor`eme de Bayes peut e tre utilise
pour montrer que le odds posterieur est e gal au Bayes factor :
P r( Donnees obervees | M2)
P r( Donnees obervees | M1)
Le mod`ele 2 est prefere si la probabilite que le mod`ele M2 en-

une deuxi`eme version du BIC fonde sur le LR :


BICk = G2(Mk ) + dfk ln n
Si M est le mod`ele nul avec uniquement la constante, le
BIC = 0. Le mod`ele nul est prefere quand BICk > 0,
suggerant que Mk inclut trop de param`etres ou de variables. Si
BICk < 0, alors Mk est prefere. Le mod`ele qui a le BIC le plus
negatif est prefere. Les deux statistiques BIC et BIC peuvent
e tre utilises pour comparer des mod`eles.

34

33

gendre les donnees observees est plus e leve que la probabilite


que M1 engendre les donnees.
La statistique du BIC est une approximation du facteur de Bayes.
Etant donnees n observations, on consid`ere le mod`ele Mk avec
une deviance D(Mk ) qui compare Mk au mod`ele sature Ms avec
dfk les degres de libertes e gaux a` la taille de lechantillon moins
le nombre de param`etre dans Mk .
BICk = D(Mk ) dfk ln n
avec
D(Mk ) = 2 ln L(MF U LL)
Dans la mesure o`u BICs pour le mod`ele sature est e gal a` 0, le
mod`ele sature est prefere quand le BICk0. Quand BICk0, MK
est prefere. Plus le BIC est negatif et plus il est prefere. Il existe

Pour e tudier lefficacite des mod`eles, on utilise la commande


fitstat.

On peut comparer deux mod`eles.


.
.
.
.
.
.

. logit lfp k5 k618 age wc hc lwg inc, nolog


(les r
esultats sont omis)
. fitstat
Measures of Fit for logit of lfp
-514.873
905.266

McFaddens R2:
0.121
Maximum Likelihood R2:
0.152
McKelvey and Zavoinas R2:
0.217
Variance of y*:
4.203
Count R2:
0.693
AIC:
1.223
BIC:
-4029.663

Log-Lik Full Model:


LR(7):
Prob > LR:
McFaddens Adj R2:
Cragg & Uhlers R2:
Efrons R2:
Variance of error:
Adj Count R2:
AIC*n:
BIC:

-452.633
124.480
0.000
0.105
0.204
0.155
3.290
0.289
921.266
-78.112

36

35

Log-Lik Intercept Only:


D(745):

quietly logit lfp k5 k618 age wc hc lwg inc


outreg using 03fit, replace nolabel
quietly fitstat, saving(mod1)
gen agesq= age*age
quietly logit lfp k5 age agesq wc inc, nolog
outreg using 03fit, append nolabel
(1)
(2)
lfp
lfp
k5
-1.463
-1.380
(7.43)**
(7.06)**
k618
-0.065
(0.95)
age
-0.063
0.057
(4.92)**
(0.50)
wc
0.807
1.094
(3.51)**
(5.50)**
hc
0.112
(0.54)
lwg
0.605
(4.01)**
inc
-0.034
-0.032
(4.20)**
(4.18)**
agesq
-0.001

(1.00)
3.182
0.979
(4.94)**
(0.40)
Observations
753
753
Absolute value of z-statistics in parentheses
* significant at 5% level; ** significant at 1% level

Variance of y*:
Variance of error:
Count R2:
Adj Count R2:
AIC:
AIC*n:
BIC:
BIC:

Constant

fitstat, using(mod1)

Difference of
Saved
logit
753
-514.873
-452.633
905.266(745)
124.480(7)
0.000
0.121
0.105
0.152
0.204
0.217
0.155

4.203
3.290
0.693
0.289
1.223
921.266
-4029.663
-78.112

-0.180
0.000
-0.016
-0.037
0.019
14.040
4.791
4.791

4.791 in BIC provides positive support for saved model.

Difference
Note: p-value for difference in LR is only valid if models are nested.
0
0.000
-9.020
18.040(2)
18.040(2)
0.000
-0.018
-0.014
-0.021
-0.028
-0.035
-0.020

38

37

Measures of Fit for logit of lfp


Current
Model:
logit
N:
753
Log-Lik Intercept Only:
-514.873
Log-Lik Full Model:
-461.653
D:
923.306(747)
LR:
106.441(5)
Prob > LR:
0.000
McFaddens R2:
0.103
McFaddens Adj R2:
0.092
Maximum Likelihood R2:
0.132
Cragg & Uhlers R2:
0.177
McKelvey and Zavoinas R2:
0.182
Efrons R2:
0.135

4.023
3.290
0.677
0.252
1.242
935.306
-4024.871
-73.321

si BIC1 BIC2 > 0, le deuxi`eme mod`ele est prefere. Selon ce


crit`ere, on pref`erera le mod`ele M2 plutot que le mod`ele M1.

Les valeurs des pseudo-R2 sont leg`erement differentes pour le deuxi`eme


mod`ele bien quune variable significative ait e te supprimee et que
seule une variable non significative a e te ajoutee.
plus le BIC est negatif, meilleure est la capacite dexplication
du mod`ele.
Plus le BIC ou BIC sont negatifs, meilleure est la capacite dexplication
du mod`ele. Si BIC1 BIC2 < 0, le premier mod`ele est prefere,

Prevision

Le mod`ele secrit de la mani`ere suivante:


P r(y = 1|x) = F ( + x) = F (x)

40

39

F est la fonction de densite cumulative.


Lorsque lon fait varier le param`etre , la courbe logistique se
deplace. Elle se deplace vers la gauche quand augmente et vers
la droite quand diminue. Lorsque lon fait varier le param`etre ,
la courbe devient plus plate ou plus droite. Plus est petit (proche
de zero) et plus la courbe est e tallee et grand et plus la courbe est
droite.

6.1

Aux autres variables on a donne la valeur moyenne (rest(mean)).


Le resultat montre la probabilite pour une femme de travailler dans
ce cas l`a. Elle est de 13% (O,1327).

Previsions individuelles

On peut e tablir des previsions pour des types dindividus. Par exemple, dans le cas du travail des femmes, on peut e tablir des types
de familles tels que

CAS 2
. prvalue, x(age=50 k5=0 k618=0 wc=1 hc=1) rest(mean)
probit: Predictions for lfp
Pr(y=inLF|x):
0.7125
95% ci: (0.6247,0.7892)
Pr(y=NotInLF|x):
0.2875
95% ci: (0.2108,0.3753)

cas 1 : jeune, revenu faible et faible e ducation avec des enfants


jeunes
CAS 1:
. prvalue, x(age=35 k5=2 wc=0 hc=0 inc=15) rest(mean)
probit: Predictions for lfp
Pr(y=inLF|x):
0.1327
95% ci: (0.0666,0.2340)
Pr(y=NotInLF|x):
0.8673
95% ci: (0.7660,0.9334)
k5
k618
age
wc
hc
x=
2 1.3532537
35
0
0
inc
x=
15

42

41

cas 2 : niveau detude e leve, a ge moyen sans enfants a` la maison

x=
x=

k5
0
inc
20.128965

k618
0

age
50

wc
1

hc
1

Types de famille
cas 1 : jeune, revenu faible et faible e ducation avec des enfants jeunes
cas 2 : niveau detude e leve, a ge moyen sans enfants a` la maison

lwg
1.0971148

La derivee partielle
P r(y = 1|x) F (x) dF (x) x
=
=
= f (x)k
xk
xk
dx xk
Pour le mod`ele probit, ca donne
P r(y = 1|x)
= (x)k
xk

Probabilites de LFP
0,13
0,72

La commande prvalue, rest(mean) donne le cas de la famille moyenne.

6.2

6.3

(4)

44

43

Pour le mod`ele logit, ca donne


P r(y = 1|x)
= (x)k
xk
exp(x)
=
k
[1 + exp(x)]2
= P r(y = 1|x)[1 P r(y = 1|x)]k

lwg
1.0971148

La variation discr`ete

La variation de la probabilite pour une variation discr`ete dune


variable independante est une alternative a` la variation marginale
qui semble plus appropriee pour interpreter les mod`eles de regression
binomiale.
P r(y = 1|x)
= P r(y = 1|x, xk + ) P r(y = 1|x, xk )
xk
La variation discr`ete peut e tre interpretee de la mani`ere suivante :
Dans la mesure o`u la probabilite pour une variation donnee de xk
depend des niveaux de toutes les variables dependantes, il faut
decider a` quelles valeurs de x on souhaite calculer la variation
discr`ete. Une possibilite est de calculer la variation pour les valeurs
moyennes des variables independantes. Pour les variables binaires,

Application
. probit

Log likelihood = -452.69496

min->max
-0.6441
-0.1221
-0.4274
0.1844
0.0223
0.6649
-0.6425

x=
sd(x)=

0
0.4218
k5
.237716
.523959

-+1/2
-0.3320
-0.0151
-0.0148
0.1892
0.0224
0.1423
-0.0080

-+sd/2
-0.1778
-0.0199
-0.1190
0.0858
0.0109
0.0839
-0.0932

age
42.5378
8.07257

wc
.281541
.450049

MargEfct
-0.3422
-0.0151
-0.0148
0.1911
0.0224
0.1431
-0.0080

hc
.391766
.488469

lwg
1.09711
.587556

753
124.36
0.0000
0.1208

-----------------------------------------------------------------------------lfp |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------k5 | -.8747112
.1135583
-7.70
0.000
-1.097281
-.6521411
k618 | -.0385945
.0404893
-0.95
0.340
-.117952
.0407631
age | -.0378235
.0076093
-4.97
0.000
-.0527375
-.0229095
wc |
.4883144
.1354873
3.60
0.000
.2227642
.7538645
hc |
.0571704
.1240052
0.46
0.645
-.1858754
.3002161
lwg |
.3656287
.0877792
4.17
0.000
.1935848
.5376727
inc |
-.020525
.0047769
-4.30
0.000
-.0298875
-.0111626
_cons |
1.918422
.3806536
5.04
0.000
1.172355
2.66449
------------------------------------------------------------------------------

-+1/2: change in predicted probability as x changes from 1/2 unit below


base value to 1/2 unit above
-+sd/2: change in predicted probability as x changes from 1/2 standard
dev below base to 1/2 standard dev above
MargEfct: the partial derivative of the predicted probability/rate with
respect to a given independent variable

1
0.5782
k618
1.35325
1.31987

=
=
=
=

. prchange,help

48

47

Pr(y|x)

0->1
-0.3380
-0.0150
-0.0031
0.1844
0.0223
0.1450
-0.0068

Number of obs
LR chi2(7)
Prob > chi2
Pseudo R2

. set matsize 150

probit: Changes in Probabilities for lfp

k5
k618
age
wc
hc
lwg
inc

lfp k5 k618 age wc hc lwg inc, nolog

Probit regression

46

45

il convient de calculer la variation de xd = 0 a` xd = 1. Les variations discr`etes peuvent e tre calculees pour nimporte quelle variation de la variable independante, les autres variables e tant maintenues constantes, comme on le montre ci-dessous
Supposons une variation dune unite centree autour de la moyenne
1
1
P r(y = 1|
x)
x), xk )
= P r(y = 1|
x, xk + ) P r(y = 1|
xk
2
2
Une variation dun e cart-type de xk . Si sk est lecart-type de xk
sk
sk
P r(y = 1|
x)
x), xk )
= P r(y = 1|
x), xk + )P r(y = 1|
xk
2
2
Variation dune variable binaire de 0 a` 1.
P r(y = 1|
x)
= P r(y = 1|
x, xk = 1) P r(y = 1|
x, xk = 0)
xk

inc
20.129
11.6348

Pr(y|x): probability of observing each y for specified x values


Avg|Chg|: average of absolute value of the change across categories
Min->Max: change in predicted probability as x changes from its minimum to
its maximum
0->1: change in predicted probability as x changes from 0 to 1

Interpretation pour le mod`ele probit


pour une femme qui a des caracteristiques a` la moyenne, un
enfant additionnel va reduire sa probabilite de travailler de 0,33
(-+1/2 -0.3320)
Une variation dun e cart type de lage centre autour de la moyenne
va diminuer la probabilite de travailler de 0.12 toutes les autres
variables e tant maintenues constantes, (-+sd/2, -0.1190)
Si une femme a fait des e tudes superieures, sa probabilite de travailler va e tre superieure de .18 a` celle dune femme qui naura

pas fait detudes, toutes les autres variables e tant maintenues


constantes.

Avg|Chg|: average of absolute value of the change across categories


Min->Max: change in predicted probability as x changes from its minimum to
its maximum
0->1: change in predicted probability as x changes from 0 to 1
-+1/2: change in predicted probability as x changes from 1/2 unit below
base value to 1/2 unit above
-+sd/2: change in predicted probability as x changes from 1/2 standard
dev below base to 1/2 standard dev above
MargEfct: the partial derivative of the predicted probability/rate with
respect to a given independent variable

Autre Application
Ici on a demande le resultat que pour wc = 1 et age = 40. Et on
demande le resultat pour lage.
. prchange age, x(wc=1 age=40) help

age

min->max
-0.3940

Pr(y|x)

x=
sd(x)=

0->1
-0.0017

NotInLF
0.2586
k5
.237716
.523959

-+1/2
-0.0121

-+sd/2
-0.0971

50

49

logit: Changes in Predicted Probabilities for lfp


MargEfct
-0.0121

inLF
0.7414
k618
1.35325
1.31987

age
40
8.07257

wc
1
.450049

hc
.391766
.488469

lwg
1.09711
.587556

On peut considerer les variations du minimum au maximum. Il


ny a pas a` apprendre grand chose de lanalyse de variables dont
les probabilites sont trop petites telles que hc. En revanche, age

inc
20.129
11.6348

Pr(y|x): probability of observing each y for specified x values

k5 wc lwg inc. Pour ceux-l`a, nous pouvonsexaminer la valeur


des probabilites avant et apr`es le changement en utilisant loption
fromto
. prchange

Pr(y|x)
x=
sd(x)=

k5 age wc lwg inc, fromto

logit: Changes in Predicted Probabilities for lfp

k5
age
wc
lwg
inc

from:
to:
dif:
x=min
x=max min->max
0.6596
0.0235
-0.6361
0.7506
0.3134
-0.4372
0.5216
0.7097
0.1881
0.1691
0.8316
0.6624
0.7326
0.0911
-0.6415
to:
dif:
from:
x+1/2
-+1/2
x-1/2sd
0.3971
-0.3428
0.6675
0.5701
-0.0153
0.6382
0.6720
0.1945
0.5330
0.6493
0.1465
0.5340
0.5736
-0.0084
0.6258
NotInLF
inLF

from:
x=0
0.6596
0.9520
0.5216
0.4135
0.7325
to:
x+1/2sd
0.4826
0.5150
0.6214
0.6204
0.5283

to:
dif:
x=1
0->1
0.3097
-0.3499
0.9491
-0.0030
0.7097
0.1881
0.5634
0.1499
0.7256
-0.0068
dif:
-+sd/2 MargEfct
-0.1849
-0.3569
-0.1232
-0.0153
0.0884
0.1969
0.0865
0.1475
-0.0975
-0.0084

from:
x-1/2
0.7398
0.5854
0.4775
0.5028
0.5820

52

51

k5
age
wc
lwg
inc

Si on faisait un graphique, on constaterait que la relation entre lage


et la probabilite de travailler pour une femme est essentiellement
lineaire pour ceux qui ont fait des e tudes superieures.

0.4222
0.5778
k5
k618
age
.237716 1.35325 42.5378
.523959 1.31987 8.07257

wc
.281541
.450049

hc
.391766
.488469

lwg
1.09711
.587556

inc
20.129
11.6348

6.4

Si xk varie de :

Interpretation par les probabilites

Le mod`ele logit secrit comme un mod`ele log-lineaire :


le logit ln (x) = x
avec

P r(y = 1|x)
P r(y = 1|x)
=
P r(y = 0|x) 1 P r(y = 1|x)
On utilise une transformation du logit :
(x) =

54

53

(x) = exp(x)
= exp(0 + 1x1 + + k xk + + K xK )
= exp(0) exp(1x1) . . . exp(k xk ) . . . exp(K xK ) = (x, xk )

Leffet dune variation de xk ne depend pas de la valeur de xk ,


ni des autres variables independantes dailleurs.

Pour une variation de de xk , les probabilites vont varier dun


facteur exp(k ), toutes les autres variables e tant constantes
pour = 1, une variation dune unite de xk , les probabilites varient dun facteur exp k , toutes les autres variables e tant maintenues constantes.

si exp(k ) < 1, on peut dire que la probabilite est exp(k )


fois plus petit.
si = sk , pour une variation de xk dun e cart-type, la proabilite
va varier dun facteur de exp(k sk ), toutes les autres variables e tant maintenues constantes.

56

55

si exp(k ) > 1, on peut dire que la probabilite est exp(k )


fois superieur.

(x, xk +) = exp(0) exp(1x1) . . . exp(k xk ) exp(k ) . . . exp(K xK )


(5)
Pour comparer les probabilites avant et apr`es lajout de a` xk , on
prend le rapport des probabilites (odds ratio en anglais) :
(x, xk + )
exp(0) exp(1x1) . . . exp(k xk ) . . . exp(K xK )
=
(x, xk )
exp(0) exp(1x1) . . . exp(k xk ) exp(k ) . . . exp(K xK )
= exp(k )

On peut e galement calculer la variation en pourcentage de .


(x, xk + (x, xk )
100
= 100[exp(k ) 1]
(x, xk )
Ceci peut e tre interprete comme la variation en pourcentage de
pour une variation de xk de .

Application
listcoef, help

Interpretation

logit (N=753): Factor Change in Odds


Odds of: 1 vs 0

59

les autres variables


le ratio de probabilite odds est un coefficient multiplicatif, ce
qui implique que les effets positifs sont superieurs a` 1, alors que
les effets negatifs sont compris entre 0 et 1. Lampleur dun effet negatif ou positif peuvent e tre compares en prenant linverse
dun effet negatif (et inversement).
Ainsi, e tre 10 ans plus a ge rend la probabilite de ne pas travailler 1,9 fois superieur (=1/0.52).

58

57

---------------------------------------------------------------------lfp |
b
z
P>|z|
eb
ebStdX
SDofX
-------------+-------------------------------------------------------k5 | -1.46291
-7.426
0.000
0.2316
0.4646
0.5240
k618 | -0.06457
-0.950
0.342
0.9375
0.9183
1.3199
age | -0.06287
-4.918
0.000
0.9391
0.6020
8.0726
wc |
0.80727
3.510
0.000
2.2418
1.4381
0.4500
hc |
0.11173
0.542
0.588
1.1182
1.0561
0.4885
lwg |
0.60469
4.009
0.000
1.8307
1.4266
0.5876
inc | -0.03445
-4.196
0.000
0.9661
0.6698
11.6348
---------------------------------------------------------------------b = raw coefficient
z = z-score for test of b=0
P>|z| = p-value for z-test
eb = exp(b) = factor change in odds for unit increase in X
ebStdX = exp(b*SD of X) = change in odds for SD increase in X
SDofX = standard deviation of X

Pour un jeune enfant de plus, de travailler decrot dun facteur


de 0.23, toutes les autres variables e tant maintenues constantes.
Ou lequivalent, pour chaque enfant additionnel, la probabilite
de travailler decrot de 77%, toutes les autres variables e tant
identiques ( eb, 0.2316).
Pour une variation dun e cart-type dans les salaires attendus,
la probabilite de travailler est 1.43 fois superieure, ceteris
paribus. Ou, pour une augmentation dun e cart type des revenus,
la probabilite de travailler est 43% plus e levee.
Pour une femme de 10 ans plus a gees, la probabilite de travailler
diminue dun facteur de 0.52 (=e0.06310, b = 0.06287), toutes

UNIVERSITE DE PARIS 11
TD dconomtrie
Fiche de TD : Le modle variables binaires - Logit / Probit

Anne Plunket

Dans cet exemple, on tente dexpliquer les causes du petit poids des bbs. On a tabli un
certain nombre de facteurs pouvant intervenir dans le faible poids du bb. Les donnes dont on
dispose sont dcrites dans le tableau suivant :
. describe
Contains data from http://www.stata-press.com/data/r8/lbw.dta
obs:
189
Hosmer & Lemeshow data
vars:
11
18 Jul 2002 17:27
size:
3,402 (99.7% of memory free)
------------------------------------------------------------------------------storage display
value
variable name
type
format
label
variable label
------------------------------------------------------------------------------low
byte
%8.0g
poids la naissance <2500g
age
byte
%8.0g
age de la mre
lwt
int
%8.0g
le poids le mois prcdent
race
byte
%8.0g
race
origine raciale
smoke
byte
%8.0g
tabagisme durant la grocesse
ht
byte
%8.0g
hypertension
ui
byte
%8.0g
Problmes utrins
ftv
byte
%8.0g
Nombre de visite chez un medecin
durant le premier trimestre
bwt
int
%8.0g
poids la naissance (grammes)
------------------------------------------------------------------------------Lorigine raciale est codes 1, 2, 3 selon que les mres sont respectivement
de race blanche, noire ou autre.

1. Dans un premier temps on cherche savoir si les variables sont individuellement explicatives. Pour ce faire, expliquez quel test est employ. Les variables sont elles explicatives ?
2. Quel est le signe attendu pour les variables age et smoke. Faites un test unilatral pour les
deux variables en vous appuyant sur la p valeur. Proposez une reprsentation graphique.
On vous propose la rgression logit suivante. Afin de faire apparatre les catgories raciales, on a utilis la fonction xi qui permet dobtenir automatiquement partir de la
variable race, trois variables binaires I race1 pour les femmes de races blanches, I race2
pour les femmes de races noires et I race3 pour les femmes dune autres races. Pour viter
les problmes de multicolinarit, seules les deux dernires variables sont retenues. Les
rsultats de la rgression sont les suivants :

. xi:logit low age lwt i.race smoke ht ui ftv i.race


_Irace_1-3
(naturally coded; _Irace_1 omitted)
Logit estimates

Number of obs
LR chi2(8)
Prob > chi2
Pseudo R2

Log likelihood = -101.92618

=
=
=
=

189
30.82
0.0002
0.1313

-----------------------------------------------------------------------------low |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------age | -.0205412
.0359508
-0.57
0.568
-.0910035
.049921
lwt | -.0164966
.0068585
-2.41
0.016
-.0299389
-.0030542
_Irace_2 |
1.289233
.5275696
2.44
0.015
.2552155
2.32325
_Irace_3 |
.9195141
.4362519
2.11
0.035
.064476
1.774552
smoke |
1.041578
.3954429
2.63
0.008
.2665247
1.816632
ht |
1.88408
.6947192
2.71
0.007
.5224555
3.245705
ui |
.9041143
.448583
2.02
0.044
.0249078
1.783321
ftv |
.0592989
.171987
0.34
0.730
-.2777895
.3963873
_cons |
.4521566
1.185346
0.38
0.703
-1.871079
2.775392
------------------------------------------------------------------------------

3. On cherche savoir si les variables lwt I race2 I race3 sont conjointement explicatives.
Quelles hypothses nulle et alternative faut-il spcifier ? Quels tests et statistiques utilise t-on ? Expliquez le principe du lrtest en utilisant la dmarche modle contraint non
contraint. Fates le test.
. logit low age lwt

_Irace_2

_Irace_3 smoke ht ui ftv, nolog

Logit estimates

Log likelihood = -101.92618


(rsultats supprims)

Number of obs
LR chi2(8)
Prob > chi2
Pseudo R2

=
=
=
=

189
30.82
0.0002
0.1313

Number of obs
LR chi2(5)
Prob > chi2
Pseudo R2

=
=
=
=

189
16.66
0.0052
0.0710

. est store model1


. logit low age smoke ht ui ftv, nolog
Logit estimates

Log likelihood = -109.00351


(rsultats supprims)
. est store model2
. lrtest model1

likelihood-ratio test LR chi2(3) = 14.15


(Assumption: model2 nested in model1) Prob > chi2 = 0.0027

4. A laide de la commande fitstat, on reprend les deux modles prcdents. Lequel des deux
modles est prfr. Expliquez.

. fitstat, using(mod1)
Measures of Fit for logit of low

Model:
N:
Log-Lik Intercept Only:
Log-Lik Full Model:
D:
LR:
Prob > LR:
McFaddens R2:
McFaddens Adj R2:
Maximum Likelihood R2:
Cragg & Uhlers R2:
McKelvey and Zavoinas R2:
Efrons R2:
Variance of y*:
Variance of error:
Count R2:
Adj Count R2:
AIC:
AIC*n:
BIC:
BIC:
Difference of

Current
logit
189
-117.336
-109.004
218.007(183)
16.665(5)
0.005
0.071
0.020
0.084
0.119
0.114
0.084
3.714
3.290
0.704
0.051
1.217
230.007
-741.233
9.544

Saved
logit
189
-117.336
-101.926
203.852(180)
30.820(8)
0.000
0.131
0.055
0.150
0.212
0.234
0.152
4.296
3.290
0.730
0.136
1.174
221.852
-739.662
11.114

Difference
0
0.000
-7.077
14.155(3)
14.155(3)
0.003
-0.060
-0.035
-0.066
-0.093
-0.120
-0.068
-0.582
0.000
-0.026
-0.085
0.043
8.155
-1.571
-1.571

1.571 in BIC provides weak support for current model.

Note: p-value for difference in LR is only valid if models are nested.

5. Comment analysez vous la 3me ligne (I race2 )du tableau suivant ?


listcoef
logit (N=189): Factor Change in Odds
Odds of: 1 vs 0
---------------------------------------------------------------------low |
b
z
P>|z|
e^b
e^bStdX
SDofX
-------------+-------------------------------------------------------age | -0.02054
-0.571
0.568
0.9797
0.8969
5.2987
lwt | -0.01650
-2.405
0.016
0.9836
0.6039
30.5752
_Irace_2 |
1.28923
2.444
0.015
3.6300
1.5609
0.3454
_Irace_3 |
0.91951
2.108
0.035
2.5081
1.5543
0.4796
smoke |
1.04158
2.634
0.008
2.8337
1.6649
0.4894
ht |
1.88408
2.712
0.007
6.5803
1.5851
0.2445
ui |
0.90411
2.015
0.044
2.4697
1.3799
0.3562
ftv |
0.05930
0.345
0.730
1.0611
1.0648
1.0593
----------------------------------------------------------------------

6. Vous disposez des rsultats suivants qui donnent des probabilits selon les caractristiques
des individus. Analysez et comparez les rsultats ? Quen dduisez-vous ?
. prvalue

logit: Predictions for low


Pr(y=1|x):
Pr(y=0|x):

x=
.

age
23.238095

0.2785
0.7215
lwt
129.82011

prvalue, x( _Irace_2=0

95% ci: (0.2129,0.3552)


95% ci: (0.6448,0.7871)

_Irace_2
.13756614

_Irace_3
.35449735

smoke
.39153439

ht
.06349206

ui
.14814815

ht
.06349206

ui
.14814815

ht
.06349206

ui
.14814815

ht
.06349206

ui
.14814815

ht
.06349206

ui
.14814815

_Irace_3=0 smoke=0) rest(mean)

logit: Predictions for low


Pr(y=1|x):
Pr(y=0|x):

x=
.

age
23.238095

0.1358
0.8642
lwt
129.82011

prvalue, x( _Irace_2=0

95% ci: (0.0690,0.2499)


95% ci: (0.7501,0.9310)

_Irace_2
0

_Irace_3
0

smoke
0

_Irace_3=0 smoke=1) rest(mean)

logit: Predictions for low


Pr(y=1|x):
Pr(y=0|x):

x=
.

age
23.238095

0.3052
0.6948
lwt
129.82011

prvalue, x( _Irace_2=1

95% ci: (0.2003,0.4350)


95% ci: (0.5650,0.7997)

_Irace_2
0

_Irace_3
0

smoke
1

_Irace_3=1 smoke=0) rest(mean)

logit: Predictions for low


Pr(y=1|x):
Pr(y=0|x):

x=
.

age
23.238095

0.5823
0.4177
lwt
129.82011

prvalue, x( _Irace_2=1

95% ci: (0.3107,0.8116)


95% ci: (0.1884,0.6893)

_Irace_2
1

_Irace_3
1

smoke
0

_Irace_3=1 smoke=1) rest(mean)

logit: Predictions for low


Pr(y=1|x):
Pr(y=0|x):

x=

age
23.238095

0.7957
0.2043
lwt
129.82011

95% ci: (0.4850,0.9415)


95% ci: (0.0585,0.5150)

_Irace_2
1

_Irace_3
1

smoke
1

UNIVERSITE DE PARIS 11
TD dconomtrie
Fiche de TD : Le modle variables binaires - Logit / Probit

Anne Plunket

Dans cet exemple, on tente dexpliquer les causes du petit poids des bbs. On a tabli un
certain nombre de facteurs pouvant intervenir dans le faible poids du bb. Les donnes dont on
dispose sont dcrites dans le tableau suivant :
. describe
Contains data from http://www.stata-press.com/data/r8/lbw.dta
obs:
189
Hosmer & Lemeshow data
vars:
11
18 Jul 2002 17:27
size:
3,402 (99.7% of memory free)
------------------------------------------------------------------------------storage display
value
variable name
type
format
label
variable label
------------------------------------------------------------------------------low
byte
%8.0g
poids la naissance <2500g
age
byte
%8.0g
age de la mre
lwt
int
%8.0g
le poids le mois prcdent
race
byte
%8.0g
race
origine raciale
smoke
byte
%8.0g
tabagisme durant la grocesse
ht
byte
%8.0g
hypertension
ui
byte
%8.0g
Problmes utrins
ftv
byte
%8.0g
Nombre de visite chez un medecin
durant le premier trimestre
bwt
int
%8.0g
poids la naissance (grammes)
------------------------------------------------------------------------------Lorigine raciale est codes 1, 2, 3 selon que les mres sont respectivement
de race blanche, noire ou autre.

1. Dans un premier temps on cherche savoir si les variables sont individuellement


explicatives. Pour ce faire, expliquez quel test est employ. Les variables sont elles
explicatives ?
Il convient de faire un test du chi2 un degr de libert (cf le poly). On peut faire un test
du chi2 5% et on peut regarder si la p valeur P > |z| est infrieure ou gale 5%. Si
cest le cas, cela signifie que la variable est explicative. Ici lwt, I race2 , I race3 , smoke,
ht, ui sont explicatifs. Le 2(1)5% = 3, 84, donc si le z 2 > 3, 84 on rejette H0. Ou si on
utilise la loi centre rduite, la valeur de la centre rduite 5% est z = 1, 96.
2. Quel est le signe attendu pour les variables age et smoke. Faites un test unilatral
pour les deux variables en vous appuyant sur la p valeur. Proposez une reprsentation graphique.
Pour dterminer le signe, on se demande si la variable va avoir un impact positif ou ngatif sur la probabilit davoir un enfant de faible poids.
la variable age va avoir un impact positif sur la variable, puisquon suppose que plus la
maman est age et plus elle risque davoir un bb de faible poids. H0 : 1 0 contre
1 > 0
1

z = 0, 57 ; on veut la probabilit unilatrale donc on lit dans la table 10% et non pas
5%. z10% = 1, 6449. Or z = 0, 57, en valeur absolue, z < 1, 6449, on accepte donc
lhypothse nulle.
la variable smoke aura un impact positif sur la variable, puisquelle va accrotre la probabilit davoir un enfant de faible poids.
H0 : 5 0 contre 5 > 0
z = 2, 63 > z10% , par consquent, on rejette lhypothse nulle.
Le fait de fumer a un impact trs significatif sur la probabilit davoir un bb de faible
poids.
. xi:logit low age lwt i.race smoke ht ui ftv
i.race
_Irace_1-3
(naturally coded; _Irace_1 omitted)
Logit estimates

Number of obs
LR chi2(8)
Prob > chi2
Pseudo R2

Log likelihood = -101.92618

=
=
=
=

189
30.82
0.0002
0.1313

-----------------------------------------------------------------------------low |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------age | -.0205412
.0359508
-0.57
0.568
-.0910035
.049921
lwt | -.0164966
.0068585
-2.41
0.016
-.0299389
-.0030542
_Irace_2 |
1.289233
.5275696
2.44
0.015
.2552155
2.32325
_Irace_3 |
.9195141
.4362519
2.11
0.035
.064476
1.774552
smoke |
1.041578
.3954429
2.63
0.008
.2665247
1.816632
ht |
1.88408
.6947192
2.71
0.007
.5224555
3.245705
ui |
.9041143
.448583
2.02
0.044
.0249078
1.783321
ftv |
.0592989
.171987
0.34
0.730
-.2777895
.3963873
_cons |
.4521566
1.185346
0.38
0.703
-1.871079
2.775392
------------------------------------------------------------------------------

3. On cherche savoir si les variables lwt I race2 I race3 sont conjointement explicatives. Quelles hypothses nulle et alternative faut-il spcifier ? Quels tests et statistiques utilise t-on ? Expliquez le principe du lrtest en utilisant la dmarche modle
contraint non contraint. Fates le test.
G2 (M |M c) = 2ln(M ) 2ln(M c)
G2 suit un chi2 J=3 degrs de libert.
H0 : lwt = irace2 = irace3 = 0 et H1 : au moins une des trois variables un coefficient
diffrent de 0
pour le modle complet, lnL(M)=-101,92
pour le modle contrait, sous H0, lnL(Mc)=-109,003
G2 = 14, 15 > 23 = 7, 81 donc on rejette lhypothse nulle. AU moins une des trois
variables est explicative.
. logit low age lwt

_Irace_2

_Irace_3 smoke ht ui ftv, nolog

Logit estimates

Number of obs
LR chi2(8)
Prob > chi2
Pseudo R2

Log likelihood = -101.92618


(rsultats supprims)

=
=
=
=

189
30.82
0.0002
0.1313

. est store model1


. logit low age smoke ht ui ftv, nolog
Logit estimates

Number of obs
LR chi2(5)
Prob > chi2
Pseudo R2

Log likelihood = -109.00351


(rsultats supprims)
. est store model2

=
=
=
=

189
16.66
0.0052
0.0710

. lrtest model1
likelihood-ratio test LR chi2(3) = 14.15
(Assumption: model2 nested in model1) Prob > chi2 = 0.0027

4. A laide de la commande fitstat, on reprend les deux modles prcdents. Lequel des
deux modles est prfr. Expliquez. cf cours il faut regarder les pseudo R2 et cest
le plus lev qui sera le modle prfr. Mc Fadden, maximum likelihood R2. Cest le
modle saved, donc complet qui est prfr.
. fitstat, using(mod1)
Measures of Fit for logit of low

Model:
N:
Log-Lik Intercept Only:
Log-Lik Full Model:
D:
LR:
Prob > LR:
McFaddens R2:
McFaddens Adj R2:
Maximum Likelihood R2:
Cragg & Uhlers R2:
McKelvey and Zavoinas R2:
Efrons R2:
Variance of y*:
Variance of error:
Count R2:
Adj Count R2:
AIC:
AIC*n:
BIC:
BIC:
Difference of

Current
logit
189
-117.336
-109.004
218.007(183)
16.665(5)
0.005
0.071
0.020
0.084
0.119
0.114
0.084
3.714
3.290
0.704
0.051
1.217
230.007
-741.233
9.544

Saved
logit
189
-117.336
-101.926
203.852(180)
30.820(8)
0.000
0.131
0.055
0.150
0.212
0.234
0.152
4.296
3.290
0.730
0.136
1.174
221.852
-739.662
11.114

Difference
0
0.000
-7.077
14.155(3)
14.155(3)
0.003
-0.060
-0.035
-0.066
-0.093
-0.120
-0.068
-0.582
0.000
-0.026
-0.085
0.043
8.155
-1.571
-1.571

1.571 in BIC provides weak support for current model.

Note: p-value for difference in LR is only valid if models are nested.

5. Comment analysez vous la 3me ligne (I race2 )du tableau suivant ?


cf cours ici b est le coefficient, eb est la variation du ratio odds, = (X + 1)/(X)
Ici, le fait dtre noire va affecter le ratio dun facteur 3,63, ce qui est norme.
listcoef

logit (N=189): Factor Change in Odds


Odds of: 1 vs 0
---------------------------------------------------------------------low |
b
z
P>|z|
e^b
e^bStdX
SDofX
-------------+-------------------------------------------------------age | -0.02054
-0.571
0.568
0.9797
0.8969
5.2987
lwt | -0.01650
-2.405
0.016
0.9836
0.6039
30.5752
_Irace_2 |
1.28923
2.444
0.015
3.6300
1.5609
0.3454
_Irace_3 |
0.91951
2.108
0.035
2.5081
1.5543
0.4796
smoke |
1.04158
2.634
0.008
2.8337
1.6649
0.4894
ht |
1.88408
2.712
0.007
6.5803
1.5851
0.2445
ui |
0.90411
2.015
0.044
2.4697
1.3799
0.3562
ftv |
0.05930
0.345
0.730
1.0611
1.0648
1.0593
----------------------------------------------------------------------

6. Vous disposez des rsultats suivants qui donnent des probabilits selon les caractristiques des individus. Analysez et comparez les rsultats ? Quen dduisez-vous ?
La probabilit davoir un bb de faible poids est de 27,85% pour la population en gnral.
Elle est de 13% (donc plus faible) lorsque la maman est de race blanche et quelle ne fume
pas.
Elle est augmente 30,5% lorsque la maman est de race blanche et quelle fume pas.
Elle est augmente 58,23% lorsque la maman est dorigine noire ou hispanique ou autre
et quelle ne fume pas.
Elle est de 79,57% lorsque la maman est dorigine noire ou hispanique ou autre et quelle
fume. On a donc deux facteurs aggravant savoir lorigine raciale, qui nest autre que la
traduction de conditions sociales dfavorables et quelle a un facteur aggravant savoir le
fait de fumer.
. prvalue
logit: Predictions for low
Pr(y=1|x):
Pr(y=0|x):

x=
.

age
23.238095

0.2785
0.7215
lwt
129.82011

prvalue, x( _Irace_2=0

95% ci: (0.2129,0.3552)


95% ci: (0.6448,0.7871)

_Irace_2
.13756614

_Irace_3
.35449735

smoke
.39153439

ht
.06349206

ui
.14814815

ht
.06349206

ui
.14814815

_Irace_3=0 smoke=0) rest(mean)

logit: Predictions for low


Pr(y=1|x):
Pr(y=0|x):

x=

age
23.238095

0.1358
0.8642
lwt
129.82011

95% ci: (0.0690,0.2499)


95% ci: (0.7501,0.9310)

_Irace_2
0

_Irace_3
0

smoke
0

prvalue, x( _Irace_2=0

_Irace_3=0 smoke=1) rest(mean)

logit: Predictions for low


Pr(y=1|x):
Pr(y=0|x):

x=
.

age
23.238095

0.3052
0.6948
lwt
129.82011

prvalue, x( _Irace_2=1

95% ci: (0.2003,0.4350)


95% ci: (0.5650,0.7997)

_Irace_2
0

_Irace_3
0

smoke
1

ht
.06349206

ui
.14814815

ht
.06349206

ui
.14814815

ht
.06349206

ui
.14814815

_Irace_3=1 smoke=0) rest(mean)

logit: Predictions for low


Pr(y=1|x):
Pr(y=0|x):

x=
.

age
23.238095

0.5823
0.4177
lwt
129.82011

prvalue, x( _Irace_2=1

95% ci: (0.3107,0.8116)


95% ci: (0.1884,0.6893)

_Irace_2
1

_Irace_3
1

smoke
0

_Irace_3=1 smoke=1) rest(mean)

logit: Predictions for low


Pr(y=1|x):
Pr(y=0|x):

x=

age
23.238095

0.7957
0.2043
lwt
129.82011

95% ci: (0.4850,0.9415)


95% ci: (0.0585,0.5150)

_Irace_2
1

_Irace_3
1

smoke
1

7.4 Fiche de TD 4. La rgression multiple et les tests dhypothses

Lobjectif de ce TD est danalyser la significativit dun modle conomtrique. Ceci se fait


par la pratique des tests. Il sagit de tests de significativit globale et de tests sur les coefficients
estims.
Problme 1
En 1986, Frederick Schut et Peter VanBergeijk ont publi un article dans lequel ils ont tent de
voir si lindustrie pharmaceutique avait adopt une stratgie de discrimination des prix au niveau
international. Pour ce faire, ils ont estim un modle de dtermination des prix de mdicaments
en coupe instantane dans 32 pays. Les donnes utilises datent de 1975.
Pour spcifier leur modle de rgression, les auteurs ont fait les hypothses suivantes :
sil y a discrimination des prix, alors le coefficient du PNB par habitant doit tre positif dans une quation bien spcifie. Le coefficient du PNB par habitant peut en effet
constituer un indicateur de la discrimination des prix parce que si les habitants ont une
forte capacit payer alors llasticit-prix de la demande pour les mdicaments sera plus
faible et par consquent le prix fix par lindustriel sera plus lev.
les prix sont plus levs lorsque les brevets sont autoriss
les prix sont plus faibles lorsquils sont contrls
les prix sont plus faibles si la concurrence est forte
les prix sont plus faibles si le march du mdicament est de grande taille.
Lquation estime par les auteurs est la suivante :
Pi = 0 + 1 GDP Ni + 2 CV Ni + 3 P Pi + 4 DP Ci + 5 IP Ci + 6 P OPi + i
avec
Pi : Le prix des mdicaments dans le pays i divis par le prix des mdicaments aux EtatsUnis
GDP Ni : le PNB par habitant dans le pays i divis par celui des Etats-Unis
CV Ni : le volume de consommation de mdicaments par habitant divis par celui des
Etats-Unis
P Pi : une variable dummy gale 1 lorsque le brevet pour les produits pharmaceutiques
est reconnu par le pays i, gale 0 sinon.
DP Ci : une variable dummy gale 1 lorsque le pays i pratique un contrle des prix, 0
sinon.
IP Ci : une variable dummy gale 1 lorsque le pays i encourage la concurrence au
niveau des prix et 0 sinon.
P OPi : la population de chaque pays i divise par celle des Etats-Unis.

104

1. En adoptant un niveau de significativit de 5%n construire les tests pour juger si les variables explicatives sont significatives. Dans chaque cas, indiquez clairement :
(a) Quelle est lhypothse nulle et alternative
(b) Quelle statistique utilisez-vous pour faire le test
(c) Indiquez la forme de la rgion critique. Reprsentez sur un graphique la distribution de la statistique sous lhypothse nulle. Indiquez lorigine, la signification des
axes, lemplacement de la zone de rejet, la valeur de la statistique calcule. Enoncez
clairement vos conclusions en vous rfrant au problme conomique considr.
(d) Indiquez ce que signifie la p-valeur, P[|T|>t].
2. En adoptant un niveau de significativit de 5%, construire les tests pour juger si le signe
des variables que vous aurez jugs significatives est approprie. Dans chaque cas indiquez
clairement
(a) Quelle est lhypothse nulle et alternative
(b) Quelle statistique utilisez-vous pour faire le test
(c) Reprsentez sur un graphique la distribution de la statistique sous lhypothse nulle.
Indiquez lorigine, la signification des axes, lemplacement de la zone de rejet, la valeur de la statistique calcule. Enoncez clairement vos conclusions en vous rfrant
au problme conomique considr.
3. Etablir un tableau danalyse de la variance pour le modle ci-dessus.
4. Construisez un test de significativit globale du modle 5%. Quelle statistique utilisezvous, prcisez son calcul et quelle hypothse testez-vous ? Fates cela de deux manires
diffrentes. Quen dduisez-vous ?
2 ? Quen dduisez-vous ? Etes-vous surpris de vos rsultats compte tenu
5. Calculez le R
des rsultats de la question prcdente. Comment peut-on relier ces deux indicateurs de
significativit.
6. Construisez un intervalle de confiance 10% pour le coefficient du PNB par habitant et
pour le volume de consommation de mdicaments chacun des coefficients estims.
7. Fates un test de significativit global pour GDP N , CV N et DP C. Quel test utilisezvous ? Comment procdez-vous ?
8. Pensez-vous que Schut et VanBergeijk ont conclu lexistence dune discrimination des
prix. Pourquoi ou pourquoi pas ?
Les rsultats de la rgression obtenus avec Limdep sont les suivants :
+-----------------------------------------------------------------------+
| Ordinary
least squares regression
Weighting variable = none
|
| Dep. var. = P
Mean=
41.48696970
, S.D.=
189.8914093
|
| Model size: Observations =
33, Parameters =
7, Deg.Fr.=
26 |
| Residuals: Sum of squares= 7939.073822
, Std.Dev.=
17.47424 |
| Fit:
R-squared= .993120, Adjusted R-squared =
.99153 |
| Model test: F[ 6,
26] = 625.48,
Prob value =
.00000 |
| Diagnostic: Log-L =
-137.2952, Restricted(b=0) Log-L =
-219.4502 |
105

|
LogAmemiyaPrCrt.=
5.914, Akaike Info. Crt.=
8.745 |
| Autocorrel: Durbin-Watson Statistic =
2.42015,
Rho =
-.21008 |
+-----------------------------------------------------------------------+
+---------+--------------+----------------+--------+---------+----------+
|Variable | Coefficient | Standard Error |t-ratio |P[|T|>t] | Mean of X|
+---------+--------------+----------------+--------+---------+----------+
Constant
31.64980645
6.0767585
5.208
.0000
GDPN
1.464277192
.22878429
6.400
.0000
11.240909
CVN
-.6740935338
.23393986
-2.881
.0078
2.6454545
POP
.5477959030E-02 .65222950E-01
.084
.9337
-5.2718182
PP
15.03789484
4.7588778
3.160
.0040
-29.787879
IPC
-4.670269469
6.5233638
-.716
.4804
-30.000000
DPC
-10.13164942
6.7702104
-1.497
.1466
-29.909091
(Note: E+nn or E-nn means multiply by 10 to + or -nn power.)

106

7.5 Correction de la fiche de TD 4

Problme 1
Il y a 33 donnes et chaque ligne correspond un pays. La 33e ligne, cest les Etats-Unis
pour cette raison les chiffres correspondant P, GDPN, CV, CVN, POP sont aux 100. Il sagit
en fait de sorte dindices. Pour les tats Unis (EU), il sagit de PEU /PEU pour les autres cest
par exemple, PF /PEU . Prix de la France / prix des EU.
1. Les tests de signification des coefficients de la rgression.
On ne peut pas calculer le risque de deuxime espce et la puissance du test parce que
pour cela il nous faudrait calculer la probabilit exacte partir de la loi du student ce
quon ne peut pas faire en tout cas sans ordinateur donc on laisse tomber.
En revanche, la p-valeur nous donne le risque de premire espce autrement dit la probabilit de rejeter H0 tort.
Il sagit de faire des tests du student bilatraux.
(a) GDPN :
H0 : 1 = 0 contre H1 : 1 = 0
Sous lhypothse nulle :
1 1H0
Stnk1
s1
1
St3361
s1
La valeur du student calcul est :
tc =

1
1, 462
= 6, 400
=
s1
0, 2287

Il sagit dun test bilatral 95%,


/2 = 5/2 = 0, 025%,
la lecture de la table se fait donc :
P/2 = 0, 025 P = 0, 05, on lit 5% dans la table et on trouve qu 26 degrs de
libert, t/2 = 2, 056
La rgle de dcision est la suivante : si la valeur du t calcule en valeur absolue est
suprieure au t de la table, dans ce cas on rejette lhypothse nulle.
Il faut reprsenter la courbe en cloche de la student (comme dans le poly de cours)
et indiquer la rgion critique et les seuils critiques 2, 056 et +2, 056, indiquer la
zone de rejet de H0 et montrer graphiquement que le tc = 6, 687 est droite du seuil
107

critique et quil se trouve donc dans la rgion critique.


tc = 6.4 > t/2 = 2.056 par consquent on rejette lhypothse nulle. Le test dhypothse nous permet de dire qu un seuil derreur de 5%, la variable GDP (PIB
en fait) permet dexpliquer les prix. Autrement dit, lorsque le revenu par habitant
diffre, le prix des mdicaments est galement diffrent.

/2

1111
0000
0000
1111
0000
1111
0000
1111
0000
1111

t/2 = 2, 056

/2

1111
0000
0000
1111
0000
1111
0000
1111
0000
1111

t
tc = 6, 4

0 t/2 = 2, 056
H0

RC

RC

Zone dacceptation de H0

RC
Zone de Rejet de H0

F IG . 7.4 Reprsentation graphique des zones dacceptation et de rejet.


(b) CVN :
H0 : 2 = 0 contre H1 : 2 = 0
Sous lhypothse nulle : La valeur du student calcul est :
tc =

2
0.674
= 2.881
=
s2
0, 2339

| tc |=| 2.881 |> t/2 = 2, 056


Les rsultats nous conduisent penser que la consommation par tte permet dexpliquer les prix. Autrement dit, on a l encore un indicateur de discrimination.
(c) PP :
H0 : 3 = 0 contre H1 : 3 = 0
Sous lhypothse nulle : La valeur du student calcul est :
tc =

3
15.037
= 3.160
=
s3
4.7588

| tc |=| 3.160 |> t/2 = 2, 056


Les rsultats nous conduisent rejeter lhypothse nulle. Autrement dit, lexistence
o non des brevets permet dexpliquer la discrimination des prix.
108

(d) DPC :
H0 : 4 = 0 contre H1 : 4 = 0
Sous lhypothse nulle : La valeur du student calcul est :
tc =

4
10.131
= 1.497
=
s4
6.77

| tc |=| 1.497 |< t/2 = 2, 056


Les rsultats nous conduisent accepter lhypothse nulle. Autrement dit, la pratique
du contrle des prix ne permet pas dexpliquer la discrimination des prix. Et en
effet, la P-valeur nous confirme ce rsultat puisque P [| T |> t] = 0.1466 dans le
tableau de rsultat. La probabilit davoir un student dune valeur suprieure au t
calcul est de 14.66 %. Habituellement une p-valeur faible conduit au rejet de H0 et
indique quel point il est peu probable dobtenir le t calcul partir des donnes si
lhypothse nulle est vraie. Or ici,on fait un test 5% derreur et on a une probabilit
de 14.66% p-valeur. Autrement dit, le risque de rejeter H0 tort est fort. On va
donc accepter H0 . Autrement dit, la p-valeur nous donne la probabilit du risque de
premire espce.
(e) IPC :
H0 : 5 = 0 contre H1 : 5 = 0
Sous lhypothse nulle : La valeur du student calcul est :
tc =

5
4.67
= 0.716
=
s5
6.52

| tc |=| 0.716 |< t/2 = 2, 056


Les rsultats nous conduisent accepter lhypothse nulle. Autrement dit, la concurrence au niveau des prix ne permet pas dexpliquer la discrimination des prix. Cette
conclusion ne peut pas nous surprendre compte tenu de la P-value qui est de 0,4804.
Autrement dit, la probabilit dobtenir le tc par hasard est trs forte. On ne peut donc
pas rejeter lhypothse nulle.
(f) POP :
H0 : 6 = 0 contre H1 : 6 = 0
Sous lhypothse nulle : La valeur du student calcul est :
tc =

6
0.0054
= 0.084
=
s6
0.06522

| tc |=| 0.084 |< t/2 = 2, 056


Les rsultats nous conduisent accepter lhypothse nulle. Autrement dit, la taille
de la population ne permet pas dexpliquer la discrimination des prix. Cette conclusion ne peut pas nous surprendre compte tenu de la P-value qui est de 0,9337. On ne
peut donc pas rejeter lhypothse nulle.

109

2. Le test pour juger du signe :


(a) Pour GDPN : H0 : 1 0 contre H1 : 1 > 0
Sous lhypothse nulle :
La valeur du student calcul est :
tc =

1
1.4642
=
= 6.4
s1
0, 2287

Il sagit dun test unilatral 95%,


= 5 = 0, 05%,
la lecture de la table se fait donc :
P/2 = 0, 05 P = 0, 1, on lit 10% dans la table et on trouve qu 26 degrs de
libert, t = 1, 706
La rgle de dcision est la suivante : si la valeur du t calcule en valeur absolue est
suprieure au t de la table, dans ce cas on rejette lhypothse nulle.
tc = 6.4 > t = 1.706, on rejette lhypothse nulle. Il faut reprsenter la courbe
en cloche de la student (comme dans le poly de cours) et indiquer la rgion critique
droite avec le seuil critique +1.706, indiquer la zone de rejet de H0 et montrer
graphiquement que le tc = 6, 4 est droite du seuil critique et quil se trouve donc
dans la rgion critique.
Ainsi on peut confirmer que la variable GDP N a un impact positif sur les prix,
autrement dit, si le revenu par tte augmente les prix augmentent galement.

1111
0000
0000
1111
0000
1111
0000
1111
0000
1111

0 t = 1, 706
H0
Zone dacceptation de H0

t
tc = 6, 4

RC
Zone de Rejet de H0

F IG . 7.5 Reprsentation graphique des zones dacceptation et de rejet.


(b) Pour CVN : H0 : 1 0 contre H1 : 1 < 0
Sous lhypothse nulle :
La valeur du student calcul est :
tc = 2.881
| tc = 2.881 |> t = 1.706, on rejette lhypothse nulle. La consommation par
tte a donc un impact ngatif sur les prix. Il sagit dun effet volume.
Ici la rgion critique est gauche et le t calcul sy trouve.
110

(c) Pour PP : H0 : 3 0 contre H1 : 3 > 0


Sous lhypothse nulle :
La valeur du student calcul est :
tc = 3.160
| tc = 3.16 |> t = 1.706, on rejette lhypothse nulle. La protection par les brevets a un impact positif sur les prix.
La rgion critique est droite, et le t calcul sy trouve.
(d) Pour DPC : H0 : 4 0 contre H1 : 4 < 0
Sous lhypothse nulle :
La valeur du student calcul est :
tc = 1.497
| tc = 1.497 |< t = 1.706, on accepte lhypothse nulle.
Nanmoins, dans la mesure o DPC nest pas explicatif il nest pas ncessaire de se
proccuper du signe.
(e) Pour DPC : H0 : 5 0 contre H1 : 5 < 0
Sous lhypothse nulle :
La valeur du student calcul est :
tc = 0.716
| tc = 0.716 |< t = 1.706, on accepte lhypothse nulle.
Nanmoins, dans la mesure o DPC nest pas explicatif il nest pas ncessaire de se
proccuper du signe.
(f) Pour POP : H0 : 6 0 contre H1 : 5 < 0
Sous lhypothse nulle :
La valeur du student calcul est :
tc = 0.084
| tc = 0.084 |< t = 1.706, on accepte lhypothse nulle.
Nanmoins, dans la mesure o DPC nest pas explicatif il nest pas ncessaire de se
proccuper du signe.
Graphiquement cest intressant, car on a la rgion critique gauche, et en plus le t
calcul et positif et mme pas ngatif comme on pourrait sy attendre, il est donc trs
proche du centre la distribution mais nanmoins droite du centre de la distribution.
3. Etablir un tableau danalyse de la variance :
variables
var. expl.
rsidus
P

SC
SCE =1.145.923,713
SCR = 7939.073
SCT=1.153.862

ddl
k=6
n-k-1 = 26
n-1 = 32
111

SCM
190.987,28
305.348
36058.18

Fisher
F=(SCE/k)/(SCR/n-k-1)=625,47

SC = somme des carrs


SCM = somme des carrs moyens
ddl = degrs de libert.
La somme des carrs totaux est obtenu partir de lcart-type de P qui se trouve dans le
tableau des rsultats la ligne :
Dep.
var. = P Mean= 41.48696970 , S.D.= 189.8914093
SCT = (n 1) S.D2 = 32 189.892 = 1.153.862
La somme des carrs rsiduels est donne dans le tableau :
Residuals: Sum of
squares= 7939,073822 , Std.Dev.= 17.47424
SCR = 7939.0
SCE = SCT SCR = 1.145.923, 713
Pour la somme des carrs moyens on divise par le nombre de degrs de libert.
Le tableau de lanova permet de dterminer le fisher. On peut retrouver ces rsultats dans
le tableau de la rgression la ligne :
Model test: F[ 6, 26] = 625.48, Prob value = .00000
On retrouve bien le fisher 6 et 26 degrs de libert et la p-valeur qui est de 0 ce qui
signifie quil a peu de chance de rejeter lhypothse nulle tort si on fait un test de significativit global. voir question suivante :
4. Test de significativit globale :
H0 : 1 = 2 = 3 = 4 = 5 = 6 = 0
H1 : au moins un des coefficients est diffrent de zro.
Sous lhypothse nulle :
SCE/k
F [k, n k 1]
SCR/n k 1
On peut faire le test de deux manires diffrentes : soit on calcule les carrs moyens et on
fait le test, soit on regarde directement dans le tableau des rsultats de la rgression.
Le fisher calcul est Fc = 625 > F [6, 26] = 2.47
On rejette lhypothse nulle. Le modle est globalement significatif.
2
5. Calcul du R
7939,07382
SCR
R2 = SCE
SCT = 1 SCT = 1 1153862 = 1 0.00688 = 0.99312
Confirm par le tableau de la rgression :
2 = 1 (1 R2 ) n1 = 1 (1 0.99312) 32 = 0.99153
R
nk1
26

112

Confirm la encore par le tableau de la rgression.


2 est trs lev ce qui nest pas surprenant puisque on a montr la question prcLe R
dente que le modle est globalement trs explicatif.
On sait par ailleurs que le fisher calcul est :
SCE/k
SCR/T k 1
SCE
SCE = R2 SCT
R2 =
SCT
SCR = SCT SCE SCR = SCT (1 R2 )
R2 /k
F =
(1 R2 )/(T k 1)
F

R2 =

F
F+

T k1
k

6. Lintervalle de confiance pour le coefficient de GDPN et CVN :


Pour GDPN :
IC90% = [1 t/2 s1 ] = [1, 4642 1, 706 0, 2287] = [1, 074; 1, 854]
Pour CVN :
IC90% = [2 t/2 s2 ] = [0, 67409 1, 706 0, 2339] = [1, 0731; 0, 27505]
7. Fates un test de significativit global pour GDPN, CVN et DPC.
H0 : 1 = 2 = 4 = 0
H1 : au moins un des coefficients est nul.
Il sagit dun Fisher :
Il faut faire deux rgressions, lune avec le modle dorigine et lautre avec un modle
contraint sous lhypothse nulle. Ensuite on compare la somme des carrs rsiduels.
Modle non contraint.
Pi = 0 + 1 GDP Ni + 2 CV Ni + 3 P Pi + 4 DP Ci + 5 IP Ci + 6 P OPi + i
Sous H0 ,le modle contraint est :
Pi = 0 + 3 P Pi + 5 IP Ci + 6 P OPi + i
(SCRc SCR)/3
F(3, n k 1)
SCR/n k 1
8. Pensez-vous que Schut et VanBergeijk ont conclu lexistence dune discrimination des
prix. Pourquoi ou pourquoi pas ?
Bien que ce ne soit pas le cas pour tous les effets envisags, plusieurs des effets quon
associe gnralement avec la discrimation des prix au niveau international sont prsents
dans cet chantillon de donnes. En addition, lajustement gnral du modle est trs
satisfaisant (R2 = 0.99).

113

Mod`eles a` variables instrumentales - IV models.


Lhypoth`ese de la moyenne-conditionnelle nulle doit e tre vraie
pour pouvoir appliquer la methode des moindres carres ordinaires.
Il existe trois situations assez courantes qui violent cette hypoth`ese dans les recherches en e conomie :
1. lendogeneite, a` savoir la determination simultanee de la variable dependante et des variables explicatives
2. le biais de la variable omise
3. les erreurs dans les variables, telles que des erreurs de mesure
ou dencodage des variables explicatives.

Bien que ces probl`emes aient des origines tr`es differentes, ils
peuvent e tre traites a` laide dun meme outil, les variables instrumentales - IV the instrumental-variables.
Une variable est endog`ene si elle est correlee au terme derreur.
y = 1x1 + 2x2 + . . . + k xk +
xj est endog`ene si Cov[xj , ] 6= 0
xj est exog`ene si Cov[xj , ] = 0
Les estimateurs des MCO sont a` variance minimale si et seulement si
Cov[xj , ] = 0

Cette hypoth`ese dune covariance nulle implique que


E[] = 0
Lhypoth`ese desperance conditionnelle e gale a` zero
E[|X] = 0
est suffisante pour que la variance conditionnelle e gale a` zero soit
vraie.

Lendogeneite dans les relations e conomiques

Les e conomistes modelisent souvent les comportements e conomiques


comme des syst`emes dequations simultanees dans lesquels les
variables endog`enes sont determinees par dautres variables endog`enes et des variables exog`enes.
Prenon lexemple bien connu de loffre et de la demande : on
e crit habituellement :
q d = 0 + 1p + 2inc

(1)

pour indiquer que la quantite demandee dun bien (q) depend de


son prix (p) et du revenu de lacheteur (inc). Lorsque 0 > 0,
1 < 0 et 2 > 0, la courbe de demande dans lespace [p, q] a
une pente negative, et e tant donne le prix, la quantite demandee va

saccrotre avec le revenu de lacheteur.


Si nous ajoutons un terme derreur a` lequation, et que lon
estime lequation par les MCO a` laide des pairs [p, q], les estimations ne seront pas de variance minimale car la variable
independante est endog`ene : dans lequation ci-dessus, un choc
sur la courbe de demande va modifier lequilibre, a` savoir, le prix
et la quantite sur le marche. Par definition, le choc est correle au
prix p.
Il nous manque souvent les donnees microeconomiques, ou les
donnees de menages qui nous permettraient destimer la relation
pour un bien donne. Habituellement, on dispose plutot de donnees
de marche. Les observations de p et q sont des prix et quantites
dequilibre a` des periodes differentes.

Comment utiliser les donnees de marche pour estimer la


courbe de demande dun bien?
Pour ce faire, il faut specifier des instruments pour p qui ne
sont pas correles a` mais neanmoins fortement correles a` p.
Cette procedure est qualifiee de probl`eme didentification.
Quest-ce qui va nous permettre didentifier ou de determiner
la courbe de demande?
Considerons lautre partie du marche, a` savoir loffre; tout facteur intervenant dans la fonction doffre qui napparat pas dans
la fonction de demande constituera un instrument valable. Si
on modelise la demande pour un bien agricole, des facteurs tels
que les precipitations ou le climat pourront e tre utilises.

Dans ce mod`ele e conomique, ces facteurs apparaissent dans les


e quations sous forme reduite de q et de p : il sagit l`a de la forme
algebrique du syst`eme dequations simultanees.
Pour deriver des estimateurs a` variance minimale de lequation
ci-dessus, il nous faut trouver une variable instrumentale -IV
qui satisfasse aux conditions suivantes :
les instruments z doivent e tre non correles avec
les instruments z doivent e tre fortement correles a` p.
Comme il nest pas possible dobserver , on ne peut pas tester
directement lhypoth`ese de non correlation entre z et , que lon
peut qualifier aussi dhypoth`ese dorthogonalite. Mais en presence
de plusieurs instruments, on peut construire un tel test.

En revanche, on peut facilement tester la seconde hypoth`ese en


regressant p sur linstrument z a` laide de regression auxiliaire
suivante :
pi = 0 + pi1zi + i
(2)
Si on ne parvient pas a` rejeter lhypoth`ese nulle
H0 : pi1 = 0
on conclut que z ne constitue pas un bon instrument. En revanche,
le non rejet de lhypoth`ese nulle ne suffit pas a` assurer quil ne
sagit pas dun faible instrument.
Si lon decide que lon a un instrument valide, comment lutiliser?

y = X +
On definit Z de la meme dimension que X dans laquelle le regresseur
endog`ene -p de notre exemple est remplace par z.
Zy = ZX + Z
Lhypoth`ese que Z est non correlee a` implique que 1/N (Z)
tend vers zero en probabilite alors que N devient grand. Ainsi,
on definit lestimateur IV a` partir de :
Zy = ZXIV
(3)
IV = (ZX)1Zy
(4)

On peut aussi utiliser lhypoth`ese desperance mathematique e gale


a` zero pour definir lestimateur de la methode des moments pour le
mod`ele IV. On definit une matrice Z comme plus haut dans laquelle
chaque regresseur endog`ene sera remplace par son instrument,
conduisant ainsi a` lestimateur de la methode des moments pour .
Z = 0
Z(y X) = 0

(5)
(6)

On peut alors substituer les moments calcules a` partir de notre


e chantillon dans lexpression et remplacer les coefficients incon
nus avec les valeurs estimees .
Zy ZXIV = 0
IV = (ZX)1Zy
Lestimateur IV a un cas particulier interessant : Si lhypoth`ese

desperance conditionnelle nulle se tient, chaque variable explicative peut e tre utilisee comme son propre instrument, X = Z
et lestimateur IV se reduit alors a` un estimateur des MCO. Ainsi,
lestimateur des MCO apparat comme un cas particulier des IV
qui est approprie lorsque lhypoth`ese desperance conditionnelle
nulle est satisfaite.

Les doubles moindres carres - 2SLS - two-stage least-squares

Considerons le cas dun regresseur endog`ene et de plusieurs instruments potentiels. Dans lequation (1), on pourrait avoir deux
instruments potentiels : z1 et z2. On pourrait appliquer lestimateur
IV de lequation (3) avec z1 entrant dans z et obtenir une estimation de IV et les deux estimations seraient differentes.
Lapproche des doubles moindres carres - DMC - combine plusieurs
instruments en un instrument optimal, qui peut alors e tre utilise
pour determiner lestimateur IV. Cette combinaison optimale suppose de faire une regression. Considerons la regression auxiliaire
(2) qui permet de tester si les instruments candidats z sont suffisamment correles au regresseur.

On peut donc e tendre le mod`ele,


pi = 0 + 1zi1 + 2z2i + i
et obtenir un instrument qui est en fait la valeur estimee p a` partir de lequation ; e tant donne les MCO, p est une combinaison
lineaire optimale de linformation donnee par z1 et z2. On peut
alors estimer les param`etres de (3) en utilisant lestimateur IV avec
p comme une colonne de Z.
La methode des doubles moindres carres est donc lestimateur
IV avec une r`egle de decision qui reduit le nombre dinstruments
au necessaire pour estimer lequation et determiner Z; Z est une
matrice dinstruments de dimension N l, l k.
= Z(ZZ)1ZX
X
(7)

Soit la matrice de projection PZ = Z(ZZ)1Z, alors


X)1X
y
2SLS = (X

= [XZ(ZZ)1ZX]1[XZ(ZZ)1Zy]
= (XPzX)1XPZy

(8)
(9)
(10)

o`u lestimateur en deux e tapes (des doubles moindres carres) peut


e tre calcule en une fois en utilisant les donnees sur X, Z, y.
Lorsque l = k, les DMC se reduisent aux IV, et par consequent la
formule des DMC donnee ci-dessous couvre e galement lestimateur
IV.

Supposons des erreurs independantes et de distributions identiques i.i.d, un estimateur de variance minimale dun grand e chantillon
des DMC secrit :
Var[2SLS] = 2[XZ(ZZ)1ZX]1 = 2(XPzX)1 (11)
o`u

=
N
2

calcule a` partir de

(12)

= y X2SLS
(13)
Bien que lon parle des doubles moindres carres comme dun
processus en deux e tapes (pour des raisons pedagogiques), on ne
proc`ederait jamais a` lestimation en deux e tapes a` la main car
sinon on obtiendrait des resultats biaises. Si on le faisait a` la main,
a` partir dune premi`ere regression des
ca reviendrait a` estimer X

variables endog`enes sur les instruments et a` utiliser les estimations


dans une seconde regression des MCO. En faisant cela, la seconde
regression gen`ererait des residus incorrects
2SLS

=yX
au lieu des residus corrects

= y X2SLS
En utilisant la commande ivreg pour les DMC dans Stata, on
e vite ces probl`emes. La formulation dans Stata
ivreg q inc (p = rainfall temperature)
permet dindiquer que q doit e tre estime a` laide de inc et p avec
rainf all et temperature comme instruments. Comme pour les

MCO et la commande regress, une constante est inclue et apparat

implicitement dans la liste des instruments utilises pour specifier Z,


la matrice des instruments utilises lors de la premi`ere e tape.
ivreg y x2 (x3 x4 = za zb zc zd )
Il nest pas necessaire dindiquer a` Stata quels sont les instruments a` utiliser pour chaque variable endog`ene car dans
la methode des DMC, tous les instruments sont utilises comme
regresseurs dans la premi`ere e tape. Dans notre exemple, x3 x4
sont estimes a` laide de z.

Tests didentification

Les param`etres (coefficients) dune e quation sont dits identifies


lorsquil y a suffisamment dinstruments valides de sorte que lestimateur
des DMC en determine une estimation unique. Lequation (9)
montre que 2SLS est unique si et seulement si ZZ est une matrice
l l non singuli`ere de rang k. Si les instruments sont lineairement
independants, ZZ sera non singuli`ere. Le fait que ZX soit de rang
k est connu comme la condition de rang. Le fait que la matrice
soit l k est la condition dordre.
1. si le rang est ZX < k, lequation est dite sous-identifiee
2. si le rang est ZX = k, lequation est dite exactement identifiee
3. si le rang est ZX > k, lequation est dite sur-identifiee

Les instruments qui satisfont a` la condition de rang mais qui ne


sont pas suffisamment correles aux variables endog`enes dans les
grands e chantillons sont qualifies de faibles instruments.
Les param`etres des e quations exactement identifiees peuvent
e tre estimes par la methode IV.
Les param`etres des e quations sur-identifiees peuvent e tre estimes par la methode IV en combinant les instruments comme
dans la methode des DMC. La sur-identifications produit des
estimations plus efficaces dans le cas des grands e chantillons.
On e value ladequation des instruments dans un context de suridentification a` laide dun test de sur-identification: les residus
des DMC sont regresses sur les toutes les variables exog`enes.

Sous H0 : tous les instruments sont non correles a`


la statistique du multiplicateur de lagrange LM est utilisee, il
suit une distribution 2(r), avec r le nombre de restrictions suridentifiees, cest-`a-dire le nombre dinstruments en plus. Si lhypoth`ese
est rejetee, on peut alors douter que lensemble des instruments est
approprie. Ce test de Sargan (1958) ou de Basmann (1960) est
propose dans Stata a` laide de la commande overid.
3.0.1

Application

Prenons un exemple classique qui porte sur letude des salaires a`


partir dun e chantillon de 758 jeunes hommes. La base de donnees
americaine NLS -National Longitudinal Survey - est interessante

car elle combine des informations sur les revenus, le niveau detude
ainsi que des mesures de laptitude des individus. La base contient
deux mesures des aptitudes, un score du QI -quotient intellectuel et un test sur la connaissance du monde du travail - knowledge of
the wordld of work (kww)-.
Les mod`eles de Griliches permettent dexpliquer les salaires en
fonction dun certain nombre de facteurs tels que le nombre dannees
decole s, le nombre dannees dexperience expr, et le nombre
dannees passees dans la meme entreprise tenure; une variable
indicatrice indiquant si la personne reside dans le sud des EtatsUnis rns; un indicateur pour la residence urbaine plutot que rurale
smsa; et un ensemble de variables indicatrices pour les annees
dans la mesure o`u les donnees sont des donnees annuelles en coupe,
telles que le QI iq, le niveau detude de la m`ere med, le score au

test kww, lage du travailleur; le statut marital mrt.


. use http://www.stata-press.com/data/imeus/griliches, clear
. summarize lw s expr tenure rns smsa iq med kww age mrt
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------lw |
758
5.686739
.4289494
4.605
7.051
s |
758
13.40501
2.231828
9
18
expr |
758
1.735429
2.105542
0
11.444
tenure |
758
1.831135
1.67363
0
10
rns |
758
.2691293
.4438001
0
1
-------------+-------------------------------------------------------smsa |
758
.7044855
.456575
0
1
iq |
758
103.8562
13.61867
54
145
med |
758
10.91029
2.74112
0
18
kww |
758
36.57388
7.302247
12
56
age |
758
21.83509
2.981756
16
30
-------------+-------------------------------------------------------mrt |
758
.5145119
.5001194
0
1

On utilise loption first pour la commande ivreg pour e valuer


le degre de correlation entre les quatre facteurs et la variable endog`ene iq.
I est une commande qui permet dintroduire les indicatrices
pour les annees (lannee 66 est exclue pour e viter la colinearite
parfaite).
. ivreg lw s expr tenure rns smsa _I* (iq = med kww age mrt), first
First-stage regressions
----------------------Source |
SS
df
MS
----------+-----------------------------Model | 47176.4676
15 3145.09784

Number of obs =
F( 15,
742) =
Prob > F
=

758
25.03
0.0000

Residual | 93222.8583
742 125.637275
----------+-----------------------------Total | 140399.326
757 185.468066

R-squared
=
Adj R-squared =
Root MSE
=

0.3360
0.3226
11.209

--------------------------------------------------------------------------iq |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
----------+---------------------------------------------------------------s |
2.497742
.2858159
8.74
0.000
1.936638
3.058846
expr |
-.033548
.2534458
-0.13
0.895
-.5311042
.4640082
tenure |
.6158215
.2731146
2.25
0.024
.0796522
1.151991
rns | -2.610221
.9499731
-2.75
0.006
-4.475177
-.7452663
smsa |
.0260481
.9222585
0.03
0.977
-1.784499
1.836595
_Iyear_67 |
.9254935
1.655969
0.56
0.576
-2.325449
4.176436
_Iyear_68 |
.4706951
1.574561
0.30
0.765
-2.620429
3.56182
_Iyear_69 |
2.164635
1.521387
1.42
0.155
-.8221007
5.15137
_Iyear_70 |
5.734786
1.696033
3.38
0.001
2.405191
9.064381
_Iyear_71 |
5.180639
1.562156
3.32
0.001
2.113866
8.247411
_Iyear_73 |
4.526686
1.48294
3.05
0.002
1.615429
7.437943
med |
.2877745
.1622338
1.77
0.077
-.0307176
.6062665

kww |
.4581116
.0699323
6.55
0.000
.3208229
.5954003
age | -.8809144
.2232535
-3.95
0.000
-1.319198
-.4426307
mrt |
-.584791
.946056
-0.62
0.537
-2.442056
1.272474
_cons |
67.20449
4.107281
16.36
0.000
59.14121
75.26776
--------------------------------------------------------------------------Instrumental variables (2SLS) regression
Source |
SS
df
MS
----------+-----------------------------Model | 59.2679161
12 4.93899301
Residual | 80.0182337
745 .107407025
----------+-----------------------------Total |
139.28615
757 .183997556

Number of obs
F( 12,
745)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

758
45.91
0.0000
0.4255
0.4163
.32773

-------------------------------------------------------------------------lw |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
----------+---------------------------------------------------------------iq |
.0001747
.0039374
0.04
0.965
-.0075551
.0079044

s |
.0691759
.013049
5.30
0.000
.0435587
.0947931
expr |
.029866
.006697
4.46
0.000
.0167189
.0430132
tenure |
.0432738
.0076934
5.62
0.000
.0281705
.058377
rns | -.1035897
.0297371
-3.48
0.001
-.1619682
-.0452111
smsa |
.1351148
.0268889
5.02
0.000
.0823277
.1879019
_Iyear_67 |
-.052598
.0481067
-1.09
0.275
-.1470388
.0418428
_Iyear_68 |
.0794686
.0451078
1.76
0.079
-.009085
.1680222
_Iyear_69 |
.2108962
.0443153
4.76
0.000
.1238984
.2978939
_Iyear_70 |
.2386338
.0514161
4.64
0.000
.1376962
.3395714
_Iyear_71 |
.2284609
.0441236
5.18
0.000
.1418396
.3150823
_Iyear_73 |
.3258944
.0410718
7.93
0.000
.2452642
.4065247
_cons |
4.39955
.2708771
16.24
0.000
3.867777
4.931323
------------------------------------------------------------------------Instrumented: iq
Instruments:
s expr tenure rns smsa _Iyear_67 _Iyear_68 _Iyear_69
_Iyear_70 _Iyear_71 _Iyear_73 med kww age mrt
--------------------------------------------------------------------------

Les resultats de la premi`ere e tape - first-stage regresion- sugg`erent


que trois des quatres instruments sont fortement correles avec iq, a`
lexception de mrt.
Neanmoins la variable endog`ene iq a un coefficient IV qui nest
pas different de zero (p-valeur est de 0,965).
Etant donne les autres variables incluses dans la regression, iq ne
semble pas jouer un role important comme determinant du salaire.
Les autres coefficients semblent e tre en accord avec les predictions
des theories du travail et les resultats empiriques habituels.

Les instruments pour iq sont-ils non correles a` lerreur?


. overid
Tests of overidentifying restrictions:
Sargan N*R-sq test
Basmann test

87.655
97.025

Chi-sq(3)
Chi-sq(3)

P-value = 0.0000
P-value = 0.0000

Le test ci-dessus sugg`ere un rejet fort de lhypoth`ese nulle que


les instruments sont non correles au terme derreur, ce qui implique que la specification de lequation nest pas satisfaisante.

Lestimateur GMM

Jusqu`a present, nous avons fait lhypoth`ese que les erreurs e taient
i.i.d. pour deriver les estimateurs IV et des DMC. Les estimateurs IV et DMC produisent des estimateurs non biaises (consistent) mais a` variance non minimale (inefficient) ce qui implique
que lon applique une methode robuste pour les estimer.
Lestimateur des moments generalises (GMM - Generalized Methods of Moments) produira des estimateurs non biaises a` variance
minimale en presence derreurs non i.i.d.
Lequation qui nous interesse secrit :
y = X +

E[|X] =

Le terme derreur suit une distribution desperance nulle et


est sa matrice de covariance. Quatre cas doivent e tre distingues :
1. lhomoscedasticite
2. lheteroscedasticite conditionnelle
3. le regroupement clustering
4. la presence dheteroscedasticite et dautocorrelation (-HAC)
Certains regresseurs sont endog`enes de sorte que E[x] 6= 0. On
separe les regresseurs en deux groupes {x1 x2} avec dune part,
les regresseurs {x1} consideres comme endog`enes et ceux (k k1)
supposes exog`enes.
La matrice des variables instrumentales Z est N l. Ces variables sont supposees exog`enes : E[z]. On partitionne les instru-

ments en {z1 z2} avec l1 instruments {z1} exclus et les (l l1)


instruments restant {z2 x2} sont les instruments inclus ou les
variables exog`enes.
4.1

Les estimateurs GMM

Les estimateurs standards IV et DMC deviennent des cas particuliers des estimateurs GMM.
Lhypoth`ese selon laquelle les instruments Z sont exog`enes peut
sexprimer comme un ensemble de conditions sur les moments
E[z] = 0. Les l instruments donnent un ensemble de l moments:
gi() = Zii = Zi(yi xi)
o`u gi est l 1. Ces conditions impliquent que Z et sont non

correles, cest pourquoi elles sont souvent qualifiees de condition


dorthogonalite.
On obtient ainsi un ensemble de l moments :
N
N
N
1 X
1 X
1 X
gi() =
zi(yi xi) =
Z
g() =
N i=1
N i=1
N i=1
Lintuition du GMM est de choisir un estimateur pour qui
resoud g(GMM ) = 0
Si lequation a` estimer est exactement identifiee l = k, on
a autant de conditions pour les moments que dinconnus. On
peut alors resoudre les l conditions pour les k coefficients dans
GMM . Il y a donc un unique GMM qui resoud g(GMM ) = 0.
Cet estimateur de GMM est identique a` lestimateur IV standard
de (4).
Si lequation est suridentifiee, l > k, on a donc plus dequations

que dinconnus. On risque de ne pas trouver un k-vecteur GMM


qui permette de resoudre les l conditions de moments, g(GMM ) =
0. Par consequent, il nous faut choisir GMM de sorte que les
e lements de g(GMM ) soient le plus proche de zero que possible.On pourrait obtenir cela en minimisant g(GMM )g(GMM ),
mais cette methode ne permet pas a` la methode GMM de produire des estimateurs a` variance minimale lorsque les erreurs ne
sont pas i.i.d.
Pour cette raison, lestimateur de GMM choisit le GMM qui minimise :
J(GMM ) = N g(GMM )W
g (GMM )
(14)
pour lequel W est une matrice ponderee de taille l l qui tient
compte des correlations entre les g(GMM ) lorsque les erreurs sont

non i.i.d.
Un estimateur GMM pour est le qui minimise J(GMM ).
Lorsque lon derive et que lon resoud les conditions a` lordre un,
J(GMM )
=0

on obtient lestimateur GMM pour lequation sur-identifiee :


GMM = (XZWZX)1(XZWZy)
(15)
Il y a autant destimateurs GMM que de matrices ponderees W.
La matrice de poids ne joue quen presence de sur-identification.
Lorsque lequation est parfaitement identifiee alors W = iN.
La matrice de poids optimal est telle que W = s1 o`u S est une
matrice de covariance des conditions de moments g:

S = E[Z Z] = E[Z Z]
(16)
o`u S est une matrice l l. Si on substitue cette matrice dans (14),
on obtient un estimateur GMM efficace :
EGMM = (XZS1ZX)1(XZS1Zy)
On peut noter la generalite de cette approche. En effet, aucune
hypoth`ese na e te faite sur , la matrice des covariances des erreurs. Mais lestimateur GMM ne peut pas e tre estime car S est
inconnu. Il nous faut donc estimer S, ce qui implique de faire des
hypoth`eses a` propos d .
Supposons que lon ait un estimateur de variance minimale pour
On peut utiliser lestimateur pour definir un estimateur
S note S.

GMM en deux e tapes quasi generalises (a feasible efficient twostep GMM estimator (FEGMM)) estime par la commande ivreg2
lorsque loption gmm est appliquee. Dans la premi`ere e tape, on
utilise une estimation standard des DMC pour engendrer des estimations des coefficients et des residus. Dans la seconde e tape, on
a` partir
fait une hypoth`ese sur la structure de pour produire S
des residus, definissant ainsi lestimateur FEGMM:
1ZX)1(XZS
1Zy)
FEGMM = (XZS
4.2

GMM dans un context homoscedastique

Si on suppose que = 2IN , la matrice de poids optimale sera


proportionnelle a` la matrice identite. Lestimateur GMM est simplement lestimateur IV standard.

4.3

GMM et les e cart-types heteroscedastiques

Il nous faut un estimateur qui tienne compte de lheteroscedasticite


S tel que
N
1 X

S=
i2ZiZi
N i=1
Si la regression est exactement identifiee avec l = k, le resultats de
la commande ivreg2, gmm sera identique a` la commande ivreg2,
robust.
Pour les mod`eles sur-identifies, lapproche GMM fait un meilleur
usage de linformation des l conditions que la methode standard
des DMC.

Pour comparer la methode GMM avec la methode DMC, on estime a` nouveau lequation de salaire en utilisant loption gmm.
Cette e tape engendre automatiquement des e cart-types robustes a`
lheteroscedasticite. Par defaut, ivreg2 rapporte des statistiques
pour les coefficients z pour de grands e chantillons.
. ivreg2 lw s expr tenure rns smsa _I* (iq = med kww age mrt), gmm
GMM estimation
--------------

Total (centered) SS
Total (uncentered) SS
Residual SS

=
=
=

139.2861498
24652.24662
81.26217887

Number of obs
F( 12,
745)
Prob > F
Centered R2
Uncentered R2
Root MSE

=
=
=
=
=
=

758
49.67
0.0000
0.4166
0.9967
.33

--------------------------------------------------------------------------|
Robust
lw |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
----------+---------------------------------------------------------------iq | -.0014014
.0041131
-0.34
0.733
-.009463
.0066602
s |
.0768355
.0131859
5.83
0.000
.0509915
.1026794
expr |
.0312339
.0066931
4.67
0.000
.0181157
.0443522
tenure |
.0489998
.0073437
6.67
0.000
.0346064
.0633931
rns | -.1006811
.0295887
-3.40
0.001
-.1586738
-.0426884
smsa |
.1335973
.0263245
5.08
0.000
.0820021
.1851925
_Iyear_67 | -.0210135
.0455433
-0.46
0.645
-.1102768
.0682498
_Iyear_68 |
.0890993
.042702
2.09
0.037
.0054049
.1727937
_Iyear_69 |
.2072484
.0407995
5.08
0.000
.1272828
.287214
_Iyear_70 |
.2338308
.0528512
4.42
0.000
.1302445
.3374172
_Iyear_71 |
.2345525
.0425661
5.51
0.000
.1511244
.3179805
_Iyear_73 |
.3360267
.0404103
8.32
0.000
.2568239
.4152295
_cons |
4.436784
.2899504
15.30
0.000
3.868492
5.005077
--------------------------------------------------------------------------Hansen J statistic (overidentification test of all instruments):
74.165

Chi-sq(3) P-val =
0.00000
--------------------------------------------------------------------------Instrumented: iq
Instruments:
med kww age mrt s expr tenure rns smsa _Iyear_67 _Iyear_68
_Iyear_69 _Iyear_70 _Iyear_71 _Iyear_73
---------------------------------------------------------------------------

On constate que le regresseur endog`ene iq ne joue toujours aucun


role dans lequation.
La statistique Hansen donnee avec les resultats ivreg2 est lequivalent
pour la methode GMM du test de Sargan que lon obtient avec
overid. Lindependance des instruments et des erreurs est remise
en question ici par le fort rejet de lhypoth`ese null du test J.

4.4

GMM et les e cart-types HAC

Lorsque les erreurs sont conditionnellement heteroscedastiques et


autocorrelees (HAC), on peut determiner une estimation HAC de
S pour determiner des estimations des param`etres appropries. La
routine ivreg2 determinera lestimation Newey-West de la matrice
des variance-covariances des estimateurs a` laide de la ponderation
Bartlett-Kernel lorsque les options robust et bw() sont specifiees.
4.4.1

Application

Pour illustrer, on estime une courbe de Phillips a` laide de series


temporelles annuelles pour les Etats-Unis de 1948-1996. Les statistiques descriptives pour linflation liee aux prix a` la consommation

(cinf) et le taux de chomage (unem) sont donnes dans le tableau


ci-dessous :
. use http://www.stata-press.com/data/imeus/phillips, clear
. summarize

cinf unem if

cinf<.

Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------cinf |
48
-.10625
2.566926
-9.3
6.6
unem |
48
5.78125
1.553261
2.9
9.7

Une relation de Phillips est une relation entre linflation sur les
prix ou les salaires et le taux de chomage. Dans ce mod`ele, les variable devraient avoir une relation negative, un chomage plus faible
conduisant a` une pression a` la hausse des salaires et des prix. Etant
donne que chaque variable est determinee est determinee au sein de
lenvironnement macroeconomique, on ne peut pas les considerer

comme exog`enes.
Lorsque lon utilise les donnees, on regresse linflation sur le taux
de chomage. Afin de traiter la question de la simultaneite, on utilise
comme instrument le taux de chomage avec un decalage de deux
ou trois periodes. Lorsque lon specifie bw(3), gmm et robust,
ivreg2 va produire une estimation GMM efficace.
. ivreg2

cinf (unem = l(2/3).unem), bw(3) gmm robust

GMM estimation
-------------Heteroskedasticity and autocorrelation-consistent statistics
kernel=Bartlett; bandwidth=3
time variable (t): year
Number of obs =

46

Total (centered) SS
Total (uncentered) SS
Residual SS

=
=
=

217.4271745
217.4900005
244.9459113

F( 1,
44)
Prob > F
Centered R2
Uncentered R2
Root MSE

=
=
=
=
=

0.39
0.5371
-0.1266
-0.1262
2.3

--------------------------------------------------------------------------|
Robust
cinf |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
----------+---------------------------------------------------------------unem |
.1949334
.3064662
0.64
0.525
-.4057292
.795596
_cons | -1.144072
1.686995
-0.68
0.498
-4.450522
2.162378
--------------------------------------------------------------------------Hansen J statistic (overidentification test of all instruments):
0.589
Chi-sq(1) P-val =
0.44262
-------------------------------------------------------------------------Instrumented: unem
Instruments:
L2.unem L3.unem
--------------------------------------------------------------------------

La relation telle que nous lavions anticipee nest pas confirmee


par les estimations, comme de nombreux chercheurs ont peu en
faire lexperience. La relation originale qui e tait effectivement
valide, a cesse de fonctionner dans les annees 1970 en presence
de chocs doffres (chocs petroliers) et de forte inflation.
Pour ce qui est de la technique IV, on peut constater que la statistique J du test Hansen indique que les instruments sont non correles
avec les erreurs. Si en revanche, on utilisait les premier et second
decalages du chomage, le test J rejetterai lhypoth`ese nulle avec
une p-valeur de 0,02. Le premier decalage de unem nest donc
pas un instrument approprie pour cette specification.

Test pour la sur-identification pour la methode GMM

De meme que pour les DMC, on peut tester la validite de la suridentification dans le cas de la methode GMM. On utilise la statistique J Hansen :
1g(EGMM ) 2lk
J(EGMM ) = N g(EGMM )S
Le test Hansen-Sargan pour la sur-identification e value lensemble
des restrictions. Dans un mod`ele qui contient un grand nombre
dinstruments, le test de C qualifie de difference-in-Sargan test C
est plus approprie. Il permet de tester un sous ensemble des conditions dorthogonalite dorigine. La statistique est calculee comme
la difference entre les deux statistiques J. C est distribuee suivant
un 2 au nombre de degres e gale a` la perte des restrictions ou le

nombre dinstrument suspects testes.


Un exemple de C est donne ci-dessous pour savoir si s est un
instrument valide.
. ivreg2 lw s expr tenure rns smsa _I* (iq = med kww age mrt), gmm orthog(s)
GMM estimation
--------------

Total (centered) SS
Total (uncentered) SS
Residual SS

=
=
=

139.2861498
24652.24662
81.26217887

Number of obs
F( 12,
745)
Prob > F
Centered R2
Uncentered R2
Root MSE

=
=
=
=
=
=

758
49.67
0.0000
0.4166
0.9967
.33

---------------------------------------------------------------------------

|
Robust
lw |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
----------+---------------------------------------------------------------iq | -.0014014
.0041131
-0.34
0.733
-.009463
.0066602
s |
.0768355
.0131859
5.83
0.000
.0509915
.1026794
expr |
.0312339
.0066931
4.67
0.000
.0181157
.0443522
tenure |
.0489998
.0073437
6.67
0.000
.0346064
.0633931
rns | -.1006811
.0295887
-3.40
0.001
-.1586738
-.0426884
smsa |
.1335973
.0263245
5.08
0.000
.0820021
.1851925
_Iyear_67 | -.0210135
.0455433
-0.46
0.645
-.1102768
.0682498
_Iyear_68 |
.0890993
.042702
2.09
0.037
.0054049
.1727937
_Iyear_69 |
.2072484
.0407995
5.08
0.000
.1272828
.287214
_Iyear_70 |
.2338308
.0528512
4.42
0.000
.1302445
.3374172
_Iyear_71 |
.2345525
.0425661
5.51
0.000
.1511244
.3179805
_Iyear_73 |
.3360267
.0404103
8.32
0.000
.2568239
.4152295
_cons |
4.436784
.2899504
15.30
0.000
3.868492
5.005077
--------------------------------------------------------------------------Hansen J statistic (overidentification test of all instruments):
74.165
Chi-sq(3) P-val =
0.00000

-orthog- option:
Hansen J statistic for unrestricted equation:

15.997
0.00034
58.168
0.00000

Chi-sq(2) P-val =
C statistic (exogeneity/orthogonality of specified instruments):
Chi-sq(1) P-val =
Instruments tested: s
--------------------------------------------------------------------------Instrumented: iq
Instruments:
med kww age mrt s expr tenure rns smsa _Iyear_67 _Iyear_68
_Iyear_69 _Iyear_70 _Iyear_71 _Iyear_73
---------------------------------------------------------------------------

Le test C rejette lhypoth`ese nulle indiquant que linstrument suspect s e choue au test de suridentification. La statistique J significative de 15,997 pour lequation qui exclut les instruments suspects the suspect implique que le fait de traiter s comme exog`ene
debouche sur une e quation non satisfaisante. Les instruments restant
ne semblent pas e tre independants des erreurs.

Loption orthog() permet de tester si un sous-ensemble dinstruments


exclus est effectivement exog`ene. On inclut lage et lindicatrice
du statut marital dans la liste des variables en option.
. ivreg2 lw s expr tenure rns smsa _I* (iq = med kww age mrt), gmm orthog(
age mrt)
GMM estimation
--------------

Total (centered) SS
Total (uncentered) SS
Residual SS

=
=
=

139.2861498
24652.24662
81.26217887

Number of obs
F( 12,
745)
Prob > F
Centered R2
Uncentered R2
Root MSE

=
=
=
=
=
=

758
49.67
0.0000
0.4166
0.9967
.33

---------------------------------------------------------------------------

|
Robust
lw |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
----------+---------------------------------------------------------------iq | -.0014014
.0041131
-0.34
0.733
-.009463
.0066602
s |
.0768355
.0131859
5.83
0.000
.0509915
.1026794
expr |
.0312339
.0066931
4.67
0.000
.0181157
.0443522
tenure |
.0489998
.0073437
6.67
0.000
.0346064
.0633931
rns | -.1006811
.0295887
-3.40
0.001
-.1586738
-.0426884
smsa |
.1335973
.0263245
5.08
0.000
.0820021
.1851925
_Iyear_67 | -.0210135
.0455433
-0.46
0.645
-.1102768
.0682498
_Iyear_68 |
.0890993
.042702
2.09
0.037
.0054049
.1727937
_Iyear_69 |
.2072484
.0407995
5.08
0.000
.1272828
.287214
_Iyear_70 |
.2338308
.0528512
4.42
0.000
.1302445
.3374172
_Iyear_71 |
.2345525
.0425661
5.51
0.000
.1511244
.3179805
_Iyear_73 |
.3360267
.0404103
8.32
0.000
.2568239
.4152295
_cons |
4.436784
.2899504
15.30
0.000
3.868492
5.005077
--------------------------------------------------------------------------Hansen J statistic (overidentification test of all instruments):
74.165
Chi-sq(3) P-val =
0.00000

-orthog- option:
Hansen J statistic for unrestricted equation:

1.176
0.27822
72.989
0.00000

Chi-sq(1) P-val =
C statistic (exogeneity/orthogonality of specified instruments):
Chi-sq(2) P-val =
Instruments tested: age mrt
--------------------------------------------------------------------------Instrumented: iq
Instruments:
med kww age mrt s expr tenure rns smsa _Iyear_67 _Iyear_68
_Iyear_69 _Iyear_70 _Iyear_71 _Iyear_73
---------------------------------------------------------------------------

Lequation estimee sans les instruments suscepts, et sans les conditions dorthogonalite age et mrt, a un J significatif, alors que C
pour les deux instruments est fortemenet significatif. Pour savoir si
on a obtenu une specification plus appropriee, on reestime lequation
avec la liste reduite dinstruments.

. ivreg2 lw s expr tenure rns smsa _I* (iq = med kww), gmm
GMM estimation
-------------Number of obs =
758
F( 12,
745) =
30.77
Prob > F
=
0.0000
Total (centered) SS
= 139.2861498
Centered R2
=
0.1030
Total (uncentered) SS
= 24652.24662
Uncentered R2 =
0.9949
Residual SS
= 124.9413508
Root MSE
=
.41
--------------------------------------------------------------------------|
Robust
lw |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
----------+---------------------------------------------------------------iq |
.0240417
.0060961
3.94
0.000
.0120936
.0359899
s |
.0009181
.0194208
0.05
0.962
-.0371459
.038982
expr |
.0393333
.0088012
4.47
0.000
.0220833
.0565834
tenure |
.0324916
.0091223
3.56
0.000
.0146122
.050371

rns | -.0326157
.0376679
-0.87
0.387
-.1064433
.041212
smsa |
.114463
.0330718
3.46
0.001
.0496434
.1792825
_Iyear_67 | -.0694178
.0568781
-1.22
0.222
-.1808968
.0420613
_Iyear_68 |
.0891834
.0585629
1.52
0.128
-.0255977
.2039645
_Iyear_69 |
.1780712
.0532308
3.35
0.001
.0737407
.2824016
_Iyear_70 |
.139594
.0677261
2.06
0.039
.0068533
.2723346
_Iyear_71 |
.1730151
.0521623
3.32
0.001
.070779
.2752512
_Iyear_73 |
.300759
.0490919
6.13
0.000
.2045407
.3969772
_cons |
2.859113
.4083706
7.00
0.000
2.058721
3.659504
-----------------------------------------------------------------------------Hansen J statistic (overidentification test of all instruments):
0.781
Chi-sq(1) P-val =
0.37681
--------------------------------------------------------------------------Instrumented: iq
Instruments:
med kww s expr tenure rns smsa _Iyear_67 _Iyear_68 _Iyear_69
_Iyear_70 _Iyear_71 _Iyear_73
---------------------------------------------------------------------------

En accord avec la therie, iq apparat comme un regresseur significatif pour la premi`ere fois et la statistique J de lequation est
satisfaisante. Le regresseur s, qui est apparu comme inapproprie
precedemment ne joue pas de role dans lestimation.

UNIVERSITE DE PARIS 11
TD dconomtrie

Anne Plunket
Les variables instrumentales

Soit le modle macroconomique Keynsien suivant :


Yt = C0t + It + Gt + N Xt

(1)

COt = 0 + 1 Y Dt + 2 COt1 + 1t

(2)

Y Dt = Yt Tt

(3)

It = 3 + 4 Yt + 5 rt1 + 2t

(4)

rt = 6 + 7 Yt + 8 Mt + 3t

(5)

Yt : PIB lanne t
COt : Consommation en t
It : Investissement brut en t
Gt : Dpenses gouvernementales en t
N Xt : Exportations nettes de biens et services en t (exportations moins importations)
Tt : Impts en t
rt : le taux dintrt en t
Mt : loffre de monnaie en t
Y Dt : revenu disponible en t
Les donnes ncessaires se trouvent dans le fichier macro14.xls
Toutes les variables sont en termes rels sauf les taux dintrt qui sont en pourcentage
nominaux. Les donnes vont de lanne 1964 lanne 1994.
1. Quelle distinction faites-vous entre les quations stochastiques et les quations comptables. Indiquez pour chacune des quations si elle est comptable ou stochastique.
2. On cherche estimer lquation de consommation (2). Cette quation souffre-t-elle dun
problme dendognit ? Pourquoi ?
3. Quels instruments pourriez-vous proposer pour estimer cette quation ?
4. Quest-ce quune forme rduite ? Quelle distinction fates-vous avec la forme structurelle ? Soit la forme rduite suivante :
COt = 0 + 1 COt1 + 2 Gt + 3 N Xt + 4 Tt + 5 rlag + vt
On vous propose la rgression suivante aprs cration des variables manquantes. Commentez le principe de la mthode des doubles moindres carrs ainsi que les rsultats.
.
.
.
.
.

generate t= y- yd
generate nx=y- co- i- g
tsset years
generate colag=L.co
generate rlag=L.r

. ivreg co colag (yd = g nx t rlag), first


First-stage regressions
----------------------Source |
SS
df
MS
-------------+-----------------------------Model | 13636091.6
5 2727218.33
Residual | 28657.1811
25 1146.28724
-------------+-----------------------------Total | 13664748.8
30 455491.627

Number of obs
F( 5,
25)
Prob > F
R-squared
Adj R-squared
Root MSE

=
31
= 2379.18
= 0.0000
= 0.9979
= 0.9975
= 33.857

-----------------------------------------------------------------------------yd |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------colag |
1.237215
.0578294
21.39
0.000
1.118113
1.356316
g | -.5475463
.2008534
-2.73
0.012
-.9612116
-.1338809
nx | -.6295363
.1646918
-3.82
0.001
-.9687255
-.2903471
t | -.3431788
.1869254
-1.84
0.078
-.7281588
.0418013
rlag | -2.033518
4.088719
-0.50
0.623
-10.45439
6.387357
_cons |
511.6136
86.24525
5.93
0.000
333.9882
689.239
-----------------------------------------------------------------------------Instrumental variables (2SLS) regression
Source |
SS
df
MS
-------------+-----------------------------Model | 12348801.8
2 6174400.88
Residual | 26110.8198
28 932.529278
-------------+-----------------------------Total | 12374912.6
30 412497.086

Number of obs
F( 2,
28)
Prob > F
R-squared
Adj R-squared
Root MSE

=
31
= 6615.72
= 0.0000
= 0.9979
= 0.9977
= 30.537

-----------------------------------------------------------------------------co |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------yd |
.4416382
.1538393
2.87
0.008
.1265126
.7567637
colag |
.5403086
.1629997
3.31
0.003
.2064187
.8741984
_cons | -24.73018
34.90232
-0.71
0.484
-96.22435
46.76399
-----------------------------------------------------------------------------Instrumented: yd
Instruments:
colag g nx t rlag
------------------------------------------------------------------------------

5. On vous propose un test didentification ? En quoi consiste le test ? Quelle est lhypothse
teste ? Fates le test en vous aidant de la table du chi(2) ? Quelles sont vos conclusions ?
. overid
Tests of overidentifying restrictions:
Sargan N*R-sq test
21.726 Chi-sq(3)
Basmann test
58.568 Chi-sq(3)

P-value = 0.0001
P-value = 0.0000

6. Lestimation par la mthode des doubles moindres carrs suppose que les erreurs sont
i.i.d ? Cette hypothse vous parat-elle suspecte ? Pourquoi ?
7. Une rgression par les simples moindres carrs de la consommation, nous donne un dur2

bin et watson de Durbin-Watson Statistic = .8926652. Fates le test ? Quelles sont vos
conclusions ?
8. On vous propose une rgression par la mthode des moments gnraliss. Cette estimation
apporte t-elle une amlioration ?
. ivreg2 co colag (yd = g nx t rlag), gmm bw(2)
2-Step GMM estimation
--------------------Estimates efficient for arbitrary autocorrelation
Statistics robust to autocorrelation
kernel=Bartlett; bandwidth=
2
time variable (t): years

Total (centered) SS
Total (uncentered) SS
Residual SS

=
=
=

12374912.58
197725473.9
25991.24935

Number of obs
F( 2,
28)
Prob > F
Centered R2
Uncentered R2
Root MSE

=
=
=
=
=
=

31
4678.52
0.0000
0.9979
0.9999
28.96

-----------------------------------------------------------------------------co |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------yd |
.4556004
.1720822
2.65
0.008
.1183255
.7928754
colag |
.5261765
.1823187
2.89
0.004
.1688383
.8835146
_cons | -28.36601
39.24406
-0.72
0.470
-105.2829
48.55093
-----------------------------------------------------------------------------Hansen J statistic (overidentification test of all instruments):
16.926
Chi-sq(3) P-val =
0.0007
-----------------------------------------------------------------------------Instrumented:
yd
Included instruments: colag
Excluded instruments: g nx t rlag
------------------------------------------------------------------------------

9. On vous propose un test pour savoir si nx et rlag sont des instruments appropris. Quen
pensez vous ?
. ivreg2 co colag (yd = g t nx rlag), gmm bw(2) orthog(nx rlag)
2-Step GMM estimation
--------------------rsultats de la rgression omises
-----------------------------------------------------------------------------Hansen J statistic (overidentification test of all instruments):
16.926
Chi-sq(3) P-val =
0.0007
-orthog- option:
Hansen J statistic (eqn. excluding suspect orthogonality conditions):
0.595
Chi-sq(1) P-val =
0.4407
C statistic (exogeneity/orthogonality of suspect instruments):
16.331
Chi-sq(2) P-val =
0.0003
Instruments tested:
nx rlag
-----------------------------------------------------------------------------Instrumented:
yd
Included instruments: colag
Excluded instruments: g t nx rlag
------------------------------------------------------------------------------

10. La rgression la suite de lexclusion des instruments vous parat-elle satisfaisante ?


. ivreg2 co colag (yd = g t), gmm2s bw(2)
2-Step GMM estimation
--------------------Estimates efficient for arbitrary autocorrelation
Statistics robust to autocorrelation
kernel=Bartlett; bandwidth=
2
time variable (t): years

Total (centered) SS
Total (uncentered) SS
Residual SS

=
=
=

12374912.58
197725473.9
67501.31687

Number of obs
F( 2,
28)
Prob > F
Centered R2
Uncentered R2
Root MSE

=
=
=
=
=
=

31
2006.73
0.0000
0.9945
0.9997
46.66

-----------------------------------------------------------------------------co |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------yd | -.2669334
.3834833
-0.70
0.486
-1.018547
.4846801
colag |
1.290077
.405872
3.18
0.001
.4945823
2.085571
_cons |
101.7307
78.17731
1.30
0.193
-51.49404
254.9554
-----------------------------------------------------------------------------Hansen J statistic (overidentification test of all instruments):
0.249
Chi-sq(1) P-val =
0.6175
-----------------------------------------------------------------------------Instrumented:
yd
Included instruments: colag
Excluded instruments: g t
------------------------------------------------------------------------------

Mod`eles a` variables tronquees ou censurees


Lorsque lon travaille dans le cadre du mod`ele lineaire, les valeurs
des variables sont connues pour lintegralite de lechantillon. Il existe neanmoins des cas pour lesquels lechantillon est tronque ou
censure.
Les donnees dun e chantillon sont dites tronquees lorsque les
observations nexistent que pour certains individus, qui constituent
un sous-ensemble de la population observee. La troncature limite
donc les observations en excluant des observations sur la base de
caracteristiques de la variable dependante. Par exemple, dans
un e chantillon tronque, tous les cas de revenus en dessous dun
certain seuil de pauvrete sont exclus ou toutes les observations,
pour lesquelles la variable dependante est inferieure a` 100, sont

exclues.
La censure se produit lorsque lon observe la variable dependante
pour tout lechantillon, mais pour certaines observations on ne
dispose que dune information limitee. Par exemple, on saura
que la variable dependante est inferieure a` 100 mais pas sa valeur
exacte. La censure de certaines valeurs de la variable dependante
de letude induit une distorsion dans les resultats statistiques conventionnels semblable a` celle de la troncature. Mais a` la difference
de la troncature, la censure correspond essentiellemnet a` un defaut
des donnees de lechantillon. Si elles netaient pas censurees, ces
donnees donneraient un e chantillon representatif de la population.

La troncature

Dans le cas de la troncature, lechantillon represente un sous-echantillon


de la population de sorte que seules certaines valeurs sont exclues de lechantillon. On manque donc dobservations tant pour
la variable dependante que pour les variables explicatives. Par exemple, on peut disposer dun e chantillon dindividus qui ont un
bac, un niveau Licence ou un niveau Master. Si lechantillon est
obtenu en interrogeant que des personnes ayant obtenues le bac, il
sagit dun e chantillon tronque puisquil exclut tous ceux qui nont
pas eu le baccalaureat. Les individus exclus nont pas les memes
caracteristiques que celles de lechantillon. Ainsi, on sattend a`
ce que les revenus moyens et medians des exclus soient beaucoup
plus faibles que ceux qui ont eu le baccalaureat.

Les consequences de la troncature sur la distribution dune variable aleatoire sont claires. Lesperance de la variable aleatoire
seloigne du point de toncature et la variance est reduite. Par
exemple, sur un e chantillon portant sur les niveaux deducation, le
niveau minimum deducation est de 12 annees, le niveau moyen
deducation est donc superieur a` celui de la population totale sans
les exclus et la variance est plus faible comme le montre lexemple
plus loin.
Les statistiques et tests realises sur cet e chantillon tronque ne permettent pas de faire quelque inference que ce soit sur la population
totale sans faire des corrections pour les individus exclus qui nont
pas e te tires de mani`ere aleatoire de la population totale. Mails Il

nest pas meme possible de tirer des conclusions a` propos du


sous-echantillon a` laide des donnees tronquees. Une regression
estimee a` partir de la sous-population conduirait a` des coefficients
biaises vers zero ou attenues de meme que des estimations de 2
biaises vers le bas.
Lorsque lon travaille avec une distribution normale tronquee, pour
laquelle y
y = xi + i
est observe uniquement pour les valeurs qui depassent , ainsi
xi
i =


de cette mani`ere il est possible dutiliser un e chantillon tronque


pour faire des inferences sur la sous-population. Autrement dit,
sil est possible de soutenir lhypoth`ese selon laquelle les erreurs
de la population sont distribuees de mani`ere normale, alors on peut
faire des inferences pour toute la population a` partir du mod`ele de
regression tronque.
La commande truncreg de Stata permet destimer une e quation
pour un e chantillon tronque en faisant lhypoth`ese que les erreurs
de lechantillon sont normales. Loption ll(#) indique que les valeurs
de la variable expliquee inferieures ou e gales a` # sont tronquees. Si
la troncature est superieure ou e gale on peut utiliser loption ul(#);
ainsi par exemple, on peut disposer dun e chantillon dindividus
dont les revenus sont rapportes jusqu`a une limite de 200.000 $.

(i)
{1 (i)}
 est lecart-type du terme derreur tronque , (.) est la fonction
de densite normale, et (.) est la fonction de densite cumulative
normale. Et (i) est linverse du ratio de Mills IMR.
On montre alors que
(i) =

E[yi|yi > , xi] = xi + (i) + i


Cette e quation implique quune regression des moindres carres
de y sur x souffrirait de lexclusion du terme ()i. Cette regression
est donc mal specifiees et la consequence de cette mauvaise specification
sera variable selon les observations avec un terme derreur heteroscedastique
pour lequel la variance depend de xi. Afin de resoudre ce probl`eme,
on inclue le terme IMR comme un regresseur supplementaire, et

1.0.1

Exemple

Soit un e chantillon de femmes mariees pour lesquelles les heures


de travail (whrs) sont tronquees. Les autres variables sont le nombre denfants de moins de 6 ans (kl6), de 6 a` 18 (k618), lage (wa)
et les annees deducation (we).
use http://www.stata-press.com/data/imeus/laborsub, clear
describe

lfp whrs kl6 k618 wa we


storage display
value
variable name
type
format
label
variable label
-----------------------------------------------------------------------------lfp
byte
%9.0g
1 if woman worked in 1975
whrs
int
%9.0g
Wifes hours of work
kl6
byte
%9.0g
# of children younger than 6
k618
byte
%9.0g
# of children between 6 and 18
wa
byte
%9.0g
Wifes age

we
. sum

byte

%9.0g

Wifes educational attainment

whrs kl6 k618 wa we

Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------whrs |
250
799.84
915.6035
0
4950
kl6 |
250
.236
.5112234
0
3
k618 |
250
1.364
1.370774
0
8
wa |
250
42.92
8.426483
30
60
we |
250
12.352
2.164912
5
17

Afin dillustrer ce qui se produit lorsque lon ignore la troncature,


on teste un mod`ele a` laide des moindres carres qui ninclut que les
femmes qui travaillent (avec la condition whrs > 0).
. regress

Number of obs
F( 4,
145)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

150
2.80
0.0281
0.0717
0.0461
808.55

-----------------------------------------------------------------------------whrs |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------kl6 | -421.4822
167.9734
-2.51
0.013
-753.4748
-89.48953
k618 | -104.4571
54.18616
-1.93
0.056
-211.5538
2.639668
wa | -4.784917
9.690502
-0.49
0.622
-23.9378
14.36797
we |
9.353195
31.23793
0.30
0.765
-52.38731
71.0937
_cons |
1629.817
615.1301
2.65
0.009
414.0371
2845.597
------------------------------------------------------------------------------

whrs kl6 k618 wa we if whrs>0

On teste le meme mod`ele en prenant en compte le fait que 100


observations sur 250 ont un nombre dheures de travail e gal a` zero.
. truncreg whrs kl6 k618 wa we, ll(0)
(note: 100 obs. truncated)
Fitting full model:
Iteration
Iteration
Iteration
Iteration
Iteration

Source |
SS
df
MS
-------------+-----------------------------Model | 7326995.15
4 1831748.79
Residual | 94793104.2
145 653745.546
-------------+-----------------------------Total |
102120099
149 685369.794

0:
1:
2:
3:
4:

log
log
log
log
log

likelihood
likelihood
likelihood
likelihood
likelihood

Truncated regression
Limit:
lower =
0
upper =
+inf
Log likelihood = -1200.9157

=
=
=
=
=

-1205.6992
-1200.9873
-1200.9159
-1200.9157
-1200.9157

Number of obs =
150
Wald chi2(4) = 10.05
Prob > chi2
= 0.0395

-----------------------------------------------------------------------------whrs |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------eq1
|
kl6 | -803.0042
321.3614
-2.50
0.012
-1432.861
-173.1474
k618 |
-172.875
88.72898
-1.95
0.051
-346.7806
1.030578
wa | -8.821122
14.36848
-0.61
0.539
-36.98283
19.34059
we |
16.52873
46.50375
0.36
0.722
-74.61695
107.6744
_cons |
1586.26
912.355
1.74
0.082
-201.9233
3374.442
-------------+---------------------------------------------------------------sigma
|
_cons |
983.7262
94.44303
10.42
0.000
798.6213
1168.831
------------------------------------------------------------------------------

Certains des coefficients de la regression avec les moindres carres


sont deux fois plus faibles que ceux de la regression tenant compte
de la troncature. Le param`etre sigma cons, comparable a` Root

MSE pour les moindres carres, est considerablement plus grand


dans la regression tronquee, refletant un biais negatif (vers une
valeur plus faible) dans un e chantillon tronque. On peut utiliser
les coefficients et les effets marginaux de la regression truncreg
pour faire des inferences sur la population enti`ere.

La censure

La censure reduit letendue des variables dependantes. La censure


se produit lorsque la variable est e gale a` une valeur arbitraire, cesta` -dire lorsque la valeur de la variable est en dessous du point de
censure.
Dans le cas de la troncature, on observe ni la variable dependante
ni la variable independante pour les individus pour lesquels yi se
situe dans la region de la troncature. En revanche, dans le cas de
la censure, nous nobservons pas la valeur de la variable pour les
individus pour lesquels yi est inferieur au point de censure, toutefois lon observe les valeurs des variables dependantes. Ceci se
produit frequemment dans le codage de certaines variables o`u lon

donne une valeur e gale a` x pour les valeurs superieures ou e gales


a` x.
Dans les enquetes sur les menages on peut fixer la valeur du
revenu a` 150000 $ lorsque le revenu est e gale ou superieur a` cette
valeur. Ce cas provient dun choix de codage des variables. Il y
a dautres cas qui resultent dun choix fait par les individus. Ceci
est le cas par exemple pour le montant quun individu depense pour
une nouvelle voiture pour une annee donnee. Ce montant sera positif ou nul. Il sagit alors dune solution en coin plutot que dune
censure.
Une solution au probl`eme de la censure a e te proposee par Tobin (1958), connu sous le nom de mod`ele de regression censuree
puis le probit de Tobin puis Tobit. Aujourdhui, la terminologie

mod`ele de regression censuree est plutot utilisee pour la generalisation


du Tobit (dans Stata, il sagit de la regresion cnreg).
Le mod`ele peut sexprimer sous la forme dune variable latente :
yi = xi + i

0 si yi 0
yi si yi > 0
yi contient soit des zeros pour ceux qui nach`etent pas de voiture
dans lannee ou un montant positif pour les autres. Le mod`ele combine des aspects du probit binomial pour la distinction de yi = 0
versus yi > 0 et le mod`ele de regression E[yi|yi > 1, xi]. On
pourrait prendre toute les observations positives de yi et faire une
estimation a` laide dun probit ou dun logit mais en faisant cela, on
perdrait une partie de linformation portant sur le montant depense
yi =

et on ne tiendrait pas compte des observations pour lesquelles yi =


0 et on se retrouverait avec une distribution tronquee.
Afin de tenir compte de linformation donnee par yi, on estime
le mod`ele a` laide dun tobit, qui utilise le maximum de vraissemblance pour combiner le probit avec les e lements de la regression
de la fonction du log de la vraissemblance. Le log de la vraissemblance pour une observation donnee peut sexprimer comme :

xi

li(, ) = I(yi = 0) log 1




yi xi 1


log 
+ I(yi > 0) log

2


ree crire la fonction de vraissemblance, en sommant tous les li sur


tout lechantillon, comme e tant la somme de la vraissemblance du
probit pour les observations pour lesquelles yi = 0 et la vraissemblance de la regression pour les observations pour lesquelles
yi > 0.
Le mod`ele tobit peut e tre defini pour toute autre valeur seuil que
le zero.
Les coefficients estimes sont les effets marginaux dune variation
de xj sur y , la variable latente non observee :
E[y |x]
= j
xj
mais cette information est rarement utile. Leffet sur la variable

I(.) = 1 si son argument est vrai et zero autrement. On peut

observee y est
E[y|x]
= j P r(a > yi > b)
xj
a et b representent des intervales. Par exemple, pour une censure
a` gauche de zero, a = 0 et b = +. Un accroissement de la
variable expliquee xj avec un coefficient positif implique quun individu qui est censure a` gauche a une plus faible probabilite detre
censuree. La probabilite dune valeur differente de zero va augmenter. Pour un individu non censure, une augmentation de xj
implique que E[y|y > 0] augmente.

marginal capte ainsi la combinaison des deux effets. Dans la mesure


o`u ceux qui deviennent qualifies pour lachat dun logement ach`etent
les logements les moins chers, leffet dun taux dinteret reduit sur
le prix moyen auquel les logements sont vendus incorporent les
deux effets. On sattend donc a` ce quil y ait une augmentation
du prix moyen des transactions. Cest exactement ce que lon a
pu observer a` Paris et dans dautres villes de France ces derni`eres
annees avec la baisse des taux dinteret, le pouvoir dachat e tant
potentiellement plus e leve, le prix des logements a augmente.
2.0.2

Ainsi, une baisse du taux dinteret permettra a` un plus grand


nombre de personnes dacheter un logement et a` ceux qui avaient
dej`a les moyens dacheter, dacheter un logement plus cher. Leffet

Exemple

Dans cet exemple, on consid`ere un e chantillon de 2000 femmes


dont 657 nont pas de revenu salarial. On estime la variable lwf qui

est e gale au log du salaire si la femme travaille et est e gale a` 0 dans


le cas contraire.
On commence avec une regression par les moindres carres en ignorant le fait que la variable expliquee est censuree. Ensuite on fait
une regression a` laide du mod`ele tobit en precisant que la censure
est a` zero et a` gauche.

. use http://www.stata-press.com/data/imeus/womenwk, clear


. regress

lwf age married children education

Source |
SS
df
MS
-------------+-----------------------------Model | 937.873188
4 234.468297
Residual | 3485.34135 1995 1.74703827
-------------+-----------------------------Total | 4423.21454 1999 2.21271363

Number of obs
F( 4, 1995)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

2000
134.21
0.0000
0.2120
0.2105
1.3218

-----------------------------------------------------------------------------lwf |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------age |
.0363624
.003862
9.42
0.000
.0287885
.0439362
married |
.3188214
.0690834
4.62
0.000
.1833381
.4543046
children |
.3305009
.0213143
15.51
0.000
.2887004
.3723015
education |
.0843345
.0102295
8.24
0.000
.0642729
.1043961
_cons | -1.077738
.1703218
-6.33
0.000
-1.411765
-.7437105

-----------------------------------------------------------------------------. tobit

lwf age married children education, ll(0)

Tobit regression

Log likelihood = -3349.9685

Number of obs
LR chi2(4)
Prob > chi2
Pseudo R2

=
=
=
=

2000
461.85
0.0000
0.0645

-----------------------------------------------------------------------------lwf |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------age |
.052157
.0057457
9.08
0.000
.0408888
.0634252
married |
.4841801
.1035188
4.68
0.000
.2811639
.6871964
children |
.4860021
.0317054
15.33
0.000
.4238229
.5481812
education |
.1149492
.0150913
7.62
0.000
.0853529
.1445454
_cons | -2.807696
.2632565
-10.67
0.000
-3.323982
-2.291409
-------------+---------------------------------------------------------------/sigma |
1.872811
.040014
1.794337
1.951285

-----------------------------------------------------------------------------Obs. summary:
657 left-censored observations at lwf<=0
1343
uncensored observations
0 right-censored observations

Lestimation par le tobit montre un effet positif de lage, du statut


marital, du nombre denfants, et du nombre dannees deducation.
On sattend donc a` ce que chacun des facteurs accroisse la probabilite que la femme travaille de meme quun accroissement de son
salaire e tant donne son statut salarial.
Apr`es une estimation du tobit, on calcule leffet marginal de
chaque variable sur la probabilite que lindividu ait un log du salaire
positif en utilisant loption pr(a,b) de predict de Stata.
. mfx compute, predict(pr(0,.))

Marginal effects after tobit


y = Pr(lwf>0) (predict, pr(0,.))
= .81920975
-----------------------------------------------------------------------------variable |
dy/dx
Std. Err.
z
P>|z| [
95% C.I.
]
X
---------+-------------------------------------------------------------------age |
.0073278
.00083
8.84
0.000
.005703 .008952
36.208
married*|
.0706994
.01576
4.48
0.000
.039803 .101596
.6705
children |
.0682813
.00479
14.26
0.000
.058899 .077663
1.6445
educatn |
.0161499
.00216
7.48
0.000
.011918 .020382
13.084
-----------------------------------------------------------------------------(*) dy/dx is for discrete change of dummy variable from 0 to 1

On calcule alors leffet marginal de la variable expliquee sur le


log du salaire attendu, sachant que la personne na pas e te censuree
(autrement dit, quelle travaillait). Ces effets, contrairement a` ceux
obtenus par la regression des MCO, tiennent compte correctement

Stata, il nest pas possible dobtenir une estimation du tobit pour


laquelle les e cart-types soient robustes.
Par ailleurs, le tobit impose que le meme ensemble de facteurs
x determine a` la fois si une observation est censuree ou non (si
lindividu a achete une voiture) et la valeur de lobservation non
censuree (le montant depense pour la voiture). De plus, leffet
marginal est contraint davoir le meme signe dans les deux parties du mod`ele. Une generalisation du tobit propose par James
Heckman permet de relacher cette hypoth`ese.

du fait que la variable expliquee est censuree.


. mfx compute, predict(e(0,.))
Marginal effects after tobit
y = E(lwf|lwf>0) (predict, e(0,.))
= 2.3102021
-----------------------------------------------------------------------------variable |
dy/dx
Std. Err.
z
P>|z| [
95% C.I.
]
X
---------+-------------------------------------------------------------------age |
.0314922
.00347
9.08
0.000
.024695
.03829
36.208
married*|
.2861047
.05982
4.78
0.000
.168855 .403354
.6705
children |
.2934463
.01908
15.38
0.000
.256041 .330852
1.6445
educatn |
.0694059
.00912
7.61
0.000
.051531 .087281
13.084
-----------------------------------------------------------------------------(*) dy/dx is for discrete change of dummy variable from 0 to 1

Dans la mesure o`u le mod`ele tobit a une composante probit, ces


resultats sont sensibles a` lhypoth`ese dhomoscedasticite. Dans

Les mod`eles de selection

Dans le cas de la troncature, lechantillon est tire dun sous-ensemble


de la population et noffre dinformation ni sur la variable expliquee ni sur les variables explicatives pour les individus exclus.
Par exemple, un e chantillon tronque pourrait inclure toutes les personnes qui disposent dune adresse postale et exclure tous les sans
domiciles. Dans ce cas de troncature accidentelle ou secondaire,
lechantillon est representatif de la population, mais les observations de la variable dependante sont tronquees selon une r`egle dont
les erreurs sont correles avec les erreurs de lequation que lon estime. On nobserve pas y a` cause dun autre e venement (une autre
variable s) qui constitue, en fait, un indicateur de selection. Dans
lexemple precedent, le fait de ne pas avoir de domicile s = 0

implique quon nobserve pas y pour les personnes nayant pas


dadresse postale.
Pour comprendre lenjeu lie a` la selection dun e chantillon, considerons un mod`ele de population pour lequel la relation entre y et
un ensemble de facteurs explicatifs x peut secrire sous la forme
dun mod`ele lineaire comportant un terme derreur additif . Supposons que lon observe que certaines observations de y et que
la variable indicatrice si est e gale a` 1 lorsque lon observe yi et
xi et zero sinon. Si on fait simplement une regression sur tout
lechantillon
yi = xi + i
les observations ayant des valeurs manquantes pour yi (ou pour tout

suffit que E[x] = 0. Dans notre cas de selection, il faut que le


processus derreur  soit non correle a` sx.
Considerons la source de lindicateur si. Si cet indicateur est simplement une fonction des variables explicatives x, il sagit dune
selection exog`ene. Si les variables explicatives sont non correlees
avec , et que s est une fonction de xs, dans ce cas, ni lindicateur s
ni sx ne seront correles a` . Une regression par les moindres carres
utilisant un sous ensemble entranera des estimateurs sans biais et
convergents.
Par exemple, si le genre est une des variables explicatives, on
peut estimer des regressions separees pour les hommes et les femmes
sans difficultes. On a selectionne un sous e chantillon fonde sur des
caracteristiques observables; par exemple si identifie un ensemble

e lement de xi) seront exclues de lanalyse.


On peut ree crire cette regression de la mani`ere suivante :
siyi = sixi + sii
Lestimateur des moindres carres de cette e quation donnera les
memes resultats que pour lequation precedente sans les si. Il sera
sans biais et de variance minimale si le terme derreur sii a une
moyenne de zero et nest pas correle a` xi. Pour la population, ces
conditions peuvent secrire :
E[s] = 0
E[(sx)(s)] = E[(sx)] = 0
dans la mesure o`u s2 = s. Cette condition diff`ere de celle dune
e quation de regression standard (sans selection) pour laquelle il

dobservations pour les femmes.


On peut e galement considerer la selection dun sous e chantillon
aleatoire. Si lechantillon est un sous-echantillon aleatoire de la
population et que lon utilise la commande de Stata sample pour
tirer un sous ensemble de 10%, 20% ou 50%, les estimations tirees
de cet e chantillon ne poseront pas de probl`emes. Dans ce cas, si
est aleatoire.
Si si est determine par une r`egle telle que si = 1 si yi c alors
les estimateurs seront biaises et convergents. On peut ree crire la
r`egle de la mani`ere suivante si = 1 si i (c xi), on voit bien
que si est correle a` i. Il faut alors utiliser un mod`ele de regression
tronque pour obtenir des estimateurs convergents.

La troncature accidentelle signifie que lon observe yi non pas


a` partir de sa propre valeur mais de la valeur dune autre variable.
Par exemple, on observe le salaire horaire lorsquun individu travaille. On peut utiliser un mod`ele probit ou logit pour estimer la
probabilite quun individu travaille. Dans ce cas, si est e gal a` zero
ou un en fonction des facteurs qui determine cette decision.
yi = xi + 
si = I(zi + v 0)
et on fait lhypoth`ese que les facteurs explicatifs x repondent a` la
condition suivante, E[x] = 0. La fonction I(.) est e gale a` 1 si son
argument est vrai et zero autrement. On observe yi si si = 1. La
fonction de selection contient un ensemble de facteurs explicatifs
z qui comprend x. z doit contenir x mais e galement dautres fac-

devient alors
E[y|z, s] = x + E[v|z, s]
Lesperance conditionnelle E[v|z, s] pour si = 1, la cas observable,
est simplement , linverse du ratio de Mills. On en deduit donc
que
E[y|z, i = 1] = x + (z)
Si = 0, les estimations des moindres carres ordinaires de lechantillon
tronque accidentel ne permettront pas destimer de mani`ere satisfaisante a` moins que lon int`egre lIMR. En revanche, si = 0,
les moindres carres conduiront a` des estimations convergentes.
Le terme IMR inclut les param`etres inconnus de la population,
qui peuvent e tre estimes a` laide dun probit.
Pr(s = 1|z) = (z)

teurs si on veut pouvoir identifier le mod`ele. Le terme derreur v


dans lequation de selection est supposee repondre a` la condition
suivante E[zv] = 0 ce qui implique E[xv] = 0. On suppose que v
suit une distribution normale centree reduite.
La troncature accidentelle se produit lorsquil y a une correlation
non nulle entre  et v. Si les deux processus suivent une distribution
normale de moyenne zero, lesperance conditionnelle E[u|v] = v
o`u represente la correlation entre  et v.
A partir de lequation yi = xi + , on en deduit que
E[y|z, v] = x + v
On ne peut pas observer v, mais s est relie a` v. Lequation precedente

sur lensemble de lechantillon. Avec des estimations de , on peut


determiner le terme IRM pour chaque observation pour laquelle
yi est observee (si = 1) et on estime le mod`ele E[y|z, i = 1] =
x + (z). Cette procedure en deux e tapes, fondee sur les
travaux de Heckman (1976).
On peut e galement utiliser une procedure du maximum de vraissemblance pour estimer en meme temps , et .
Le mod`ele de selection de Heckman dans ce contexte suppose
que certains des facteurs de z pour un individu sont differents des
facteurs de x. Par exemple, dans une e quation de salaire, le nombre
denfants en bas a ge dans une famille est susceptible dinfluencer
la decision dune femme de travailler mais ils peuvent e tre omis de
lequation de determination du salaire: cette variable apparat donc

dans z mais pas dans x. On peut utiliser ce type de facteurs pour


identifier le mod`ele. Dautres facteurs sont susceptibles dentrer
dans les deux e quations. Le niveau deducation dune femme ou
le nombre dannees dexperience professionnelle peuvent avoir un
impact sur la decision de travailler de meme que sur le niveau de
remuneration.
La commande heckman de Stata teste le mod`ele de Heckman
mais en utilisant la version par le maximum de vraissemblance.
Cette pocedure suppose que lon specifie les variables independantes
x ainsi que varlist2 qui specifie la liste des facteurs Z susceptibles
de determiner la selection dune observation comme e tant observable.
Contrairement au tobit pour lequel la variable dependante est

3.0.3

Exemple

On reprend lexemple sur le travail des femmes. Afin dutiliser


les donnees dans une procedure heckman, la variable lw est e gale
au log du salaire pour une femme qui travaille et pour les femmes
qui ne travaillent pas, la variable est manquante. On suppose que
le statut marital affecte la selection (`a savoir si on observe que
la femme travaille) mais il nentre pas dans la determination du
salaire log(wage).

e gale a` une valeur seuil pour les observations censurees, il faudrait


coder la variable dependantes comme manquantes (.) pour les observations qui ne sont pas selectionnees1 . Le mod`ele est estime
sur tout lechantillon et donne une estimation de la correlation
ainsi quun test de lhypoth`ese = 0. Si lhypoth`ese est rejetee,
une regression de la variable dependante observee sur les variables
independantes produira des estimateurs de qui sont convergents2
1 Une alternative a
` la syntaxe du heckman qui permet dintroduire une seconde variable dependante: une indicatrice qui signale quelles sont les observations de la
variable dependante qui sont observees
2 On peut e
galement generer un heckman a` deux e tapes avec loption twostep; ce mod`ele est en fait la regression de

E[yi |yi > , xi ] = xi + u (i ) + ui


dans lequel lIMR a e te estime comme une prediction du probit a` la premi`ere e tape et utilisee comme regresseur dans la deuxi`eme e tape.

. use http://www.stata-press.com/data/imeus/womenwk, clear


. heckman lw education age children, select(age married children education)
Iteration
Iteration
Iteration
Iteration
Iteration

0:
1:
2:
3:
4:

log
log
log
log
log

likelihood
likelihood
likelihood
likelihood
likelihood

=
=
=
=
=

-1065.7948
-1053.6855
-1052.867
-1052.8574
-1052.8574

Heckman selection model


(regression model with sample selection)

Log likelihood = -1052.857

Number of obs
Censored obs
Uncensored obs

=
=
=

2000
657
1343

Wald chi2(3)
Prob > chi2

=
=

454.78
0.0000

-----------------------------------------------------------------------------|
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]

-------------+---------------------------------------------------------------lw
|
education |
.0397189
.0024525
16.20
0.000
.0349121
.0445256
age |
.0075872
.0009748
7.78
0.000
.0056767
.0094977
children | -.0180477
.0064544
-2.80
0.005
-.0306981
-.0053973
_cons |
2.305499
.0653024
35.30
0.000
2.177509
2.43349
-------------+---------------------------------------------------------------select
|
age |
.0350233
.0042344
8.27
0.000
.0267241
.0433225
married |
.4547724
.0735876
6.18
0.000
.3105434
.5990014
children |
.4538372
.0288398
15.74
0.000
.3973122
.5103621
education |
.0565136
.0110025
5.14
0.000
.0349492
.0780781
_cons | -2.478055
.1927823
-12.85
0.000
-2.855901
-2.100208
-------------+---------------------------------------------------------------/athrho |
.3377674
.1152251
2.93
0.003
.1119304
.5636045
/lnsigma | -1.375543
.0246873
-55.72
0.000
-1.423929
-1.327156
-------------+---------------------------------------------------------------rho |
.3254828
.1030183
.1114653
.5106469
sigma |
.2527024
.0062385
.2407662
.2652304

Dans le cas du heckman a` deux e tapes qui utilise lIRM du probit


pour lequation de selection, on obtient :
. heckman lw education age children, select(age married children education) two
Heckman selection model -- two-step estimates
(regression model with sample selection)

Number of obs
Censored obs
Uncensored obs

=
=
=

2000
657
1343

Wald chi2(6)
Prob > chi2

=
=

737.21
0.0000

-----------------------------------------------------------------------------|
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lw
|
education |
.0427067
.003106
13.75
0.000
.0366191
.0487944
age |
.009322
.0014343
6.50
0.000
.0065108
.0121333
children | -.0019549
.0115202
-0.17
0.865
-.0245341
.0206242

lambda |
.0822503
.0273475
.0286501
.1358505
-----------------------------------------------------------------------------LR test of indep. eqns. (rho = 0):
chi2(1) =
5.53
Prob > chi2 = 0.0187
------------------------------------------------------------------------------

Tous les facteurs sont significatifs tant pour le mod`ele tant pour
lequation de log(wage) que pour lequation de selection. En utilisant ce mod`ele de selection, on a relache lhypoth`ese que les
facteurs determinant la decision de travailler sont les memes
que ceux qui expliquent le niveau de salaire. Leffet dun nombre croissant denfants accrot la probabilite de la selection (activite salariee) mais decrot le niveau de salaire, conditionnel a` la
decision de travail. Le test du ratio de la vraissemblance pour = 0
rejette lhypoth`ese nulle, de sorte que lestimation de lequation
du log(wage) sans tenir compte de la selection conduirait a` des
resultats non convergents.

_cons |
2.124787
.1249789
17.00
0.000
1.879833
2.369741
-------------+---------------------------------------------------------------select
|
age |
.0347211
.0042293
8.21
0.000
.0264318
.0430105
married |
.4308575
.074208
5.81
0.000
.2854125
.5763025
children |
.4473249
.0287417
15.56
0.000
.3909922
.5036576
education |
.0583645
.0109742
5.32
0.000
.0368555
.0798735
_cons | -2.467365
.1925635
-12.81
0.000
-2.844782
-2.089948
-------------+---------------------------------------------------------------mills
|
lambda |
.1822815
.0638285
2.86
0.004
.05718
.307383
-------------+---------------------------------------------------------------rho |
0.66698
sigma | .27329216
lambda | .18228151
.0638285
------------------------------------------------------------------------------

Bien que le heckman a deux e tapes offre e galement une estimation des param`etres du mod`ele de selection, on voit une difference

qualitative dans lequation du log(wage) : le nombre denfants


nest pas significatif dans cette formulation du mod`ele. La formulation par le maximum de vraissemblance, lorsque cest possible,
est attrayante, ne serait-ce que parce quon obtient des estimations
des param`etres et par interval.

UNIVERSITE DE PARIS 11
TD dconomtrie

Anne Plunket
Les modles de slection

Vous disposez de donnes (heckman1.dta) extraites du U.S. Current Population Survey


(CPS). Il sagit dun chantillon (de 800 femmes ges de 25 65 ans pour lanne 2003)
non reprsentatif de la population entire.
Les variables suivantes sont incluses dans les donnes :
age : ge en annes
black : 1 si la personne est noire
othrac : 1 si la personne est ni blache ni noire.
ihgrdc : nombre dannes dcole
earnwkef : salaire hebdomadaire de la semaine prcdente
emplw : 1 si la personne tait employe la semaine prcdente
ch02 : 1 si la personne a un enfant de 0 2 ans
ch35 : 1 si la personne a un enfant de 3 5 ans
ch613 : 1 si la personne a un enfant de 6 13 ans
ch1417 : 1 si la personne a un enfant g de 14 17 ans
1. Vous disposez dobservations du salaire hebdomadaire de la semaine prcdente ; cette
valeur est suprieure ou gale zro pour les personnes qui dclarent travailler et manquante pour les autres (earnwke == .) ; en revanche, on dispose de leurs caractristiques y
compris lorsquelles ne travaillent pas. On vous propose la rgression suivante du salaire
hebdomadaire pour les femmes qui travaillent (emplw == 1) ;
Sagit-il dun cas de troncature ou de censure, expliquez ?
On vous propose une rgression par les MCO, analysez les rsultats. Cette mthode destimation vous parat_elle approprie ?
use "C:\heckman1.dta", clear
. gen earnwkef = earnwke if emplw == 1
. replace earnwkef = 0 if emplw == 0 // on met la valeur de earnwke = 0
pour les personnes qui ne travaillent pas
. gen age2 = age * age
. summarize
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------age |
800
44.38625
10.87543
25
65
hourslw |
516
36.31395
11.99572
1
96
earnwke |
509
574.6483
398.5622
0
2884
ch02 |
765
.103268
.3045076
0
1
ch35 |
765
.1111111
.3144753
0
1
-------------+-------------------------------------------------------ch613 |
765
.2522876
.4346096
0
1
ch1417 |
765
.1660131
.3723358
0
1
ihigrdc |
800
13.4075
2.905188
0
18
black |
800
.0975
.296823
0
1
othrac |
800
.0725
.2594762
0
1

-------------+-------------------------------------------------------emplw |
799
.6908636
.462427
0
1
earnwkef |
756
386.8995
423.8151
0
2884
age2 |
800
2088.266
980.2236
625
4225
. regress earnwkef black othrac age age2 ihigrdc if ch02!=.
Source |
SS
df
MS
-------------+-----------------------------Model | 18384108.9
5 3676821.77
Residual |
113792966
716 158928.723
-------------+-----------------------------Total |
132177075
721 183324.653

Number of obs
F( 5,
716)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

722
23.14
0.0000
0.1391
0.1331
398.66

-----------------------------------------------------------------------------earnwkef |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------black | -27.87674
51.14381
-0.55
0.586
-128.2865
72.53302
othrac |
29.85007
57.68221
0.52
0.605
-83.39641
143.0966
age |
26.30842
11.28381
2.33
0.020
4.155107
48.46174
age2 | -.3033743
.1254136
-2.42
0.016
-.5495967
-.0571519
ihigrdc |
53.17958
5.243977
10.14
0.000
42.88417
63.47499
_cons | -854.1964
252.5549
-3.38
0.001
-1350.033
-358.3598
-----------------------------------------------------------------------------note : la condition ch02 !=. nous assure simplement quon ne prend pas encore
les observations pour lesquelles les observations de la variable ch02 ne sont
pas manquantes

2. Peut-on sappuyer sur cette rgression pour faire des infrences sur la population des
femmes qui travaillent ? Expliquez. aleur du salaire pour ceux qui travaillent de toute
manire.
3. On vous propose la rgression suivante : en quoi cette rgression est-elle une amlioration
par rapport la mthode des MCO. Est-elle totalement satisfaisante ?
. tobit earnwkef black othrac age age2 ihigrdc if ch02!=., ll(0)
Tobit regression

Number of obs
LR chi2(5)
Prob > chi2
Pseudo R2

Log likelihood = -3962.7466

=
=
=
=

722
100.38
0.0000
0.0125

-----------------------------------------------------------------------------earnwkef |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------black | -22.65272
72.77186
-0.31
0.756
-165.5241
120.2187
othrac |
67.8211
80.33858
0.84
0.399
-89.90588
225.5481
age |
44.37442
16.2132
2.74
0.006
12.54341
76.20544
age2 | -.5171235
.1812881
-2.85
0.004
-.8730424
-.1612045
ihigrdc |
73.67987
7.890169
9.34
0.000
58.18927
89.17046
_cons | -1607.653
365.2817
-4.40
0.000
-2324.803
-890.5035
-------------+---------------------------------------------------------------/sigma |
535.4785
18.33199
499.4877
571.4693
-----------------------------------------------------------------------------Obs. summary:
233 left-censored observations at earnwkef<=0
489
uncensored observations

0 right-censored observations
. mfx compute, predict(pr(0,.))
Marginal effects after tobit
y = Pr(earnwkef>0) (predict, pr(0,.))
= .69412557
-----------------------------------------------------------------------------variable |
dy/dx
Std. Err.
z
P>|z| [
95% C.I.
]
X
---------+-------------------------------------------------------------------black*| -.0149637
.04847
-0.31
0.758 -.109967
.08004
.094183
othrac*|
.0431323
.0495
0.87
0.384
-.05389 .140155
.072022
age |
.029064
.01064
2.73
0.006
.008207 .049921
44.241
age2 | -.0003387
.00012
-2.85
0.004 -.000572 -.000105
2076.39
ihigrdc |
.0482583
.00533
9.05
0.000
.037803 .058714
13.3996
-----------------------------------------------------------------------------(*) dy/dx is for discrete change of dummy variable from 0 to 1
. mfx compute, predict(e(0,.))
Marginal effects after tobit
y = E(earnwkef|earnwkef>0) (predict, e(0,.))
= 542.36086
-----------------------------------------------------------------------------variable |
dy/dx
Std. Err.
z
P>|z| [
95% C.I.
]
X
---------+-------------------------------------------------------------------black*| -10.95457
34.857
-0.31
0.753 -79.2733 57.3641
.094183
othrac*|
34.12324
41.624
0.82
0.412 -47.4587 115.705
.072022
age |
21.665
7.91048
2.74
0.006
6.16074 37.1693
44.241
age2 | -.2524761
.08844
-2.85
0.004 -.425815 -.079138
2076.39
ihigrdc |
35.97285
3.87786
9.28
0.000
28.3724 43.5733
13.3996
-----------------------------------------------------------------------------(*) dy/dx is for discrete change of dummy variable from 0 to 1

4. Expliquez et analysez les effets marginaux


5. On vous demande prsent destimer un modle probit pour tenter de comprendre quels
sont les dterminants de la dcision de travailler (emplw == 1 ). La rgression est ralise
pour celles qui dclarent ne pas travailler (emplw==0) et pour celles qui dclarent travailler (emplw == 1) et nont pas dobservatiosn manquantes pour le montant du salaire
hebdomadaire (earnwke !=.).
Analysez les rsultats de la rgression. En quoi cette rgression pourrait-elle tre utile ?
On vous propose de tester lhypothse nulle que les coefficients des variables indicatrices
sont gales zro. De quel test sagit-il ? Y a t-il un problme dinstrument faibles ? Expliquez si les variables indicatrices du nombre denfants dans le mnage sont des restrictions
valides ?
. probit emplw black othrac age age2 ihigrdc ch02 ch35 ch613 ch1417 ch1417
if earnwkef!=.
note: ch1417 dropped because of collinearity
Iteration 0:
log likelihood = -453.32044
...
Iteration 3:
log likelihood = -423.30789
Probit regression

Number of obs

722

LR chi2(9)
Prob > chi2
Pseudo R2

Log likelihood = -423.30789

=
=
=

60.03
0.0000
0.0662

-----------------------------------------------------------------------------emplw |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------black | -.0014557
.1713513
-0.01
0.993
-.3372981
.3343868
othrac |
.1918463
.2016849
0.95
0.341
-.2034488
.5871415
age |
.0312355
.041705
0.75
0.454
-.0505048
.1129758
age2 | -.0005947
.0004543
-1.31
0.191
-.0014852
.0002958
ihigrdc |
.0776969
.0179726
4.32
0.000
.0424712
.1129226
ch02 | -.5777895
.1796234
-3.22
0.001
-.929845
-.225734
ch35 | -.3235616
.1657756
-1.95
0.051
-.6484758
.0013526
ch613 | -.3672208
.125268
-2.93
0.003
-.6127415
-.1217001
ch1417 |
.2476143
.1483912
1.67
0.095
-.0432271
.5384558
_cons | -.5547977
.9435299
-0.59
0.557
-2.404082
1.294487
-----------------------------------------------------------------------------. testparm ch02 ch35 ch613 ch1417
(
(
(
(

1)
2)
3)
4)

ch02 = 0
ch35 = 0
ch613 = 0
ch1417 = 0
chi2( 4) =
Prob > chi2 =

26.24
0.0000

6. En utilisant le probit de la question 3, on estime le terme du mills ratio, et on lintgre


la rgression de lquation du salaire hebdomadaire par les MCO. Est-ce une solution ?
. predict zgamma, xb
// il sagit ici dune estimation de la relation linaire
(35 missing values generated)
gen invmill = normalden(zgamma)/normal(zgamma)
// on dtermine linverse du ratio de Mills en dterminant le rapport entre
la fonction de densit normale et la fonction de densit cumulative de la loi
normale pour les prdictions du modle linaire
(35 missing values generated)
. regress earnwkef black othrac age age2 ihigrdc invmill if earnwke!=.
Source |
SS
df
MS
-------------+-----------------------------Model | 16263033.2
6 2710505.53
Residual | 63411510.2
483 131286.771
-------------+-----------------------------Total | 79674543.4
489 162933.627

Number of obs
F( 6,
483)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

490
20.65
0.0000
0.2041
0.1942
362.34

-----------------------------------------------------------------------------earnwkef |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------black | -52.79758
57.14804
-0.92
0.356
-165.0871
59.4919

othrac | -15.55447
62.65035
-0.25
0.804
-138.6554
107.5464
age |
4.265233
14.2866
0.30
0.765
-23.80634
32.33681
age2 | -.0087184
.1652137
-0.05
0.958
-.3333449
.315908
ihigrdc |
63.01018
8.37043
7.53
0.000
46.56323
79.45714
invmill |
-191.354
127.9787
-1.50
0.136
-442.8178
60.10989
_cons | -356.8735
376.8102
-0.95
0.344
-1097.263
383.5162
------------------------------------------------------------------------------

7. On vous propose une estimation par la mthode de heckman avec loption twostep et on
estime la mme quation que prcdemment. Comparer les coefficients obtenus ceux
de la question prcdente et ceux ignorant la correction. Comparer les cart-types avec
ceux obtenus la question prcdente. Sont-elles trs diffrentes ? Pourquoi ?
. heckman earnwkef black othrac age age2 ihigrdc, select( emplw = black othrac
age age2 ihigrdc ch02 ch35 ch613 ch1417) twostep
Heckman selection model -- two-step estimates
(regression model with sample selection)

Number of obs
Censored obs
Uncensored obs

=
=
=

722
232
490

Wald chi2(5)
=
66.22
Prob > chi2
=
0.0000
-----------------------------------------------------------------------------|
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------earnwkef
|
black | -52.79758
58.97689
-0.90
0.371
-168.3902
62.795
othrac | -15.55447
64.95989
-0.24
0.811
-142.8735
111.7646
age |
4.265233
14.72002
0.29
0.772
-24.58549
33.11595
age2 | -.0087184
.1698654
-0.05
0.959
-.3416485
.3242116
ihigrdc |
63.01018
8.566486
7.36
0.000
46.22018
79.80018
_cons | -356.8735
388.7785
-0.92
0.359
-1118.865
405.1183
-------------+---------------------------------------------------------------emplw
|
black | -.0014557
.1713513
-0.01
0.993
-.3372981
.3343868
othrac |
.1918463
.2016849
0.95
0.341
-.2034488
.5871415
age |
.0312355
.041705
0.75
0.454
-.0505048
.1129758
age2 | -.0005947
.0004543
-1.31
0.191
-.0014852
.0002958
ihigrdc |
.0776969
.0179726
4.32
0.000
.0424712
.1129226
ch02 | -.5777895
.1796234
-3.22
0.001
-.929845
-.225734
ch35 | -.3235616
.1657756
-1.95
0.051
-.6484758
.0013526
ch613 | -.3672208
.125268
-2.93
0.003
-.6127415
-.1217001
ch1417 |
.2476143
.1483912
1.67
0.095
-.0432271
.5384558
_cons | -.5547977
.9435299
-0.59
0.557
-2.404082
1.294487
-------------+---------------------------------------------------------------mills
|
lambda |
-191.354
131.3091
-1.46
0.145
-448.715
66.00705
-------------+---------------------------------------------------------------rho |
-0.49860
sigma | 383.78392
lambda | -191.35396
131.3091
------------------------------------------------------------------------------

8. A laide de la commande predict avec loption mills arps une rgression heckman,
on obtient une estimation de linverse du ratio de Mills. On calcule la corrlation avec
linverse de Mills obtenu prcdemment la suite de la rgression du probit. Sont-ils
similaires ?
5

. predict invmill2, mills


(35 missing values generated)
. corr invmill invmill2
(obs=765)
| invmill invmill2
-------------+-----------------invmill |
1.0000
invmill2 |
1.0000
1.0000

9. Interprtez lestimation du de la rgression suivante


. heckman earnwkef black othrac age age2 ihigrdc, select( emplw = black othrac
age age2 ihigrdc ch02 ch35 ch613 ch1417)
Iteration 0:
log likelihood = -4006.2731
....
Iteration 4:
log likelihood = -4002.8446
Heckman selection model
(regression model with sample selection)

Number of obs
Censored obs
Uncensored obs

=
=
=

722
232
490

Wald chi2(5)
=
99.94
Log likelihood = -4002.845
Prob > chi2
=
0.0000
-----------------------------------------------------------------------------|
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------earnwkef
|
black | -51.17895
57.22987
-0.89
0.371
-163.3474
60.98954
othrac | -3.067862
61.42984
-0.05
0.960
-123.4681
117.3324
age |
8.944075
13.41368
0.67
0.505
-17.34626
35.23441
age2 | -.0679089
.1529727
-0.44
0.657
-.3677298
.231912
ihigrdc |
67.54608
6.867649
9.84
0.000
54.08574
81.00643
_cons | -559.3134
310.4226
-1.80
0.072
-1167.731
49.10374
-------------+---------------------------------------------------------------emplw
|
black | -.0063431
.1713199
-0.04
0.970
-.3421239
.3294377
othrac |
.1903743
.2016914
0.94
0.345
-.2049335
.585682
age |
.0281355
.0417927
0.67
0.501
-.0537767
.1100477
age2 | -.0005654
.0004547
-1.24
0.214
-.0014566
.0003258
ihigrdc |
.0787945
.0180116
4.37
0.000
.0434924
.1140967
ch02 | -.5682552
.1791912
-3.17
0.002
-.9194636
-.2170468
ch35 | -.3317107
.1647425
-2.01
0.044
-.6546001
-.0088213
ch613 | -.3934671
.1253686
-3.14
0.002
-.6391849
-.1477492
ch1417 |
.2658026
.1475914
1.80
0.072
-.0234713
.5550765
_cons | -.4886907
.9447972
-0.52
0.605
-2.340459
1.363078
-------------+---------------------------------------------------------------/athrho |
-.227185
.1523527
-1.49
0.136
-.5257908
.0714208
/lnsigma |
5.899569
.0362051
162.95
0.000
5.828608
5.97053
-------------+---------------------------------------------------------------rho | -.2233555
.1447522
-.482157
.0712996
sigma |
364.8802
13.21052
339.8854
391.7131
lambda |
-81.498
54.27316
-187.8714
24.87544
-----------------------------------------------------------------------------LR test of indep. eqns. (rho = 0):
chi2(1) =
1.42
Prob > chi2 = 0.2339
------------------------------------------------------------------------------

UNIVERSITE DE PARIS 11
TD dconomtrie

Anne Plunket
Les modles de slection

Vous disposez de donnes (heckman1.dta) extraites du U.S. Current Population Survey


(CPS). Il sagit dun chantillon (de 800 femmes ges de 25 65 ans pour lanne 2003)
non reprsentatif de la population entire.
Les variables suivantes sont incluses dans les donnes :
age : ge en annes
black : 1 si la personne est noire
othrac : 1 si la personne est ni blache ni noire.
ihgrdc : nombre dannes dcole
earnwkef : salaire hebdomadaire de la semaine prcdente
emplw : 1 si la personne tait employe la semaine prcdente
ch02 : 1 si la personne a un enfant de 0 2 ans
ch35 : 1 si la personne a un enfant de 3 5 ans
ch613 : 1 si la personne a un enfant de 6 13 ans
ch1417 : 1 si la personne a un enfant g de 14 17 ans
1. Vous disposez dobservations du salaire hebdomadaire de la semaine prcdente ;
cette valeur est suprieure ou gale zro pour les personnes qui dclarent travailler
et manquante pour les autres (earnwke == .) ; en revanche, on dispose de leurs caractristiques y compris lorsquelles ne travaillent pas. On vous propose la rgression
suivante du salaire hebdomadaire pour les femmes qui travaillent (emplw == 1) ;
Sagit-il dun cas de troncature ou de censure, expliquez ?
On vous propose une rgression par les MCO, analysez les rsultats. Cette mthode
destimation vous parat_elle approprie ?
Il sagit ici dune variable censure ou plus prcisment dune variable dont les caractristiques sapparentent une solution en coin, dans le sens o cette variable prend la
valeur zro pour une partie non ngligeable de la population alors quelle est distribue
de manire continue pour les valeurs positives.
La rgression par les MCO estime le salaire pour 722 femmes en fonction dun certain
nombre de facteurs tels que lorigine raciale, toutefois la variable nest pas significative,
lge et le nombre dannes dcole. Le fait dtre noire semble avoir une impact ngatif
sur le revenu par rapport une personne blanche (la constante), lge connait un impact
positif mais dcroissant, enfin le nombre dannes dtude semble avoir un impact positif
sur le revenu salari.
La mthode des MCO ne serait pas adapte dans ce cas, car elle risquerait de prdire des
variables ngatives pour y ce nest pas possible. Le modle que lon cherche estimer est
le suivant :
y = max(0, y ) ; y prend la valeur 0 ou une valeur y continue qui peut scrire de la
manire suivante (variable latente) :
y = 0 + x +
use "C:\heckman1.dta", clear
. gen earnwkef = earnwke if emplw == 1
. replace earnwkef = 0 if emplw == 0 // on met la valeur de earnwke = 0
pour les personnes qui ne travaillent pas
. gen age2 = age * age

. summarize
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------age |
800
44.38625
10.87543
25
65
hourslw |
516
36.31395
11.99572
1
96
earnwke |
509
574.6483
398.5622
0
2884
ch02 |
765
.103268
.3045076
0
1
ch35 |
765
.1111111
.3144753
0
1
-------------+-------------------------------------------------------ch613 |
765
.2522876
.4346096
0
1
ch1417 |
765
.1660131
.3723358
0
1
ihigrdc |
800
13.4075
2.905188
0
18
black |
800
.0975
.296823
0
1
othrac |
800
.0725
.2594762
0
1
-------------+-------------------------------------------------------emplw |
799
.6908636
.462427
0
1
earnwkef |
756
386.8995
423.8151
0
2884
age2 |
800
2088.266
980.2236
625
4225
. regress earnwkef black othrac age age2 ihigrdc if ch02!=.
Source |
SS
df
MS
-------------+-----------------------------Model | 18384108.9
5 3676821.77
Residual |
113792966
716 158928.723
-------------+-----------------------------Total |
132177075
721 183324.653

Number of obs
F( 5,
716)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

722
23.14
0.0000
0.1391
0.1331
398.66

-----------------------------------------------------------------------------earnwkef |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------black | -27.87674
51.14381
-0.55
0.586
-128.2865
72.53302
othrac |
29.85007
57.68221
0.52
0.605
-83.39641
143.0966
age |
26.30842
11.28381
2.33
0.020
4.155107
48.46174
age2 | -.3033743
.1254136
-2.42
0.016
-.5495967
-.0571519
ihigrdc |
53.17958
5.243977
10.14
0.000
42.88417
63.47499
_cons | -854.1964
252.5549
-3.38
0.001
-1350.033
-358.3598
------------------------------------------------------------------------------

note : la condition ch02 !=. nous assure simplement quon ne prend pas encore les observati

2. Peut-on sappuyer sur cette rgression pour faire des infrences sur la population
des femmes qui travaillent ? Expliquez.
La mthode des MCO ne permet pas de faire une infrence sur la population totale. Il
est ncessaire de combiner un modle probit sur loccurrence de la variable y positive et
ensuite une estimation par le maximum de vraissemblance pour tenir compte de la valeur
de la variable y. En effet, les variables explicatives auront un impact sur
le fait (la probabilit) que lindividu est cesur (y = 0)
sur la valeur de y pour un individu non censur (E[y|y > 0])
Dans notre cas, la valeur des variables explicatives auront un impact sur la probabilit de
travailler dune part et sur la valeur du salaire pour ceux qui travaillent de toute manire.
3. On vous propose la rgression suivante : en quoi cette rgression est-elle une amlio2

ration par rapport la mthode des MCO. Est-elle totalement satisfaisante ?


. tobit earnwkef black othrac age age2 ihigrdc if ch02!=., ll(0)
Tobit regression

Number of obs
LR chi2(5)
Prob > chi2
Pseudo R2

Log likelihood = -3962.7466

=
=
=
=

722
100.38
0.0000
0.0125

-----------------------------------------------------------------------------earnwkef |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------black | -22.65272
72.77186
-0.31
0.756
-165.5241
120.2187
othrac |
67.8211
80.33858
0.84
0.399
-89.90588
225.5481
age |
44.37442
16.2132
2.74
0.006
12.54341
76.20544
age2 | -.5171235
.1812881
-2.85
0.004
-.8730424
-.1612045
ihigrdc |
73.67987
7.890169
9.34
0.000
58.18927
89.17046
_cons | -1607.653
365.2817
-4.40
0.000
-2324.803
-890.5035
-------------+---------------------------------------------------------------/sigma |
535.4785
18.33199
499.4877
571.4693
-----------------------------------------------------------------------------Obs. summary:
233 left-censored observations at earnwkef<=0
489
uncensored observations
0 right-censored observations
. mfx compute, predict(pr(0,.))
Marginal effects after tobit
y = Pr(earnwkef>0) (predict, pr(0,.))
= .69412557
-----------------------------------------------------------------------------variable |
dy/dx
Std. Err.
z
P>|z| [
95% C.I.
]
X
---------+-------------------------------------------------------------------black*| -.0149637
.04847
-0.31
0.758 -.109967
.08004
.094183
othrac*|
.0431323
.0495
0.87
0.384
-.05389 .140155
.072022
age |
.029064
.01064
2.73
0.006
.008207 .049921
44.241
age2 | -.0003387
.00012
-2.85
0.004 -.000572 -.000105
2076.39
ihigrdc |
.0482583
.00533
9.05
0.000
.037803 .058714
13.3996
-----------------------------------------------------------------------------(*) dy/dx is for discrete change of dummy variable from 0 to 1
. mfx compute, predict(e(0,.))
Marginal effects after tobit
y = E(earnwkef|earnwkef>0) (predict, e(0,.))
= 542.36086
-----------------------------------------------------------------------------variable |
dy/dx
Std. Err.
z
P>|z| [
95% C.I.
]
X
---------+-------------------------------------------------------------------black*| -10.95457
34.857
-0.31
0.753 -79.2733 57.3641
.094183
othrac*|
34.12324
41.624
0.82
0.412 -47.4587 115.705
.072022
age |
21.665
7.91048
2.74
0.006
6.16074 37.1693
44.241
age2 | -.2524761
.08844
-2.85
0.004 -.425815 -.079138
2076.39
ihigrdc |
35.97285
3.87786
9.28
0.000
28.3724 43.5733
13.3996
-----------------------------------------------------------------------------(*) dy/dx is for discrete change of dummy variable from 0 to 1

Dans la mesure o il importe dexpliquer la fois la probabilit que lvnement se produise et la valeur de y lorsque cet vnement se produit, lexpression estimer scrit :
E(y|y > 0, x) = x + ()
avec
= x/
est linverse du ratio de Mills ; ainsi, lesprance de y conditionnel y > 0 est fonction
des variables explicatives et du produit de lcart-type des erreurs par le ratio de Mills
valu pour x/. Cette quation montre galement pourquoi lutilisation des MCO pour
les seules valeurs positives de y ne serait pas appropri puisquen fait lquation souffrirait
dune variable omise (le ratio de Mills).
Le probit permet de tenir compte du fait que les obsevations sont censures gauche la
valeur 0.
4. Expliquez et analysez les effets marginaux
Dans le premier cas, mfx compute, predict(pr(0,.)) rend compte de leffet marginal de
chaque variable sur la probabilit de participation
Dans le second cas, mfx compute, predict(e(0,.)) rend compte de leffet marginal de
chaque variable sur le montant du salaire
Ces effets marginaux, contrairement ceux obtenus par les MCO, tiennent compte compte
correctement du fait que la variable explique est censure.
Leffet marginal implique que une anne dtude de plus par rapport la moyenne (13,39)
entranera une augmentation de la participation de 4,8%
Leffet marginal du fait dtre noire rduit la participation de 1,5% mais ce nest pas significatif.
Leffet marginal dune anne dtude de plus par rapport au niveau dtude moyen va
avoir un impact de 350% sur le salaire.
5. On vous demande prsent destimer un modle probit pour tenter de comprendre
quels sont les dterminants de la dcision de travailler (emplw == 1 ). La rgression
est ralise pour celles qui dclarent ne pas travailler (emplw==0) et pour celles qui
dclarent travailler (emplw == 1) et nont pas dobservatiosn manquantes pour le
montant du salaire hebdomadaire (earnwke !=.).
Analysez les rsultats de la rgression. En quoi cette rgression pourrait-elle tre
utile ?
On vous propose de tester lhypothse nulle que les coefficients des variables indicatrices sont gales zro. De quel test sagit-il ? Y a t-il un problme dinstrument
faibles ? Expliquez si les variables indicatrices du nombre denfants dans le mnage
sont des restrictions valides ? Le probit permet de dterminer quelles sont les variables
qui influencent la censure, cest--dire la dcision pour une femme de travailler ou non.
On constate que les variables qui sont significatives et ngatives ici correspondent lge
des enfants. La femme dcidera de travailler ou non en fonction de lge de ses enfants
de moins de 13 ans. De mme que le nombre dannes dtude, autrement dit le niveau
dducation va avoir un impact positif et significatif sur la probabilit de travailler.
4

Ces variables peuvent constituer des restrictions valides pour une procdure de heckman
par exemple si on suppose que les enfants ont un impact sur lquation de participation
et non pas sur le montant du salaire. En revanche, elles ne constitueraient pas des restrictions valides si on supposait que les femmes qui anticipent davoir des enfants pourraient
en ternir compte pour dcider du type dtude et de la qualit des tudes quelles entreprennent. Ce choix nest pas pris en compte par la variable nombre dannes dtudes
et par consquent, les variables enfants sont corrls au terme derreur de lquation de
salaire.
Quant aux tests sur les enfants, il sagit dun test de Wald qui testent plusieurs coefficients
en mme temps. Il sagit donc dun chi2 4 degrs de libert. Celui-ci montre que les
quatre variables sont conjointement significatives.
. probit emplw black othrac age age2 ihigrdc ch02 ch35 ch613 ch1417 ch1417
if earnwkef!=.
note: ch1417 dropped because of
Iteration 0:
log likelihood =
Iteration 1:
log likelihood =
Iteration 2:
log likelihood =
Iteration 3:
log likelihood =

collinearity
-453.32044
-423.47695
-423.30793
-423.30789

Probit regression

Number of obs
LR chi2(9)
Prob > chi2
Pseudo R2

Log likelihood = -423.30789

=
=
=
=

722
60.03
0.0000
0.0662

-----------------------------------------------------------------------------emplw |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------black | -.0014557
.1713513
-0.01
0.993
-.3372981
.3343868
othrac |
.1918463
.2016849
0.95
0.341
-.2034488
.5871415
age |
.0312355
.041705
0.75
0.454
-.0505048
.1129758
age2 | -.0005947
.0004543
-1.31
0.191
-.0014852
.0002958
ihigrdc |
.0776969
.0179726
4.32
0.000
.0424712
.1129226
ch02 | -.5777895
.1796234
-3.22
0.001
-.929845
-.225734
ch35 | -.3235616
.1657756
-1.95
0.051
-.6484758
.0013526
ch613 | -.3672208
.125268
-2.93
0.003
-.6127415
-.1217001
ch1417 |
.2476143
.1483912
1.67
0.095
-.0432271
.5384558
_cons | -.5547977
.9435299
-0.59
0.557
-2.404082
1.294487
-----------------------------------------------------------------------------. testparm ch02 ch35 ch613 ch1417
(
(
(
(

1)
2)
3)
4)

ch02 = 0
ch35 = 0
ch613 = 0
ch1417 = 0
chi2( 4) =
Prob > chi2 =

26.24
0.0000

6. En utilisant le probit de la question 3, on estime le terme du mills ratio, et on lintgre la rgression de lquation du salaire hebdomadaire par les MCO. Est-ce une
5

solution ?
A partir du moment o lon dtermine une estimation de linverse du ratio de Mills, il est
possible de lintgrer dans la rgression linaire afin dliminer le biais engendr par la
variable omise (ratio de mills). On peut ainsi corriger le biais de slection.
E(y|y > 0, x) = x + ()
avec
= x/
. predict zgamma, xb
// il sagit ici dune estimation de la relation linaire
(35 missing values generated)
gen invmill = normalden(zgamma)/normal(zgamma)
// on dtermine linverse du ratio de Mills en dterminant le rapport entre
la fonction de densit normale et la fonction de densit cumulative de la loi
normale pour les prdictions du modle linaire
(35 missing values generated)
. regress earnwkef black othrac age age2 ihigrdc invmill if earnwke!=.
Source |
SS
df
MS
-------------+-----------------------------Model | 16263033.2
6 2710505.53
Residual | 63411510.2
483 131286.771
-------------+-----------------------------Total | 79674543.4
489 162933.627

Number of obs
F( 6,
483)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

490
20.65
0.0000
0.2041
0.1942
362.34

-----------------------------------------------------------------------------earnwkef |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------black | -52.79758
57.14804
-0.92
0.356
-165.0871
59.4919
othrac | -15.55447
62.65035
-0.25
0.804
-138.6554
107.5464
age |
4.265233
14.2866
0.30
0.765
-23.80634
32.33681
age2 | -.0087184
.1652137
-0.05
0.958
-.3333449
.315908
ihigrdc |
63.01018
8.37043
7.53
0.000
46.56323
79.45714
invmill |
-191.354
127.9787
-1.50
0.136
-442.8178
60.10989
_cons | -356.8735
376.8102
-0.95
0.344
-1097.263
383.5162
------------------------------------------------------------------------------

Il sagit dune solution tout fait acceptable qui permet de corriger le biais de slection.
On peut comparer ce rsultat un heckman deux tapes.
7. On vous propose une estimation par la mthode de heckman avec loption twostep
et on estime la mme quation que prcdemment. Comparer les coefficients obtenus ceux de la question prcdente et ceux ignorant la correction. Comparer les
cart-types avec ceux obtenus la question prcdente. Sont-elles trs diffrentes ?
Pourquoi ?
Les deux rsultats sont exactement identiques puisquils sappuient sur un mme calcule
6

de linverse du ratio de Mills. Lorsque lon utilise la rgression deux tapes, on estime
la rgression suivante :
E[y|y > 0, x] = x + () +
pour laquelle lIMR est estime aprs un probit la premire tape et intgre comme
rgresseur dans la deuxime tape.
. heckman earnwkef black othrac age age2 ihigrdc, select( emplw = black othrac
age age2 ihigrdc ch02 ch35 ch613 ch1417) twostep
Heckman selection model -- two-step estimates
(regression model with sample selection)

Number of obs
Censored obs
Uncensored obs

=
=
=

722
232
490

Wald chi2(5)
Prob > chi2

=
=

66.22
0.0000

-----------------------------------------------------------------------------|
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------earnwkef
|
black | -52.79758
58.97689
-0.90
0.371
-168.3902
62.795
othrac | -15.55447
64.95989
-0.24
0.811
-142.8735
111.7646
age |
4.265233
14.72002
0.29
0.772
-24.58549
33.11595
age2 | -.0087184
.1698654
-0.05
0.959
-.3416485
.3242116
ihigrdc |
63.01018
8.566486
7.36
0.000
46.22018
79.80018
_cons | -356.8735
388.7785
-0.92
0.359
-1118.865
405.1183
-------------+---------------------------------------------------------------emplw
|
black | -.0014557
.1713513
-0.01
0.993
-.3372981
.3343868
othrac |
.1918463
.2016849
0.95
0.341
-.2034488
.5871415
age |
.0312355
.041705
0.75
0.454
-.0505048
.1129758
age2 | -.0005947
.0004543
-1.31
0.191
-.0014852
.0002958
ihigrdc |
.0776969
.0179726
4.32
0.000
.0424712
.1129226
ch02 | -.5777895
.1796234
-3.22
0.001
-.929845
-.225734
ch35 | -.3235616
.1657756
-1.95
0.051
-.6484758
.0013526
ch613 | -.3672208
.125268
-2.93
0.003
-.6127415
-.1217001
ch1417 |
.2476143
.1483912
1.67
0.095
-.0432271
.5384558
_cons | -.5547977
.9435299
-0.59
0.557
-2.404082
1.294487
-------------+---------------------------------------------------------------mills
|
lambda |
-191.354
131.3091
-1.46
0.145
-448.715
66.00705
-------------+---------------------------------------------------------------rho |
-0.49860
sigma | 383.78392
lambda | -191.35396
131.3091
------------------------------------------------------------------------------

8. A laide de la commande predict avec loption mills arps une rgression heckman,
on obtient une estimation de linverse du ratio de Mills. On calcule la corrlation avec
linverse de Mills obtenu prcdemment la suite de la rgression du probit. Sont-ils
similaires ?
On constate que linverse du ratio de Mills pour les deux cas sont strictement identiques.
. predict invmill2, mills
(35 missing values generated)

. corr invmill invmill2


(obs=765)
| invmill invmill2
-------------+-----------------invmill |
1.0000
invmill2 |
1.0000
1.0000

9. Interprtez lestimation du de la rgression suivante


Cette dernire application du modle de Heckman sans loption twostep donne des rsultats diffrents aux estimations prcdentes. Elle est obtenue partir de lquation
E[y|z, s = 1] = x + (z) +
. heckman earnwkef black othrac age age2 ihigrdc, select( emplw = black othrac
age age2 ihigrdc ch02 ch35 ch613 ch1417)
Iteration
Iteration
Iteration
Iteration
Iteration

0:
1:
2:
3:
4:

log
log
log
log
log

likelihood
likelihood
likelihood
likelihood
likelihood

=
=
=
=
=

-4006.2731
-4003.0711
-4002.8465
-4002.8446
-4002.8446

Heckman selection model


(regression model with sample selection)

Log likelihood = -4002.845

Number of obs
Censored obs
Uncensored obs

=
=
=

722
232
490

Wald chi2(5)
Prob > chi2

=
=

99.94
0.0000

-----------------------------------------------------------------------------|
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------earnwkef
|
black | -51.17895
57.22987
-0.89
0.371
-163.3474
60.98954
othrac | -3.067862
61.42984
-0.05
0.960
-123.4681
117.3324
age |
8.944075
13.41368
0.67
0.505
-17.34626
35.23441
age2 | -.0679089
.1529727
-0.44
0.657
-.3677298
.231912
ihigrdc |
67.54608
6.867649
9.84
0.000
54.08574
81.00643
_cons | -559.3134
310.4226
-1.80
0.072
-1167.731
49.10374
-------------+---------------------------------------------------------------emplw
|
black | -.0063431
.1713199
-0.04
0.970
-.3421239
.3294377
othrac |
.1903743
.2016914
0.94
0.345
-.2049335
.585682
age |
.0281355
.0417927
0.67
0.501
-.0537767
.1100477
age2 | -.0005654
.0004547
-1.24
0.214
-.0014566
.0003258
ihigrdc |
.0787945
.0180116
4.37
0.000
.0434924
.1140967
ch02 | -.5682552
.1791912
-3.17
0.002
-.9194636
-.2170468
ch35 | -.3317107
.1647425
-2.01
0.044
-.6546001
-.0088213
ch613 | -.3934671
.1253686
-3.14
0.002
-.6391849
-.1477492
ch1417 |
.2658026
.1475914
1.80
0.072
-.0234713
.5550765
_cons | -.4886907
.9447972
-0.52
0.605
-2.340459
1.363078
-------------+---------------------------------------------------------------/athrho |
-.227185
.1523527
-1.49
0.136
-.5257908
.0714208

/lnsigma |
5.899569
.0362051
162.95
0.000
5.828608
5.97053
-------------+---------------------------------------------------------------rho | -.2233555
.1447522
-.482157
.0712996
sigma |
364.8802
13.21052
339.8854
391.7131
lambda |
-81.498
54.27316
-187.8714
24.87544
-----------------------------------------------------------------------------LR test of indep. eqns. (rho = 0):
chi2(1) =
1.42
Prob > chi2 = 0.2339
------------------------------------------------------------------------------

On rejette lhypothse nulle que = 0, les deux quations ne sont donc pas indpendantes
et il est ncessaire de corriger le biais de slection.
le = .22, ce qui indique que les termes derreur de lquation de participation et de
lquation de salaire sont corrles ngativement. Ceci signifie que si les variables non
observes ont un impact ngatif sur lquation de salaire, ils auront un impact positif des
variables non observes sur la probabilit de participation. Ce qui nest pas vraiment ce
quoi on pourrait sattendre si les variables non observes reprsentent la motivation ; des
individus plus motivs sont plus susceptibles de travailler et de gagner des salaires plus
levs.

Leconometrie des panels


1

Introduction

Les donnees de panel sont des observations qui portent sur un agent
e conomique (un individu, une entreprise, une industrie, un pays...)
au cours du temps. Ces donnees de panel ou longitudinales sont
interessantes pour traiter un certain nombre de question.
Par exemple, on peut se demander ce que signifie un taux moyen
de chomage de 10%; cela signifie t-il que les memes 10% de la
population sont au chomage de mani`ere continue au cours du temps
(chomage de longue duree) ou que de mani`ere aleatoire 10% de la
population est au chomage.

Autre exemple, la croissance des entreprises est-elle due a` des


e conomies dechelle (cest-`a-dire une variation en coupe de la taille
des inputs) ou un changement technique (cest-`a-dire une variation
au cours du temps a` inputs fixes)?
Il nest possible de repondre a` ces questions quen e tudiant les
memes agents a` travers le temps.
Jusqu`a present, deux types de mod`eles ont e te rencontres :
Yi = 0 + 1X1i + 2X2i + i pour les individus i = 1, 2, . . . , N
pour les donnees en coupe
Yt = 0 + 1X1t + 2X2t + t pour les periodes i = 1, 2, . . . , T
pour les donnees en series temporelles.
Les donnees en panel permettent de combiner des donnees en

coupe et temporelles :
Yit = 0 + 1X1it + 2X2it + it
Plus generalement, le mod`ele peut secrire :
yit = xit + zi + ui + it
o`u xit est un vecteur 1 k de variables qui varient en fonction des
individus et du temps, zi est un vecteur 1 p de variables invariantes avec le temps qui varient uniquement avec les individus, est
un vecteur p 1 de coefficients,ui est un effet individuel et it le
terme derreur.
Les ui sont correles ou non aux regresseurs xit et zi. On suppose
en revanche que les ui ne sont jamais correles aux it.
si les ui sont correles aux regresseurs, ils sont qualifies deffets
fixes. Dans ce cas, la strategie est de traiter les ui comme des

param`etres ou des effets fixes. Toutefois comme il est difficile


dintroduire un param`etre par individu surtout lorsque lechantillon
est grand, la solution consiste a` retirer les ui de lestimation par
une transformation. La consequence est que cette procedure
ne permet pas lestimation des param`etres des variables constantes dans le temps.
si les ui sont non correles aux regresseurs, ils sont qualifies
deffets aleatoires. Dans ce cas, les effets individuels sont
simplement parametres comme des erreurs additionnelles. La
somme ui + i est qualifiee derreur composee.

Les effets fixes

Les donnees de panel permettent e galement de controler les effets


individuels non observes qui peuvent biaiser les resultats sils ne
sont pas pris en compte. En effet, les variables omises ou non
observees sont souvent responsables des questions dendogeneite
et conduisent a` des estimations qui ne sont plus a` variance minimale. Les donnees de panel permettent de retirer linfluence des
effets non observes des regressions et de produire des estimations
a` variance minimale.
Supposons que X2 soit non observe dans le mod`ele
Yit = 0 + 1X1it + 2X2it + it

Nous savons que les variables omises biaises les resultats des MCO.
Supposons que lon regroupe la variable non observee avec le terme
derreur
Yit = 0 + 1X1it + {2X2it + it}
On peut alors diviser les e lements non observes en deux composantes, une partie qui varie entre les individus mais qui est constante au cours du temps i et une partie qui varie dun individu a`
lautre et dune periode a` lautre it.
Yit = 0 + 1X1it + ui + it
Si on pouvait e carter le terme ui, il ne resterait quun terme
aleatoire et cela reviendrait aux moindres carrees ordinaires (MCO).
Il nest pas possible de supprimer ce terme dans le cas de donnees
en coupe, par consequent la presence des effets non observables

implique que :
Cov(X, u) = Cov(X, ui + it) = Cov(X1it, {2X2it + it}) 6= 0
Si ui est constant au cours du temps (si cest un effet fixe), on peut
supprimer leffet en differenciant lequation de la regression.
2.1

Effets fixes et differences premi`eres

Si
Yit = 0 + 1X1it + ui + it
En periode t = 1
Yi1 = 1 + 1Xi1 + ui + i1
En periode t = 2
Yi2 = 2 + 1Xi2 + ui + i2

Ainsi la difference premi`ere est :


[Yi2 Yi1] = (2 + 1Xi2 + ui + i2) (1 + 1Xi1 + ui + i1)
= (2 1) + 1(Xi2 Xi1) + (ui ui) + (i2 + i1)
ou
Y = + 1X + avec ( = 2 1)
Leffet fixe ui est supprime par ce mod`ele de premi`ere difference.
La regression par les MCO ne sera pas influencee par les effets non
observables et les estimations seront exemptes de biais dendogeneite
(contrairement a` lestimation 1 de lequation Yit = 0 +1X1it +it
si lon ne tient pas compte du biais induit par la variable omise).
Cette methode ne fonctionne que si les effets non observes sont
fixes au cours du temps (et si le coefficient de X1 est constant au

cours du temps).
Y = + 1X +
Il est e galement important de remarquer que cette methode a pour
effet de supprimer toutes les variables constantes au cours du
temps, par consequent les coefficients de la regression sont nets
des effets des variables non observees et des variables constantes.

2.1.1

Exemple

Les donnees portent sur des entreprises sur une periode de trois
annees. Elles contiennent des informations sur les ventes, lemploi,
la reconnaissance des syndicats.

On commence par creer les variables dX = Xt Xt1 pour les


ventes et lexistence des syndicats (variable indicatrice, 0/1) dans
lentreprise (le l place devant la variable signifie quon a pris le
logarithme neperien de la variable sale, lsale).
use "C:\panel2.dta", clear
. sort fcode year
. gen dlsales=lsales-lsales[_n-1] if fcode==fcode[_n-1]
(119 missing values generated)
. * la commande if permet de sassurer que les soustractions se font bien pour
> chaque entreprise
. gen dunion=union-union[_n-1] if fcode==fcode[_n-1]
(119 missing values generated)

. list year fcode sales dsales union dunion in 91/111

91.
92.
93.
94.
95.
96.
97.
98.
99.
100.
101.
102.
103.
104.
105.
106.

+------------------------------------------------------+
| year
fcode
sales
dsales
union
dunion |
|------------------------------------------------------|
| 1987
410609
1650831
.
0
. |
| 1988
410609
1817961
167130
0
0 |
| 1989
410609
1642441
-175520
0
0 |
| 1987
410612
7000000
.
0
. |
| 1988
410612
8500000
1500000
0
0 |
|------------------------------------------------------|
| 1989
410612
1.10e+07
2500000
0
0 |
| 1987
410626
4600000
.
1
. |
| 1988
410626
4900000
300000
1
0 |
| 1989
410626
5600000
700000
1
0 |
| 1987
410627
2900000
.
1
. |
|------------------------------------------------------|
| 1988
410627
2800000
-100000
1
0 |
| 1989
410627
2900000
100000
1
0 |
| 1987
410629
1100000
.
0
. |
| 1988
410629
2050000
950000
0
0 |
| 1989
410629
2260000
210000
0
0 |
|------------------------------------------------------|
| 1987
410635
2.00e+07
.
1
. |

107.
108.
109.
110.

| 1988
410635
1.80e+07
-2000000
1
0 |
| 1989
410635
1.60e+07
-2000000
1
0 |
| 1987
410636
386807
.
0
. |
| 1988
410636
734613
347806
0
0 |
|------------------------------------------------------|
111. | 1989
410636
518842
-215771
0
0 |
+------------------------------------------------------+

On cherche ensuite a` comprendre la relation entre les ventes,


lemploi et lexistence de syndicats dans lentreprise. Commencons
par deux regressions des MCO en coupe, respectivement pour les
annees 1988 et 1989.

. reg lsales lempl union if year==1988


Source |
SS
df
MS
-------------+-----------------------------Model | 92.2537446
2 46.1268723
Residual |
50.224002
112 .448428589
-------------+-----------------------------Total | 142.477747
114
1.2498048

Number of obs
F( 2,
112)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

115
102.86
0.0000
0.6475
0.6412
.66965

-----------------------------------------------------------------------------lsales |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lemploy |
.8379075
.0645985
12.97
0.000
.7099139
.9659011
union |
.2754602
.1595039
1.73
0.087
-.0405763
.5914967
_cons |
12.03388
.2276874
52.85
0.000
11.58275
12.48502
------------------------------------------------------------------------------

. reg lsales lempl union if year==1989


Source |
SS
df
MS
-------------+-----------------------------Model | 102.849229
2 51.4246145
Residual | 37.7492552
112 .337046922
-------------+-----------------------------Total | 140.598484
114 1.23332004

Number of obs
F( 2,
112)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

115
152.57
0.0000
0.7315
0.7267
.58056

-----------------------------------------------------------------------------lsales |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lemploy |
.9069097
.0555367
16.33
0.000
.7968708
1.016949
union |
.1570459
.1372818
1.14
0.255
-.1149604
.4290522
_cons |
11.85956
.1999808
59.30
0.000
11.46332
12.25579
------------------------------------------------------------------------------

Si lon compare les deux regressions pour 1988 et 1989, on constate que leffet des syndicats est faiblement significatif pour 1988
(la p-valeur P > |t| est de 0,087, cest donc significatif au seuil

de 10%) alors quil ne lest pas pour 1989. Par ailleurs, leffet
de la taille de lentreprise (lemploi) est plus important pour 1989
que pour 1988. Toutefois, on ne peut pas controler le fait que les
regressions subissent un biais de variables omises.
Pour corriger ce biais, on peut donc refaire la regression mais
cette fois avec les differences premi`eres des variables. On introduit
une constante (bien que les differences premi`eres aient supprimees
toutes les constantes). La constante introduite peut e tre interpretee
comme la variation de valeur de la constante au cours du temps
1 6= 2. Par ailleurs, labsence de la constante pose un probl`eme
dans la regression car elle nimpose pas que le R2 soit compris
entre 0 et 1.

. reg dlsales dlemp dunion if year==1989


Source |
SS
df
MS
-------------+-----------------------------Model | .901279503
1 .901279503
Residual | 17.4758117
109 .160328548
-------------+-----------------------------Total | 18.3770912
110 .167064466

Number of obs
F( 1,
109)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

111
5.62
0.0195
0.0490
0.0403
.40041

-----------------------------------------------------------------------------dlsales |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------dlemp |
.0614058
.0258991
2.37
0.019
.0100746
.1127371
dunion | (dropped)
_cons |
.1041567
.0380128
2.74
0.007
.0288166
.1794968
------------------------------------------------------------------------------

Le coefficient pour lemploi est plus faible que dans les regressions
precedentes suggerant que les regressions precedentes e taient biaisees en surevaluant limportance de la variable du fait de lexistence
de variables omises.

Il nest pas possible destimer leffet des syndicats parce que


cette variables est constante au cours du temps et la difference est
donc gommee lorsque lon calcule la difference premi`ere.
Linteret des donnees de panel est la possibilite devaluer limpact
des politiques publiques. En effet, si les memes agents e conomiques
apparaissent avant et apr`es la mise en place dune politique, dans
ce cas les variations dans les estimations des differences premi`eres
auront pour consequences de gommer les effets fixes qui pourraient
influencer les resultats.
Supposons que lon ait lequation suivante (W represente le salaire)
:
ln W1 = 1+1Variable indicatrice pour leffet+ui+i Periode Avant

ln W2 = 2+2Variable indicatrice pour leffet2+ui+i Periode Apr`es


Les coefficients 1 et 2 donnent le differenciel dimpact du groupe
ayant e te affecte par la politique sur les salaires a` chaque periode.
Ainsi la variation de salaire pour le groupe affecte (pour lequel
la variable indicatrice = 1) est la difference des coefficients, cesta` -dire leffet a` la periode Apr`es - leffet a` la periode Avant :
(2 + 2 + ui) (1 + 1 + ui) = 2 1 + 2 1
et la variation de salaire pour le groupe de controle (pour lequel la
variable indicatrice = 0) est la difference des effets entre les deux
periodes, soit
(2 + ui) (1 + ui) = 2 1
et par consequent lestimateur de la difference des differences est
= Variation des salaires pour le groupe affecte - variation des salaires

pour le groupe de controle :


= (2 1 + 2 1) (2 1)
= 2 1
et les effets fixes disparaissent.
2.2

Autres techniques

Il existe au moins deux autres techniques qui permettent dobtenir


des estimations de type effets fixes.
La premi`ere consiste a` regrouper les donnees - pooled en anglais
- pour toutes les annees et destimer le mod`ele de panel :
Yit = 0 + 1X1it + ui + it
en incluant directement une variable indicatrice pour chaque
individu (ou entreprise, region) dans les donnees pour capter les

effets fixes. Il sagit alors dune estimation par le mod`ele a` variables muettes des moindres carres ou least squares dummy variable
model LSDV.
Yit = t + 1Xit + g1D1 + g2D2 + ... + gn1Dn 1 + ui + it
o`u Di = 1 pour lindividu i (ou firme ou region) et 0 pour tous
les autres. Le coefficient pour chaque variable indicatrice donne la
valeur moyenne de la variable dependante pour lindividu i particulier net des effets de toutes les autres variables explicatives.

. xi:reg sales i.fcode if fcode<410521


i.fcode
_Ifcode_410032-419486(naturally coded; _Ifcode_410032 omitted
> )
Source |
SS
df
MS
-------------+-----------------------------Model | 5.2274e+15
6 8.7123e+14
Residual | 4.8607e+13
14 3.4719e+12
-------------+-----------------------------Total | 5.2760e+15
20 2.6380e+14

Number of obs
F( 6,
14)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

21
250.94
0.0000
0.9908
0.9868
1.9e+06

-----------------------------------------------------------------------------sales |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------_Ifco410440 | -4.44e+07
1521379
-29.17
0.000
-4.76e+07
-4.11e+07
_Ifco410495 | -4.57e+07
1521379
-30.06
0.000
-4.90e+07
-4.25e+07
_Ifco410500 | -2.32e+07
1521379
-15.25
0.000
-2.65e+07
-1.99e+07
_Ifco410501 | -3.83e+07
1521379
-25.20
0.000
-4.16e+07
-3.51e+07
_Ifco410513 | -4.46e+07
1521379
-29.33
0.000
-4.79e+07
-4.14e+07
_Ifco410518 | -4.37e+07
1521379
-28.71
0.000
-4.69e+07
-4.04e+07
_Ifco410521 | (dropped)
_Ifco410523 | (dropped)
_Ifco410529 | (dropped)
_Ifco410531 | (dropped)

.....
_Ifco419483 | (dropped)
_Ifco419486 | (dropped)
_cons |
4.63e+07
1075778
43.07
0.000
4.40e+07
4.86e+07
------------------------------------------------------------------------------

Ce type de regression est tr`es couteux en termes de degres de liberte puisquil introduit une variable indicatrice par individu et elle
produira habituellement des estimations (pour les variables indicatrices, cest-`a-dire les effets fixes) pour lesquelles la variance nest
pas minimale si la dimension temporelle du panel est courte (ce qui
est souvent le cas).
Pour cette raison, on pref`ere a` cette methode la regression intragroupe - Within-group qui permet dobtenir des estimations a` variance minimale des effets fixes et qui consiste a` calculer la valeur

moyenne de chaque observation pour chaque individu et de lui


soustraire la valeur de lobservation a` la date t.
Si
Yit = i + 1Xit + ui + it
ceci est vrai pour tous les individus et toutes les periodes.
Yi1 = i + 1Xi1 + ui + i1
Yi2 = i + 1Xi2 + ui + i2
..
YiT = i + 1XiT + ui + iT
Prendre la somme de toutes les periodes et diviser par le nombre de periodes donne la moyenne intra-groupe ou within-group

mean.

Yi1 + Ti2 + . . . + YiT

Yi =
T
Si on applique le meme principe a` toutes les variables explicatives,
on obtient :
i + ui + i
Yi = i + 1X
On peut noter que leffet fixe na pas deffet moyen. Par consequent
i) + (it it)
Yit Yi = 1(Xit X
Cette methode destimation intra-groupe permet e galement de
supprimer les effets fixes (parce que la moyenne de leffet fixe est
identique a` la valeur de leffet fixe individuel), et offre ainsi des
estimations non biaisees du coefficient 1.

Neanmoins, cette methode peut poser probl`eme sil y a de la variation pour les variables X entre les individus, et moins de variation
au cours du temps. Meme si les variables ne varient que peu au
cours du temps, lintroduction deffets fixes produira des estimations qui sont proches de zero. Les effets fixes sont susceptibles de
capter le reel impact des variables qui ne varient que peu au cours
du temps.
Plus generalement, le mod`ele peut secrire :
Si yi = (1/T ) PTt=1, etc, et si zi et ui sont des moyennes de panel,
on peut e crire :
yit yi = (xit x
i) + (zi
zi) + ui ui + it i
ce qui implique que
yit = (
xit) + it

(1)

Il sagit donc dun estimateur intra groupe -within estimator,


puisquon prend la moyenne au cours du temps pour chaque individu, entreprise...
2.3

Regression intra-groupe ou difference premi`ere

Les estimations intra-groupes peuvent e tre assez sensibles (bien


que restant a` variances minimales) lorsque T est grand et N petit.
Les variables dont on prend la difference premi`ere impliquent
des variables plus susceptibles detre stationnaires et moins erronees1 . En pratique, il vaudrait mieux faire les deux regressions
afin de tester la sensibilite des resultats. Il est a` noter que les
deux methodes produiront les memes resultats lorsquil ny a
1 Dans

la litterature anglo-saxonne, on trouve cela sous le terme spurious

que deux periodes.


Un des probl`emes que peut poser la methode de la difference
premi`ere est quelle est susceptible dengendrer de lautocorrelation
dans lerreur de premi`ere difference : si
t = t t1
alors
Cov(t, t1) = Cov(t t1, t1 t2)
= Cov(tt1) + Cov(t1t2) + Cov(tt2)
+ Cov(t1t1) 6= 0
Une solution consiste a` inclure plus de variables non constantes
dans le temps qui pourraientt e tre source dautocorrelation (lorsquelles
sont manquantes).

Les estimations intra-groupes peuvent aussi introduire de lautocorrelation.


Alors le choix entre les deux methodes depend davantage du nombre de periodes de temps disponibles.
Les donnees de panel peuvent e galement entraner de lheteroscedasticite
dans les erreurs. Dans le cas de lestimation de premi`ere difference,
on peut tester la presence dheteroscedasticite a` laide dun test
de White ou de Breusch-Godfrey sur les residus de la difference
premi`ere.
3

Les effets aleatoires

Lautre mani`ere de traiter les effets non observes est de supposer


quils sont une partie des residus, alors que les effets fixes traitent les composants fixes non observes comme des variables man-

quantes et non des residus.


Yit = t + 1Xit + ui + it
Yit = t + 1Xit + ui + it
Yit = t + 1Xit + it avec it = ui + it
Plus generalement, on peut e crire que :
yit = xit + zi + (ui + it)

(2)

o`u (ui + it) represente lerreur composee et ui represente les effets individuels. Lhypoth`ese fondamentale est que les effets individuels ui sont non correles aux regresseurs xit et zi.
Le mod`ele aux effets aleatoires utilise cette hypoth`ese dorthogonalite
pour reduire le nombre de param`etres a` estimer. Pour un large

e chantillon avec des miliers dindividus, un mod`ele a` effets aleatoires


a k+p coefficients et deux param`etres pour la variance, alors que le
mod`ele a` effets fixes a k1+N coefficients et un param`etre pour la
variance. Les coefficients pour les variables invariantes avec le
temps sont identifies dans lestimation a` effets aleatoires. Pour
cette raison, le mod`ele a` effets aleatoire identifie les param`etres
de la population qui decrivent lheterogeneite au niveau individuel.
Pour cette raison les effets aleatoires sont plus efficaces que les effets fixes.
Pour lestimation du mod`ele a` effets aleatoires, on suppose que
u et ont une esperance nulle et :
quils sont non correles aux regresseurs

quils sont homoscedastiques


quils sont non correles lun a` lautre
quil ny a pas de correlation entre les individus et entre les
periodes
Lerreur composee secrit :
it = ui + it
Lerreur i est constituee dune partie qui est specifique a` lindividu
et qui ne varie pas avec le temps ui et une partie qui varie dun
individu et dune periode a` lautre it.
E[it2 | x] = u2 + 2
et la covariance conditionnelle
E[itis | x] = u2 ,

t 6= s

La matrice de covariance des T erreurs peut secrire :


= 2IT + u2 T T
Lestimation des Moindres Carres Generalises secrit :
1 1
1

RE = (X X ) (X y)

Xi 1Xi

X 1yi

Pour obtenir lestimateur des moindres carres generalises des effets


aleatoires, il nous faut definir la matrice de poids qui depend de
deux param`etres et . De meme que pour les moindres carres regroupes pooled OLS, lestimateur des moindres carres generalises
est une moyenne ponderee des estimateurs within et between (la
procedure between consiste a` faire la moyenne de tous les individus pour chaque periode par opposition a` la procedure within vue

plus haut qui fait la moyenne des periodes pour chaque individu).
Les poids optimaux secrivent :
2
2
= 2
=
(1

)
+ T u2
avec

r
=1 2
+ T u2
o`u est le poids de la matrice de covariance des estimateurs between).
Si 6= 1, une regression regroupee ne sera pas efficace car elle
donnera trop de poids a` la variation between
Si = 1( = 0), u2 = 0 ; autrement dit, sil ny a pas deffets
aleatoires alors la regression regroupee des MCO sera optimale

Si = 0, = 1, lestimateur des effets fixes est approprie


Si 6= 0, lestimateur des effets fixes ne sera pas efficace dans
la mesure o`u il ne donne aucun poids a` lestimateur between
La commande xtreg avec loption re estime le mod`ele a` laide
des moindres carres generalises et donne une estimation de 2 et
de u2 ainsi que de rho, la fraction de la variance totale due a` i.
Lavantage des effets aleatoires est quils permettent destimer
leffet des variables qui sont constantes a` travers le temps.
En reprenant lexemple precedent, on fait une regression des effets aleatoires a` laide de loption re. On note que la variable emploi est plus significative que dans lestimation des effets fixes. Par
ailleurs, on peut noter quil ny a pas destimation pour le R2.

. xtreg lsales lemp, re


Random-effects GLS regression
Group variable (i): fcode

Number of obs
Number of groups

=
=

345
115

R-sq:

Obs per group: min =


avg =
max =

3
3.0
3

within = 0.3029
between = 0.7162
overall = 0.6901

Random effects u_i Gaussian


corr(u_i, X)
= 0 (assumed)

Wald chi2(1)
Prob > chi2

=
=

383.87
0.0000

-----------------------------------------------------------------------------lsales |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lemploy |
.8750523
.0446621
19.59
0.000
.7875161
.9625885
_cons |
11.96331
.1657475
72.18
0.000
11.63845
12.28817
-------------+---------------------------------------------------------------sigma_u | .55482492
sigma_e | .28530622
rho | .79087026
(fraction of variance due to u_i)
------------------------------------------------------------------------------

Effets fixes ou effets aleatoires

Le choix des effets fixes par rapport aux effets aleatoires depend
du fait que lon pense que les variables non observees sont susceptibles detre correlees avec les variables explicatives X. Si on
pense quelles le sont alors il faut utiliser des estimateurs a` effets
fixes, sinon on utilise les effets aleatoires.
Si les variables non observees sont correlees aux variables X et
que lon utilise les effets aleatoires au lieu des effets fixes, les estimations seront biaisees car
Cov(X, u) = Cov(Xit, ui + it) 6= 0
ce qui induit un biais dendogeneite.

4.1

Test de Hausman

Le test de Hausman permet de determiner laquelle des deux methodes


utiliser.
Sous lhypoth`ese nulle que les erreurs sont non correlees aux
variables X, les estimations des effets aleatoires et fixes sont de
variables minimales :
Sous H0 : f ixed = random
Si lhypoth`ese nulle est fausse alors seule les effets fixes sont a`
variance minimale (parce que les effets aleatoires souffrent du biais
dendogeneite Cov(Xit, ui + it) 6= 0
f ixed 6= random
beta

Le test de Hausman sappuie donc sur une comparison des estimations, permettant ainsi les variations dechantillon. Si les estimations sont suffisamment differentes, on conclut que lhypoth`ese des
effets aleatoires nest pas tenable.

. xtreg lsale lemp union, fe


Fixed-effects (within) regression
Group variable (i): fcode

Number of obs
Number of groups

=
=

345
115

R-sq:

Obs per group: min =


avg =
max =

3
3.0
3

within = 0.3029
between = 0.7162
overall = 0.6901

corr(u_i, Xb)

= 0.1611

F(1,229)
Prob > F

=
=

99.52
0.0000

-----------------------------------------------------------------------------lsales |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lemploy |
.8092035
.0811145
9.98
0.000
.6493773
.9690297
union | (dropped)
_cons |
12.19437
.2850389
42.78
0.000
11.63273
12.756
-------------+---------------------------------------------------------------sigma_u | .58411543
sigma_e | .28530622
rho | .80737938
(fraction of variance due to u_i)
-----------------------------------------------------------------------------F test that all u_i=0:
F(114, 229) =
11.97
Prob > F = 0.0000

. est store fixed

. xtreg lsale lemp union


Random-effects GLS regression
Group variable (i): fcode

Number of obs
Number of groups

=
=

345
115

R-sq:

Obs per group: min =


avg =
max =

3
3.0
3

within = 0.3029
between = 0.7226
overall = 0.6962

Random effects u_i Gaussian


corr(u_i, X)
= 0 (assumed)

Wald chi2(2)
Prob > chi2

=
=

391.59
0.0000

-----------------------------------------------------------------------------lsales |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lemploy |
.8529599
.046184
18.47
0.000
.762441
.9434789
union |
.2383114
.1350074
1.77
0.078
-.0262983
.5029211
_cons |
11.98902
.1654712
72.45
0.000
11.6647
12.31334
-------------+---------------------------------------------------------------sigma_u | .55061581
sigma_e | .28530622
rho | .78834004
(fraction of variance due to u_i)
------------------------------------------------------------------------------

Les effets fixes permettent la correlation avec les variables X, les


effets aleatoires ne le permettent pas.

. hausman fixed
---- Coefficients ---|
(b)
(B)
(b-B)
sqrt(diag(V_b-V_B))
|
fixed
.
Difference
S.E.
-------------+---------------------------------------------------------------lemploy |
.8092035
.8529599
-.0437564
.0666828
-----------------------------------------------------------------------------b = consistent under Ho and Ha; obtained from xtreg
B = inconsistent under Ha, efficient under Ho; obtained from xtreg
Test:

Ho:

difference in coefficients not systematic


chi2(1) = (b-B)[(V_b-V_B)(-1)](b-B)
=
0.43
Prob>chi2 =
0.5117

Dans notre cas, il nest pas possible de rejeter lhypoth`ese que


les deux estimations produisent des resultats differents. On conclut
que les effets aleatoires sont plus appropries.

UNIVERSITE DE PARIS 11
TD dconomtrie

Anne Plunket
Les modles de panel

Vous disposez dun chantillon de 545 hommes sur une dure allant de 1980 1987. Les
variables sont les suivantes :
use "wagepan.dta"
. describe lwage exper union married hisp black educ expersq
storage display
value
variable name
type
format
label
variable label
------------------------------------------------------------------------------lwage
float %9.0g
log(wage)
exper
byte
%9.0g
labor mkt experience
union
byte
%9.0g
=1 if in union
married
byte
%9.0g
=1 if married
hisp
byte
%9.0g
=1 if Hispanic
black
byte
%9.0g
=1 if black
educ
byte
%9.0g
years of schooling
expersq
int
%9.0g
exper^2
. summarize lwage exper union married hisp black educ expersq
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------lwage |
4360
1.649147
.5326094 -3.579079
4.05186
exper |
4360
6.514679
2.825873
0
18
union |
4360
.2440367
.4295639
0
1
married |
4360
.4389908
.4963208
0
1
hisp |
4360
.1559633
.3628622
0
1
-------------+-------------------------------------------------------black |
4360
.1155963
.3197769
0
1
educ |
4360
11.76697
1.746181
3
16
expersq |
4360
50.42477
40.78199
0
324

1. On vous propose une rgression des MCO pour les deux premires annes. Quel problme
est engendr lorsque lon utilise lon regroupe -pooled-des donnes de panel et quon les
estime par la mthodes des moindres carrs ordinaires ? Quelles solutions peuvent tre
envisages.
. reg lwage exper expersq year married black hisp if year<1982
Source |
SS
df
MS
-------------+-----------------------------Model | 11.7925648
6 1.96542747
Residual | 314.391356 1083 .290296728
-------------+-----------------------------Total | 326.183921 1089 .299526098

Number of obs
F( 6, 1083)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1090
6.77
0.0000
0.0362
0.0308
.53879

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]

-------------+---------------------------------------------------------------exper |
.0965928
.0326945
2.95
0.003
.032441
.1607446
expersq |
-.009292
.0032182
-2.89
0.004
-.0156067
-.0029773
year |
.0729724
.0351822
2.07
0.038
.0039394
.1420053
married |
.1473654
.0397022
3.71
0.000
.0694633
.2252674
black | -.0556556
.0521995
-1.07
0.287
-.1580792
.046768
hisp | -.0475284
.046154
-1.03
0.303
-.1380898
.0430331
_cons | -143.2867
69.65456
-2.06
0.040
-279.9598
-6.613502
------------------------------------------------------------------------------

2. Soit une rgression par la mthode des moindres carrs ordinaires avec introduction de
variables indicatrices pour chaque individu -least squares dummy variable LSDV- pour
les deux premires annes. Comparez cette rgression avec la prcdente. Expliquez pourquoi black et hisp sont limins de la rgression. En quoi consiste le test du Fisher en bas
du tableau ?
. areg lwage exper expersq year married black hisp if year<1982, absorb(id)
Linear regression, absorbing indicators

Number of obs
F( 3,
542)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1090
9.15
0.0000
0.7316
0.4606
.40194

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper |
.2133325
.0575233
3.71
0.000
.1003365
.3263285
expersq | -.0135697
.0073653
-1.84
0.066
-.0280377
.0008982
year | (dropped)
married |
.0140556
.0709368
0.20
0.843
-.1252891
.1534004
black | (dropped)
hisp | (dropped)
_cons |
.9081648
.110831
8.19
0.000
.6904539
1.125876
-------------+---------------------------------------------------------------id |
F(544, 542) =
2.581
0.000
(545 categories)
. list id year id1 id2 lwage exper black hisp

1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.

+-------------------------------------------------------------+
|
id
year
id1
id2
lwage
exper
black
hisp |
|-------------------------------------------------------------|
|
13
1980
1
0
1.19754
1
0
0 |
|
13
1981
1
0
1.85306
2
0
0 |
|
13
1982
1
0
1.344462
3
0
0 |
|
13
1983
1
0
1.433213
4
0
0 |
|
13
1984
1
0
1.568125
5
0
0 |
|-------------------------------------------------------------|
|
13
1985
1
0
1.699891
6
0
0 |
|
13
1986
1
0
-.7202626
7
0
0 |
|
13
1987
1
0
1.669188
8
0
0 |
|
17
1980
0
1
1.675962
4
0
0 |
|
17
1981
0
1
1.518398
5
0
0 |
|-------------------------------------------------------------|
|
17
1982
0
1
1.559191
6
0
0 |

12.
13.
14.
15.

|
17
1983
0
1
1.72541
7
0
0 |
|
17
1984
0
1
1.622022
8
0
0 |
|
17
1985
0
1
1.608588
9
0
0 |
|
17
1986
0
1
1.572385
10
0
0 |
|-------------------------------------------------------------|
16. |
17
1987
0
1
1.820334
11
0
0 |

3. Soit la rgression par les effets fixes (la mthode within). Y a t-il une diffrence avec la
rgression prcdente ?
. xtreg lwage exper expersq year married black hisp if year<1982, fe i(id)
warning: existing panel variable is not id
Fixed-effects (within) regression
Group variable: id

Number of obs
Number of groups

=
=

1090
545

R-sq:

Obs per group: min =


avg =
max =

2
2.0
2

within = 0.0482
between = 0.0075
overall = 0.0127

corr(u_i, Xb)

F(3,542)
Prob > F

= -0.2177

=
=

9.15
0.0000

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper |
.2133325
.0575233
3.71
0.000
.1003365
.3263285
expersq | -.0135697
.0073653
-1.84
0.066
-.0280377
.0008982
year | (dropped)
married |
.0140556
.0709368
0.20
0.843
-.1252891
.1534004
black | (dropped)
hisp | (dropped)
_cons |
.9081648
.110831
8.19
0.000
.6904539
1.125876
-------------+---------------------------------------------------------------sigma_u | .47563131
sigma_e | .40194096
rho | .58338275
(fraction of variance due to u_i)
-----------------------------------------------------------------------------F test that all u_i=0:
F(544, 542) =
2.58
Prob > F = 0.0000
xtset id year
panel variable:
time variable:
delta:
.
.
.
.
.
.
.

gen
gen
gen
gen
gen
gen
gen

id (strongly balanced)
year, 1980 to 1987
1 unit

dexp = d.exper
dexp2 = d.expersq
dyear = d.year
dmarr = d.married
dblack = d.black
dhisp = d.hisp
dlwage = d.lwage

. list id dlwage exper dexp dexp2 dyear dmarr dblack, nol noo nod
+-------------------------------------------------------------------+
|
id
dlwage
exper
dexp
dexp2
dyear
dmarr
dblack |

|-------------------------------------------------------------------|
|
13
.
1
.
.
.
.
. |
|
13
.6555198
2
1
3
1
0
0 |
|
13
-.5085983
3
1
5
1
0
0 |
|
13
.0887517
4
1
7
1
0
0 |
|
13
.1349118
5
1
9
1
0
0 |
|-------------------------------------------------------------------|
|
13
.1317658
6
1
11
1
0
0 |
|
13
-2.420154
7
1
13
1
0
0 |
|
13
2.389451
8
1
15
1
0
0 |
|
17
.
4
.
.
.
.
. |
|
17
-.1575643
5
1
9
1
0
0 |
|-------------------------------------------------------------------|
|
17
.0407923
6
1
11
1
0
0 |

. reg dlwage dexp dexp2 dyear dmarr dblack dhisp if year< 1982
Source |
SS
df
MS
-------------+-----------------------------Model | 1.10459105
2 .552295523
Residual | 175.127289
542 .323113079
-------------+-----------------------------Total |
176.23188
544 .323955662

Number of obs
F( 2,
542)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

545
1.71
0.1820
0.0063
0.0026
.56843

-----------------------------------------------------------------------------dlwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------dexp | (dropped)
dexp2 | -.0135697
.0073653
-1.84
0.066
-.0280377
.0008982
dyear | (dropped)
dmarr |
.0140556
.0709368
0.20
0.843
-.1252891
.1534004
dblack | (dropped)
dhisp | (dropped)
_cons |
.2133325
.0575233
3.71
0.000
.1003365
.3263285
-----------------------------------------------------------------------------. reg dlwage dexp dexp2 dyear dmarr dblack dhisp if year< 1983
Source |
SS
df
MS
-------------+-----------------------------Model | 1.85609505
2 .928047523
Residual |
287.68175 1087 .264656624
-------------+-----------------------------Total | 289.537845 1089 .265874973

Number of obs
F( 2, 1087)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1090
3.51
0.0303
0.0064
0.0046
.51445

-----------------------------------------------------------------------------dlwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------dexp | (dropped)
dexp2 | -.0108202
.0045143
-2.40
0.017
-.0196779
-.0019625
dyear | (dropped)
dmarr |
.0490769
.0478281
1.03
0.305
-.0447689
.1429228
dblack | (dropped)
dhisp | (dropped)
_cons |
.1717418
.0398248
4.31
0.000
.0935996
.2498839

-----------------------------------------------------------------------------. xtreg lwage exper expersq year married black hisp if year<1983, fe i(id)
Fixed-effects (within) regression
Group variable: id

Number of obs
Number of groups

=
=

1635
545

R-sq:

Obs per group: min =


avg =
max =

3
3.0
3

within = 0.0622
between = 0.0011
overall = 0.0073

corr(u_i, Xb)

F(3,1087)
Prob > F

= -0.3164

=
=

24.05
0.0000

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper | (dropped)
expersq | -.0096686
.0033856
-2.86
0.004
-.0163116
-.0030256
year |
.1612026
.0298573
5.40
0.000
.1026182
.2197871
married |
.0640683
.0446676
1.43
0.152
-.0235763
.1517129
black | (dropped)
hisp | (dropped)
_cons | -317.6788
59.08473
-5.38
0.000
-433.6118
-201.7458
-------------+---------------------------------------------------------------sigma_u | .45922815
sigma_e | .37488352
rho | .60009562
(fraction of variance due to u_i)
-----------------------------------------------------------------------------F test that all u_i=0:
F(544, 1087) =
3.80
Prob > F = 0.0000
. reg lwage exper expersq year married black hisp if year<1983
Source |
SS
df
MS
-------------+-----------------------------Model | 22.6120652
6 3.76867753
Residual | 443.284137 1628 .272287553
-------------+-----------------------------Total | 465.896202 1634 .285126194

Number of obs
F( 6, 1628)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1635
13.84
0.0000
0.0485
0.0450
.52181

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper |
.0851297
.0262017
3.25
0.001
.0337371
.1365223
expersq | -.0080752
.0023391
-3.45
0.001
-.0126632
-.0034873
year |
.0548031
.0186986
2.93
0.003
.0181273
.0914789
married |
.1623551
.0299007
5.43
0.000
.1037072
.2210029
black | -.0867096
.04137
-2.10
0.036
-.1678536
-.0055657
hisp | -.0323874
.0364623
-0.89
0.375
-.1039053
.0391306
_cons | -107.2864
37.01138
-2.90
0.004
-179.8813
-34.69145
-----------------------------------------------------------------------------. predict resid if e(sample), resid
. gen resid1 =l.resid
. reg resid resid1 if e(sample)

Source |
SS
df
MS
-------------+-----------------------------Model |
73.883776
1
73.883776
Residual | 205.582489 1088 .188954494
-------------+-----------------------------Total | 279.466265 1089 .256626506

Number of obs
F( 1, 1088)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1090
391.01
0.0000
0.2644
0.2637
.43469

-----------------------------------------------------------------------------resid |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------resid1 |
.4844822
.0245009
19.77
0.000
.4364079
.5325566
_cons |
.0016788
.0131666
0.13
0.899
-.024156
.0275136
------------------------------------------------------------------------------

4. En quoi consiste la rgression des panels effets alatoires. Quelle diffrence faites-vous
avec les effets fixes ?
. xtreg lwage exper expersq year married black hisp if year<1982, re
Random-effects GLS regression
Group variable: id

Number of obs
Number of groups

=
=

1090
545

R-sq:

Obs per group: min =


avg =
max =

2
2.0
2

within = 0.0442
between = 0.0327
overall = 0.0357

Random effects u_i ~ Gaussian


corr(u_i, X)
= 0 (assumed)

Wald chi2(6)
Prob > chi2

=
=

43.04
0.0000

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper |
.1051732
.0366117
2.87
0.004
.0334156
.1769308
expersq | -.0100233
.0035787
-2.80
0.005
-.0170374
-.0030093
year |
.0725566
.0287777
2.52
0.012
.0161535
.1289598
married |
.1179335
.042232
2.79
0.005
.0351603
.2007067
black | -.0597944
.0627198
-0.95
0.340
-.1827229
.0631342
hisp | -.0458667
.0554806
-0.83
0.408
-.1546067
.0628732
_cons |
-142.475
56.95574
-2.50
0.012
-254.1062
-30.84384
-------------+---------------------------------------------------------------sigma_u | .35906291
sigma_e | .40194096
rho | .44383424
(fraction of variance due to u_i)
------------------------------------------------------------------------------

5. On vous propose un test de Hausman pour la rgression sur les deux premires annes.
Analysez le rsultat ?
. quietly xtreg lwage exper expersq year married black hisp if year<1982, fe
. est store fixed
. quietly xtreg lwage exper expersq year married black hisp if year<1982, re
. hausman fixed
---- Coefficients ----

|
(b)
(B)
(b-B)
sqrt(diag(V_b-V_B))
|
fixed
.
Difference
S.E.
-------------+---------------------------------------------------------------exper |
.2133325
.1051732
.1081593
.044368
expersq |
-.0135697
-.0100233
-.0035464
.0064374
married |
.0140556
.1179335
-.1038778
.0569955
-----------------------------------------------------------------------------b = consistent under Ho and Ha; obtained from xtreg
B = inconsistent under Ha, efficient under Ho; obtained from xtreg
Test:

Ho:

difference in coefficients not systematic


chi2(3) = (b-B)[(V_b-V_B)^(-1)](b-B)
=
19.93
Prob>chi2 =
0.0002

6. En quoi consiste le test de Breusch et Pagan dans le cas des donnes de panel ?
. quietly xtreg lwage exper expersq year married black hisp if year<1982, re
. xttest0
Breusch and Pagan Lagrangian multiplier test for random effects
lwage[id,t] = Xb + u[id] + e[id,t]
Estimated results:
|
Var
sd = sqrt(Var)
---------+----------------------------lwage |
.2995261
.5472898
e |
.1615565
.401941
u |
.1289262
.3590629
Test:

Var(u) = 0
chi2(1) =
Prob > chi2 =

105.00
0.0000

7. Que se passe-t-il pour les coefficients lorsque les priodes de temps augmentent ?
. xtreg lwage exper expersq year married black hisp, fe
Fixed-effects (within) regression
Group variable: id

Number of obs
Number of groups

=
=

4360
545

R-sq:

Obs per group: min =


avg =
max =

8
8.0
8

within = 0.1741
between = 0.0014
overall = 0.0534

corr(u_i, Xb)

F(3,3812)
Prob > F

= -0.1289

=
=

267.93
0.0000

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper |
.1169371
.0084385
13.86
0.000
.1003926
.1334815
expersq | -.0043329
.0006066
-7.14
0.000
-.0055222
-.0031436
year | (dropped)
married |
.0473384
.0183445
2.58
0.010
.0113725
.0833043

black | (dropped)
hisp | (dropped)
_cons |
1.085044
.026295
41.26
0.000
1.033491
1.136598
-------------+---------------------------------------------------------------sigma_u | .40387668
sigma_e | .35204264
rho | .56824996
(fraction of variance due to u_i)
-----------------------------------------------------------------------------F test that all u_i=0:
F(544, 3812) =
9.33
Prob > F = 0.0000
. xtreg lwage exper expersq year married black hisp, re
Random-effects GLS regression
Group variable: id

Number of obs
Number of groups

=
=

4360
545

R-sq:

Obs per group: min =


avg =
max =

8
8.0
8

within = 0.1738
between = 0.0482
overall = 0.1054

Random effects u_i ~ Gaussian


corr(u_i, X)
= 0 (assumed)

Wald chi2(6)
Prob > chi2

=
=

827.17
0.0000

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper |
.0439292
.0137259
3.20
0.001
.017027
.0708315
expersq | -.0042308
.0005974
-7.08
0.000
-.0054017
-.0030599
year |
.0703197
.0103635
6.79
0.000
.0500075
.0906319
married |
.0699282
.0169834
4.12
0.000
.0366413
.1032152
black | -.1293855
.0520067
-2.49
0.013
-.2313167
-.0274542
hisp | -.0333494
.0459016
-0.73
0.468
-.123315
.0566161
_cons | -137.9134
20.49045
-6.73
0.000
-178.074
-97.75286
-------------+---------------------------------------------------------------sigma_u | .35927864
sigma_e | .35204264
rho | .51017158
(fraction of variance due to u_i)
------------------------------------------------------------------------------

UNIVERSITE DE PARIS 11
TD dconomtrie

Anne Plunket
Les modles de panel

Vous disposez dun chantillon de 545 hommes sur une dure allant de 1980 1987. Les
variables sont les suivantes :
use "wagepan.dta"
. describe lwage exper union married hisp black educ expersq
storage display
value
variable name
type
format
label
variable label
------------------------------------------------------------------------------lwage
float %9.0g
log(wage)
exper
byte
%9.0g
labor mkt experience
union
byte
%9.0g
=1 if in union
married
byte
%9.0g
=1 if married
hisp
byte
%9.0g
=1 if Hispanic
black
byte
%9.0g
=1 if black
educ
byte
%9.0g
years of schooling
expersq
int
%9.0g
exper^2
. summarize lwage exper union married hisp black educ expersq
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------lwage |
4360
1.649147
.5326094 -3.579079
4.05186
exper |
4360
6.514679
2.825873
0
18
union |
4360
.2440367
.4295639
0
1
married |
4360
.4389908
.4963208
0
1
hisp |
4360
.1559633
.3628622
0
1
-------------+-------------------------------------------------------black |
4360
.1155963
.3197769
0
1
educ |
4360
11.76697
1.746181
3
16
expersq |
4360
50.42477
40.78199
0
324

On vous propose une rgression des MCO pour les deux premires annes. Quel problme est engendr lorsque lon utilise lon regroupe -pooled-des donnes de panel et
quon les estime par la mthodes des moindres carrs ordinaires ? Quelles solutions
peuvent tre envisages.
. reg lwage exper expersq year married black hisp if year<1982
Source |
SS
df
MS
-------------+-----------------------------Model | 11.7925648
6 1.96542747
Residual | 314.391356 1083 .290296728
-------------+-----------------------------Total | 326.183921 1089 .299526098

Number of obs
F( 6, 1083)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1090
6.77
0.0000
0.0362
0.0308
.53879

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]

-------------+---------------------------------------------------------------exper |
.0965928
.0326945
2.95
0.003
.032441
.1607446
expersq |
-.009292
.0032182
-2.89
0.004
-.0156067
-.0029773
year |
.0729724
.0351822
2.07
0.038
.0039394
.1420053
married |
.1473654
.0397022
3.71
0.000
.0694633
.2252674
black | -.0556556
.0521995
-1.07
0.287
-.1580792
.046768
hisp | -.0475284
.046154
-1.03
0.303
-.1380898
.0430331
_cons | -143.2867
69.65456
-2.06
0.040
-279.9598
-6.613502
------------------------------------------------------------------------------

Lorsque lon utilise les moindres carrs ordinaires pour estimer des panels, on ne peut pas
contrler lhtrognit non observe. Par consquent, les rsultats sont biaiss. Trois
mthodes permettent de contrler lhtrognit non observes :
LSDV : Si on introduit une variable indicatrice par individu, il est possible de contrler
lhtrognit non observe. Chaque variable indicatrice est une proxi pour les effets
non observs et invariants avec le temps.
Within : Une autre manire dobtenir des effets fixes est de procder une rgression
within. Il sagit alors dune rgression des MCO de lcart pour chaque individu de
y sa moyenne intra-groupe sur lcart de chaque variable pour chaque individu sa
moyenne (cf cours).
Diffrence : Enfin, on peut utiliser la mthode de la diffrence premire pour liminer
leffet de lhtrognit individuelle non observe
Soit une rgression par la mthode des moindres carrs ordinaires avec introduction de variables indicatrices pour chaque individu -least squares dummy variable
LSDV- pour les deux premires annes. Comparez cette rgression avec la prcdente. Expliquez pourquoi black et hisp sont limins de la rgression. En quoi
consiste le test du Fisher en bas du tableau ?
. areg lwage exper expersq year married black hisp if year<1982, absorb(id)
Linear regression, absorbing indicators

Number of obs
F( 3,
542)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1090
9.15
0.0000
0.7316
0.4606
.40194

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper |
.2133325
.0575233
3.71
0.000
.1003365
.3263285
expersq | -.0135697
.0073653
-1.84
0.066
-.0280377
.0008982
year | (dropped)
married |
.0140556
.0709368
0.20
0.843
-.1252891
.1534004
black | (dropped)
hisp | (dropped)
_cons |
.9081648
.110831
8.19
0.000
.6904539
1.125876
-------------+---------------------------------------------------------------id |
F(544, 542) =
2.581
0.000
(545 categories)

Les variables qui sont constantes travers le temps sont totalement colinaires avec les
variables indicatrices spcifiques aux individus et ne peuvent donc pas tre estimes. La
variable married nest plus significative. Ceci sexplique par le fait que seule une petite
partie des individus ont chang de statut marital par consquent, la variable nest pas

limine comme pour les variables qui ne varient pas dans le temps mais sa variation
concerne si peu de personnes quelle ne ressort pas comme significative (lcart-type est
beaucoup plus lev).
. list id year id1 id2 lwage exper black hisp

1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.

+-------------------------------------------------------------+
|
id
year
id1
id2
lwage
exper
black
hisp |
|-------------------------------------------------------------|
|
13
1980
1
0
1.19754
1
0
0 |
|
13
1981
1
0
1.85306
2
0
0 |
|
13
1982
1
0
1.344462
3
0
0 |
|
13
1983
1
0
1.433213
4
0
0 |
|
13
1984
1
0
1.568125
5
0
0 |
|-------------------------------------------------------------|
|
13
1985
1
0
1.699891
6
0
0 |
|
13
1986
1
0
-.7202626
7
0
0 |
|
13
1987
1
0
1.669188
8
0
0 |
|
17
1980
0
1
1.675962
4
0
0 |
|
17
1981
0
1
1.518398
5
0
0 |
|-------------------------------------------------------------|
|
17
1982
0
1
1.559191
6
0
0 |
|
17
1983
0
1
1.72541
7
0
0 |
|
17
1984
0
1
1.622022
8
0
0 |
|
17
1985
0
1
1.608588
9
0
0 |
|
17
1986
0
1
1.572385
10
0
0 |
|-------------------------------------------------------------|
|
17
1987
0
1
1.820334
11
0
0 |

Le test du Fisher en bas du tableau permet de tester la significativit globale des effets
fixes individuels (il y a q = 544 contraintes).
H0 : id1 = id2 = ... = id544
car id545 devient la constante.
F (q, n k 1) =

(SCRc SCR)/q
SCR/n k

Soit la rgression par les effets fixes (la mthode within) et la rgression diffrence
premire pour deux annes (< 1982) et trois annes (< 1983). Y a t-il une diffrence
avec la rgression prcdente ?
. xtreg lwage exper expersq year married black hisp if year<1982, fe i(id)
warning: existing panel variable is not id
Fixed-effects (within) regression
Group variable: id

Number of obs
Number of groups

=
=

1090
545

R-sq:

Obs per group: min =


avg =
max =

2
2.0
2

within = 0.0482
between = 0.0075
overall = 0.0127

corr(u_i, Xb)

F(3,542)
Prob > F

= -0.2177

=
=

9.15
0.0000

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]

-------------+---------------------------------------------------------------exper |
.2133325
.0575233
3.71
0.000
.1003365
.3263285
expersq | -.0135697
.0073653
-1.84
0.066
-.0280377
.0008982
year | (dropped)
married |
.0140556
.0709368
0.20
0.843
-.1252891
.1534004
black | (dropped)
hisp | (dropped)
_cons |
.9081648
.110831
8.19
0.000
.6904539
1.125876
-------------+---------------------------------------------------------------sigma_u | .47563131
sigma_e | .40194096
rho | .58338275
(fraction of variance due to u_i)
-----------------------------------------------------------------------------F test that all u_i=0:
F(544, 542) =
2.58
Prob > F = 0.0000
xtset id year
panel variable: id (strongly balanced)
time variable: year, 1980 to 1987
delta: 1 unit
.
.
.
.
.
.
.

gen
gen
gen
gen
gen
gen
gen

dexp = d.exper // On cre les diffrences premires expr(t)-expr(t-1)


dexp2 = d.expersq
dyear = d.year
dmarr = d.married
dblack = d.black
dhisp = d.hisp
dlwage = d.lwage

. list id dlwage exper dexp dexp2 dyear dmarr dblack, nol noo nod
+-------------------------------------------------------------------+
|
id
dlwage
exper
dexp
dexp2
dyear
dmarr
dblack |
|-------------------------------------------------------------------|
|
13
.
1
.
.
.
.
. |
|
13
.6555198
2
1
3
1
0
0 |
|
13
-.5085983
3
1
5
1
0
0 |
|
13
.0887517
4
1
7
1
0
0 |
|
13
.1349118
5
1
9
1
0
0 |
|-------------------------------------------------------------------|
|
13
.1317658
6
1
11
1
0
0 |
|
13
-2.420154
7
1
13
1
0
0 |
|
13
2.389451
8
1
15
1
0
0 |
|
17
.
4
.
.
.
.
. |
|
17
-.1575643
5
1
9
1
0
0 |
|-------------------------------------------------------------------|
|
17
.0407923
6
1
11
1
0
0 |

. reg dlwage dexp dexp2 dyear dmarr dblack dhisp if year< 1982
Source |
SS
df
MS
-------------+-----------------------------Model | 1.10459105
2 .552295523
Residual | 175.127289
542 .323113079
-------------+-----------------------------Total |
176.23188
544 .323955662

Number of obs
F( 2,
542)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

545
1.71
0.1820
0.0063
0.0026
.56843

-----------------------------------------------------------------------------dlwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------dexp | (dropped)
dexp2 | -.0135697
.0073653
-1.84
0.066
-.0280377
.0008982
dyear | (dropped)
dmarr |
.0140556
.0709368
0.20
0.843
-.1252891
.1534004
dblack | (dropped)
dhisp | (dropped)
_cons |
.2133325
.0575233
3.71
0.000
.1003365
.3263285
------------------------------------------------------------------------------

On constate que les coefficients pour la mthode des effets fixes (within) et la mthode
des diffrences premires sont strictement identiques. Les deux mthodes sont donc identiques sur deux priodes.
. xtreg lwage exper expersq year married black hisp if year<1983, fe i(id)
Fixed-effects (within) regression
Group variable: id

Number of obs
Number of groups

=
=

1635
545

R-sq:

Obs per group: min =


avg =
max =

3
3.0
3

within = 0.0622
between = 0.0011
overall = 0.0073

corr(u_i, Xb)

F(3,1087)
Prob > F

= -0.3164

=
=

24.05
0.0000

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper | (dropped)
expersq | -.0096686
.0033856
-2.86
0.004
-.0163116
-.0030256
year |
.1612026
.0298573
5.40
0.000
.1026182
.2197871
married |
.0640683
.0446676
1.43
0.152
-.0235763
.1517129
black | (dropped)
hisp | (dropped)
_cons | -317.6788
59.08473
-5.38
0.000
-433.6118
-201.7458
-------------+---------------------------------------------------------------sigma_u | .45922815
sigma_e | .37488352
rho | .60009562
(fraction of variance due to u_i)
-----------------------------------------------------------------------------F test that all u_i=0:
F(544, 1087) =
3.80
Prob > F = 0.0000
. reg dlwage dexp dexp2 dyear dmarr dblack dhisp if year< 1983
Source |
SS
df
MS
-------------+-----------------------------Model | 1.85609505
2 .928047523
Residual |
287.68175 1087 .264656624
-------------+-----------------------------Total | 289.537845 1089 .265874973

Number of obs
F( 2, 1087)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1090
3.51
0.0303
0.0064
0.0046
.51445

-----------------------------------------------------------------------------dlwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]

-------------+---------------------------------------------------------------dexp | (dropped)
dexp2 | -.0108202
.0045143
-2.40
0.017
-.0196779
-.0019625
dyear | (dropped)
dmarr |
.0490769
.0478281
1.03
0.305
-.0447689
.1429228
dblack | (dropped)
dhisp | (dropped)
_cons |
.1717418
.0398248
4.31
0.000
.0935996
.2498839
------------------------------------------------------------------------------

Lorsque lon compare la mthode par les effets fixes et par les diffrences premires pour
trois priodes, les coefficients ne sont plus identiques. Autrement dit, lorsque les priodes
sont suprieures deux T > 2, les deux mthodes ne donnent plus des rsultats similaires.
. reg lwage exper expersq year married black hisp if year<1983
Source |
SS
df
MS
-------------+-----------------------------Model | 22.6120652
6 3.76867753
Residual | 443.284137 1628 .272287553
-------------+-----------------------------Total | 465.896202 1634 .285126194

Number of obs
F( 6, 1628)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1635
13.84
0.0000
0.0485
0.0450
.52181

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper |
.0851297
.0262017
3.25
0.001
.0337371
.1365223
expersq | -.0080752
.0023391
-3.45
0.001
-.0126632
-.0034873
year |
.0548031
.0186986
2.93
0.003
.0181273
.0914789
married |
.1623551
.0299007
5.43
0.000
.1037072
.2210029
black | -.0867096
.04137
-2.10
0.036
-.1678536
-.0055657
hisp | -.0323874
.0364623
-0.89
0.375
-.1039053
.0391306
_cons | -107.2864
37.01138
-2.90
0.004
-179.8813
-34.69145
------------------------------------------------------------------------------

. predict resid if e(sample), resid // rsidu la priode t


. gen resid1 =l.resid // rdidus la priode t-1
. reg resid resid1 if e(sample)
Source |
SS
df
MS
-------------+-----------------------------Model |
73.883776
1
73.883776
Residual | 205.582489 1088 .188954494
-------------+-----------------------------Total | 279.466265 1089 .256626506

Number of obs
F( 1, 1088)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1090
391.01
0.0000
0.2644
0.2637
.43469

-----------------------------------------------------------------------------resid |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------resid1 |
.4844822
.0245009
19.77
0.000
.4364079
.5325566
_cons |
.0016788
.0131666
0.13
0.899
-.024156
.0275136
------------------------------------------------------------------------------

On constate que lon peut mettre en vidence de lautocorrlation entre les rsidus pour
les donnes de panel. De mme on pourrait mettre en vidence de lhtroscdasticit.
6

Ceci indique que les simples modles de panels ne sont pas suffisants et quil faudrait
utiliser des mthodes qui permettent de corriger lautocorrlation et lhtroscdasticit,
ce qui dpasse le cadre de ce cours.
En quoi consiste la rgression des panels effets alatoires. Quelle diffrence faitesvous avec les effets fixes ?
La mthode destimation des panels effets fixes suppose que lhtrognit non observes ui est corrle une ou plusieurs variables explicatives du modle. Les effets
alatoires supposent que les effets non observs ne sont pas corrls aux variables du modle mais quils varient de manire alatoire dun individu lautre et que par consquent
ils peuvent tre considrs comme des rsidus.
eit = ui + vit
Un des avantages des effets alatoires est quils permettent destimer limpact des variables qui sont constantes dans le temps.
La mthode destimation est de type des moindres carrs gnraliss (GLS - Generalized
Least Squares. On peut noter que les coefficients sont plus proches de ceux obtenus par
les MCO (regroupement des donnes -pooled-).
. xtreg lwage exper expersq year married black hisp if year<1982, re
Random-effects GLS regression
Group variable: id

Number of obs
Number of groups

=
=

1090
545

R-sq:

Obs per group: min =


avg =
max =

2
2.0
2

within = 0.0442
between = 0.0327
overall = 0.0357

Random effects u_i ~ Gaussian


corr(u_i, X)
= 0 (assumed)

Wald chi2(6)
Prob > chi2

=
=

43.04
0.0000

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper |
.1051732
.0366117
2.87
0.004
.0334156
.1769308
expersq | -.0100233
.0035787
-2.80
0.005
-.0170374
-.0030093
year |
.0725566
.0287777
2.52
0.012
.0161535
.1289598
married |
.1179335
.042232
2.79
0.005
.0351603
.2007067
black | -.0597944
.0627198
-0.95
0.340
-.1827229
.0631342
hisp | -.0458667
.0554806
-0.83
0.408
-.1546067
.0628732
_cons |
-142.475
56.95574
-2.50
0.012
-254.1062
-30.84384
-------------+---------------------------------------------------------------sigma_u | .35906291
sigma_e | .40194096
rho | .44383424
(fraction of variance due to u_i)
------------------------------------------------------------------------------

On vous propose un test de Hausman pour la rgression sur les deux premires annes. Analysez le rsultat ?
Sous lhypothse nulle que les erreurs sont non corrles aux variables explicatives, les
estimateurs des effets fixes et des effets alatoires sont tous deux convergents (consistent
estimator mais les effets alatoires sont plus efficaces ( variance minimale) dans la mesure o ils tiennent compte de la structure des erreurs.
Si lhypothse nulle est rejete alors seuls les effets fixes sont convergents.
Par consquent, le test consiste comparer les estimations. Si les estimations sont suffisamment diffrentes, on en conclut que les effets alatoires ne sont pas tenables.
7

Le test ne porte que sur la comparaison des estimations pour les variables qui varient
travers le temps. Dans notre cas, il y en a trois, par consquent, le test suit un chi2 3
degrs de libert.
Dans notre cas, on rejette lhypothse nulle de non corrlation entre x et le terme derreur.
Par consquent, les effets fixes sont la technique destimation prfre ici.
. quietly xtreg lwage exper expersq year married black hisp if year<1982, fe
. est store fixed
. quietly xtreg lwage exper expersq year married black hisp if year<1982, re
. hausman fixed
---- Coefficients ---|
(b)
(B)
(b-B)
sqrt(diag(V_b-V_B))
|
fixed
.
Difference
S.E.
-------------+---------------------------------------------------------------exper |
.2133325
.1051732
.1081593
.044368
expersq |
-.0135697
-.0100233
-.0035464
.0064374
married |
.0140556
.1179335
-.1038778
.0569955
-----------------------------------------------------------------------------b = consistent under Ho and Ha; obtained from xtreg
B = inconsistent under Ha, efficient under Ho; obtained from xtreg
Test:

Ho:

difference in coefficients not systematic


chi2(3) = (b-B)[(V_b-V_B)^(-1)](b-B)
=
19.93
Prob>chi2 =
0.0002

En quoi consiste le test de Breusch et Pagan dans le cas des donnes de panel ?
Ce test permet de tester sil y a une composante spcifique lindividu dans le terme
derreur des MCO. Selon lhypothse nulle H0 : V ar(u) = 0, il ny a pas de composante
spcifique lindividu dans le terme derreur. Si on rejette cette hypothse, a implique
que lon utilise une rgression par les effets alatoires.
. quietly xtreg lwage exper expersq year married black hisp if year<1982, re
. xttest0
Breusch and Pagan Lagrangian multiplier test for random effects
lwage[id,t] = Xb + u[id] + e[id,t]
Estimated results:
|
Var
sd = sqrt(Var)
---------+----------------------------lwage |
.2995261
.5472898
e |
.1615565
.401941
u |
.1289262
.3590629
Test:

Var(u) = 0
chi2(1) =
Prob > chi2 =

105.00
0.0000

Que se passe-t-il pour les coefficients lorsque les priodes de temps augmentent ?
Lorsque T , les coefficients des effets fixes et des effets alatoires convergent. Le
composant spcifique lindividu de lerreur compos devient plus grand et 0. On

peut en effet constater cela lorsque lon fait la rgression sur les 8 priodes, les coefficients
sont plus proches que sur deux priodes.
. xtreg lwage exper expersq year married black hisp, fe
Fixed-effects (within) regression
Group variable: id

Number of obs
Number of groups

=
=

4360
545

R-sq:

Obs per group: min =


avg =
max =

8
8.0
8

within = 0.1741
between = 0.0014
overall = 0.0534

corr(u_i, Xb)

F(3,3812)
Prob > F

= -0.1289

=
=

267.93
0.0000

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper |
.1169371
.0084385
13.86
0.000
.1003926
.1334815
expersq | -.0043329
.0006066
-7.14
0.000
-.0055222
-.0031436
year | (dropped)
married |
.0473384
.0183445
2.58
0.010
.0113725
.0833043
black | (dropped)
hisp | (dropped)
_cons |
1.085044
.026295
41.26
0.000
1.033491
1.136598
-------------+---------------------------------------------------------------sigma_u | .40387668
sigma_e | .35204264
rho | .56824996
(fraction of variance due to u_i)
-----------------------------------------------------------------------------F test that all u_i=0:
F(544, 3812) =
9.33
Prob > F = 0.0000
. xtreg lwage exper expersq year married black hisp, re
Random-effects GLS regression
Group variable: id

Number of obs
Number of groups

=
=

4360
545

R-sq:

Obs per group: min =


avg =
max =

8
8.0
8

within = 0.1738
between = 0.0482
overall = 0.1054

Random effects u_i ~ Gaussian


corr(u_i, X)
= 0 (assumed)

Wald chi2(6)
Prob > chi2

=
=

827.17
0.0000

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------exper |
.0439292
.0137259
3.20
0.001
.017027
.0708315
expersq | -.0042308
.0005974
-7.08
0.000
-.0054017
-.0030599
year |
.0703197
.0103635
6.79
0.000
.0500075
.0906319
married |
.0699282
.0169834
4.12
0.000
.0366413
.1032152
black | -.1293855
.0520067
-2.49
0.013
-.2313167
-.0274542
hisp | -.0333494
.0459016
-0.73
0.468
-.123315
.0566161
_cons | -137.9134
20.49045
-6.73
0.000
-178.074
-97.75286
-------------+---------------------------------------------------------------sigma_u | .35927864

sigma_e | .35204264
rho | .51017158
(fraction of variance due to u_i)
------------------------------------------------------------------------------

10

UNIVERSITE DE PARIS 11
Exam dEconomtrie M1 Session 1 Janvier 2007

A. Plunket
Correction

Les quations simultanes


exemple pris du WOOLDRIDGE p.537
On souhaite tudier loffre de travail des femmes maries de la population activive. Afin de
modliser la fonction de doffre, on crit loffre de salaire en fonction des heures de travail et
des variables de productivit habituelle. Avec la condition dquilibre impose, les quations
structurelles scrivent :
hours = 0 + 1 log(wage) + 2 educ + 3 age + 4 kids6 + 5 nwif e + u1 (1)
log(wage) = 6 + 7 hours + 8 educ + 9 exper + 10 exper 2 + u2

(2)

La premire equation est une quation doffre Les variables sont les suivantes :
hours : nombre dheures de travail
educ : nombre dannes de scolarit
exper : nombre dannes de travail
age : age de la femme en annes
kidslt6 : nombre denfants de moins de 6 ans
nwif einc : est le revenu hors travaille de la femme (inclus les revenus du mari)
wage : revenu du travail
1. Expliquez pourquoi dans le cas des quations simultanes, il nest pas possible dutiliser
la mthode des moindres carrs ordinaires. cause du biais de simultanit, cf transparents du cours
2. Les quations 1 et 2 sont elles identifies? Justifiez votre rponse.
Les quations sont identifies parce quelles respectent la condition de rang: il y a 7
variables exognes et 5 coeff estimer dans lquation 1 et 5 dans lquation 2.
3. Expliquez ce quest une quation structurelle et quoi elle sert pour lestimation dun
systme dquation? cf cours
4. Quelles sont les variables endognes et quelles sont les variables prdtermines du systme? hours et log(wage) sont les variables endognes, toutes les autres sont les variables prdtermines
1

5. Vous disposez dun certain nombre de rgression ci-aprs. Compte tenu de votre rponse
la question prcdente, indiquez quelle est la rgression qui convient entre REGRESSION 1 REGRESSION 2. Justifiez votre rponse. Il sagit de la rgression 2 car entre
parenthse, il doit y avoir les variables instrumentales de la premire quation hours
qui nest pas estime ici
6. Analysez les rsultats. Expliquez si les variables ont les signes attendus, sils sont explicatifs ou non, si le modle est globalement explicatif et quel seuil de significativit.
Seules deux variables sont significatives, educ au seuil de 1% et expr au seuil de 10%.
Les signes attendus sont bons puisque educ et expr sont supposs avoir un impact
positif sur le salaire. Le modle est globalement significatif au seuil de 1%.
-----> REGRESSION 1
. ivreg lwage (hours = age kidslt6) educ exper expersq nwifeinc
Instrumental variables (2SLS) regression
Source |
SS
df
MS
-------------+-----------------------------Model | 24.9437217
5 4.98874434
Residual |
198.38373
422 .470103625
-------------+-----------------------------Total | 223.327451
427 .523015108

Number of obs
F( 5,
422)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

428
15.52
0.0000
0.1117
0.1012
.68564

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------hours |
.0001728
.0002584
0.67
0.504
-.0003352
.0006808
educ |
.104068
.0161015
6.46
0.000
.072419
.1357171
exper |
.0329624
.0196933
1.67
0.095
-.0057469
.0716716
expersq |
-.000661
.000459
-1.44
0.151
-.0015633
.0002412
nwifeinc |
.0056115
.0033317
1.68
0.093
-.0009373
.0121603
_cons | -.7332055
.3439679
-2.13
0.034
-1.409309
-.0571018
-----------------------------------------------------------------------------Instrumented: hours
Instruments:
educ exper expersq nwifeinc age kidslt6
----------------------------------------------------------------------------------> REGRESSION 2
. ivreg lwage (hours = age kidslt6 nwifeinc) educ exper expersq
Instrumental variables (2SLS) regression
Source |
SS
df
MS
-------------+-----------------------------Model | 28.0618854
4 7.01547135
Residual | 195.265566
423 .461620723
-------------+-----------------------------Total | 223.327451
427 .523015108

Number of obs
F( 4,
423)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

428
19.03
0.0000
0.1257
0.1174
.67943

-----------------------------------------------------------------------------lwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------hours |
.0001259
.0002546
0.49
0.621
-.0003746
.0006264

educ |
.11033
.0155244
7.11
0.000
.0798155
.1408445
exper |
.0345824
.0194916
1.77
0.077
-.00373
.0728947
expersq | -.0007058
.0004541
-1.55
0.121
-.0015983
.0001868
_cons | -.6557256
.3377883
-1.94
0.053
-1.319678
.008227
-----------------------------------------------------------------------------Instrumented: hours
Instruments:
educ exper expersq age kidslt6 nwifeinc
------------------------------------------------------------------------------

Modles logit

1. Indiquez en quoi consiste une rgression logit par rapport une rgression linaire. Quexplique
le modle 1... Il sagit dun modle non linaire cf cours... il explique la probabilit
quun vnement se produise. gpa et psi sont respectivement significative au seuil de
5%.
2. Proposez un test de significativit globale du modle 1 en vous aidant de tous les tableaux
votre disposition. Prcisez quelle est la statistique que vous utilisez pour faire ce test.
Proposez un test 5%.
lhypothse est que H0 :1 = 2 = 3 = 0 contre hypothse alternative au moins un
des bta est diffrent de zro.
Pour un test multiple : H0 : k = ... = J = 0
W =

J
X
k

s
k=1 k

J
X
k=1

z2 2J
k

Wc = 15, 40 23 A 5%, 7,81.


3. Proposez un LR test pour les deux modles proposez. Indiquez quel est le modle qui est
imbriqu? Faites le test 1% de significativit? Quen dduisez-vous?
G2 (Mc | M ) = 2 ln L(M ) 2 ln L(Mc )
Si H0 est vrai, alors G2 2J
il sagit dun chi2 2 degr de libert 1% a donne 9,21
4. Analysez la ligne tuce du tableau listcoef
Pour une variation de une unit de tuce, la probabilit que ltudiant ait un meilleur
niveau rapport la probabilit inverse est augment dun facteur 1,09 soit de (1,091)x100%, 9%. Si tuce augmente dun cart type ce rapport de probabilit sera augment dun facteur 1,44, soit de 44%. On peut remarquer que lcart-type de tuce
est de 3,9 soit beaucoup plus lev que la variation de 1 de X donc la variation du
rapport de probabilit est beaucoup plus lev.
5. Analysez la ligne gpa et psi du tableau prchange. Il sagit ici dune variation de
la probabilit que lvnement se poursuive. Pour gpa, lorsque la note moyenne
de ltudiant passe de la valeur minimal la valeur maximal, la probabilit que
ltudiant ait un meilleur niveau varie de 78%; Si la note varie de un, la proabilit
varie de 50% et si la note varie dun cart-type, elle varie de 24%. Pour psi, la
variation de 1 qui indique le passage dun tudiant qui na pas les connaissances
de base (psi=0) par rapport un tudiant qui aurait les connaissances de base, la
probabilit davoir un meilleur niveau varie de 45%
-----> MODELE 1
logit

grade gpa tuce psi

(itrations non prsentes)


Logistic regression

Number of obs
LR chi2(3)
Prob > chi2
Pseudo R2

Log likelihood = -12.889633

=
=
=
=

32
15.40
0.0015
0.3740

-----------------------------------------------------------------------------grade |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------gpa |
2.826113
1.262941
2.24
0.025
.3507938
5.301432
tuce |
.0951577
.1415542
0.67
0.501
-.1822835
.3725988
psi |
2.378688
1.064564
2.23
0.025
.29218
4.465195
cons | -13.02135
4.931325
-2.64
0.008
-22.68657
-3.35613
---------------------------------------------------------------------------------> MODELE 2
. logit grade gpa
(itrations non prsentes)
Logistic regression

Number of obs
LR chi2(1)
Prob > chi2
Pseudo R2

Log likelihood = -16.208902

=
=
=
=

32
8.77
0.0031
0.2128

-----------------------------------------------------------------------------grade |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------gpa |
2.84006
1.126979
2.52
0.012
.6312229
5.048898
cons | -9.703194
3.671103
-2.64
0.008
-16.89842
-2.507965
---------------------------------------------------------------------------------> fitstat, using(mod1)
Measures of Fit for logit of grade

Model:
N:
Log-Lik Intercept Only
Log-Lik Full Model
D
LR
Prob > LR
McFaddens R2
McFaddens Adj R2
ML (Cox-Snell) R2
Cragg-Uhler(Nagelkerke) R2
McKelvey & Zavoinas R2
Efrons R2
Variance of y*
Variance of error
Count R2
Adj Count R2
AIC

Current
logit
32
-20.592
-16.209
32.418(30)
8.766(1)
0.003
0.213
0.116
0.240
0.331
0.348
0.294
5.047
3.290
0.750
0.273
1.138

Saved
logit
32
-20.592
-12.890
25.779(28)
15.404(3)
0.002
0.374
0.180
0.382
0.528
0.544
0.426
7.210
3.290
0.813
0.455
1.056

Difference
0
0.000
-3.319
6.639(2)
6.639(2)
0.036
-0.161
-0.064
-0.142
-0.197
-0.196
-0.131
-2.163
0.000
-0.063
-0.182
0.082

AIC*n
BIC
BIC
BIC used by Stata
AIC used by Stata
Difference of

36.418
-71.554
-5.300
39.349
36.418

33.779
-71.261
-5.007
39.642
33.779

2.639
-0.293
-0.293
-0.293
2.639

0.293 in BIC provides weak support for current model.

Note: p-value for difference in LR is only valid if models are nested.


----> listcoef, help
logit (N=32): Factor Change in Odds
Odds of: 1 vs 0
---------------------------------------------------------------------grade |
b
z
P>|z|
e^b
e^bStdX
SDofX
-------------+-------------------------------------------------------gpa |
2.82611
2.238
0.025 16.8797
3.7396
0.4667
tuce |
0.09516
0.672
0.501
1.0998
1.4496
3.9015
psi |
2.37869
2.234
0.025 10.7907
3.3165
0.5040
---------------------------------------------------------------------b = raw coefficient
z = z-score for test of b=0
P>|z| = p-value for z-test
e^b = exp(b) = factor change in odds for unit increase in X
e^bStdX = exp(b*SD of X) = change in odds for SD increase in X
SDofX = standard deviation of X

----> prchange, help


logit: Changes in Probabilities for grade

gpa
tuce
psi

min->max
0.7872
0.2824
0.4565

Pr(y|x)

x=
sd(x)=

0
0.7472
gpa
3.11719
.466713

0->1
0.0008
0.0038
0.4565

-+1/2
0.5055
0.0180
0.4330

-+sd/2
0.2466
0.0701
0.2246

MargEfct
0.5339
0.0180
0.4493

1
0.2528
tuce
21.9375
3.90151

psi
.4375
.504016

Pr(y|x): probability of observing each y for specified x values


Avg|Chg|: average of absolute value of the change across categories
Min->Max: change in predicted probability as x changes from its minimum to
its maximum
0->1: change in predicted probability as x changes from 0 to 1
-+1/2: change in predicted probability as x changes from 1/2 unit below
base value to 1/2 unit above
-+sd/2: change in predicted probability as x changes from 1/2 standard

dev below base to 1/2 standard dev above


MargEfct: the partial derivative of the predicted probability/rate with
respect to a given independent variable

UNIVERSITE DE PARIS 11
Interro de TD 1

Anne Plunket
Master 1 - ETT et EI

On vous demande destimer lquation suivante :


log(rent) = 0 + 1 log(pop) + 2 log(avginc) + 3 pctstu + 4 log(enroll) +
Les variables sont les suivantes :
rent, le loyer moyen pour un logement dans une ville universitaire,
pop, la population de la ville,
avginc, le revenu moyen de la ville,
pctstu, le pourcentage des tudiants dans la population de la ville,
enroll, le nombre dtudiants de la ville.
1. On cherche comprendre limpact de la prsence dtudiants dans une ville universitaire
sur les loyer de cette ville. Quels sont les signes attendus pour 1 , 2 , 3 et 4 , expliquez.
2. Proposez un test pour le signe de 2 . Explicitez lhypothse nulle et alternative ainsi que
la statistique utilise pour faire le test.
3. En vous aidant des tableaux donns ci-dessous, proposez un test 3 = 4 = 0
4. On cherche savoir si lquation ci-dessus souffre de multicolinarit.
(a) Les rsultats de la rgression donnent-ils des indications de multicolinarit ? Le(s)quel(s) ?
A laide des tableaux mis votre disposition, proposez un test. Quelle est votre
conclusion ? Quelle solution proposez-vous ?
5. On vous propose un test de Breusch et Pagan.
(a) Quel est le principe de ce test aussi appel test du multiplicateur de Lagrange. Quelle
forme dhtroscdasticit ce test permet -t-il de considrer ?
(b) Quelles sont les conclusions du test ?
6. On dispose de donnes agrges pour 64 villes universitaires.
(a) Ce type de donnes engendre un certain type dhtroscdasticit, lequel ? Quelle
solution peut-on proposer ? (cf les tableaux ci-dessous).
(b) Votre solution est-elle efficace ? (cf tableaux ci-dessous).
use "/Users/RENTAL.dta"
reg lrent lpop lavginc pctstu lenroll
Source |
SS
df
MS
-------------+-----------------------------Model | 1.16836407
4 .292091018
Residual | 1.36263527
59 .023095513
-------------+-----------------------------Total | 2.53099934
63 .040174593

Number of obs
F( 4,
59)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

64
12.65
0.0000
0.4616
0.4251
.15197

-----------------------------------------------------------------------------lrent |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lpop |
.1752641
.175792
1.00
0.323
-.1764948
.527023
lavginc |
.5139219
.0819555
6.27
0.000
.3499294
.6779143
pctstu |
.0093131
.0060311
1.54
0.128
-.002755
.0213813
lenroll | -.1215012
.1903735
-0.64
0.526
-.5024376
.2594352
_cons | -.1622075
.9068567
-0.18
0.859
-1.976824
1.652409
-----------------------------------------------------------------------------. estat hettest
Breusch-Pagan / Cook-Weisberg test for heteroskedasticity
Variables: fitted values of lrent
chi2(1)
Prob > chi2

=
=

0.12
0.7340

. reg lrent lpop lavginc


Source |
SS
df
MS
-------------+-----------------------------Model | .920144167
2 .460072083
Residual | 1.61085517
61 .026407462
-------------+-----------------------------Total | 2.53099934
63 .040174593

Number of obs
F( 2,
61)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

64
17.42
0.0000
0.3635
0.3427
.1625

-----------------------------------------------------------------------------lrent |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lpop | -.0011434
.0352743
-0.03
0.974
-.0716786
.0693919
lavginc |
.4736686
.0861569
5.50
0.000
.3013872
.64595
_cons |
1.282824
.8076707
1.59
0.117
-.3322131
2.897862
-----------------------------------------------------------------------------. reg lrent

pctstu lenroll

Source |
SS
df
MS
-------------+-----------------------------Model | .253850382
2 .126925191
Residual | 2.27714896
61 .037330311
-------------+-----------------------------Total | 2.53099934
63 .040174593

Number of obs
F( 2,
61)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

64
3.40
0.0398
0.1003
0.0708
.19321

-----------------------------------------------------------------------------lrent |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------pctstu |
.0001169
.001812
0.06
0.949
-.0035066
.0037403
lenroll |
.1327148
.0518252
2.56
0.013
.0290839
.2363457
_cons |
4.724284
.5018249
9.41
0.000
3.720823
5.727745
------------------------------------------------------------------------------

reg lenroll lpop lavginc pctstu

Source |
SS
df
MS
-------------+-----------------------------Model | 13.6478645
3 4.54928816
Residual | .637257238
60 .010620954
-------------+-----------------------------Total | 14.2851217
63 .226747964

Number of obs
F( 3,
60)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

64
428.33
0.0000
0.9554
0.9532
.10306

-----------------------------------------------------------------------------lenroll |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lpop |
.9003717
.0264604
34.03
0.000
.847443
.9533003
lavginc |
.0568458
.0550904
1.03
0.306
-.0533515
.167043
pctstu |
.0303161
.0011872
25.53
0.000
.0279413
.0326909
_cons | -1.687126
.5751112
-2.93
0.005
-2.837519
-.5367318
-----------------------------------------------------------------------------. reg lrent lpop lavginc pctstu
Source |
SS
df
MS
-------------+-----------------------------Model | 1.15895654
3 .386318847
Residual |
1.3720428
60
.02286738
-------------+-----------------------------Total | 2.53099934
63 .040174593

Number of obs
F( 3,
60)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

64
16.89
0.0000
0.4579
0.4308
.15122

-----------------------------------------------------------------------------lrent |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lpop |
.0658678
.038826
1.70
0.095
-.0117957
.1435314
lavginc |
.507015
.0808356
6.27
0.000
.3453198
.6687103
pctstu |
.0056297
.0017421
3.23
0.002
.002145
.0091143
_cons |
.0427803
.8438753
0.05
0.960
-1.645222
1.730782
-----------------------------------------------------------------------------. reg lrent lpop lavginc pctstu [ ???? ]
Source |
SS
df
MS
-------------+-----------------------------Model | .972470742
3 .324156914
Residual | 1.25031296
60 .020838549
-------------+-----------------------------Total |
2.2227837
63 .035282281

Number of obs
F( 3,
60)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

64
15.56
0.0000
0.4375
0.4094
.14436

-----------------------------------------------------------------------------lrent |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lpop |
.0330849
.0330518
1.00
0.321
-.0330285
.0991982
lavginc |
.4874827
.0751816
6.48
0.000
.3370971
.6378683
pctstu |
.0051889
.001674
3.10
0.003
.0018404
.0085374
_cons |
.6196268
.8128841
0.76
0.449
-1.006384
2.245637
------------------------------------------------------------------------------

11.3. QUANTILES DE LA LOI DU 2

151

Quantiles de la loi du 2

11.3

Soit Xn 2 (n). On pose


!

2n/2 (n/2)

y 2 1 ey/2 dy = P(Xn x) = .

PSfrag replacements

La table donne les valeurs de x en fonction de


n et . Par exemple P(X8 20.09) # 0.01.
n\

0.990

0.975

0.950

0.900

0.100

0.050

0.025

0.010

0.001

1
2
3
4
5
6
7
8
9
10

0.0002
0.02
0.11
0.30
0.55
0.87
1.24
1.65
2.09
2.56

0.0010
0.05
0.22
0.48
0.83
1.24
1.69
2.18
2.70
3.25

0.0039
0.10
0.35
0.71
1.15
1.64
2.17
2.73
3.33
3.94

0.0158
0.21
0.58
1.06
1.61
2.20
2.83
3.49
4.17
4.87

2.71
4.61
6.25
7.78
9.24
10.64
12.02
13.36
14.68
15.99

3.84
5.99
7.81
9.49
11.07
12.59
14.07
15.51
16.92
18.31

5.02
7.38
9.35
11.14
12.83
14.45
16.01
17.53
19.02
20.48

6.63
9.21
11.34
13.28
15.09
16.81
18.48
20.09
21.67
23.21

10.83
13.82
16.27
18.47
20.52
22.46
24.32
26.12
27.88
29.59

11
12
13
14
15
16
17
18
19
20

3.05
3.57
4.11
4.66
5.23
5.81
6.41
7.01
7.63
8.26

3.82
4.40
5.01
5.63
6.26
6.91
7.56
8.23
8.91
9.59

4.57
5.23
5.89
6.57
7.26
7.96
8.67
9.39
10.12
10.85

5.58
6.30
7.04
7.79
8.55
9.31
10.09
10.86
11.65
12.44

17.28
18.55
19.81
21.06
22.31
23.54
24.77
25.99
27.20
28.41

19.68
21.03
22.36
23.68
25.00
26.30
27.59
28.87
30.14
31.41

21.92
23.34
24.74
26.12
27.49
28.85
30.19
31.53
32.85
34.17

24.72
26.22
27.69
29.14
30.58
32.00
33.41
34.81
36.19
37.57

31.26
32.91
34.53
36.12
37.70
39.25
40.79
42.31
43.82
45.31

21
22
23
24
25
26
27
28
29
30

8.90
9.54
10.20
10.86
11.52
12.20
12.88
13.56
14.26
14.95

10.28
10.98
11.69
12.40
13.12
13.84
14.57
15.31
16.05
16.79

11.59
12.34
13.09
13.85
14.61
15.38
16.15
16.93
17.71
18.49

13.24
14.04
14.85
15.66
16.47
17.29
18.11
18.94
19.77
20.60

29.62
30.81
32.01
33.20
34.38
35.56
36.74
37.92
39.09
40.26

32.67
33.92
35.17
36.42
37.65
38.89
40.11
41.34
42.56
43.77

35.48
36.78
38.08
39.36
40.65
41.92
43.19
44.46
45.72
46.98

38.93
40.29
41.64
42.98
44.31
45.64
46.96
48.28
49.59
50.89

46.80
48.27
49.73
51.18
52.62
54.05
55.48
56.89
58.30
59.70

L
Lorsque n > 30, on peut utiliser lapproximation 2Xn 2n 1 # G N1 (0, 1) (voir
lexercice 5.5.11) qui assure que pour x 0,
!

P(Xn x) = P( 2Xn 2n 1 2x 2n 1) # P(G 2x 2n 1).

152

CHAPITRE 11. TABLES STATISTIQUES

11.4

Quantiles de la loi de Student

Soit Xn t(n). On pose


2

((n + 1)/2)

n (n/2) "

1+

y2
n

1
#(n+1)/2 dy = P(|Xn | t) = .

/2

/2

PSfrag replacements

La table donne les valeurs de t en fonction de


n et . Par exemple P(|X20 | 2.086) # 0.05.

n\

0.900

0.800

0.700

0.600

0.500

0.400

0.300

0.200

0.100

0.050

0.020

0.010

0.001

1
2
3
4
5
6
7
8
9
10

0.158
0.142
0.137
0.134
0.132
0.131
0.130
0.130
0.129
0.129

0.325
0.289
0.277
0.271
0.267
0.265
0.263
0.262
0.261
0.260

0.510
0.445
0.424
0.414
0.408
0.404
0.402
0.399
0.398
0.397

0.727
0.617
0.584
0.569
0.559
0.553
0.549
0.546
0.543
0.542

1.000
0.816
0.765
0.741
0.727
0.718
0.711
0.706
0.703
0.700

1.376
1.061
0.978
0.941
0.920
0.906
0.896
0.889
0.883
0.879

1.963
1.386
1.250
1.190
1.156
1.134
1.119
1.108
1.100
1.093

3.078
1.886
1.638
1.533
1.476
1.440
1.415
1.397
1.383
1.372

6.314
2.920
2.353
2.132
2.015
1.943
1.895
1.860
1.833
1.812

12.706
4.303
3.182
2.776
2.571
2.447
2.365
2.306
2.262
2.228

31.821
6.965
4.541
3.747
3.365
3.143
2.998
2.896
2.821
2.764

63.657
9.925
5.841
4.604
4.032
3.707
3.499
3.355
3.250
3.169

636.619
31.599
12.924
8.610
6.869
5.959
5.408
5.041
4.781
4.587

11
12
13
14
15
16
17
18
19
20

0.129
0.128
0.128
0.128
0.128
0.128
0.128
0.127
0.127
0.127

0.260
0.259
0.259
0.258
0.258
0.258
0.257
0.257
0.257
0.257

0.396
0.395
0.394
0.393
0.393
0.392
0.392
0.392
0.391
0.391

0.540
0.539
0.538
0.537
0.536
0.535
0.534
0.534
0.533
0.533

0.697
0.695
0.694
0.692
0.691
0.690
0.689
0.688
0.688
0.687

0.876
0.873
0.870
0.868
0.866
0.865
0.863
0.862
0.861
0.860

1.088
1.083
1.079
1.076
1.074
1.071
1.069
1.067
1.066
1.064

1.363
1.356
1.350
1.345
1.341
1.337
1.333
1.330
1.328
1.325

1.796
1.782
1.771
1.761
1.753
1.746
1.740
1.734
1.729
1.725

2.201
2.179
2.160
2.145
2.131
2.120
2.110
2.101
2.093
2.086

2.718
2.681
2.650
2.624
2.602
2.583
2.567
2.552
2.539
2.528

3.106
3.055
3.012
2.977
2.947
2.921
2.898
2.878
2.861
2.845

4.437
4.318
4.221
4.140
4.073
4.015
3.965
3.922
3.883
3.850

21
22
23
24
25
26
27
28
29
30

0.127
0.127
0.127
0.127
0.127
0.127
0.127
0.127
0.127
0.127

0.257
0.256
0.256
0.256
0.256
0.256
0.256
0.256
0.256
0.256

0.391
0.390
0.390
0.390
0.390
0.390
0.389
0.389
0.389
0.389

0.532
0.532
0.532
0.531
0.531
0.531
0.531
0.530
0.530
0.530

0.686
0.686
0.685
0.685
0.684
0.684
0.684
0.683
0.683
0.683

0.859
0.858
0.858
0.857
0.856
0.856
0.855
0.855
0.854
0.854

1.063
1.061
1.060
1.059
1.058
1.058
1.057
1.056
1.055
1.055

1.323
1.321
1.319
1.318
1.316
1.315
1.314
1.313
1.311
1.310

1.721
1.717
1.714
1.711
1.708
1.706
1.703
1.701
1.699
1.697

2.080
2.074
2.069
2.064
2.060
2.056
2.052
2.048
2.045
2.042

2.518
2.508
2.500
2.492
2.485
2.479
2.473
2.467
2.462
2.457

2.831
2.819
2.807
2.797
2.787
2.779
2.771
2.763
2.756
2.750

3.819
3.792
3.768
3.745
3.725
3.707
3.690
3.674
3.659
3.646

40
80
120

0.126
0.126
0.126
0.126

0.255
0.254
0.254
0.253

0.388
0.387
0.386
0.385

0.529
0.526
0.526
0.524

0.681
0.678
0.677
0.674

0.851
0.846
0.845
0.842

1.050
1.043
1.041
1.036

1.303
1.292
1.289
1.282

1.684
1.664
1.658
1.645

2.021
1.990
1.980
1.960

2.423
2.374
2.358
2.326

2.704
2.639
2.617
2.576

3.551
3.416
3.373
3.291

11.5. QUANTILES DE LA LOI DE FISHER (OU FISHER-SNEDECOR)

11.5

153

Quantiles de la loi de Fisher (ou FisherSnedecor)

Soit Xn,m une v.a. de loi de Fisher de param`etre (n, m). On pose
P(Xn,m f ) = .

La table donne les valeurs de t en fonction


de n, m et {0, 05; 0, 01}. Par exemple
P(X4,20 4.43) # 0.01.
n=1

PSfrag replacements

n=2

n=3

n=4

n=5

=0.05

=0.01

=0.05

=0.01

=0.05

=0.01

=0.05

=0.01

=0.05

=0.01

1
2
3
4
5
6
7
8
9
10

161.45
18.51
10.13
7.71
6.61
5.99
5.59
5.32
5.12
4.96

4052.18
98.50
34.12
21.20
16.26
13.75
12.25
11.26
10.56
10.04

199.50
19.00
9.55
6.94
5.79
5.14
4.74
4.46
4.26
4.10

4999.50
99.00
30.82
18.00
13.27
10.92
9.55
8.65
8.02
7.56

215.71
19.16
9.28
6.59
5.41
4.76
4.35
4.07
3.86
3.71

5403.35
99.17
29.46
16.69
12.06
9.78
8.45
7.59
6.99
6.55

224.58
19.25
9.12
6.39
5.19
4.53
4.12
3.84
3.63
3.48

5624.58
99.25
28.71
15.98
11.39
9.15
7.85
7.01
6.42
5.99

230.16
19.30
9.01
6.26
5.05
4.39
3.97
3.69
3.48
3.33

5763.65
99.30
28.24
15.52
10.97
8.75
7.46
6.63
6.06
5.64

11
12
13
14
15
16
17
18
19
20

4.84
4.75
4.67
4.60
4.54
4.49
4.45
4.41
4.38
4.35

9.65
9.33
9.07
8.86
8.68
8.53
8.40
8.29
8.18
8.10

3.98
3.89
3.81
3.74
3.68
3.63
3.59
3.55
3.52
3.49

7.21
6.93
6.70
6.51
6.36
6.23
6.11
6.01
5.93
5.85

3.59
3.49
3.41
3.34
3.29
3.24
3.20
3.16
3.13
3.10

6.22
5.95
5.74
5.56
5.42
5.29
5.18
5.09
5.01
4.94

3.36
3.26
3.18
3.11
3.06
3.01
2.96
2.93
2.90
2.87

5.67
5.41
5.21
5.04
4.89
4.77
4.67
4.58
4.50
4.43

3.20
3.11
3.03
2.96
2.90
2.85
2.81
2.77
2.74
2.71

5.32
5.06
4.86
4.69
4.56
4.44
4.34
4.25
4.17
4.10

21
22
23
24
25
26
27
28
29
30

4.32
4.30
4.28
4.26
4.24
4.23
4.21
4.20
4.18
4.17

8.02
7.95
7.88
7.82
7.77
7.72
7.68
7.64
7.60
7.56

3.47
3.44
3.42
3.40
3.39
3.37
3.35
3.34
3.33
3.32

5.78
5.72
5.66
5.61
5.57
5.53
5.49
5.45
5.42
5.39

3.07
3.05
3.03
3.01
2.99
2.98
2.96
2.95
2.93
2.92

4.87
4.82
4.76
4.72
4.68
4.64
4.60
4.57
4.54
4.51

2.84
2.82
2.80
2.78
2.76
2.74
2.73
2.71
2.70
2.69

4.37
4.31
4.26
4.22
4.18
4.14
4.11
4.07
4.04
4.02

2.68
2.66
2.64
2.62
2.60
2.59
2.57
2.56
2.55
2.53

4.04
3.99
3.94
3.90
3.85
3.82
3.78
3.75
3.73
3.70

40
80
120

4.08
3.96
3.92
3.84

7.31
6.96
6.85
6.63

3.23
3.11
3.07
3.00

5.18
4.88
4.79
4.61

2.84
2.72
2.68
2.60

4.31
4.04
3.95
3.78

2.61
2.49
2.45
2.37

3.83
3.56
3.48
3.32

2.45
2.33
2.29
2.21

3.51
3.26
3.17
3.02

UNIVERSITE DE PARIS 11
Interro de TD 1

Anne Plunket
Master 1 - ETT et EI

On vous demande destimer lquation suivante :


log(rent) = 0 + 1 log(pop) + 2 log(avginc) + 3 pctstu + 4 log(enroll) +
Les variables sont les suivantes :
rent, le loyer moyen pour un logement dans une ville universitaire,
pop, la population de la ville,
avginc, le revenu moyen de la ville,
pctstu, le pourcentage des tudiants dans la population de la ville,
enroll, le nombre dtudiants de la ville.
1. On cherche comprendre limpact de la prsence dtudiants dans une ville universitaire sur les loyer de cette ville. Quels sont les signes attendus pour 1 , 2 , 3 et 4 ,
expliquez.
On sattend ce que chacune des variables du modle ait un impact positif sur le niveau
moyen des loyers. Plus la population, le nombre dtudiant ou le pourcentage dtudiants
dans la population sont levs et plus il y aura de pression la hausse sur les loyers. Le
niveau moyen de revenu aura un impact la hausse sur les loyers. Plus la population est
riche et plus les habitations auront une qualit et un prix lev.
2. Proposez un test pour le signe de 2 . Explicitez lhypothse nulle et alternative ainsi
que la statistique utilise pour faire le test.
On cherche faire un test pour le coefficient de la variable lavginc. Pour faire on pose les
hypothses du test : H0 0 et H1 > 0
Pour tester le signe, on fait un test du student :
tc =

2
.5139219
= 6.27 tnk1/645/59
=
s2
.0819555

Pour un test 5%, t5%,40 = 1.684 ou t5%,80 = 1.664 ; On en dduit que la valeur du
student est largement suprieure au t calcul, par consquent la variable est bien de signe
positif. On rejette lhypothse nulle.
3. En vous aidant des tableaux donns ci-dessous, proposez un test 3 = 4 = 0
Il sagit ici dun test du Fisher avec modle non contraint par rapport modle contraint,
la contrainte est gale 3 = 4 = 0.
Le modle non contraint scrit : reg lrent lpop lavginc pctstu lenroll
Le modle contraint scrit : reg lrent lpop lavginc
Le test scrit :
Fc =

(1.61085517 1.36263527)/2
(SCRc SCR/q
=
= 5.3737689 F (2, 59)
SCR/n k 1
1.36263527/59
1

F5%,40 = 3.23 ou F5%,80 = 3.11


F1%,40 = 5.18 ou F1%,80 = 4.88
Dans les deux cas de figure 1% ou 5%, on rejette lhypothse nulle, lajout des deux
variables pctstu et log(enroll) ajoute lexplication de la variable dpendante.
4. On cherche savoir si lquation ci-dessus souffre de multicolinarit.
(a) Les rsultats de la rgression donnent-ils des indications de multicolinarit ?
Le(s)quel(s) ? A laide des tableaux mis votre disposition, proposez un test.
Quelle est votre conclusion ? Quelle solution proposez-vous ?
On peut supposer quil y a de la multicolinarit car la variable enroll devrait avoir
un signe positif or son signe est ngatif et la variable nest pas significative alors
quelle devrait ltre.
On peut faire un test de la vif, qui sappuie sur une rgression dune variable dpendante sur les autre variables dpendantes du modle permettant ainsi de mettre en
vidence une colinarit entre les variables dpendantes.
V IF =

1
1
= 22, 42
=
1 Rk2
1 0.9554

La VIF est trs leve ce qui indique la prsence de multicolinarit. On pourrait


pour rsoudre le problme supprimer une variable redondante. Le nombre dtudiants de la ville est une information redondante par rapport la population, de
mme que pourcentage dtudiants par rapport la population semble redondant
pourrait tre redondante avec la population. On a trois variables qui rendent compte
deffets de tailles.
5. On vous propose un test de Breusch et Pagan.
(a) Quel est le principe de ce test aussi appel test du multiplicateur de Lagrange.
Quelle forme dhtroscdasticit ce test permet -t-il de considrer ?
Le test de BP est un test du multiplicateur de Lagrange, il sappuie sur une rgression
auxiliaire du carr des rsidus sur les variables indpendantes du modle. Il sagit
dun test du chi2. Il teste un effet de taille.
(b) Quelles sont les conclusions du test ?
Le test ne nous permet pas de rejeter lhypothse nulle de variance gale entre les
rsidus de la rgression. La valeur critique du chi2 est Chi2(1,5%) = 3,84, il est
largement suprieur au chi2 calcul qui est de 0.12.
6. On dispose de donnes agrges pour 64 villes universitaires.
(a) Ce type de donnes engendre un certain type dhtroscdasticit, lequel ? Quelle
solution peut-on proposer ? (cf les tableaux ci-dessous).
(b) Votre solution est-elle efficace ? (cf tableaux ci-dessous).
use "/Users/RENTAL.dta"
reg lrent lpop lavginc pctstu lenroll
Source |
SS
df
MS
-------------+------------------------------

Number of obs =
F( 4,
59) =

64
12.65

Model | 1.16836407
4 .292091018
Residual | 1.36263527
59 .023095513
-------------+-----------------------------Total | 2.53099934
63 .040174593

Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=

0.0000
0.4616
0.4251
.15197

-----------------------------------------------------------------------------lrent |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lpop |
.1752641
.175792
1.00
0.323
-.1764948
.527023
lavginc |
.5139219
.0819555
6.27
0.000
.3499294
.6779143
pctstu |
.0093131
.0060311
1.54
0.128
-.002755
.0213813
lenroll | -.1215012
.1903735
-0.64
0.526
-.5024376
.2594352
_cons | -.1622075
.9068567
-0.18
0.859
-1.976824
1.652409
-----------------------------------------------------------------------------. estat hettest
Breusch-Pagan / Cook-Weisberg test for heteroskedasticity
Variables: fitted values of lrent
chi2(1)
Prob > chi2

=
=

0.12
0.7340

. reg lrent lpop lavginc


Source |
SS
df
MS
-------------+-----------------------------Model | .920144167
2 .460072083
Residual | 1.61085517
61 .026407462
-------------+-----------------------------Total | 2.53099934
63 .040174593

Number of obs
F( 2,
61)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

64
17.42
0.0000
0.3635
0.3427
.1625

-----------------------------------------------------------------------------lrent |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lpop | -.0011434
.0352743
-0.03
0.974
-.0716786
.0693919
lavginc |
.4736686
.0861569
5.50
0.000
.3013872
.64595
_cons |
1.282824
.8076707
1.59
0.117
-.3322131
2.897862
-----------------------------------------------------------------------------. reg lrent

pctstu lenroll

Source |
SS
df
MS
-------------+-----------------------------Model | .253850382
2 .126925191
Residual | 2.27714896
61 .037330311
-------------+-----------------------------Total | 2.53099934
63 .040174593

Number of obs
F( 2,
61)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

64
3.40
0.0398
0.1003
0.0708
.19321

-----------------------------------------------------------------------------lrent |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------pctstu |
.0001169
.001812
0.06
0.949
-.0035066
.0037403
lenroll |
.1327148
.0518252
2.56
0.013
.0290839
.2363457
_cons |
4.724284
.5018249
9.41
0.000
3.720823
5.727745

------------------------------------------------------------------------------

reg lenroll lpop lavginc pctstu


Source |
SS
df
MS
-------------+-----------------------------Model | 13.6478645
3 4.54928816
Residual | .637257238
60 .010620954
-------------+-----------------------------Total | 14.2851217
63 .226747964

Number of obs
F( 3,
60)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

64
428.33
0.0000
0.9554
0.9532
.10306

-----------------------------------------------------------------------------lenroll |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lpop |
.9003717
.0264604
34.03
0.000
.847443
.9533003
lavginc |
.0568458
.0550904
1.03
0.306
-.0533515
.167043
pctstu |
.0303161
.0011872
25.53
0.000
.0279413
.0326909
_cons | -1.687126
.5751112
-2.93
0.005
-2.837519
-.5367318
-----------------------------------------------------------------------------. reg lrent lpop lavginc pctstu
Source |
SS
df
MS
-------------+-----------------------------Model | 1.15895654
3 .386318847
Residual |
1.3720428
60
.02286738
-------------+-----------------------------Total | 2.53099934
63 .040174593

Number of obs
F( 3,
60)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

64
16.89
0.0000
0.4579
0.4308
.15122

-----------------------------------------------------------------------------lrent |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lpop |
.0658678
.038826
1.70
0.095
-.0117957
.1435314
lavginc |
.507015
.0808356
6.27
0.000
.3453198
.6687103
pctstu |
.0056297
.0017421
3.23
0.002
.002145
.0091143
_cons |
.0427803
.8438753
0.05
0.960
-1.645222
1.730782
-----------------------------------------------------------------------------. reg lrent lpop lavginc pctstu [ ???? ]
Source |
SS
df
MS
-------------+-----------------------------Model | .972470742
3 .324156914
Residual | 1.25031296
60 .020838549
-------------+-----------------------------Total |
2.2227837
63 .035282281

Number of obs
F( 3,
60)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

64
15.56
0.0000
0.4375
0.4094
.14436

-----------------------------------------------------------------------------lrent |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lpop |
.0330849
.0330518
1.00
0.321
-.0330285
.0991982
lavginc |
.4874827
.0751816
6.48
0.000
.3370971
.6378683
pctstu |
.0051889
.001674
3.10
0.003
.0018404
.0085374
_cons |
.6196268
.8128841
0.76
0.449
-1.006384
2.245637

------------------------------------------------------------------------------

UNIVERSITE DE PARIS 11
Interro de TD 2

Anne Plunket
Master 1 - ETT et EI

1. Il vous est propos une rgression de la consommation en fonction du revenu et du temps


(la tendance).
. regdw cons income trend
Source |
SS
df
MS
-------------+-----------------------------Model | 4.7072e+11
2 2.3536e+11
Residual | 3.3853e+09
42 80603294.8
-------------+-----------------------------Total | 4.7411e+11
44 1.0775e+10

Number of obs
F( 2,
42)
Prob > F
R-squared
Adj R-squared
Root MSE

=
45
= 2919.99
= 0.0000
= 0.9929
= 0.9925
= 8977.9

-----------------------------------------------------------------------------cons |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------income |
.9333721
.0644142
14.49
0.000
.8033789
1.063365
trend | -140.4874
553.0085
-0.25
0.801
-1256.504
975.5288
_cons |
11579.25
8573.289
1.35
0.184
-5722.351
28880.84
-----------------------------------------------------------------------------Durbin-Watson Statistic = .4633078

(a) Expliquez ce quest lautocorrlation et quels problmes elle pose pour lestimation par la mthode des Moindres carrs ordinaires
Lautocorrlation rend compte du fait que les rsidus sont corrls entre eux au cours
du temps. Autrement dit, les rsidus ne sont pas distribus de manire indpendants,
ils ne sont pas i.i.d. A ce moment l, la variance des rsidu nest pas minimale et on
risque de rejeter lhypothse nulle tort.
(b) Quel est le type dautocorrlation que le test de Durbin et Watson permet de
tester ?
Le DW ne teste que lautocorrlation dordre 1 du type :
t = t1 + ut
Il sagit dun processus de Markov dordre 1.
(c) Fates le test de Durbin et Watson ; indiquez clairement quelle est lhypothse
nulle et alternative. Quelles sont vos conclusions.
H0 : = 0 contre H1 : 6= 0 La rgle de dcision est la suivante :
si d < dL on rejette lhypothse null ;
si d > dU on ne la rejette pas ;
si dL < d < dU il y a un doute
Ici, DW = 0,46, k=2 et n=45, dL = 1.43 et dU = 1.62
DW < dL (1.43), par consquent, on en dduit quil y a de lautocorrlation
lordre 1 au moins.
1

2. Vous disposez de deux rgressions du revenu en fonction dun certain nombre dindicateurs et de variables o hwage indique le salaire horaire en cents, urban est une indicatrice gale un si la personne vit en ville par opposition la campagne, age reprsente
lge de la personne, ethnic est gale 1 si la personne nest pas dorigine blanche, south
est gale 1 si la personne habitude dans le sud des Etats-Unis
. mean hwage, over(urban)
Mean estimation

Number of obs

1900

0: urban = 0
1: urban = 1
-------------------------------------------------------------Over |
Mean
Std. Err.
[95% Conf. Interval]
-------------+-----------------------------------------------hwage
|
0 |
496.7519
9.091503
478.9216
514.5823
1 |
622.3078
7.321256
607.9493
636.6664
-------------------------------------------------------------. reg hwage educ age ethnic urban south
Source |
SS
df
MS
-------------+-----------------------------Model | 31555417.8
5 6311083.57
Residual | 98930460.8 1894 52233.6118
-------------+-----------------------------Total |
130485879 1899 68712.9429

Number of obs
F( 5, 1894)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

1900
120.82
0.0000
0.2418
0.2398
228.55

-----------------------------------------------------------------------------hwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------educ |
19.52263
2.101356
9.29
0.000
15.40141
23.64384
age |
26.63248
1.703658
15.63
0.000
23.29124
29.97372
ethnic | -83.06785
15.34264
-5.41
0.000
-113.1581
-52.97761
urban |
95.69047
12.08005
7.92
0.000
71.99886
119.3821
south | -61.58681
11.53298
-5.34
0.000
-84.20549
-38.96813
_cons |
454.6921
55.89884
8.13
0.000
564.3219
345.0623
------------------------------------------------------------------------------

(a) Commentez le tableau obtenu avec la commande mean hwage, over(urban)


Le table nous donne le salaire horaire moyen pour les personnes vivants en ville
(622,30) et celles vivants la campagne (496,75). On constate que les personnes qui
vivent en ville ont un revenu bien plus elevs que ceux qui vivent la campagne.
Vous disposez de la rgression reg hwage educ age ethnic urban south.
(b) Que reprsente la constante ?
La constante reprsente le revenu horaire pour le groupe de rfrence savoir, ceux
qui sont blancs, qui vivent la campagne et dans le nord. Ce revenu moyen est de
454,69 cents.
(c) Que vous apprend le tableau sur le salaire dune personne noire vivant dans le
sud ?
Le tableau nous apprend que la diffrence de salaire pour ceux qui sont noirs et qui
2

habitent dans le sud est de south + ethnic = 83, 06 61, 58 = 144, 64.
3. On vous propose dtudier les dterminants davoir un salaire horaire suprieur 700
cents. Vous disposez des tableaux suivants :
. logit highwage educ age fatheduc motheduc ethnic urban south, nolog
Logistic regression

Number of obs
LR chi2(7)
Prob > chi2
Pseudo R2

Log likelihood = -953.42719

=
=
=
=

1900
313.50
0.0000
0.1412

-----------------------------------------------------------------------------highwage |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------educ |
.1246213
.0256527
4.86
0.000
.074343
.1748995
age |
.2012003
.0184215
10.92
0.000
.1650949
.2373057
fatheduc |
.0101726
.021478
0.47
0.636
-.0319236
.0522687
motheduc |
.0694325
.0257211
2.70
0.007
.0190201
.1198449
ethnic | -.8283974
.2134957
-3.88
0.000
-1.246841
-.4099534
urban |
.8551816
.1462779
5.85
0.000
.5684822
1.141881
south | -.3091703
.1261468
-2.45
0.014
-.5564136
-.061927
_cons |
-9.74939
.6661931
-14.63
0.000
-11.0551
-8.443676
-----------------------------------------------------------------------------. logit highwage educ age fatheduc south, nolog
Logistic regression

Number of obs
LR chi2(4)
Prob > chi2
Pseudo R2

Log likelihood = -982.45933

=
=
=
=

1900
255.43
0.0000
0.1150

-----------------------------------------------------------------------------highwage |
Coef.
Std. Err.
z
P>|z|
[95% Conf. Interval]
-------------+---------------------------------------------------------------educ |
.1512071
.0248181
6.09
0.000
.1025645
.1998496
age |
.200255
.0180981
11.06
0.000
.1647833
.2357267
fatheduc |
.0612833
.0178013
3.44
0.001
.0263933
.0961733
south | -.5051628
.1211115
-4.17
0.000
-.742537
-.2677886
_cons | -9.230539
.62938
-14.67
0.000
-10.4641
-7.996977
-------------------------------------------------------------------------------------------------------------------------------. prvalue, x(motheduc = 12) rest(mean)
logit: Predictions for highwage
Confidence intervals by delta method

Pr(y=1|x):
Pr(y=0|x):

x=

educ
14.166223

0.2879
0.7121
age
27.869681

95% Conf. Interval


[ 0.2635,
0.3123]
[ 0.6877,
0.7365]

fatheduc
11.210106

motheduc
12

ethnic
.05585106

urban
.76861702

south
.28191489

. prvalue, x(motheduc = 12 urban =1) rest(mean)


logit: Predictions for highwage
Confidence intervals by delta method

Pr(y=1|x):
Pr(y=0|x):

x=

educ
14.268166

0.3367
0.6633
age
27.942907

95% Conf. Interval


[ 0.3081,
0.3653]
[ 0.6347,
0.6919]

fatheduc
11.351211

motheduc
12

ethnic
.06401384

urban
1

south
.25778547

urban
.80769231

south
1

. prvalue, x(motheduc = 12 south = 1 ethnic = 1) rest(mean)


logit: Predictions for highwage
Confidence intervals by delta method

Pr(y=1|x):
Pr(y=0|x):

x=

educ
13.923077

0.1116
0.8884
age
27.115385

95% Conf. Interval


[ 0.0710,
0.1523]
[ 0.8477,
0.9290]

fatheduc
9.6538462

motheduc
12

ethnic
1

(a) Testez lhypothse nulle suivante : H0 : motheduc = ethnic = urban = 0


G2 (Mc | M ) = 2 ln L(M ) 2 ln L(Mc )
Si H0 est vrai, alors G2 2J
J tant le nombre de contraintes.
G2 (Mc | M ) = 2(953.42719)2(982.45933) = 1906, 84+1964, 9 = 58, 06
Il sagit dun chi2(3)5% = 7.81 et chi2(3)1% = 11.34.
On rejette lhypothse nulle 5% et mme 1%, puisque dans chaque cas, la valeur
calcule 58,06 est suprieure la valeur critique.
Par consquent, le modle complet est prfr car les trois variables sont globalement explicatives.
(b) Commentez les rsultats suivants :
prvalue, x(motheduc = 12) rest(mean)
prvalue, x(motheduc = 12 urban =1) rest(mean)
prvalue, x(motheduc = 12 south = 1 ethnic = 1) rest(mean)
Les tableaux indiquent quune personne dont la mre a un niveau dducation de 12
annes, aura une probabilit de 28,79

23/09/08 13:56
! Prsentation des fentres Stata
" fentre command : pour entrer les commandes
" fentre stata results : liste les rsultats
" fentre variables : liste toutes le variables de la base de donnes
" fentre review : liste toutes les commandes entres
! Entrer des commandes :
" Soit en entrant les commandes dans la fentre command (ou en
utilisant le menu)
" Soit en utilisant un fichier .do ; on peut crer un fichier o lon met
lensemble des commandes et ensuite il suffit de faire tourner le
fichier .do
! Avant de commencer, il faut ouvrir un fichier .log pour garder en
mmoire tout ce quon a fait
" File/Log/Begin/ td1_dcouverte de Stata
! Il faut entrer les donnes
" File/ Import / Unformatted ASCII format
" Nom des variables : year
infmort afdcprt popul
pcinc
physic afdcper d90
lpcinc lphysic DC lpopul
! Il faut sauvegarder les donnes ; on obtient un fichier .dta
! Pour voir les variables
" list in 1/10 mais illisible il vaut mieux
" list year infmort afdcprt pcinc physic in 1/10
" On dispose des donnes pour les annes 1987 et 1990 ; On dispose
de donnes pour les 51 Etats des Etats-Unis mais seule le district de
Columbia est identifie par une variable indicatrice DC==0/1
" La variable infmort donne le nombre de dcs pour les enfants de
moins dun an pour 1000 naissances, pcinc donne le niveau de
revenu par tte, physic est le nombre de mdecins pour 100 000
personnes et popul est la population en milliers.
# year
1987 or 1990
# infmort
infant mortality rate # of deaths within the
first year par 1,000 live births
# afdcprt
AFDC participation, 1000s /welfare program
Aid to Families with Dependent Children (AFDC) program
# popul
population in 1000s (thousands)
# pcinc
per capita income
# physic
Doctors per 100,000 civilian population
#
#

afdcper
d90

percent on AFDC
=1 if year == 1990

# lpcinc
log(pcinc)
# lphysic
log(physic)
# DC
=1 for Washington DC
# lpopul
log(popul)
! Supprimer et crer des variables
" drop pour supprimer
# drop afdcper d90 lpcinc lpopul
" generate avec une abrviation g ou gen pour crer une variable
# gen afdcper = afdcprt/popul
# gen lpcinc = ln(pcinc)
# gen lphysic = ln(physic)
# gen d90 = 1 if year == 1990 & year<. Mais problme plutt
# gen d90 = (year==1990) if year<.
# gen lpopul = log(popul)
! Donner une explication aux variables
" On peut crer un .do file pour faire a
# ***********************************
#
Nommer les variables
# ***********************************
# label variable infmort "infant mortality rate"
# label variable
! Obtenir une description numrique statistiques des variables
" Describe
" Summarize
" sum infmort pcinc physic popul
! Quelles sont les relations attendues entre les variables et
infmort ?
# On sattend une relation ngative entre le revenu par tte et la
mortalit (si les individus sont plus riches , ils ont davantage
les moyens dtre suivis par leur mdecin ce qui rduit la
mortalit infantile;
# On sattend galement une relation ngative entre le nombre
de mdecins et le taux de mortalit
# On sattend une relation positive entre la population et le
nombre de dcs par mortalit infantile
! Corrlations entre les variables
# pwcorr infmort lpcinc lphysic lpopul if d90==0, star(.05)

On remarque une relation positive entre le taux de mortalit et le


nombre de mdecin ce qui suppose que plus de mdecin
implique un taux de mortalit plus lev ce qui est contre intuitif.
! Representation graphique des relations
" Plot
# scatter infmort popul
# scatter infmort physic
# Mais il y a un problme car on voudrait le graphique que
pour lanne 1990
scatter infmort physic if year == 1987
scatter infmort physic if d90 == 0
# Chaque point du graphique reprsente un des 51 Etats
amricains. On constate quil y a une relation ngative entre le
taux de mortalit et le nombre de mdecin, autrement dit moins
#

il y a de mdecin et plus le taux de mortalit est lev.


# Il y a un point (un Etat) pour lequel le taux de mortalit est
beaucoup plus lev (en haut droite). En fait les graphiques de
ce type permettent de mettre en vidence les observations
atypiques qualifies doutliers
# On peut galement les mettre en vidence en tudiant en dtail
les observations dont on dispose pour les deux variables
sum infmort if d90==0, dtail
# donne les centiles, les 4 valeurs les plus petites et les
plus grandes
! Rgression
" reg regress infmort lpcinc lphysic lpopul if d90==0
! Traitement des observations trs influentes :
" pwcorr infmort lpcinc lphysic lpopul if d90==0 & DC==0, star(.05)
# la corrlation nest plus positive mais ngative
" reg regress infmort lpcinc lphysic lpopul if d90 & DC==0
graphics/ overlaid twoway graphs
twoway (lfit infmort physic if d90==0) (lfit infmort physic
if d90==0 & DC==0, atobs) (scatter infmort physic)
" Les rgressions avec et sans DC (le district de Columbia) montrent
que cette observation est trs influente et

Chapitre 11
Tables statistiques
Les tables qui suivent ont ete generees a` laide du logiciel Scilab.

Quantiles de la loi N1(0, 1)

11.1

Soit X N1 (0, 1). On pose

ey

2 /2

dy
= P(|X| x) = .
2

/2

/2

PSfrag replacements

La table donne les valeurs de x en fonction de


. Par exemple P(|X| 0.6280) ' 0.53.

0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9

+x

0.00

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0.08

0.09

1.6449
1.2816
1.0364
0.8416
0.6745
0.5244
0.3853
0.2533
0.1257

2.5758
1.5982
1.2536
1.0152
0.8239
0.6588
0.5101
0.3719
0.2404
0.1130

2.3263
1.5548
1.2265
0.9945
0.8064
0.6433
0.4959
0.3585
0.2275
0.1004

2.1701
1.5141
1.2004
0.9741
0.7892
0.6280
0.4817
0.3451
0.2147
0.0878

2.0537
1.4758
1.1750
0.9542
0.7722
0.6128
0.4677
0.3319
0.2019
0.0753

1.9600
1.4395
1.1503
0.9346
0.7554
0.5978
0.4538
0.3186
0.1891
0.0627

1.8808
1.4051
1.1264
0.9154
0.7388
0.5828
0.4399
0.3055
0.1764
0.0502

1.8119
1.3722
1.1031
0.8965
0.7225
0.5681
0.4261
0.2924
0.1637
0.0376

1.7507
1.3408
1.0803
0.8779
0.7063
0.5534
0.4125
0.2793
0.1510
0.0251

1.6954
1.3106
1.0581
0.8596
0.6903
0.5388
0.3989
0.2663
0.1383
0.0125

149

150

CHAPITRE 11. TABLES STATISTIQUES

Fonction de r
epartition de la loi N1(0, 1)

11.2

Soit X N1 (0, 1). On pose


Z

ey

2 /2

dy
= P(X x) = .
2

PSfrag replacements

La table donne les valeurs de en fonction de


x. Par exemple P(X 1.96) ' 0.97500.

La table suivante donne les valeurs de 1 pour les grandes valeurs de x.


x
1

2
2.28e-02

3
1.35e-03

4
3.17e-05

5
2.87e-07

6
9.87e-10

7
1.28e-12

8
6.22e-16

9
1.13e-19

10
7.62e-24

11.3. QUANTILES DE LA LOI DU 2

151

Quantiles de la loi du 2

11.3

Soit Xn 2 (n). On pose


Z

2n/2 (n/2)

y 2 1 ey/2 dy = P(Xn x) = .

PSfrag replacements

La table donne les valeurs de x en fonction de


n et . Par exemple P(X8 20.09) ' 0.01.
n\

0.990

0.975

0.950

0.900

0.100

0.050

0.025

0.010

0.001

1
2
3
4
5
6
7
8
9
10

0.0002
0.02
0.11
0.30
0.55
0.87
1.24
1.65
2.09
2.56

0.0010
0.05
0.22
0.48
0.83
1.24
1.69
2.18
2.70
3.25

0.0039
0.10
0.35
0.71
1.15
1.64
2.17
2.73
3.33
3.94

0.0158
0.21
0.58
1.06
1.61
2.20
2.83
3.49
4.17
4.87

2.71
4.61
6.25
7.78
9.24
10.64
12.02
13.36
14.68
15.99

3.84
5.99
7.81
9.49
11.07
12.59
14.07
15.51
16.92
18.31

5.02
7.38
9.35
11.14
12.83
14.45
16.01
17.53
19.02
20.48

6.63
9.21
11.34
13.28
15.09
16.81
18.48
20.09
21.67
23.21

10.83
13.82
16.27
18.47
20.52
22.46
24.32
26.12
27.88
29.59

11
12
13
14
15
16
17
18
19
20

3.05
3.57
4.11
4.66
5.23
5.81
6.41
7.01
7.63
8.26

3.82
4.40
5.01
5.63
6.26
6.91
7.56
8.23
8.91
9.59

4.57
5.23
5.89
6.57
7.26
7.96
8.67
9.39
10.12
10.85

5.58
6.30
7.04
7.79
8.55
9.31
10.09
10.86
11.65
12.44

17.28
18.55
19.81
21.06
22.31
23.54
24.77
25.99
27.20
28.41

19.68
21.03
22.36
23.68
25.00
26.30
27.59
28.87
30.14
31.41

21.92
23.34
24.74
26.12
27.49
28.85
30.19
31.53
32.85
34.17

24.72
26.22
27.69
29.14
30.58
32.00
33.41
34.81
36.19
37.57

31.26
32.91
34.53
36.12
37.70
39.25
40.79
42.31
43.82
45.31

21
22
23
24
25
26
27
28
29
30

8.90
9.54
10.20
10.86
11.52
12.20
12.88
13.56
14.26
14.95

10.28
10.98
11.69
12.40
13.12
13.84
14.57
15.31
16.05
16.79

11.59
12.34
13.09
13.85
14.61
15.38
16.15
16.93
17.71
18.49

13.24
14.04
14.85
15.66
16.47
17.29
18.11
18.94
19.77
20.60

29.62
30.81
32.01
33.20
34.38
35.56
36.74
37.92
39.09
40.26

32.67
33.92
35.17
36.42
37.65
38.89
40.11
41.34
42.56
43.77

35.48
36.78
38.08
39.36
40.65
41.92
43.19
44.46
45.72
46.98

38.93
40.29
41.64
42.98
44.31
45.64
46.96
48.28
49.59
50.89

46.80
48.27
49.73
51.18
52.62
54.05
55.48
56.89
58.30
59.70

L
Lorsque n > 30, on peut utiliser lapproximation 2Xn 2n 1 ' G N1 (0, 1) (voir
lexercice 5.5.11) qui assure que pour x 0,
p

P(Xn x) = P( 2Xn 2n 1 2x 2n 1) ' P(G 2x 2n 1).

152

CHAPITRE 11. TABLES STATISTIQUES

11.4

Quantiles de la loi de Student

Soit Xn t(n). On pose


2

((n + 1)/2)

n (n/2) 

1+

y2
n

1
(n+1)/2 dy = P(|Xn | t) = .

/2

/2

PSfrag replacements

La table donne les valeurs de t en fonction de


n et . Par exemple P(|X20 | 2.086) ' 0.05.

n\

0.900

0.800

0.700

0.600

0.500

0.400

0.300

0.200

0.100

0.050

0.020

0.010

0.001

1
2
3
4
5
6
7
8
9
10

0.158
0.142
0.137
0.134
0.132
0.131
0.130
0.130
0.129
0.129

0.325
0.289
0.277
0.271
0.267
0.265
0.263
0.262
0.261
0.260

0.510
0.445
0.424
0.414
0.408
0.404
0.402
0.399
0.398
0.397

0.727
0.617
0.584
0.569
0.559
0.553
0.549
0.546
0.543
0.542

1.000
0.816
0.765
0.741
0.727
0.718
0.711
0.706
0.703
0.700

1.376
1.061
0.978
0.941
0.920
0.906
0.896
0.889
0.883
0.879

1.963
1.386
1.250
1.190
1.156
1.134
1.119
1.108
1.100
1.093

3.078
1.886
1.638
1.533
1.476
1.440
1.415
1.397
1.383
1.372

6.314
2.920
2.353
2.132
2.015
1.943
1.895
1.860
1.833
1.812

12.706
4.303
3.182
2.776
2.571
2.447
2.365
2.306
2.262
2.228

31.821
6.965
4.541
3.747
3.365
3.143
2.998
2.896
2.821
2.764

63.657
9.925
5.841
4.604
4.032
3.707
3.499
3.355
3.250
3.169

636.619
31.599
12.924
8.610
6.869
5.959
5.408
5.041
4.781
4.587

11
12
13
14
15
16
17
18
19
20

0.129
0.128
0.128
0.128
0.128
0.128
0.128
0.127
0.127
0.127

0.260
0.259
0.259
0.258
0.258
0.258
0.257
0.257
0.257
0.257

0.396
0.395
0.394
0.393
0.393
0.392
0.392
0.392
0.391
0.391

0.540
0.539
0.538
0.537
0.536
0.535
0.534
0.534
0.533
0.533

0.697
0.695
0.694
0.692
0.691
0.690
0.689
0.688
0.688
0.687

0.876
0.873
0.870
0.868
0.866
0.865
0.863
0.862
0.861
0.860

1.088
1.083
1.079
1.076
1.074
1.071
1.069
1.067
1.066
1.064

1.363
1.356
1.350
1.345
1.341
1.337
1.333
1.330
1.328
1.325

1.796
1.782
1.771
1.761
1.753
1.746
1.740
1.734
1.729
1.725

2.201
2.179
2.160
2.145
2.131
2.120
2.110
2.101
2.093
2.086

2.718
2.681
2.650
2.624
2.602
2.583
2.567
2.552
2.539
2.528

3.106
3.055
3.012
2.977
2.947
2.921
2.898
2.878
2.861
2.845

4.437
4.318
4.221
4.140
4.073
4.015
3.965
3.922
3.883
3.850

21
22
23
24
25
26
27
28
29
30

0.127
0.127
0.127
0.127
0.127
0.127
0.127
0.127
0.127
0.127

0.257
0.256
0.256
0.256
0.256
0.256
0.256
0.256
0.256
0.256

0.391
0.390
0.390
0.390
0.390
0.390
0.389
0.389
0.389
0.389

0.532
0.532
0.532
0.531
0.531
0.531
0.531
0.530
0.530
0.530

0.686
0.686
0.685
0.685
0.684
0.684
0.684
0.683
0.683
0.683

0.859
0.858
0.858
0.857
0.856
0.856
0.855
0.855
0.854
0.854

1.063
1.061
1.060
1.059
1.058
1.058
1.057
1.056
1.055
1.055

1.323
1.321
1.319
1.318
1.316
1.315
1.314
1.313
1.311
1.310

1.721
1.717
1.714
1.711
1.708
1.706
1.703
1.701
1.699
1.697

2.080
2.074
2.069
2.064
2.060
2.056
2.052
2.048
2.045
2.042

2.518
2.508
2.500
2.492
2.485
2.479
2.473
2.467
2.462
2.457

2.831
2.819
2.807
2.797
2.787
2.779
2.771
2.763
2.756
2.750

3.819
3.792
3.768
3.745
3.725
3.707
3.690
3.674
3.659
3.646

40
80
120

0.126
0.126
0.126
0.126

0.255
0.254
0.254
0.253

0.388
0.387
0.386
0.385

0.529
0.526
0.526
0.524

0.681
0.678
0.677
0.674

0.851
0.846
0.845
0.842

1.050
1.043
1.041
1.036

1.303
1.292
1.289
1.282

1.684
1.664
1.658
1.645

2.021
1.990
1.980
1.960

2.423
2.374
2.358
2.326

2.704
2.639
2.617
2.576

3.551
3.416
3.373
3.291

11.5. QUANTILES DE LA LOI DE FISHER (OU FISHER-SNEDECOR)

11.5

153

Quantiles de la loi de Fisher (ou FisherSnedecor)

Soit Xn,m une v.a. de loi de Fisher de param`etre (n, m). On pose
P(Xn,m f ) = .

La table donne les valeurs de t en fonction


de n, m et {0, 05; 0, 01}. Par exemple
P(X4,20 4.43) ' 0.01.
n=1

PSfrag replacements

n=2

n=3

n=4

n=5

=0.05

=0.01

=0.05

=0.01

=0.05

=0.01

=0.05

=0.01

=0.05

=0.01

1
2
3
4
5
6
7
8
9
10

161.45
18.51
10.13
7.71
6.61
5.99
5.59
5.32
5.12
4.96

4052.18
98.50
34.12
21.20
16.26
13.75
12.25
11.26
10.56
10.04

199.50
19.00
9.55
6.94
5.79
5.14
4.74
4.46
4.26
4.10

4999.50
99.00
30.82
18.00
13.27
10.92
9.55
8.65
8.02
7.56

215.71
19.16
9.28
6.59
5.41
4.76
4.35
4.07
3.86
3.71

5403.35
99.17
29.46
16.69
12.06
9.78
8.45
7.59
6.99
6.55

224.58
19.25
9.12
6.39
5.19
4.53
4.12
3.84
3.63
3.48

5624.58
99.25
28.71
15.98
11.39
9.15
7.85
7.01
6.42
5.99

230.16
19.30
9.01
6.26
5.05
4.39
3.97
3.69
3.48
3.33

5763.65
99.30
28.24
15.52
10.97
8.75
7.46
6.63
6.06
5.64

11
12
13
14
15
16
17
18
19
20

4.84
4.75
4.67
4.60
4.54
4.49
4.45
4.41
4.38
4.35

9.65
9.33
9.07
8.86
8.68
8.53
8.40
8.29
8.18
8.10

3.98
3.89
3.81
3.74
3.68
3.63
3.59
3.55
3.52
3.49

7.21
6.93
6.70
6.51
6.36
6.23
6.11
6.01
5.93
5.85

3.59
3.49
3.41
3.34
3.29
3.24
3.20
3.16
3.13
3.10

6.22
5.95
5.74
5.56
5.42
5.29
5.18
5.09
5.01
4.94

3.36
3.26
3.18
3.11
3.06
3.01
2.96
2.93
2.90
2.87

5.67
5.41
5.21
5.04
4.89
4.77
4.67
4.58
4.50
4.43

3.20
3.11
3.03
2.96
2.90
2.85
2.81
2.77
2.74
2.71

5.32
5.06
4.86
4.69
4.56
4.44
4.34
4.25
4.17
4.10

21
22
23
24
25
26
27
28
29
30

4.32
4.30
4.28
4.26
4.24
4.23
4.21
4.20
4.18
4.17

8.02
7.95
7.88
7.82
7.77
7.72
7.68
7.64
7.60
7.56

3.47
3.44
3.42
3.40
3.39
3.37
3.35
3.34
3.33
3.32

5.78
5.72
5.66
5.61
5.57
5.53
5.49
5.45
5.42
5.39

3.07
3.05
3.03
3.01
2.99
2.98
2.96
2.95
2.93
2.92

4.87
4.82
4.76
4.72
4.68
4.64
4.60
4.57
4.54
4.51

2.84
2.82
2.80
2.78
2.76
2.74
2.73
2.71
2.70
2.69

4.37
4.31
4.26
4.22
4.18
4.14
4.11
4.07
4.04
4.02

2.68
2.66
2.64
2.62
2.60
2.59
2.57
2.56
2.55
2.53

4.04
3.99
3.94
3.90
3.85
3.82
3.78
3.75
3.73
3.70

40
80
120

4.08
3.96
3.92
3.84

7.31
6.96
6.85
6.63

3.23
3.11
3.07
3.00

5.18
4.88
4.79
4.61

2.84
2.72
2.68
2.60

4.31
4.04
3.95
3.78

2.61
2.49
2.45
2.37

3.83
3.56
3.48
3.32

2.45
2.33
2.29
2.21

3.51
3.26
3.17
3.02

154

CHAPITRE 11. TABLES STATISTIQUES

n=6

n=8

n = 12

n = 24

n=

=0.05

=0.01

=0.05

=0.01

=0.05

=0.01

=0.05

=0.01

=0.05

=0.01

1
2
3
4
5
6
7
8
9
10

233.99
19.33
8.94
6.16
4.95
4.28
3.87
3.58
3.37
3.22

5858.99
99.33
27.91
15.21
10.67
8.47
7.19
6.37
5.80
5.39

238.88
19.37
8.85
6.04
4.82
4.15
3.73
3.44
3.23
3.07

5981.07
99.37
27.49
14.80
10.29
8.10
6.84
6.03
5.47
5.06

243.91
19.41
8.74
5.91
4.68
4.00
3.57
3.28
3.07
2.91

6106.32
99.42
27.05
14.37
9.89
7.72
6.47
5.67
5.11
4.71

249.05
19.45
8.64
5.77
4.53
3.84
3.41
3.12
2.90
2.74

6234.63
99.46
26.60
13.93
9.47
7.31
6.07
5.28
4.73
4.33

254.31
19.50
8.53
5.63
4.36
3.67
3.23
2.93
2.71
2.54

6365.86
99.50
26.13
13.46
9.02
6.88
5.65
4.86
4.31
3.91

11
12
13
14
15
16
17
18
19
20

3.09
3.00
2.92
2.85
2.79
2.74
2.70
2.66
2.63
2.60

5.07
4.82
4.62
4.46
4.32
4.20
4.10
4.01
3.94
3.87

2.95
2.85
2.77
2.70
2.64
2.59
2.55
2.51
2.48
2.45

4.74
4.50
4.30
4.14
4.00
3.89
3.79
3.71
3.63
3.56

2.79
2.69
2.60
2.53
2.48
2.42
2.38
2.34
2.31
2.28

4.40
4.16
3.96
3.80
3.67
3.55
3.46
3.37
3.30
3.23

2.61
2.51
2.42
2.35
2.29
2.24
2.19
2.15
2.11
2.08

4.02
3.78
3.59
3.43
3.29
3.18
3.08
3.00
2.92
2.86

2.40
2.30
2.21
2.13
2.07
2.01
1.96
1.92
1.88
1.84

3.60
3.36
3.17
3.00
2.87
2.75
2.65
2.57
2.49
2.42

21
22
23
24
25
26
27
28
29
30

2.57
2.55
2.53
2.51
2.49
2.47
2.46
2.45
2.43
2.42

3.81
3.76
3.71
3.67
3.63
3.59
3.56
3.53
3.50
3.47

2.42
2.40
2.37
2.36
2.34
2.32
2.31
2.29
2.28
2.27

3.51
3.45
3.41
3.36
3.32
3.29
3.26
3.23
3.20
3.17

2.25
2.23
2.20
2.18
2.16
2.15
2.13
2.12
2.10
2.09

3.17
3.12
3.07
3.03
2.99
2.96
2.93
2.90
2.87
2.84

2.05
2.03
2.01
1.98
1.96
1.95
1.93
1.91
1.90
1.89

2.80
2.75
2.70
2.66
2.62
2.58
2.55
2.52
2.49
2.47

1.81
1.78
1.76
1.73
1.71
1.69
1.67
1.65
1.64
1.62

2.36
2.31
2.26
2.21
2.17
2.13
2.10
2.06
2.03
2.01

40
80
120

2.34
2.21
2.18
2.10

3.29
3.04
2.96
2.80

2.18
2.06
2.02
1.94

2.99
2.74
2.66
2.51

2.00
1.88
1.83
1.75

2.66
2.42
2.34
2.18

1.79
1.65
1.61
1.52

2.29
2.03
1.95
1.79

1.51
1.32
1.25
1.00

1.80
1.49
1.38
1.00

318

Table de distribution de d .Loi de Durbin-Watson

1 Percent Significance Points of dL and du

k=1
n
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
45
50
55
60
65
70
75
80
85
90
95
100

dL
0.81
0.84
0.87
0.90
0.93
0.95
0.97
1.00
1.02
1.04
1.05
1.07
1.09
1.10
1.12
1.13
1.15
1.16
1.17
1.18
1.19
1.21
1.22
1.23
1.24
1.25
1.29
1.32
1.36
1.38
1.41
1.43
1.45
1.47
1.48
1.50
1.51
1.52

k=3

k=2

du

dL
1.07
1.09
1.10
1.12
1.13
1.15
1.16
1.17
1.19
1.20
1.21
1.22
1.23
1.24
1.25
1.26
1.27
1.28
1.29
1.30
1.31
1.32
1.32
1.33
1.34
1.34
1.38
1.40
1.43
1.45
1.47
1.49
1.50
1.52
1.53
1.54
1.55
1.56

0.70
0.74
0.77
0.80
0.83
0.86
0.89
0.91
0.94
0.96
0.98
1.00
1.02
1.04
1.05
1.07
1.08
1.10
1.11
1.13
1.14
1.15
1.16
1.18
1.19
1.20
1.24
1.28
1.32
1.35
1.38
1.40
1.42
1.44
1.46
1.47
1.49
1.50

k=4

k=5

du

dL

du

dL

du

dL

du

1.25
1.25

0.59
0.63
0.67
0.71
0.74
0.77
0.80
0.83
0.86
0.88
0.90
0.93
0.95
0.97
0.99
1.01
1.02
1.04
1.05
1.07
1.08
1.10
1.11
1.12
1.14
1.15
1.20
1.24
1.28
1.32
1.35
1.37
1.39
1.42
1.43
1.45
1.47
1.48

1.46
1.44
1.43
1.42
1.41
1.41
1.41
1.40
1.40
1.41
1.41
1.41
1.41
1.41
1.42
1.42
1.42
1.43
1.43
1.43
1.44
1.44
1.45
1.45
1.45
1.46
1.48
1.49
1.51
1.52
1.53
1.55
1.56
1.57
1.58
1.59
1.60
1.60

0.49
0.53
0.57
0.61
0.65
0.68
0.72
0.75
0.77
0.80
0.83
0.85
0.88
0.90
0.92
0.94
0.96
0.98
1.00
1.01
1.03
1.04
1.06
1.07
1.09
1.10
1.16
1.20
1.25
1.28
1.31
1.34
1.37
1.39
1.41
1.43
1.45
1.46

1.70
1.66
1.63
1.60
1.58
1.57
1.55
1.54
1.53
1.53
1.52
1.52
1.51
1.51
1.51
1.51
1.51
1.51
1.51
1.51
1.51
1.51
1.51
1.52
1.52
1.52
1.53
1.54
1.55
1.56
1.57
1.58
1.59
1.60
1.60
1.61
1.62
1.63

0.39
0.44
0.48
0.52
0.56
0.60
0.63
0.66
0.70
0.72
0.75
0.78
0.81
0.83
0.85
0.88
0.90
0.92
0.94
0.95
0.97
0.99
1.00
1.02
1.03
1.05
1.11
1.16
1.21
1.25
1.28
1.31
1.34
1.36
1.39
1.41
1.42
1.44

1.96
1.90
1.85
1.80
1.77
1.74
1.71
1.69
1.67
1.66
1.65
1.64
1.63
1.62
1.61
1.61
1.60
1.60
1.59
1.59
1.59
1.59
1.59
1.58
1.58
1.58
1.58
1.59
1.59
1.60
1.61
1.61
1.62
1.62
1.63
1.64
1.64
1.65

1.25
1.26
1.26
1.27
1.27
1.28
1.29
1.30
1.30
1.31
1.32
1.32
1.33
1.34
1.34
1.35
1.36
1.36
1.37
1.38
1.38
1.39
1.39
1.40
1.42
1.45
1.47
1.48
1.50
1.52
1.53
1.54
1.55
1.56
1.57
1.58

319

Table de distribution de d .Loi de Durbin-Watson (suite)

5 Percent Significance Points of dl and du

k=1

k=2

dL

dU

dL

15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
45
50
55
60
65
70
75
80
85
90
95
100

1.08
1.10
1.13
1.16
1.18
1.20
1.22
1.24
1.26
1.27
1.29
1.30
1.32
1.33
1.34
1.35
1.36
1.37
1.38
1.39
1.40
1.41
1.42
1.43
1.43
1.44
1.48
1.50
1.53
1.55
3.57
1.58
1.60
1.61
1.62
1.63
1.64
1.65

1.36
1.37
1.38
1.39
1.40
1.41
1.42
1.43
1.44
1.45
1.45
1.46
1.47
1.48
1.48
1.49
1.50
1.50
1.51
1.51
1.52
1.52
1.53
1.54
1.54
1.54
1.57
1.59
1.60
1.62
3.63
1.64
1.65
1.66
1.67
1.68
1.69
1.69

0.95
0.98
1.02
1.05
1.08
1.10
1.13
1.15
1.17
1.19
1.21
1.22
1.24
1.26
1.27
1.28
3.30
1.31
1.32
3.33
1.34
1.35
1.36
1.37
1.38
1.39
1.43
1.46
3.49
1.51
1.54
1.55
1.57
1.59
1.60
1.61
1.62
3.63

k=3

k=4

k=5

dU

dL

dU

dL

dU

dL

dU

1.54
1.54
1.54
1.53
1.53
1.54
1.54
1.54
1.54
1.55
1.55
1.55
1.56
1.56
1.56
1.57
1.57
1.57
1.58
1.58
1.58
1.59
1.59
1.59
1.60
1.60
1.62
3.63
1.64
1.65
1.66
1.67
1.68
3.69
1.70
1.70
1.71
1.72

0.82
0.86
0.90
0.93
0.97
1.00
1.03
1.05
1.08
1.10
1.12
1.14
1.16
1.18
1.20
1.21
1.23
1.24
1.26
1.27
1.28
1.29
3.31
1.32
1.33
1.34
1.38
1.42
1.45
1.48
1.50
1.52
1.54
1.56
1.57
1.59
1.60
1.61

1.75
1.73
1.71
1.69
1.68
1.68
1.67
1.66
1.66
1.66
1.66
1.65
1.65
1.65
1.65
1.65
1.65
1.65
1.65
1.65
1.65
1.65
1.66
1.66
1.66
1.66
1.67
1.67
1.68
1.69
1.70
1.70
1.71
1.72
1.72
3.73
1.73
1.74

0.69
0.74
0.78
0.82
0.86
0.90
0.93
0.96
0.99
1.01
1.04
1.06
1.08
1.10
1.12
1.14
1.16
1.18
1.19
1.21
1.22
1.24
1.25
1.26
1.27
1.29
1.34
1.38
1.41
1.44
1.47
3.49
1.51
1.53
1.55
3.57
3.58
1.59

1.97
1.93
1.90
1.87
1.85
1.83
1.81
1.80
1.79
1.78
1.77
1.76
1.76
1.75
1.74
1.74
1.74
1.73
1.73
1.73
1.73
1.73
1.72
1.72
1.72
1.72
1.72
1.72
1.72
1.73
1.73
1.74
1.74
1.74
1.75
1.75
1.75
1.76

0.56
0.62
0.67
0.71
0.75
0.79
0.83
0.86
0.90
0.93
0.95
0.98
1.01
1.03
1.05
3.07
1.09
1.11
1.13
1.15
1.16
1.18
1.19
1.21
1.22
1.23
1.29
3.34
1.38
1.41
1.44
1.46
1.49
1.51
1.52
1.54
1.56
1.57

2.21
2.15
2.10
2.06
2.02
1.99
1.96
1.94
1.92
1.90
1.89
1.88
1.86
1.85
1.84
1.83
1.83
1.82
1.81
1.81
1.80
1.80
1.80
1.79
1.79
1.79
1.78
1.77
1.77
1.77
1.77
1.77
1.77
1.77
1.77
1.78
1.78
1.78

Вам также может понравиться