Академический Документы
Профессиональный Документы
Культура Документы
Intervalle de Confiance
()
Sommaire
Vraisemblance et Estimation
Vraisemblance, exhaustivit, libert, compltude
Information de Fisher
Lestimateur du maximum de vraisemblance
Comportement asymptotique des estimateurs
Intervalle de Confiance
Construction pratique dun Intervalle de Confiance
Intervalle de Confiance Asymptotique
()
log (f (xi ; ))
i=1
Exemple :
()
Exhaustivit
Dfinition
Soit M = {f (x, ), x X , }un modle paramtrique domin et
S : X Y une statistique. La statistique S est dite exhaustive si la loi
de X sachant S = s est indpendante de .
Caractrisation via le thorme de factorisation : Une statistique
S(x1 , . . . , xn ) est exhaustive du modle paramtrique (domin par )
ssi la densit scrit
f (x1 , . . . , xn ; ) = g (S(x1 , . . . , xn ); ) h(x)
Interprtation : S(x1 , . . . , xn ) contient toute linformation de
lchantillon sur , cest un rsum qui prserve linformation.
Proprit : Si S1 , S2 sont des statistiques telles que S1 = h(S2 ). Alors
si S1 est exhaustive pour , alors S2 est exhaustive pour .
Dfinition : Une statistique S est exhaustive minimale si tout autre
statistique exhaustive T scrit S = h(T ).
()
Exemples
Lchantillon lui-mme
Le cas multinomial
Le cas gaussien
Le cas uniforme
()
Libert, Compltude
Dans un modle paramtrique M , une statistique S est libre en si
sa loi ne dpend pas de .
Une statistique S est complte ssi
, E [h(S)] = 0 = h = 0, P ps
Thorme : Une statistique exhaustive complte est minimale.
Thorme de Basu : Si S est une statistique exhaustive complte pour
le modle M , alors toute statistique libre T est indpendante de S
pour toute loi P de M .
I
()
Estimation et exhaustivit
Thorme de Rao-Blackwell : Soit T une statistique
exhaustive, et
2
un estimateur de tel que R(, ) = E
< , alors
h
i
= E |T est lamlior de Rao-Blackwell :
lestimateur
, ) < R(, )
R(
Thorme de Lehmann-Scheff : Soit S une statistique exhaustive
complte pour un modle
Si est un estimateur sans
h paramtrique.
i
= E |T est un estimateur sans biais
biais de , alors
uniformment de variance minimale.
Conclusion et interprtation : de bons rsums optimaux de
lchantillon permettent daugmenter la prcision. .
()
Le modle exponentiel
Dfinition
Un modle statistique {f (x; )| } sur X = Rd est une famille
exponentielle si les densits f (x; ) scrivent
!
s
f (x; ) = exp
i ( )Ti (x) B( )
h(x)
i=1
f (x; ) = exp
i Ti (x) A()
h(x)
i=1
()
Proprits
C () = exp(A()) est la constante de normalisation.
Lensemble H = { Rs |
E [T (X )] = A()
2
cov (Ti , Tj ) = A()
i
T (x1 , . . . , xn ) =
T (xi ).
i=1
()
()
Information de Fisher
()
g 0 ( )
In ( )
et
g 0 ( )2
In ( )
Cas vectoriel :
V (Tn ) J(g )( )> In ( )1 J(g )( )
avec J(g )( )= Jacobien de g valu au point .
()
()
= arg min L( ; x1 , . . . , xn )
= arg min L ( ; x1 , . . . , xn )
Remarque
Les conditions suffisantes doptimalit pour dterminer nEMV sont :
(x, )| =EMV = 0
n
2L
EMV
(x, n
)0
EMV
L (x, n
) L (x, ), .
()
Le cas Bernoulli
Le cas Poisson
()
Proprits de lEMV
Sous les hypothses du thorme de factorisation, nEMV est fonction
de toute statistique exhaustive.
Pour lEMV, il y a des problmes :
I
I
I
()
Convergence de lEMV
Remarque
La rgularit suppose que linformation de Fisher I ( ) existe et est dfinie
positive. Une consquence de I ( ) > 0 est que le modle est identifiable,
i.e f (; ) = f (, 0 ) = = 0 , for all , 0 .
()
N (0, I1 ( ))
Remarque
Delta-Method
Soit
n , unestimateur asymptotiquement normal
rn n
N (0, J ( )), et une fonction diffrentiable autour
de , alors (n ) est asymptotiquement normal et
rn n ( )
Lemme de Slutsky : Si Yn
N 0, 0 ( )> J ( ) 0 ( )
Proba
Proba
Y et An A et Bn B, alors
An + Bn Yn
A + BY
()
Intervalle de confiance
Intervalle de Confiance
On considre un modle dchantillonnage paramtrique X1 , ..., Xn de taille
n. Les variables alatoires X1 , ..., Xn sont indpendantes et de mme loi
inconnue P, et elles sont valeurs dans X (R ou Rd ).
On suppose que la loi P appartient une famille de probabilit
P = {P , }.
Intervalle de Confiance
Dfinition 3.4 (Statistique asymptoptiquement libre)
On appelle statistique asymptotiquement libre pour , toute statistique dont sa
loi asymptotique ne dpend pas de .
n =
ple 3.1 Soit X1 , ..., Xn un chantillon de loi N (, 2 ). Notons X
1
n1
Xi
et
i=1
Sn2 =
n
1
n
(Xi Xn )2 .
i=1
- Si est connu,
n )
n(X
- Si est inconnu
n )
n(X
Sn
Xi
- Si est inconnu (n 1) Sn2 est une statistique libre pour , de loi n21 .
()
marque Le choix dune statistique libre revient viter davoir les bornes de lIC
dpendantes de
()
n
1
n
Xi
comme estimateur de .
i=1
n )
n(X
n 1 est :
- Lintervalle de probabilit de X
u 2
u 2
n
n )
n(X
n
X
u 2
+ u 2
n
xn u 2
xn + u 2
n
n
- Application numrique : si (1 ) = 0, 95, on a u 2 = 1, 96. Lintervalle de
confiance
de niveau 95%
est Estimation ponctuelle et Intervalle de Confiance36 / 45
()
Chap 2pour
: Vraisemblance,
n )
n(X
Sn
Chap 2 : Vraisemblance,
Estimation ponctuelle
et Intervalle
Confiance37 / 45
marque Le TCL() a pour consquence
que les intervalles
prcdents
sontdevalables
n2
nU
k2 ) = 1
2
do lintervalle de confiance :
n
u2
n
un2
2 n
k2
k1
n
1
n1
(n1)Sn2
i=1
(n 1)Sn2
b2 ) = 1
2
do lintervalle de confiance :
(n 1)sn2
(n 1)sn2
2
b2
b1
()
n = sup Xi
1i n
=
Vrifions que Tn =
on a
()
x
( )n
(1)
a := (n ) et b := (n ) tels que
2
P(a Tn b)
b a
h
i
1
n ; n n
b a
On choisit les a et b tels que [a, b] soit lintervalle le plus court possible.
Puis on remonte le raisonnement pour arriver un intervalle de confiance
(voir exemple sur les esprances/variances normales).
()
loi N (0, 1 ).
n(n )
I ( )
n
- Autrement dit :
p
loi N (0, 1).
n I ( )(n )
n
q
P u 2 n I (n )(n ) u 2 = 1
do lintervalle de confiance asympttique :
u 2
u 2
n q
.
, n + q
n I (n )
n I (n )
()
=
=
=
P(Tn x)
x n
P n (1 )
n
x n
1 (1 )
n
E xp(1).
()
P(n b)
=
n
do b =
1 F 1 (1 )
1 n
T
1 log
1 n
"
!!
n
P 0 Tn n 1
b
!
n
FT n(1 ) = 1
b
On a donc
n
IC = n ;
1
1 n log
()