Академический Документы
Профессиональный Документы
Культура Документы
Jean-Yves DAUXOIS
Septembre 2013
Table des matires
3
2.2.5 Indpendance . . . . . . . . . . . . . . . . . . . . . . . 53
2.3 Extension de la notion de densit . . . . . . . . . . . . . . . . 57
2.3.1 Intgrale par rapport une mesure . . . . . . . . . . . 57
2.3.2 Absolue continuit dune mesure par rapport une
autre. Densit . . . . . . . . . . . . . . . . . . . . . . . 66
2.3.3 Mlange de lois . . . . . . . . . . . . . . . . . . . . . . 68
2.3.4 Densits conjointes, marginales et conditionnelles . . . 69
5 Vecteurs gaussiens 93
5.1 Exemple fondamental . . . . . . . . . . . . . . . . . . . . . . 94
5.2 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.3 Proprits des vecteurs alatoires gaussiens . . . . . . . . . . 98
5.3.1 Transformation linaire dun vecteur gaussien . . . . . 98
5.3.2 Vecteur gaussien et indpendance . . . . . . . . . . . . 98
6 Convergences 101
6.1 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . 102
6.1.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . 102
6.1.2 Caractrisation de la convergence en loi . . . . . . . . 102
6.1.3 Approximation de lois . . . . . . . . . . . . . . . . . . 104
6.2 Convergence en probabilit . . . . . . . . . . . . . . . . . . . 107
6.2.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.2.2 Convergence en probabilit et convergence en loi . . . 111
6.3 Convergence presque sre . . . . . . . . . . . . . . . . . . . . 112
6.3.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.3.2 Critres de convergence p.s. . . . . . . . . . . . . . . . 112
6.3.3 Convergence presque sre et convergence en probabilit 113
6.3.4 Loi forte des grands nombres . . . . . . . . . . . . . . 113
6.4 Convergence dans Lp . . . . . . . . . . . . . . . . . . . . . . . 114
6.5 Rsum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Index 116
6 Chapitre 0. TABLE DES MATIRES
7
8 Chapitre 1. Introduction au calcul des probabilits
1.1.2 Tribus
Tout phnomne alatoire fait appel deux ensembles de type diffrent.
Et plus gnralement
[ \
An A et An A.
n n
(i) A,
A A A A,
A B = A B
A
A\B = AB A
= A
Exemples de tribus.
* A = P() est une tribu. Cest la tribu la plus fine, dans le sens o elle
contient toutes les autres tribus sur .
Dfinition 1.1.2 Lorsque A est une tribu sur , le couple (, A) est appel
espace probabilisable (ou mesurable).
Thorme 1.1.3 Limage rciproque dune tribu par une application f est
une tribu.
Preuve. Notons
C = {C = A 0 : A A}.
* On a 0 = 0 et donc 0 C
* Soit C un lment de C et notons C son complmentaire par rapport
0
. On a :
C = A 0 C
* Supposons maintenant que, pour tout n, Cn soit dans C. Il existe donc
pour tout n,
An A, tel que Cn = An 0 .
Do: !
[ [ [
Cn = (An 0 ) = An 0 C.
n n n
Ainsi, C est bien une tribu sur 0 . 2
Thorme 1.1.5 Soit I une partie de N et (Ai )iI une famille de tribus sur
le mme espace fondamental . La famille de parties
\
A= Ai
iI
Preuve.
* Lensemble est dans Ai , pour tout i, il est donc un lment de A.
* De plus, on a :
(A A) (i : A Ai ) (i : A Ai ) (A A).
Nous attirons lattention du lecteur sur le point suivant. Si (An ) est une
famille quelconque de parties dun ensemble et si un lment A est tel que
A An ,
+ + (1)n1 P (A1 An ).
Preuve.
puisque A et A sont disjoints.
(i) P () = 1 = P (A) + P (A)
(ii) P () = 1 P () = 0.
(iii) On a
+ P (B).
P (A B) = P (A B)
Or
= P (A B) + P (A B).
P (A) = P (A {B B})
Ainsi
= P (A) P (A B).
P (A B)
Do
P (A B) = P (A) + P (B) P (A B).
(iv) Exercice.
(v) On a vu que
= P (B) P (A B).
P (B A)
Or
A B A B = A.
Do
0.
P (B) P (A) = P (B A)
(vi) Daprs le (iii) la formule est vraie pour n = 2. Supposons la vraie
au rang n 1. On a alors
n n1 n1 n
! !
[ [ X X
P Ai P Ai + P (An ) P (Ai ) + P (An ) = P (Ai )
i=1 i=1 i=1 i=1
Remarque. Les proprits (iii), (v) et (vi) restent vraies pour les mesures.
La proprit (ii) reste vraie pour une mesure si celle-ci nest pas dgnre
(i.e. de valeur tout le temps +). 3
On dit quune mesure sur (, A) est discrte sil existe une famille
D = {n : n I}
Exemples fondamentaux.
1) Mesure de Dirac
On a donc
0 (A) = l1A (0 ).
est une probabilit discrte sur (, P()) ou (, A) pour toute tribu A con-
tenant tous les singletons.
On a
n I : P ({n }) = pn
et
\ (n )nI : P ({}) = 0.
On peut ainsi dfinir, par exemple, lquiprobabilit sur {1, 2, . . . , N }. Repre-
nons en effet le jeu du lanc de d. On a :
= {1, . . . , 6} et A = P().
3) Mesure de comptage
On dfinit sur (N, P(N)) ou (R, P(R)) la mesure :
+
X
= n .
n=0
On vrifie aisment quil sagit bien dune mesure. Elle est discrte sur
(N, P(N)) et (R, BR ) puisque D = N est dnombrable et (R \ N) = 0
dans le deuxime cas. Cette mesure est appele mesure de comptage. Si on
raisonne sur (N, P(N)) et si A P(N),
+
X
(A) = n (A) = nombre dlments de A.
n=0
(]a, b]) = b a,
o a < b sont des rels. On vrifie lexistence et lunicit dune telle mesure
et on a
(]a, b]) = ([a, b[) = ([a, b]) = (]a, b[).
La mesure de Lebesgue est une mesure continue sur R puisque, pour tout x
dans R, on a :
1 1 1 1
({x}) = lim ([x , x + ]) = lim (x + x + ) = 0. 3
n+ n n n+ n n
Proposition 1.1.16
Tous les rsultats sur les fonctions mesurables restent donc vrais pour les
variables alatoires. Ainsi, on pourra parler du supremum sur une famille
infinie de variables alatoires et de limite de variables alatoires. On sera
assur quil sagit encore de variables alatoires.
Notations.
Si (E, B) = (R, BR ), lapplication X est dite variable alatoire relle
(v.a.r.) ou unidimensionnelle ou univarie.
Si (E, B) = (Rn , BRn ), lapplication X est dite vecteur alatoire ou
variable alatoire multidimensionnelle ou multivarie.
Si (E, B) est tout, ou une partie, de (Z, BZ ), lapplication X est dite v.a.
discrte.
1.2 Conditionnement
Supposons que lon joue au lancer de d avec un d dont les faces paires
sont de couleur blanche et les faces impaires de couleur noire. Si de loin on
P B : A [0, 1]
P (A B)
A 7 P B (A) = .
P (B)
P B (A) = P (A/B).
Remarquons que lon peut aussi voir cette probabilit comme une pro-
babilit sur la tribu trace de A sur B.
A A, P (A B) = P (B)P (A/B)
= P (A)P (B/A).
Vrifions que P B ainsi dfinie est bien une probabilit sur (, A). Puisque,
pour tout A dans A, lvnement A B est inclus dans B, on a :
0 P (A/B) 1.
Trivialement on a galement :
P ( B)
P (/B) = = 1.
P (B)
Enfin, soit (An ) une suite dvnements de A deux deux disjoints. On
a:
! S S P
[ P (( n An ) B) P ( n (An B)) P (An B)
P An / B = = = n
n
P (B) P (B) P (B)
X
= P (An /B)
n
P (B) = P ( B)
! !
[ X X
= P Ai B = P (Ai B) = P (Ai )P (B/Ai ).
iI iI iI
P (T + /M ) = 0, 99
) = 0, 02
P (T + /M
et P (M ) = 1/1000.
La probabilit P (M/T + ), celle quun patient soit atteint sachant que son
test est positif, est gale, daprs la formule de Bayes, :
P (T + /M ) P (M )
P (M/T + ) = )P (M)
P (T + /M )P (M ) + P (T + /M
0, 99 0, 001 1
= =
0, 99 0, 001 + 0, 02 0, 999 21
Le test propos ne semble pas tre trs efficace... 3
P (A B) = P (A)P (B).
Proposition 1.3.2
A B, A B.
1) Si A et B sont indpendants, alors A B,
2) Si lvnement A est tel que sa probabilit est soit nulle soit gale 1,
alors
B A, A B.
Preuve.
1) On a
Do
et donc A B.
= 0 et ce qui prcde entrane
Si loppos P (A) = 1, lgalit P (A)
alors
B A, B A
et donc
2
B A, B A.
Dfinition 1.3.3 Soit (Ai )i=1,...,n une famille dvnements de A. Ces vne-
ments sont dits (mutuellement) indpendants en probabilit si :
!
\ Y
I {1, . . . , n} P Ai = P (Ai ).
iI iI
Dfinition 1.3.5 On dit que la famille (Ai )i=1,...,n est une famille indpen-
dante de sous tribus si pour toute famille dvnements (Ai )i=1,...,n o Ai
Ai , pour tout i, on a :
n n
!
\ Y
P Ai = P (Ai ).
i=1 i=1
Dfinition 1.3.6 Une famille (Xi )i=1,...,n de variables alatoires est dite in-
dpendante en probabilit si :
on a :
n n
!
\ Y
P {Xi Bi } = P ({Xi Bi }) .
i=1 i=1
Thorme 1.3.7 Si, pour tout i, les fonctions i sont des fonctions mesu-
rables de (Ei , Bi ) vers (Ei0 , Bi0 ), alors lindpendance des variables alatoires
(Xi )i=1,...,n entrane celle des (i (Xi ))i=1,...,n .
Preuve. Pour toute famille (Bi0 )i=1,...,n o Bi0 Bi0 , pour tout i, on a
1 0
i (Bi ) = Bi Bi
Do :
n n n
! ! !
\ \ \
i Xi Bi0 (i (Xi ))1 (Bi0 ) Xi1 (Bi )
P = P =P
i=1 i=1 i=1
n n
!
\ Y
= P {Xi Bi } = P (Xi Bi )
i=1 i=1
n
Y
= P (i (Xi ) Bi0 )
i=1
Exemples.
i) ni=1 Ai
ii) ni=1 Xi , pour toute famille (Xi )i=1,...,n de v.a. o Xi est Ai mesurable
iii) ni=1 l1Ai , pour toute famille (Ai )i=1,...,n o Ai Ai pour tout i
iv) ni=1 Ai , pour toute famille (Ai )i=1,...,n o Ai Ai pour tout i
Proposition 1.3.9 Soit (Ai )i=1,...,n une famille dvnements sur un mme
espace probabilis (, A, P ). On a les quivalences suivantes :
ni=1 Ai ni=1 (Ai ) ni=1 l1Ai .
Proposition 1.3.10 Soit (Xi )i=1,...,n une famille de variables alatoires d-
finies sur un mme espace probabilis (, A, P ) et valeurs respectivement
dans (Ei , Bi )i=1,...,n . On a les quivalences suivantes :
ni=1 Xi ni=1 (Xi ) ni=1 {Xi Bi } , pour tout Bi Bi .
Remarque. La famille de parties (Xi ) est la tribu engendre par Xi .
Cest la plus petite tribu rendant Xi mesurable. On a :
(X ) = X 1 (B). 3
i i
Bi = Ai .
Une fois que lon aura dtermin P , lindpendance intuitive de (Ai )i=1,...,n
se traduira par lindpendance en probabilit des Bi , i.e. :
n n
!
\ Y
P Bi = P (Bi ).
i=1 i=1
Notons que
n
\
Bi = A1 An
i=1
P (Bi ) = Pi (Ai ).
Le thorme suivant montre (bien que sa preuve ne soit pas donne ici !)
quune telle probabilit existe et que, de plus, elle est unique.
(ni=1 i , ni=1 Ai )
ni=1 Xi
n n
" #
\ Y
Ai Ai , pour i = 1, . . . , n : P Xi1 (Ai ) = P (Xi1 (Ai ))
i=1 i=1
n
Y
Ai Ai , pour i = 1, . . . , n : P X 1 (A1 An ) =
PXi (Ai )
i=1
n
Y
Ai Ai , pour i = 1, . . . , n : PX (A1 An ) = PXi (Ai )
i=1
PX = ni=1 PXi . 2
31
32 Chapitre 2. Lois sur R et lois sur Rn
inf Xn , et sup Xn
n n
iv) On a
lim FX (x) = 0 et lim FX (x) = 1.
x x+
Pour le iii) considrons une suite (hn ) de rels dcroissante vers 0. Pour
tout x dans R, on a :
PX (]x, x + hn ]) = FX (x + hn ) FX (x).
On en dduit que
lim FX (x + hn ) = FX (x)
n+
Lgalit
lim FX (x) = 1
x+
Elle est continue gauche (et non plus droite) et vrifie sinon les mmes
proprits que prcdemment. Notons que, dans le cas dune f.d.r. discon-
tinue (par exemple celui des v.a.r. discrtes), ces dfinitions donnent des
rsultats diffrents.
En effet, si x est un atome pour PX , i.e.
PX ({x}) = P (X = x) > 0,
alors on a :
P (X x ) et P (X x ) 1 .
Terminologie particulire.
* Tout quantile dordre 1/2 est appel valeur mdiane de la loi de X. Sil
est unique il est appel mdiane de X et est not m
ed(X). Dans lautre
cas, lensemble des valeurs mdianes constitue un intervalle mdian.
PX (R \ D) = 0
et X
A BR , PX (A) = PX ({x}).
xAD
PX ({x}) > 0, x D.
Preuve. Immdiate. 2
a) Loi de Dirac
Soit x0 R. Une v.a.r. X est dite de loi de Dirac x0 si elle est valeurs
dans R et telle que PX = x0 . On a donc, pour tout borlien A :
1 si x0 A
PX (A) = x0 (A) =
0 sinon
De plus on a :
PX ({x0 }) = P (X = x0 ) = 1
et PX ({x}) = P (X = x) = 0, pour tout x 6= x0 .
b) Loi de Bernoulli
Une v.a.r. X est dite variable alatoire de Bernoulli de paramtre p,
(pour p [0, 1]) si elle est valeurs dans D = {0, 1} et si
PX ({1}) = P (X = 1) = p ;
PX ({0}) = P (X = 0) = 1 p.
c) Loi binomiale
Une v.a.r. X est dite de loi Binomiale de paramtres n et p (pour n N
et p [0, 1]) si elle est valeurs dans D = {0, 1, . . . , n} et si
X 5
X 5
X
PX (A) = PX ({x}) = PX ({k}) = Cnk pk (1 p)nk .
xAD k=1 k=1
Cette loi apparat, entre autres, lors de tirages avec remise dans une
urne contenant des boules bleues en proportion p et des boules rouges en
proportion q = 1 p. Sur n tirages, si X est le nombre de boules bleues
obtenues, la loi de X est une binomiale B(n, p).
On montre facilement que la loi binomiale B(n, p) est la loi de la somme
de n v.a.r. indpendantes et de mme loi de Bernoulli de paramtre p.
d) Loi gomtrique
Une v.a.r. X est dite de loi gomtrique de paramtre p, pour p compris
entre 0 et 1, si elle est valeurs dans D = N et si
P (X = k) = (1 p)k1 p.
On note X G(p).
Cette loi apparat, par exemple, lors de tirages successifs, indpendants
et avec remise dans une urne contenant des boules bleues en proportion p et
des boules rouges en proportion 1 p.
Si X est le nombre de tirages effectus lors de lapparition de la 1e`re boule
bleue alors la loi de X est une gomtrique G(p). La v.a.r. X est donc le
rang darrive de la 1e`re boule bleue.
On peut aussi trouver dans la littrature la loi gomtrique valeurs dans
N et elle a pour probabilit lmentaire P (X = k) = (1 p)k p. Dans notre
exemple, cette dernire donne la loi du nombre de boules rouges obtenues
avant lapparition de la 1e`re boule bleue.
f) Loi de Poisson
Une v.a.r. X est dite de loi de Poisson de paramtre , si elle est
valeurs dans D = N et si
k
P (X = k) = e .
k!
On note X P().
Pour donner un exemple, anticipons un peu sur les lois continues. Con-
sidrons un lot de machines identiques, aux comportements indpendant et
dont le temps dattente avant larrive dune panne est une exponentielle de
paramtre . On met en marche la premire machine et quand survient la
panne sur celle-ci, on la remplace immdiatement par une autre machine et
ainsi de suite sur un intervalle de temps [0, t]. Le nombre de pannes observes
durant cette priode suit alors une loi de Poisson P(t).
g) Loi hypergomtrique
Une v.a.r. X est dite de loi hypergomtrique de paramtre (n, N, M )
o n, N et M sont des entiers tels que M < N et n N, si elle est valeurs
dans D = N [max(0, n (N M )), min(n, M )] et si
k C nk
CM N M
P (X = k) = n .
CN
Une v.a.r. (i.e. valeurs dans (R, BR )) continue est donc telle que :
x R, PX ({x}) = 0.
Une v.a.r. (ou sa loi) qui admet une densit est dite absolument continue.
Ainsi, la fonction f est encore une densit pour X. Toutes les densits sont
donc quivalentes pour cette relation et on appelle densit nimporte quel
lment de cette classe dquivalence.
i) f est positive
Proposition 2.1.12 Si fX est continue sur un intervalle [a, b], alors FX est
drivable sur [a, b] et on a fX = FX0 .
Remarquons enfin quune variable alatoire (ou sa loi) nest pas soit dis-
crte, soit continue, soit absolument continue. Le thorme suivant, d
Lebesgue, prcise ceci.
F = 1 F1 + 2 F2 + 3 F3 .
b) Loi normale N (, 2 )
Une v.a.r. X valeurs dans R est dite de loi normale de moyenne et
de variance 2 si elle est absolument continue et admet pour densit
(x )2
1
f (x) = exp
2 2 2 2
pour x R. La loi N (0, 1) est appele loi normale centre rduite.
Notons le rsultat suivant
X
si X N (, 2 ) alors N (0, 1)
si X N (0, 1) alors + X N (, 2 ).
La fonction de rpartition de la loi normale na pas dexpression explicite
mais on lexprime souvent en fonction de celle de la loi N (0, 1), que lon note
souvent . On a Z x
1 2
(x) = eu /2 du.
2
Ainsi, si X N (, 2 ), alors
x
FX (x) = .
c) Loi exponentielle
Soit un rel strictement positif. Une v.a.r. X valeurs dans R+ est
dite de loi exponentielle de paramtre si elle est absolument continue et
admet pour densit
f (x) = exl1]0,+[ (x).
On note X E().
Sa fonction de rpartition est :
F (x) = 1 ex ,
d) Loi Gamma
Rappelons en premier lieu lexpression de la fonction Gamma (ou seconde
fonction dEuler) pour tout positif
Z +
() = eu u1 du.
0
f) Loi de Student
Une v.a.r. X valeurs dans R est dite de loi de Student n degrs de
libert si elle est absolument continue de densit :
n+1
x2
1 2
f (x) = 1 +
n( 12 , n2 ) n
On note X T (n).
g) Loi de Fisher
Une v.a.r. X valeurs dans R+ est dite de loi de Fisher n et m degrs
de libert, si elle est absolument continue de densit :
n
1 n m x 2 1
f (x) = n 2m 2
n+m l1R+ (x)
( n2 , m
2) (m + nx) 2
On note X F (n, m).
h) Loi log-normale
Une v.a.r. X valeurs dans ]0, +[ est dite de loi log-normale de
paramtre et 2 si la v.a.r. Y = log X est de loi normale N (, 2 ). On
note X LN (, 2 ).
Sa fonction de rpartition est alors
logx
F (x) = l1R+ (x),
i) Loi de Cauchy
Une v.a.r. valeurs dans R est dite de loi de Cauchy C(0, 1) si elle est
absolument continue et admet pour densit
1 1
f (x) = ,
1 + x2
pour x R.
car la v.a.r. X est continue. De plus , comme cette dernire est absolument
continue sur R et de densit fX continue sur R, sa f.d.r. FX est drivable
1 1
fY (y) = fX ( y) + fX ( y)
2 y 2 y
1 1/2
1 1 y/2 1
= e 2
= y 2 1 ey/2 l1R+
(x)
.
y 2
Ainsi, la loi de la v.a.r. Y est une ( 21 , 12 ) et le carr dune loi normale centre
rduite suit une loi du 2 (1). Ce rsultat nous permet galement de prouver
lgalit (1/2) = annonce prcdemment. 3
Y = X = FX (X).
On a, pour tout y dans [0, 1] (la f.d.r. FY tant nulle pour y 0 et gale
1 pour y 1),
Une deuxime mthode pour calculer la loi de (X) = Y est donne par
le thorme suivant suivant et ne convient que pour des variables alatoires
absolument continues.
Preuve. On a :
Z
FY (y) = PX (1 (] , y])) = fX (x) dx.
{x:(x)y}
1
(1 )0 (x) = .
x
Ainsi, daprs la formule du changement de variable, on a :
1 1 ln x 2 1
= e 2 ( ) l1R+ (x)
2 x
Proposition 2.2.2 On a :
De mme :
Rciproquement toute fonction fX dans Rn vrifiant i), ii) et iii) est une
densit de probabilit.
o Z
gi (ui ) = fX (u1 , . . . , un )du1 dui1 dui+1 dun .
Rn1
La v.a.r. Xi est donc absolument continue et sa densit est gi .
De mme soit Z = (X1 , . . . , Xk ), pour k < n, un vecteur extrait de X.
Pour tout rel (x1 , . . . , xk ) de Rk , on a
PZ (] , x1 ] ] , xk ])
= PX (] , x1 ] ] , xk ] R R)
Z
= g(u1 , . . . , uk )du1 duk ,
],x1 ]],xk ]
o Z
g(u1 , . . . , uk ) = fX (u1 , . . . , un )duk+1 dun .
Rnk
Comme, par permutation, on peut mettre toutes les marges sous cette forme,
on a montr le rsultat suivant :
Ayant trivialement
P (X Rn ) = P (X A) + P (X A).
et Z
=
P (X A) fX (x1 , . . . , xn )dx1 dxn = 0,
A
on a
puisque la densit fX est identiquement nulle sur A,
P (X A) = P (X Rn ) = 1.
Notons que, parfois, pour des raisons de calcul, il est plus simple de
dterminer J et on utilise alors lgalit J1 = J1 .
Nous avons galement une mthode assez proche pour dterminer la loi
dune transforme dun vecteur alatoire, base sur la caractrisation suiv-
ante :
2.2.5 Indpendance
Soit une famille (Xi )i=1,...,n de variables alatoires valeurs respective-
ment dans (Ei , Bi )i=1,...,n . Rappelons que la famille (Xi )i=1,...,n est indpen-
dante si, pour toute famille dvnements (Bi )i=1,...,n o Bi appartient Bi
pour tout i, on a :
n n
!
\ Y
P {Xi Bi } = P ({Xi Bi }) ,
i=1 i=1
PX = ni=1 PXi .
PX = ni=1 PXi .
n FX
= fX1 fXn .
x1 xn
et, par dfinition, la famille (Xi )i=1,...,n est donc bien indpendante.
= fX,Y (u v, v)1
lR2 (u, v).
On peut alors dterminer la densit de la loi marginale de U
Z
fU (u) = fX,Y (u v, v)dv,
R
pour tout u dans R. De plus, si les variables alatoires X et Y sont indpen-
dantes de densit respective fX et fY , on a :
Z
fX+Y (u) = fX (u v)fY (v)dv,
R
pour tout u dans R. On vient ainsi dtablir le thorme :
Thorme 2.2.13 La loi de la somme de deux variables alatoires indpen-
dantes, absolument continues et de densit fX et fY respectivement est de
densit Z
fX+Y (u) = fX (u v)fY (v)dv,
R
pour tout u dans R. Cette densit est appele la convolue de fX et fY . On
note fX fY le produit de convolution.
Thorme 2.3.2 Toute fonction relle positive est mesurable si elle est li-
mite croissante dune suite de fonctions tages positives.
alors
n
X m
X
yi (Ai ) = yj (Bj )
i=1 j=1
R
et lintgrale f d ne dpend donc pas de lcriture choisie pour f .
On note enfin
n
Z Z Z X !
f d = l1A fd = yil1AAi d
A i=1
n
X
= yi (A Ai ).
i=1
Les familles (Ai )i=1,...,n et (Bj )j=1,...,m forment chacune des familles densem-
bles disjoints. On peut donc, sans perte de gnralits, supposer quelles
forment chacune une partition de , i.e. quelles vrifient de plus
n
[ m
[
Ai = = Bj .
i=1 j=1
La dmonstration de lgalit
Z Z
f d = f d
est vidente.
2) On peut crire g = f + g f o f et g f sont des fonctions de E + .
Par linarit de lintgrale, on a :
Z Z Z
g d = f d + (g f )d,
do on tire : Z Z
g d f d. 2
f + = f l1{f0} = max(f, 0)
f = f l1{f0} = inf(f, 0).
Le rel Z Z Z
f d = +
f d f d
f est -intgrable
Z Z
f + d < + et f d < +
Z
|f | d < +. 2
Exemples.
a) Intgrale par rapport une mesure de Dirac
Rappelons que la mesure de Dirac dfinie au point 0 est la probabilit
discrte 0 telle que, pour tout A dans A, on ait :
0 (A) = l1A (0 )
on a :
Z n
X n
X
f d0 = yi 0 (Ai ) = yil1Ai (0 ) = f(0 ).
i=1 i=1
Supposons enfin que f soit une fonction relle mesurable (de signe quel-
conque) telle que |f (0 )| < +. On a alors
Z
f + d0 = f + (0 ) < +
et Z
f d0 = f (0 ) < +.
= f + (0 ) f (0 ) = f (0 ).
on a alors
Z k
X k
X X
f d = yi (Ai ) = yi pn n (Ai )
i=1 i=1 nI
k
X X
= yi pnl1Ai (n )
i=1 nI
X k
X X
= pn yil1Ai (n ) = pn f(n ).
nI i=1 nI
on a : Z X
f d = pn f (n ).
nI
Daprs ce que lon vient de voir, toute fonction relle mesurable f telle que
X
|f (n)| < +,
n
est -intgrable et Z X
f d = f (n).
nN
2) Monotonie
Si f et g sont deux fonctions telles que f g, on a alors lingalit :
Z Z
f d gd.
R
En particulier si f est positive alors lintgrale f d lest aussi.
3) Si f et g sont deux fonctions telles que |f | g (donc g est positive)
et g est -intgrable alors f est -intgrable.
4) Si la fonction f est -intgrable, on a lingalit :
Z Z
f d |f | d.
Exemples.
Dfinition 2.3.13
On dit que est absolument continue par rapport si, pour tout A
dans A tel que (A) = 0, on a (A) = 0. On note .
On dit que admet une densit par rapport sil existe une fonction
f mesurable positive telle que :
Z
A A : (A) = f d.
A
Thorme 2.3.14 Une mesure est absolument continue par rapport une
autre mesure si, et seulement si, admet une densit par rapport .
n D : f (n) = pn et x R \ D : f (x) = 0.
2 ({n}) = pn ,
P = 1 + (1 )2
fX,Y (x, y)
fYX=x (y) = .
fX (x)
Moments de variables
alatoires
71
72 Chapitre 3. Moments de variables alatoires
Dfinition 3.1.1 Soit X une v.a.r. positive ou P -intgrable, i.e. telle que
Z
|X| dP < +.
Lintgrale Z Z
XdP = X()dP (w)
Exemples.
* Calculons lesprance dune v.a.r. absolument continue de loi exponen-
tielle. On a :
Z Z Z +
EX = X()dP () = xdPX (x) = xex dx
R 0
Z +
du (2) 1
= ueu = =
0
Notons que le thorme du transport nest pas seulement utile pour nous
aider calculer lesprance dune variable alatoire X dont on connat la loi.
Ainsi, si est une fonction mesurable et X une variable alatoire de loi PX ,
on peut alors calculer lesprance de Y = (X), si celle-ci existe, et cela sans
dterminer la loi de Y . En effet, si est PX -intgrable, on a :
Z
E(Y ) = E((X)) = (x)dPX (x).
(EX) E((X))
Rappel. Une fonction f de R vers lui mme est dite convexe si, pour tout
couple (x, y) de R2 et pour tout de [0, 1], on a :
Exemple. On peut vrifier que la fonction valeur absolue est une fonction
convexe. Do
|EX| E |X|
et on retrouve bien le rsultat classique. 3
(EY ) E(Y ),
do, on tire :
kXY k1 kXkp kY kq .
X + Y Lp (, A, P ) et kX + Y kp kXkp + kY kp .
3.2.2 Espace L2
Lingalit de Hlder, vue prcdemment, applique pour p = q = 2 est
souvent appele ingalit de Schwartz.
kXY k1 kXk2 kY k2 .
i) Var(X) = EX 2 E2 X ;
iv)
Var(X) = E(X EX)2 = inf E(X a)2 .
aR
ii) Supposons que X soit telle que Var(X) = 0. On a alors les quiva-
lences suivantes :
E |X|
P (|X| c) ,
c
pour tout rel c strictement positif.
Var(X)
P (|X EX| c) .
c2
Preuve.
i) Pour une v.a.r. X quelconque dans L1 , on a :
Z Z Z
E |X| = |X| dP = |X| dP + |X| dP
|X|<c |X|c
Z Z
|X| dP c dP = cP (|X| c) .
|X|c |X|c
1 Var(X)
P (|X EX| c) = P (X EX)2 c2 2 E(X EX)2 = .2
c c2
Avant daborder le cas des vecteurs alatoires, revenons sur les conditions
suffisantes pour que le produit XY de deux v.a.r. X et Y appartienne L1 .
On a vu que si X et Y sont dans L2 alors la v.a.r. XY est dans L1 ,
daprs Minkowski (ou Schwartz). On a galement dj signal quil nest
pas suffisant que X et Y soient dans L1 pour que XY le soit galement. En
revanche le rsultat est vrai si de plus X et Y sont indpendantes.
qui est fini par hypothse. Ainsi, on a bien le i). En supprimant les valeurs
absolues on obtient le ii). 2
On note souvent
EX1
EX = ...
EXn
Loprateur esprance est nouveau linaire, i.e. pour tout couple (, )
dans R2 et tous vecteurs X et Y de mme dimension et intgrables, on a :
E(X + Y ) = EX + EY.
i) Cov(X, Y ) = Cov(Y, X)
Preuve. Triviale. 2
ii)
n n
!
X X X
Var Xi = Var(Xi ) + 2 Cov(Xi , Xj ).
i=1 i=1 i<j
Preuve. On a :
Cov(X, Y ) = EXY EXEY = EXEY EXEY = 0. 2
Nous attirons lattention du lecteur sur le fait que la rciproque est fausse,
comme le montre le contre-exemple suivant.
Contre-exemple. Soit X une v.a.r. discrte telle que :
1 1
P (X = 1) = P (X = 1) = et P (X = 0) = .
4 2
Soit Y la v.a.r. dfinie par Y = X 2 . Notons que lon a :
1 1 1
EX = (1) +0 +1 =0
4 2 4
et XY = X 3 = X. Ainsi, il vient :
Cov(X, Y ) = EXY EXEY = EX EXEY = 0.
Mais X et Y ne sont pas indpendantes, puisque lon a :
1 1 3
P (X = 1 Y = 0) = 0 6= P (X = 1)P (Y = 0) = .
4 2
Corollaire 3.3.6 Si (Xi )i=1,...,n est une famille de v.a.r. dans L2 et in-
dpendantes
n n
!
X X
Var Xi = Var(Xi ).
i=1 i=1
Cov(X, Y )
X,Y = p .
Var(X)Var(Y )
E(M 1 + M 2 ) = EM 1 + EM 2 .
E(AM ) = AEM,
o le produit est pris au sens des matrices. Si B = (bij )i,j est une matrice
p q de rels, on a :
EM B = EM B.
Notons enfin que la matrice X peut scrire sous la forme :
X = E (X EX)(X EX)T ,
Exemples.
* Supposons que les lois de X et Y soient discrtes. Soit I et J les
ensembles des atomes des lois PX et PY . Pour tout xi dans I, on a :
X
E(Y /X = xi ) = yj PYX=xi (yj )
yj J
X
= yj P (Y = yj /X = xi ).
yj J
85
86 Chapitre 4. Cours de Probabilits
LX (s) = E(esX ).
Proposition 4.1.2
1) La transforme de Laplace est toujours dfinie en 0 et
LX (0) = E1 = 1.
Il existe des variables alatoires, telles celles de loi de Cauchy, dont la trans-
forme de Laplace nest dfinie que pour s = 0.
2) Si X est borne, alors LX est dfinie et continue sur tout R.
3) Si X est positive, alors LX est continue et borne sur ] , 0].
pour tout s dans R. La transforme de Laplace dune loi de Poisson est donc
dfinie sur (tout) R.
* Supposons que la v.a.r. X suive une loi binomiale B(n, p). On a :
n
X
sX
LX (s) = E(e )= esk Cnk pk (1 p)nk = (pes + 1 p)n < +,
k=0
1 (s)x
Z
sX
LX (s) = E(e ) = x e dx.
R+ ()
s > 0 s < .
puisque lindpendance des v.a.r. X et Y entrane celle des v.a.r. esX et esY .
Tout rel s dans I J assurant que les deux termes de la dernire galit
sont finis, on a bien lexistence de LX+Y sur I J et
Nous attirons lattention du lecteur sur le fait que la rciproque est fausse.
Avoir LX+Y (s) = LX (s)LY (s) nimplique pas lindpendance entre X et Y .
pour tout s dans ] t, t[, ce qui justifie son appellation comme fonction
gnratrice des moments ;
iii) on a, pour tout entier k positif,
k LX (s)
k (k)
EX = = LX (0).
sk s=0
Les proprits restent les mmes que dans le cas unidimensionnel. Mais
son inconvnient majeur de ne pas toujours exister reste galement le mme.
X (t) = E(eitX ).
* On peut montrer que si une v.a.r. X suit une loi normale N (0, 1), alors
sa fonction caractristique est dfinie pour tout t dans R par :
2 /2
X (t) = et .
= eit E(eitX )
t2 2
2 2
it it t
= e X (t) = e e 2 = exp it . 3
2
i) t Rn : |X (t)| X (0) = 1 ;
vi) Si X est une v.a.r. dans Lp , o p est un entier, alors X est drivable
p-fois et
(k)
k p : X (0) = ik EX k .
Preuve.
i) On a :
Z Z
iht,xi
dPX (x) eiht,xi dPX (x)
|X (t)| = e
Z
= dPX (x) = 1
et
X (0) = E(e0 ) = 1.
ii) Par dfinition, on a :
iv) Admis.
v)
Y (u) = E eihu,Y i = E eihu,AXi eihu,bi
0
= eihu,bi E eihA u,Xi = eihu,bi X (A0 u).
Vecteurs gaussiens
93
94 Chapitre 5. Vecteurs gaussiens
n
Y
X () = X1 ,...,Xn (1 , . . . , n ) = Xj (j ).
j=1
do on tire :
n n
X 1 X
2 2
X1 ,..., Xn () = exp i j mj j j
2
j=1 j=1
0 1 0
= exp i m X .
2
h, Xi = 0 X
= X (u)
= X (u1 , . . . , u
n)
= exp iu0 m 12 u2 0 X .
5.2 Dfinition
Dfinition 5.2.1 Un vecteur alatoire X = (X1 , . . . , Xn ) de Rn est dit
vecteur gaussien si, pour tout = (1 , . . . , n ) de Rn , la v.a.r.
n
X
0 X = i Xi
i=1
est une v.a.r. de loi normale. Autrement dit, si toute combinaison linaire
des composantes de (X1 , . . . , Xn ) est de loi normale.
Si son vecteur des esprances est m et sa matrice de covariance est X ,
on note X Nn (m, X ).
Remarquons que lon peut en particulier en dduire que toutes les com-
posantes du vecteur X sont des v.a.r. de loi normale. En revanche, la
rciproque est fausse. Un vecteur dont toutes les composantes sont de loi
normale, nest pas ncessairement un vecteur gaussien.
La dfinition prcdente implique galement que tout sous vecteur dun
vecteur gaussien est encore un vecteur gaussien.
Y Np (Am, AX A0 ). 2
Proposition 5.3.2 Soit X un vecteur gaussien dans Rn . Pour que ses com-
posantes X1 , . . . , Xn soient indpendantes, il faut et il suffit que la matrice
de covariance soit diagonale.
0 n2
X Y Cov(X, Y ) = 0.
Preuve. Immdiate. 2
Nous attirons lattention du lecteur sur le fait que deux variables ala-
toires relles gaussiennes et non corrles ne sont pas ncessairement indpen-
dantes. Pour sassurer quelles le soient il faut pour cela quelles constituent
un couple gaussien.
FY (y) = P (X y)
= P ({X y} { = 1}) + P ({X y} { = 1})
= P ({X y} { = 1}) + P ({X y} { = 1})
= P (X y)P ( = 1) + P (X y)P ( = 1)
1 1
= P (X y) + P (X y) = FX (y).
2 2
Ainsi la v.a.r. Y est de loi N (0, 1).
Par ailleurs, puisque X et Y sont centres et que et X sont indpen-
dantes, on a :
Les v.a.r. X et Y sont donc non corrles et cependant elles ne sont pas
indpendantes. En effet, en raisonnant par labsurde, supposons quelles le
soient. Daprs ce que lon a vu au dbut de ce chapitre, le couple (X, Y )
serait gaussien et X + Y serait alors de loi normale et donc absolument
continue.
Or, en notant que X + Y = (1 + )X, on a :
1
P (X + Y = 0) = P (1 + = 0) = P ( = 1) = ,
2
ce qui contredit le fait que la v.a.r. X + Y soit absolument continue. Les
v.a.r. X et Y ne sont donc pas indpendantes. 3
Convergences
101
102 Chapitre 6. Convergences
L
On note Xn X et on dit aussi parfois que la loi de Xn converge vers celle
de X.
1
x > 2, n0 : n > n0 , 2 + <x
n
x > 2, n0 : n > n0 , Fn (x) = P (Xn x) = 1.
alors
L
Xn X.
L
u0 Xn u0 X.
u0 Xn (t) u0 X (t),
Proposition 6.1.7 Soit (pn ) une suite de nombres rels strictement positifs
tels que :
lim npn = ,
n+
o est un rel strictement positif. Si, pour tout n, Xn est une v.a.r. de loi
B(n, pn ), alors (Xn ) converge en loi vers une v.a.r. X de loi de Poisson de
paramtre .
0 (0) = i EUj = 0
et 00 (0) = i2 E(Uj2 ) = Var Uj = 1.
Var Xn = u0 u
et
lim P (|Xn X| ) = 1.
n+
alors
P
Xn a.
Do :
Var Xn + (EXn a)2
> 0, P (|Xn a| > )
2
et en utilisant les deux hypothses, on a bien :
P
et donc Xn a. 2
De lingalit
p
[
{Y > } {| Xn,i Xi |> } .
i=1
on tire
p
X
P (Y > ) P {| Xn,i Xi |> } .
i=1
Corollaire 6.2.8 Soit toujours (Xn ) et (Yn ) des suites de v.a.r. Si on a les
convergences :
P
Xn X
P
et Yn Y
alors
P
Xn + Yn X + Y,
pour tout dans R, et
P
Xn Yn X Y
Preuve. Immdiate. 2
Preuve. Admise. 2
La rciproque est fausse sauf quand la limite est une constante.
Proposition 6.2.10 Si (Xn ) est une suite de v.a.r. convergeant en loi vers
une constante a dans R, alors elle converge galement en probabilit, i.e.
L P
Xn a Xn a.
Notons que la fonction F est continue sur R\{a} et que, comme Xn converge
en loi vers X, on a :
lim Fn (x) = F (x),
n+
A : lim Xn () = X().
n+
On note
p.s.
Xn X.
Ym = sup |Xn X|
nm
la convergence
P
Ym 0,
quand m tend vers +. Or, laide de linclusion
{|Xm X| > } sup |Xn X| > = {Ym > } ,
nm
Notons que lon peut obtenir le mme rsultat sans quil soit ncessaire
que les Xn aient mme loi pour tout n.
Thorme 6.3.7 Soit (Xn ) une suite de v.a.r. indpendantes et dans L2 .
Si
lim EXn =
n+
+
X Var Xn
et si < +,
n2
n=1
alors
n
1X p.s.
Xn = Xi .
n
i=1
k Xn X kp 0.
n+
k Xn X kp k Xn X kq 2
Corollaire 6.4.3 Si on a :
L2
Xn X
alors
L1
Xn X.
k Xn X kL1 = E |Xn X |
Z Z
= | Xn X | dP + | Xn X | dP
|Xn X|> |Xn X|
Z
| Xn X | dP P (| Xn X |> ) .
|Xn X|>
P (| Xn X |> ) 0,
n+
Proposition 6.4.5 Soit (Xn ) une suite de v.a.r. dans L2 . Sous les hy-
pothses :
lim EXn =
n+
et
lim Var Xn = 0,
n+
6.5 Rsum
Lq Lp L2 L1
qp2 &
p L
%
p.s.
116
6.5. INDEX 117
Quantile, 34
Quartile, 35