Академический Документы
Профессиональный Документы
Культура Документы
1 Introduction
Le nombre de piles obtenus au cours d’une série de n lancers de pile
ou face ou plus généralement dans un jeu de hasard (roulette,dés,...), le
gain d’un parieur est une grandeur variable qui dépend du déroulement
aléatoire du jeu. Une telle grandeur numérique qui est fonction des
éventualités d’une expérience aléatoire s’appelle une variable aléatoire.
Pour rendre compte mathématiquement d’une variable aléatoire,
on doit la considérer comme une application X : ω 7→ X(ω) définie
sur un univers des possibles Ω est à valeurs réelles. Dans ce chapitre, et
pour des raisons de simplicité, toutes les variables aléatoires considérées
seront discrètes (i.e. l’ensemble X(Ω) des valeurs prises par X est fini
ou dénombrable).
2 Généralités
Soit (Ω, F, P) un espace probabilisé modélisant une certaine expé-
rience aléatoire. Dans ce chapitre l’espace Ω sera le plus souvent discret
et dans ce cas on supposera que la tribu F des événements est égale à
l’ensemble P(Ω) de tous les sous-ensembles de Ω.
(1) [X = xi ] := {ω ∈ Ω; X(ω) = xi } ∈ F
(i.e. l’ensemble [X = xi ] est un événement)2 . On dit que c’est l’événe-
ment «X prend la valeur xi ».
∗
Notes du cours de Probabilités de M1 de M. L. Gallardo, Université de Tours,
année 2009-2010. Les démonstrations sont détaillées dans le cours oral.
1
On suppose que D = {1, 2, . . . N } (resp.N∗ ) si l’ensemble X(Ω) est fini (resp.
dénombrable)
2
cette condition est toujours satisfaite si Ω est discret et F = P(Ω).
1
4) La famille (pi )i∈D des nombres pi = P(X = xi ) (i ∈ D) s’appelle la
distribution de probabilité (ou loi de probabilité) de la v.a. X.
Exemple 2.3 : On lance trois fois une pièce régulière. Lorsqu’il sort
pile, on gagne 1E, s’il sort face 0E. Soit X le gain obtenu par le joueur.
L’expérience aléatoire considérée a 8 éventualités équi-probables :
xi 0 1 2 3
pi = P(X = xi ) 1/8 3/8 3/8 1/8
Définition 2.4 : Supposons que les valeurs prises par la v.a. X puis-
sent s’écrire dans l’ordre croissant x1 < x2 < x3 < · · · < xn < · · · (ce
qui est le cas par exemple si X(Ω) = N). On appelle alors probabilités
cumulées la suite (finie ou infinie) (ak ) des nombres
k
X
ak = P(X ≤ xk ) = pi .
i=1
Remarque 2.5 : Pour les v.a. dont les lois sont tabulées, les probabi-
lités cumulées sont intéressantes du point de vue pratique car pour des
valeurs xl < xm , on a aussitôt
P(xl ≤ X ≤ xm ) = am − al−1 .
2
de plusieurs joueurs sont des variables aléatoires relatives à un cer-
tain jeu, toute fonction déterministe de leur gain (comme le carré ou
la puissance troisième) mais aussi la somme totale (ou le produit) de
leurs gains sont aussi des variables aléatoires relatives au jeu considéré.
Toutes les variables aléatoires qu’on considère dans ce paragraphe
sont supposées définies sur le même espace probabilisé (Ω, F, P). Soient
X et Y des variables aléatoires discrètes, f : R → R et g : R2 → R des
applications.
1A 0 1
pi 1-p p
3
3.2 Loi binomiale
On considère une expérience aléatoire à deux issues S(succès) et
E(échec) avec P(S) = p et P(E) = 1 − p (0 ≤ p ≤ 1). On fait n répé-
titions indépendantes de cette expérience qu’on modélise par l’espace
produit Ω = {S, E}n muni de la probabilité produit comme expliqué
au chapitre 2.
(5) [X = n] = E1 ∩ E2 ∩ · · · ∩ En−1 ∩ Sn
4
3.4 Loi de Poisson
Définition 3.5 : Soit λ > 0 un paramètre fixé. On dit qu’une v.a. X
à valeurs dans l’ensemble des entiers N suit la loi de Poisson de
paramètre λ si
λn
∀n ∈ N, P(X = n) = e−λ ·
n!
n
Remarque 3.6 : On notera que les nombres pn = e−λ λn! (n ∈ N)
constituentP
bien une loi dePprobabilité sur N puisqu’ils sont positifs et
+∞ λn
de somme +∞ n=0 pn = e
−λ
n=0 n! = e
−λ λ
e = 1.
p1 x1 + p2 x2 + · · · + pn xn
5
b) heuristiquement supposons qu’on répète N fois l’expérience aléa-
toire attachée à X et soit Ni le nombre de fois où X prend la valeur xi
(i = 1, . . . , n). La moyenne arithmétique des valeurs de X observées au
cours des N essais est :
N1 x 1 + N2 x 2 + · · · + Nn x n N1 N2 Nn
= x1 + x2 + · · · + xn ,
N N N N
qui puisque NNi est proche de pi si N est grand (loi empirique des grands
nombres5 ), est pratiquement égale à p1 x1 + p2 x2 + · · · + pn xn si N est
grand.
4.2 Généralités
4.2.1 Définitions de l’espérance et des moments
Considérons une v.a. X discrète prenant les valeurs xi avec la pro-
babilité pi (i ∈ D, où D est fini ou infini dénombrable)6 .
6
quadratiques entre X et sa valeur moyenne E(X), le nombre V ar(X)
(resp. σX ) étant d’autant plus petit que les valeurs de X sont plus
concentrées autour de E(X). On pourrait aussi utiliser l’espérance des
écarts absolus, c’est à dire le nombre E(|X − E(X)|), pour mesurer la
dispersion mais ce nombre ne se prête pas bien au calcul contrairement
à la variance qui a de très bonnes propriétés mathématiques comme
nous aurons l’occasion de le voir.
7
Théorème 4.5 : Si X et Y sont deux v.a. ayant une espérance, la v.a.
X + Y a aussi une espérance et
Axy = [X = x] ∩ [Y = y].
P
et calculons E(Z) = z∈Z(Ω) zP(Z = z). Pour tout z ∈ Z(Ω), considé-
rons l’ensemble
= E(X) + E(Y ).
et le membre de droite est fini puisqu’il est égal à E(|X|) + E(|Y |).
8
Remarque 4.6 : Dans le calcul P précédent,
P on notera P que la légitimité
de la sommation par paquets : z∈Z(Ω) (x,y)∈Bz = (x,y)∈X(Ω)×Y (Ω) et
l’utilisation de la propriété de Fubini, est assurée par la condition de
convergence absolue (12).
Corollaire 4.7 (linéarité de l’espérance) : Soient X1 , . . . , Xn des v.a.
ayant une espérance et a1 , . . . , an des réels. Alors la v.a. a1 X1 + · · · +
an Xn a une espérance donnée par
E(a1 X1 + · · · + an Xn ) = a1 E(X1 ) + · · · + an E(Xn ).
Exercice 4.8 : On suppose que l’espace Ω est discret. Démontrer le
résultat précédent en utilisant la formule de l’espérance donnée à l’exer-
cice 4.4.
solution : Il suffit de prouver le résultat pour n = 2. Il est facile de
voir que E(|a1 X1 + a2 X2 |) ≤ |a1 |E(|X1 |) + |a2 |E(|X2 |) < +∞, donc
a1 X1 + a2 X2 a une espérance et d’après 4.4 on a
X
E(a1 X1 + a2 X2 ) = (a1 X1 (ω) + a2 X2 (ω)) P(ω)
ω∈Ω
X X
= a1 X1 (ω)P(ω) + a2 X2 (ω)P(ω)
ω∈Ω ω∈Ω
= a1 E(X1 ) + a2 E(X2 ).
9
Dans ces conditions en reprenant le calcul précédant
P avec y au lieu de
|y| et g(x) au lieu de |g(x)|, on obtient E(Y ) = x∈X(Ω) g(x)P(X = x).
b) Réciproquement, si E(Y ) existe,P on montre immédiatement en «re-
montant» le calcul précédent que x∈X(Ω) |g(x)|P(X = x) < +∞ et
que E(Y ) est donnée par la formule (14).
Exemple 4.10 : Pour toute v.a. discrète X prenant les valeurs xi avec
(i ∈ D), X admet un moment d’ordre r(entier > 0)12
les probabilités pi P
si et seulement si i∈D pi |xi |r < +∞ et dans ce cas
X
E(X r ) = pi xri .
i∈D
Remarque 4.12 : Pour une v.a. discrète, il est évident que V ar(X) =
0 si et seulement si X est constante. Avec le résultat précédent, on
montre alors immédiatement que si X a un moment d’ordre 2, il en est
de même pour aX + b (a et b réels fixés) et on a
4.3 Exemples
4.3.1 Loi binomiale et loi de Poisson
Proposition 4.13 : 1) Si X suit la loi binomiale B(n, p) on a E(X) =
np et V ar(X) = np(1 − p).
2) Si X suit la loi de Poisson de paramètre λ(> 0), X a des moments
de tous les ordres et E(X) = V ar(X) = λ.
12
on notera que si X est à valeurs positives, on peut aussi considérer la notion de
moment d’ordre r > 0 (pas forcément entier).
10
démonstration : 1) X a des moments de tous ordres13 . Calculons
E(X) :
n n
X X n!
E(X) = kCnk pk (1 n−k
− p) = pk (1 − p)n−k
k=0 k=1
(k − 1)!(n − k)!
n
X (n − 1)!
= np pk−1 (1 − p)n−1−(k−1)
k=1
(k − 1)!(n − 1 − (k − 1))!
n−1
X
k
= np Cn−1 pk (1 − p)n−1−k = np
k=0
13
car elle prend un nombre fini de valeurs.
14
appliqué avec la fonction g(x) = xr .
15
non truquée
11
5 La loi des grands nombres
5.1 Variables aléatoires indépendantes
Définition 5.1 : 1) On dit que les v.a. X et Y sont indépendantes
si pour tout x ∈ X(Ω) et tout y ∈ Y (Ω) , les événements [X = x] et
[Y = y] sont indépendants i.e.
P([X = x] ∩ [Y = y]) = P(X = x)P(Y = y).
2) La définition se généralise au cas de n v.a. X1 , . . . , Xn qui sont
(i)
dites indépendantes (dans leur ensemble) si pour
(i)
tout choix de a ∈
Xi (Ω) (i = 1, . . . , n), les événements Xi = a (i = 1, . . . , n) sont
indépendants.
3) Une suite (Xn )n∈N de v.a. indépendantes est une suite telle que pour
tout entier N , les v.a. X1 , . . . , XN sont indépendantes
12
(la deuxième égalité d’après l’indépendance des v.a. X et Y et la qua-
trième par le fait qu’une série à termes positifs est sommable par pa-
quets).
2) Si X et Y sont de signe quelconque, le 1) montre que Z a un moment
d’ordre un. On peut alors reprendre le calcul précédent pour prouver la
formule (18) car la sommation par paquets est valable pour des séries
absolument convergentes.
(on somme seulement sur les indices i tels que |yi | ≥ a). Ainsi on a
X
1 = E(Y 2 ) ≥ a2 P(Y = yi ) = a2 P(|Y | ≥ a)
|yi |≥a
13
Théorème 5.7 (loi des grands nombres) : Soit X1 , . . . , Xn , . . . une
suite de v.a. indépendantes et de même loi, d’ espérance m et de va-
riance σ 2 . Alors quel que soit > 0, on a
X1 + · · · + Xn
lim P − m ≥ = 0.
n→+∞ n
démonstration : Posons Yn = X1 +···+X . Alors E(Yn ) = n1 ni=1 E(Xi ) =
n
P
n
2
m et V ar(Yn ) = n12 ni=1 V ar(Xi ) = σn . L’inégalité de Bienaymé-
P
Tchebychev implique
aσ 1
∀a > 0, P |Yn − m| ≥ √ ≤ 2 ·
n a
√
n
En particulier si a = σ
, on obtient
σ2
P(|Yn − m| ≥ ) ≤ → 0 si n → +∞.
n2
C’est le résultat annoncé.
14