Академический Документы
Профессиональный Документы
Культура Документы
PRÉFACE
I PROBABILITÉS 7
1 ANALYSE COMBINATOIRE 9
1.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 CLASSIFICATION D'OBJETS . . . . . . . . . . . . . . . . . 9
1.3 ARRANGEMENT . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 PERMUTATION . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 PERMUTATION AVEC RÉPÉTITION . . . . . . . . . . . . 12
1.6 COMBINAISON . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6.1 Combinaison sans répétition . . . . . . . . . . . . . . . 13
1.6.2 Combinaison avec répétition . . . . . . . . . . . . . . . 14
1.7 FORMULE DU BINÔME DE NEWTON . . . . . . . . . . . 15
1.7.1 Énoncé . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7.2 Conséquences . . . . . . . . . . . . . . . . . . . . . . . 15
1.8 ARRANGEMENTS AVEC RÉPÉTITION . . . . . . . . . . . 15
1.9 PERMUTATION AVEC RÉPÉTITION . . . . . . . . . . . . 16
2 ESPACES PROBABILISÉS 17
2.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 EXEMPLES INTRODUCTIFS . . . . . . . . . . . . . . . . . 17
2.3 NOTION D'EXPÉRIENCE ALÉATOIRE . . . . . . . . . . . 18
2.4 ÉVÈNEMENTS ALÉATOIRES . . . . . . . . . . . . . . . . . 18
2.5 OPÉRATIONS SUR LES ÉVÈNEMENTS . . . . . . . . . . . 19
2.5.1 Évènements contraires . . . . . . . . . . . . . . . . . . 19
2.5.2 Évènement A et B . . . . . . . . . . . . . . . . . . . . 19
2.5.3 Évènement A ou B . . . . . . . . . . . . . . . . . . . . 19
2.5.4 Évènement A∆B . . . . . . . . . . . . . . . . . . . . . 19
2.5.5 Diérence de deux évènements . . . . . . . . . . . . . . 19
2.5.6 Évènements incomparables . . . . . . . . . . . . . . . . 20
2.5.7 Lois de De Morgan . . . . . . . . . . . . . . . . . . . . 20
2.6 NOTION DE PROBABILITÉ . . . . . . . . . . . . . . . . . . 20
2.6.1 Expérience de Laplace . . . . . . . . . . . . . . . . . . 20
3
4 TABLE DES MATIÈRES
3 VARIABLES ALÉATOIRES 27
3.1 VALEURS ALÉATOIRES . . . . . . . . . . . . . . . . . . . . 27
3.2 LOI DE PROBABILITÉ D'UNE V.A.R. . . . . . . . . . . . . 27
3.2.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3 CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE
V.A.R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3.1 Espérance mathématique . . . . . . . . . . . . . . . . . 31
3.3.2 Densité de probabilité d'une fonction de v.a.r. . . . . . 33
3.3.3 Espérance mathématique d'une fonction de v.a. . . . . 34
3.3.4 Quantile d'ordre α , Mode , Médiane . . . . . . . . . . 35
7 REGRESSION ET CORRELATION 57
7.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 57
7.2 PRINCIPE DES MOINDRES CARRÉ . . . . . . . . . . . . . 58
7.3 CORRELATION D'UN COUPLE D'OBSERVATIONS . . . . 58
7.4 QUELQUES COURBES DE CORRELATION . . . . . . . . . 59
7.4.1 Droite de regression de Y en X . . . . . . . . . . . . . 59
7.4.2 Droite de regression de X en Y . . . . . . . . . . . . . 61
7.4.3 Autres types de regression . . . . . . . . . . . . . . . . 61
8 CONVERGENCE EN PROBABILITÉ 63
8.1 ETUDE DE LA LOI BINOMIALE . . . . . . . . . . . . . . . 63
8.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 63
8.1.2 Inégalité de Bienaymé TCHEBITCHEFF . . . . . . . . 63
8.1.3 Dénition de la convergence en probabilité . . . . . . . 65
8.2 CONVERGENCE PRESQUE SÛRE . . . . . . . . . . . . . . 65
8.3 CONVERGENCE EN LOI . . . . . . . . . . . . . . . . . . . . 66
8.4 THÉORÈME CENTRAL-LIMITE . . . . . . . . . . . . . . . 66
II STATISTIQUES 67
9 ESTIMATIONS 69
9.1 MÉTHODES DE SONDAGE . . . . . . . . . . . . . . . . . . 69
9.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 69
6 TABLE DES MATIÈRES
10 TESTS STATISTIQUES 81
10.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 81
10.2 TEST CLASSIQUE . . . . . . . . . . . . . . . . . . . . . . . . 81
10.2.1 Test relatif à une fréquence . . . . . . . . . . . . . . . 81
10.2.2 Test sur la moyenne . . . . . . . . . . . . . . . . . . . 83
10.3 TEST DE KOLGOMOROV . . . . . . . . . . . . . . . . . . . 85
Première partie
PROBABILITÉS
7
Chapitre 1
ANALYSE COMBINATOIRE
1.1 INTRODUCTION
Dénition 1.2.1. L'ensemble d'objets à étudier peut être formé d'objets dif-
férents entre eux ; ils sont alors dits discernables. On les représente par des
lettres distinctes (a, b, c, . . .).
Dénition 1.2.3. L'ensemble d'objets à étudier peut être formé d'objets dont
certains sont discernables et d'autres indiscernables (cas de l'exemple précé-
dent). On obtient alors un ensemble formé de groupes discernables d'objets
indiscernables.
9
10 CHAPITRE 1. ANALYSE COMBINATOIRE
Exemple 1.2. Une urne contient n boules dont n1 sont rouges et n2 sont
noires. On suppose que les boules sont indiscernables au toucher et que les
boules de même couleur sont identiques.
Exercice 1.1. On range p boules dans n cases.
1. Présenter toutes les situations possibles relativement au caractère dis-
cernable et indiscernable des boules et des cases.
2. Combien y a-t-il de rangements si :
(a) les boules et les cases sont discernables ; chaque case ne pouvant
recevoir qu'une boule ?
(b) les boules et les cases sont discernables ; chaque case pouvant re-
cevoir un nombre quelconque de boules.
(c) les boules sont indiscernables et les cases sont discernables ; chaque
case ne pouvant recevoir qu'une seule boule ?
(d) les boules sont indiscernables et les cases sont discernables ; chaque
case pouvant recevoir un nombre quelconque de boules ?
de sorte qu'aucune case ne soit vide.
Dénition 1.2.4. Une disposition d'ojets sera dite ordonnée si deux dispo-
sitions dièrent par la nature des objets et l'ordre d'apparition de ces objets.
On représentera les dispositions ordonées par des parenthèses.
Une disposition sera dite non ordonnée si l'ordre d'apparition des objets
n'est pas pris en compte.
Exemple 1.3.
1. On considère un course de 15 chevaux et on s'intéresse au tiercé gagnant
sans ex-æquo.
Ici, on a 15 objets discernables. Un résultat est une disposition ordonnée
de trois chevaux.
2. Les étudiants de S.T.I.2 sont au nombre de 60 dont 20 lles. Ils décident
de déléguer 5 de leurs camarades assister leur camarade Tchinddébé
malade.
S'il n'y a pas de précisions supplémentaires, cette délégation sera une
disposition non ordonnée de 5 étudiants.
1.3 ARRANGEMENT
..
.
1.4 PERMUTATION
n!
Apn =
(n − p)!
22211 22112
22121 12212
21221 12122
21212 11222
21122 12221
On vient donc d'écrire toutes les permutations avec répétition des chires
du nombre 22211.
n!
α1 !.α2 !. . . . .αr !
1.6. COMBINAISON 13
Exercice 1.2.
1. Etablir le théorème pour r = 2.
Indications : Utiliser des raisonnements analogues à ceux utilisés pour
les arrangements et les permutations sans répétition.
2. On dispose de cinq livres sur une étagère, de combien de façons dié-
rentes peut-on les disposer ?
3. On dispose de six boules dont trois blanches, deux noires et une grise.
De combien de façons peut-on les disposer les unes à la suite des autres ?
Remarque 1.5.1. Le terme anagramme est souvent utilisé pour des permu-
tations avec répétition des objets d'un mot donné.
1.6 COMBINAISON
Problème
De combien de façon diérentes peut-on tirer k boules de l'urne sans
remise en ne tenant pas compte de l'ordre des tirages ?
Résolution
Le problème peut se ramener à celui d'une permutation avec répétition.
Numérotons les boules a1 , a2 , . . . , an . On dénit la fonction Z : E −→ {0, 1}.
Pour toute partie A à p éléments de E , on a :
1 si x ∈ A
1.7.1 Énoncé
n
X
(a + b)n = Cni ai .bn−i
i=0
1.7.2 Conséquences
n
X
1. Cnp = 2n ;
p=0
Xn
2. Cnp (−1)p = 0
p=0
Exercice 1.4.
1. Etablir la formule du binôme de Newton par récurrence sur n.
2. Etablir ses conséquences.
Dénition 1.9.1. Une permutation avec répétition n'est autre chose qu'un
arrangement n à n de n objets avec répétition.
Chapitre 2
ESPACES PROBABILISÉS
2.1 INTRODUCTION
17
18 CHAPITRE 2. ESPACES PROBABILISÉS
Ω = {P ile, F ace} ;
2.5.2 Évènement A et B
L'évènement A ∩ B est appelé évènement A et B et est réalisé si et
seulement si A et B sont réaliés simultanément.
2.5.3 Évènement A ou B
L'évènement A ∪ B est appelé évènement A ou B et est réalisé si et
seulement si A est réalié ou B est réalisé ou les deux le sont simultanément.
A∆B = (A r B) ∪ (B r A) = (A ∪ B) r (B ∩ A)
Propriétés 2.
P1 : A r A = ∅ ;
P2 : Ω r A = Ā ;
P3 : Ā¯ = A.
A∩B =∅
A ∪ B = Ā ∩ B̄
A ∩ B = Ā ∪ B̄
Exemple 2.6.
Jet d'une pièce équilibrée ;
Tirage au hazard des boules dans une urne.
(i) β 6= ∅;
(ii) β est stable pour la réunion nie ;
(iii) β est stable pour la diérence ;
Exemple 2.9 (introductif ). Une urne contient trois boules blanches et trois
boules noires. on tire au hazard et l'une après l'autre deux boules.
1. Construire l'espace probabilisé associé à cette expérience aléatoire. On
précisera l'ensemble fondamental, la tribu utilisée et on donnera de
façon explicite la probabilité.
2. Quelle est la probabilité d'avoir une boule blanche au deuxième tirage ?
Solution.
1. L'ensemble fondamental Ω est l'ensemble des couples de boules. On a
donc :
Card(Ω) = A26 = 6 × 5 = 30
β = P(Ω)
Le tirage étant fait au hazard, tous les couples ont la même probabi-
lité d'apparaître, on dit ici que tous les évènements élémentaires sont
équiprobables.
CardA
P (A) =
CardΩ
On construit ainsi l'espace probabilisé (Ω, β, P ).
2. La probabilité cherchée dépend du premier tirage.
P (A ∩ B)
PA (B) =
P (A)
Propriétés 4.
1. Si P (A) 6= 0, alors P (A ∩ B) = PA (B).P (A).
2. De façon générale,
Exercice 2.1.
On jette deux dés équilibrés identiques et on s'interresse à la somme des
numéros apportés.
Quelle est la probabilité d'obtenir la somme 8 sachant que les numéros
apportés sont pairs ?
24 CHAPITRE 2. ESPACES PROBABILISÉS
Exercice 2.2.
Dans une urne se trouve six boules dont quatre blanches et deux noires.
On tire successivement sans remise deux boules de l'urne.
Quelle est la probabilité d'obtenir des boules blanches dans tous les cas ?
Conséquence
Si A et B sont indépendants, alors :
2.
Ai ∩ Aj = ∅; i 6= j
Solution.
Soit A l'évènement : " Tirer une boule noire" et Ui l'évènement : " Tirer
l'urne Ui ".
La deuxième question peut être reformulée comme suit : Quelle est la
probabilité de tirer une boule de l'urne U1 sachant que cette boule
est noire ?
Toutes les urnes ont la même chance d'être tirée, on a donc :
1
P (U1 ) = P (U2 ) = P (U3 ) =
3
On a également :
1 1 2
PU1 (A) = , PU2 (A) = , PU1 (A) =
3 2 3
A = (A ∩ U1 ) ∪ (A ∩ U2 ) ∪ (A ∩ U3 )
P (A ∩ Ui )
PUi (A) = ⇒ P (A ∩ Ui ) = PUi (A).P (Ui )
P (Ui )
d'où
3
X
P (A) = PUi (A).P (Ui )
i=1
On en déduit que :
PU (A).P (U1 )
PA (U1 ) = P3 1 , Formule de Bayes
i=1 P Ui
(A).P (Ui )
Exemple 2.11 (de généralisation). On suppose qu'on dispose de n urnes U1 ,
U2 , . . . , Un comportant des boules blanches et des boules noires. On suppose
que l'urne Ui a la probabilité πi d'être tirée et on note P (Ui ) = πi . On
suppose également que l'urne Ui a une proportion de pi boules blanches et
de qi boules noires.
On a donc : n
X
pi + qi = 1 , ∀i et πi = 1
i=1
Soit A l'évènement : " Tirer une boule noire" et Uj l'évènement : " Tirer
l'urne Uj ".
La formule généralisée de Bayes est la probabilité de Uj sachant A et elle
vaut :
PU (A).P (Uj )
PA (Uj ) = P3 j
i=1 PUi (A).P (Ui )
26 CHAPITRE 2. ESPACES PROBABILISÉS
Exercice 2.3. Dans une usine de production des boucles d'oreilles, se trouve
quatres machines M1 , M2 , M3 et M4 . Les proportions de production de ces
machines sont respectivement 10%, 20%, 30% et 40%. Les proportions de
pièces défectueuses sont respectivement 2%,1%,4% et 2%.
1. Quelle est la probabilité pour qu'une pièce tirée soit défectueuse ?
2. On tire une pièce et on constate qu'elle est défectueuse, quelle est la
probabilité qu'elle provienne de la machine M1 .
Chapitre 3
VARIABLES ALÉATOIRES
Exemple 3.1.
1. Jet d'un dé équilibré dont les faces sont numérotées de 1 à 6.
Les valeurs 1, 2, 3, 4, 5 et 6 sont appelées valeurs aléatoires (résultats
d'une variables aléatoire).
2. L'erreur commise lors de la lecture d'une valeur donnée sur un appareil
de mesure.
Dénition 3.1.1. On appelle variable aléatoire réelle (v.a.r.) sur Ω, toute
application
X : Ω −→ R
w 7−→ X(w)
Si X(Ω) = {X(w), w ∈ Ω} est ni ou inni dénombrable, la variable
aléatoire (v.a.) X est dite discrète.
Une variable aléatoire (v.a.) X est dite continue
si X(Ω) contient au
moins un intervalle ouvert non vide.
27
28 CHAPITRE 3. VARIABLES ALÉATOIRES
On a :
X −1 (R) = {w ∈ Ω / X(w) ∈ R} = Ω
Notation 1.
− {X = x} = {w ∈ Ω / X(w) = x}
− {X < x} = {w ∈ Ω / X(w) < x}
− {a < X < b} = {w ∈ Ω / a < X(w) < b}
Distribution de la loi de X
Notons Pi , la probabilité P (X = xi ) ;
Propriétés 5.
1. 0 6 Pi 6 1.
2. i=1 Pi = 1 (Pour X nie)
Pn
ou
P∞
i=1 Pi = 1 (Pour X innie dénombrable)
3. PX (A) = x∈A Px .
P
1.
Soit X(Ω) = {0, 1, 2, . . . , n}, n ∈ N∗
2.
X(Ω) = N, soit λ > 0
λi
P (X = i) = e−λ .
i!
Exercice 3.1. Montrer que dans les deux cas de l'exemple précédent, PX est
une loi de probabilité de X .
3.2. LOI DE PROBABILITÉ D'UNE V.A.R. 29
Diagramme en bâton
Soit X une variable aléatoire réelle (v.a.r.) discrète telle que X(Ω) =
{x1 , x2 , . . . , xn , . . . }.
Posons P (X = xi ) = Pi , on a le diagramme en bâton suivant :
Propriétés 6.
lim F (x) = 0 ; lim F (x) = 1
x→−∞ x→+∞
lim F (x) = 0 = F (x1 ) ; lim− F (x) = p1 = F (x2 )
x→x−
1 x→x2
Propriétés 7.
1. Toute fonction de répartition F est croissante ;
2. Toute fonction de répartition F est continue à gauche :
3. 0 6 F (x) 6 1 ;
4. P (a 6 X 6 b) = F (b) − F (a).
1 + x si x ∈ [−1, 0]
f (x) = 1 − x si x ∈ [0, 1]
0 sinon
∗ f (x) > 0, ∀x ∈ R
Z +∞ Z −1 Z 0 Z 1 Z +∞
∗ f (x)dx = f (x)dx + f (x)dx + f (x)dx + f (x)dx
−∞ −∞ −1 0 1
Z 0 Z 1
= (1 + x)dx + (1 − x)dx = 1
−1 0
3.3. CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R. 31
F : R −→ R Z x
x 7−→ P (X < x) = f (t)dt
−∞
1 + x si x ∈ [−1, 0]
e si x > 0
−x
f (x) = 1 − x si x ∈ [0, 1] et f (x) =
0 sinon
0 sinon
Exemple 3.4.
1. P (X = xi ) = 1
6
, i = 1, 2, . . . , 6.
1 1 1 1 1 1 21
E(X) = 1 × +2× +3× +4× +5× +6× =
6 6 6 6 6 6 6
32 CHAPITRE 3. VARIABLES ALÉATOIRES
2. Loi de Poisson
X suit la loi de probabilité P(λ), λ > 0 ; X(Ω) = N.
+∞
X
E(X) = i.pi
i=0
+∞
X
−λ λi
= i.e .
i=0
i!
+∞
−λ
X λi
= e . i.
i=1
i!
+∞
−λ
X λi−1
= λ.e .
i=1
(i − 1)!
+∞ j
−λ
X λ
= λ.e .
j=0
j!
= λ.e−λ .eλ
= λ
Cas continu
Soit X une v.a. continue de densité f .
e si x > 0
−x
f (x) =
0 sinon
R +∞ R +∞
On a : E(X) = −∞
xf (x)dx = 0
xe−x dx = 1
Exercice 3.4. Soit la fonction :
Z +∞
Γ(x) = tx−1 e−t dt
0
Établir que :
1. Γ converge pour x > 0 ;
3.3. CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R. 33
2. Γ(x + 1) = xΓ(x) ;
3. ∀n ∈ N, Γ(n + 1) = n!
Propriétés 8.
1. L'espérance mathématique d'une v.a. constante est égale à cette même
variable aléatoire :
E(a) = a, si X = a
2. Si X et Y sont deux variables aléatoires réelles, soient α, β ∈ R ; alors :
E(αX + βY ) = αE(X) + βE(Y )
Fonction de répartition de Y
Cas particulier
Soit X une v.a. de moyenne (espérance mathématique) X̄ = E(X) ; po-
sons ϕ(X) = (X − X̄)2 . On a :
Z +∞
E(ϕ(X)) = (x − X̄)2 f (x)dx (cas continu)
−∞
Loi conjointe
XY y1 y2 . . . yj . . . ym Loi marginale de X
x1 P11 P12 . . . P1j . . . P1m P1.
x2 P21 P22 . . . P2j . . . P2m P2.
.. .. .. .. .. ..
. . . . . .
xi Pi1 Pi2 . . . Pij . . . Pim Pi.
.. .. .. .. .. ..
. . . . . .
xn Pn1 Pn2 . . . Pnj . . . Pnm Pn.
Loi marginale de Y P.1 P.2 . . . P.j . . . P.m
37
38 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS
On a :
m
X n
X
Pi. = Pij et P.j = Pij
j=1 i=1
Pi. = P (X = xi ) indépendament de Y
P.j = P (Y = yi ) indépendament de X
Propriétés 10.
1. 0 6 Pij 6 1 ;
2. j=1 Pij = 1 ;
Pn Pm
Pi=1
3. n
et j=1 P.j = 1.
Pm
i=1 P i. = 1
Probabilité de X sachant yj
On va noter W = X/Yj la variable aléatoire de X sachant yj et, de même
que précédemment, on aura :
Pij
P (W = xi ) = P (X = xi /Y =yj ) =
P.j
Conséquence
Si X et Y sont deux variables indépendantes, alors :
Pij = Pi. × P.j
Remarque 4.1.1.
Pij = Pi. × Pj/i
4.2. CAS CONTINU 39
Loi marginale de Y
Dénition 4.2.2. Z +∞
fY (y) = f (x, y)dx
−∞
Loi de Y sachant X
f (x,y)
si fX (x) 6= 0
fX (x)
fY /X (y) =
0 sinon
CENTRÉ
Mk = E[(X − X̄)k ] , k ∈ N
Propriétés 12.
1. M1 = 0 ;
2. M2 = V ar(X).
µk = E(X k ) , k ∈ N
Mk = E[(X − X̄)k ] , k ∈ N
k
X
= E[ Cpk .(−1)p .X̄ p .X k−p ]
p=0
k
X
= Cpk .(−1)p .X̄ p .E[X k−p ] d'où
p=0
k
X
Mk = Cpk .(−1)p .X̄ p .µk−p
p=0
42 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS
FONCTIONS GÉNÉRATRICES
g : R −→ R
t 7−→ E(etX )
N
X
g(t) = etxi Pi (N ni ou inni)
i=0
Propriétés 13.
1. g(0) = 1 ;
R +∞
2. g 0 (t)|t=0 = −∞
xf (x)dx = E(X) ;
R +∞
3. g 00 (t)|t=0 = −∞
x2 f (x)dx = E(X 2 ) d'où
dk g(X)
= E(X k )
dX
φ : R −→ R
u 7−→ E(eiuX )
4.5. COEFFICIENT D'ASSYMÉTRIE ET COEFFICIENT D'APLATISSEMENT 43
uX = eX ln(u)
= evX en posant v = ln(u) donc
φ(u) = E(euiX )
= E[(eiu )]X
= E(v X ) en posant v = eiu
EFFICIENT D'APLATISSEMENT
E[(X − E(X))3 ]
γ1 = 3
σX
Dénition 4.5.2. On appelle coecient d'aplatissementd'une variable
aléatoire X admettant une moyenne nie E(X) et un écart-type ni σX , le
réel :
E[(X − E(X))4 ]
γ2 = 4
−3
σX
44 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS
Propriétés 14.
1. γ1 = 0 si X est symétrique par rapport à la normale. Mais, la réciproque
n'est pas vraie.
2. Si γ1 > 0, la distribution est plus étalée vers la droite. Si γ1 < 0, la
distribution est plus étalée vers la gauche.
3. γ2 = 0 si la distribution est normale (La condition γ2 = 0 est une
condition nécessaire mais pas susante de normalité, car on peut avoir
γ2 = 0 pour une distribution qui n'est pas normale.)
X = ψ1 (Z1 , Z2 )
Y = ψ2 (Z1 , Z2 )
La densité conjointe de (Z1 , Z2 ) est donnée par :
d'où on déduit :
γx γx
γz1 γz2
g(z1 , z2 ) = f (ψ1 (z1 , z2 ), ψ2 (z1 , z2 ))
dz1 .dz2
γy γy
γz1 γz2
Application
On dénit la densité d'un couple de variable aléatoire (X, Y ) par :
(y − x)e−(y−x) pour 0 6 x 6 1 et x 6 y
f (x, y) =
0 sinon
On a également :
Y = Z2 = ψ2 (Z1 , Z2 ) et X = Z1 − Z2 = ψ1 (Z1 , Z2 )
g(Z1 , Z2 ) = f (Z1 − Z2 , Z2 )
Z +∞
gZ1 (x) = g(Z1 , Z2 )dZ2
−∞
46 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS
Chapitre 5
MODÈLES PROBABILISTES
DISCRETS
Dénition 5.1.1. Une variable aléatoire dont l'ensemble des valeurs est ré-
duite à deux éventualités est appeléevariable de Bernoulli .
Exemple 5.1.
47
48 CHAPITRE 5. MODÈLES PROBABILISTES DISCRETS
Valeur de X(Ω)
X(Ω) = {0, 1, . . . , n}
Loi de X
Notons P (X = i), la probabilité de i réalisations de A ;
X = 0 ⇒ A n'est pas réalisé ;
P (X = 0) = (1 − p)n = q n
X = 1 ⇒ A est réalisé une fois ;
P (X = 1) = np(1 − p)n−1
X = i ⇒ A est réalisé i fois ;
P (X = i) = Cin pi .q n−i
On dira que X suit la loi binomiale de paramètres n et p (B(n, p)).
Exercice 5.1.
1. Démontrer que la probabilité qu'il y ait i succès est Cin pi .q n−i pour n
épreuves ;
2. Tracer le diagramme en bâton de la loi binomiale pour :
n = 6 et p = 0, 1 ;
n = 6 et p = 0, 5 ;
n = 6 et p = 0, 7 ;
n = 6 et p = 0, 9 ;
Evaluer pour chaque cas, les coecients d'asymétrie et d'aplatissement.
Px = P (X = x) = Cxn px .q n−x
Px+1 n−x p
= . <1
Px x+1 q
Px n−x+1 p
et = . >1
Px−1 x q
np − q < x < np + p
La loi binomiale correspond à un tirage avec remise (on travaille dans les
mêmes conditions). Le cas de tirage sans remise correspond à une variable
appelée variable hypergéométrique.
Propriétés 16.
1. Moyenne : E(X) = np = n. M
N
;
2. Variance : V ar(X) = N −n
N −1
.npq .
Exercice 5.4.
1. Calculer les coecients d'assymétrie et d'aplatissement de la loi de
Poisson ;
2. En utilisant la technique des quotients, déterminer les modes de la loi
de Poisson.
Chapitre 6
MODÈLES PROBABILISTES
CONTINUS
1
si x ∈ [a, b]
b−a
f (x) =
0 sinon
Propriétés 18.
Rb
1. E(X) = x
a b−a
.dx = a+b
2
;
(a−b)2
2. V ar(X) = E(X 2 ) − [E(X)]2 = 12
;
3. Fonction de répartition :
F (x) = 0 si x 6 a ;
Z x
1 x−a
F (x) = dt = si x ∈ [b, a] ;
a b−a b−a
F (x) = 1 si x > b .
51
52 CHAPITRE 6. MODÈLES PROBABILISTES CONTINUS
si x > 0
1 x a−1
Γ(a) .e .x
fa (x) =
0 sinon
Rappels
R +∞
Γ(a) = 0 xa−1 .e−x dx ;
Γ(a + 1) = a.Γ(a) ;
Γ(n + 1) = n! si n ∈ N.
Propriétés 19.
R +∞
1. E(X) = 1
Γ(a)
. 0 xa .e−x dx = Γ(a+1)
Γ(a)
= a;
2. V ar(X) = E(X 2 ) − [E(X)]2 = a ;
Exercice 6.1.
1. Evaluer les moments d'ordre r de Γ ;
2. Déterminer les fonctions caractéristiques et génératrices de la loi Γ.
Rappels
Z 1
β(a, b) = xa−1 .(1 − x)b−1 dx
0
Propriétés 20.
1. E(X) = a
a+b
;
6.4. LOIS NORMALES 53
Γ(a).Γ(b)
β(a, b) =
Γ(a + b)
1 x2
f (x) = √ .e− 2 , x∈R
2π
Notation
On note X N (0, 1) pour signier que X suit la loi normale centrée-
réduite aussi appelée loi de Laplace-Gauss.
1 1 (x−m)
2
f (x) = √ .e[− 2 . σ ] , x∈R
2π.σ
Propriétés 22.
1. Si U N(0, 1),
2.
Y = σU + m N (m, σ)
mètres m et n)
Soient X et Y deux variables aléatoires suivant la loi du Khi-deux respec-
tivement à n et à m degrés de liberté telles que X et Y soient indépendantes ;
alors la variable
X
n
F = Y
m
7.1 INTRODUCTION
Erreur quadratique E
57
58 CHAPITRE 7. REGRESSION ET CORRELATION
i=1
Rappel
Soit S = S(x1 , x2 , . . . , xn ) une fonction susamment régulière sur un
domaine D. S est minimale en un point critique qui est tel que :
dS
=0, i = 1, 2, . . . , n
dxi
SERVATIONS
Covariance empirique
n
1 X
δXY = . (xi − X̄)(yi − Ȳ )
n − 1 i=1
Variances empiriques
n
2 1 X
δX = . (xi − X̄)2
n − 1 i=1
n
1 X
δY2 = . (yi − Ȳ )2
n − 1 i=1
δXY
r=
δX .δY
TION
a.E(X 2 ) + b.E(X) = E(X, Y )
⇒ a(E(X 2 ) − (E(X))2 ) = E(X, Y ) − E(X).E(Y )
a.E(X) + b = E(Y )
| {z } | {z }
V ar(X) Cov(X,Y )
Cov(X, Y )
⇒ a=
V ar(X)
et on en déduit
b = E(Y ) − a.E(X)
Remarque 7.4.1.
Cov(X, Y )
a =
V ar(X)
Cov(X, Y ) σY
= .
V ar(X) σy
σY
= .r
σX
Donc
σY
a= .r
σX
d'où la relation fonctionnelle :
σY σY
Y = .r.X + E(Y ) − .r.E(X)
σX σX
7.4. QUELQUES COURBES DE CORRELATION 61
X = α.Y + β ⇒ X̄ = α.Ȳ + β
⇒ X̄.Ȳ = α.Ȳ 2 + β Ȳ (1)
X = α.Y + β ⇒ X.Y = α.Y 2 + β.Y
⇒ E(X.Y ) = α.E(Y 2 ) + β.E(Y ) (2)
En soustrayant (1) à (2), on en déduit :
Cov(X, Y )
α= et β = X̄ − α.Ȳ
V ar(Y )
et on obtient comme précédemment la relation suivante :
σX
α= .r
σY
Y 0 = a + b.X 0
8.1.1 Introduction
Soit E une épreuve dont les éventualités constituent l'ensemble fondamen-
tal Ω. Soit A un évènement dont la probabilité de réalisation est p. Soit (En ),
l'épreuve consistant en la réalisation successive de l'épreuve E n fois de façon
indépendante.
L'ensemble fondamental dans ce cas est E = Ωn .
Associons les n variables aléatoires qui ont conduit à la réalisation de
(En ). Posons :
1
Zn = B(n, p).
n
qui représente la moyenne de réalisation de l'évènement A au cour de n
épreuves. On a :
E(Zn ) = p
pq
V ar(Zn ) =
n
63
64 CHAPITRE 8. CONVERGENCE EN PROBABILITÉ
Z Z
k k
E[(g(X)) ] = (g(x)) .f (x)dx + (g(x))k .f (x)dx
X1 X2
Z
> tk . f (x)dx = tk .P (g(X) > t)
X2
d'où
E[(g(X))k ]
P (g(X) > t) 6
tk
Corollaire 8.1.2.
E[(g(X))k ]
P (g(X) 6 t) 1 1 − Inégalité de Bienaymé TCHEBITCHEFF
tk
Corollaire 8.1.3. Posons g(x) = |x − X̄|
E[|x − X̄|k ]
P (|x − X̄| 6 t) 1 1 −
tk
Corollaire 8.1.4. Si V ar(X) = σ 2 et E(X) = m, alors
3
P (m − 2σ < X 6 m + 2σ) >
4
Corollaire 8.1.5. Soit a ∈ R ;
Application
Le théorème ci-dessus et ses corrolaires permettent d'estimer à priori les
probabilités des phénomènes dont on dispose seulement d'informations sur
la moyenne et l'écart-type.
Supposons que X N (m, σ) ; on a :
Dénition 8.3.1. Soit (Xn )n∈N , une suite de variables aléatoires de fonction
de répartition Fn .
Soit X une variable aléatoire réelle de fonction de répartition F .
On dit que (Xn )n∈N converge en loi vers une variable X si et seulement
si Fn converge simplement vers F .
Soit (Xn )n∈N , une suite de variables aléatoires indépendantes deux à deux,
communes de même moyenne m et d'écart-type σ > 0, alors :
Sn n
−m 1 1 X
n
où .Sn = . Xi = X̄n
√σ n n i=1
n
67
Chapitre 9
ESTIMATIONS
9.1.1 Introduction
La collecte d'informations relatives à une population peut être faite de
façon exhaustive (on a l'information sur chaque individu), on parle alors de
recensement ou sur une partie seulement de la population, on parle de
sondage et la partie de la population considérée est appelée échantillon.
Lorsque la taille de la population est très grande, le recensement devient
très couteux en temps comme en moyens matériels et nanciers. C'est le cas
du recensement général de la population.
69
70 CHAPITRE 9. ESTIMATIONS
NUS
E(θ̂) = θ , ∀ θ ∈ Θ
Sur deux estimateurs, le plus écace est celui avec la plus petite variance.
Principaux estimateurs
Soit P une population de N individus qu'on note US , repéré par leurs
numéros S (1 6 S 6 N ). Les individus de l'échantillon sont repérés par
l'indice i.
72 CHAPITRE 9. ESTIMATIONS
Donc
n−1 2
E(Sn2 ) = σ
n
Le biais de cet estimateur est :
2
B(Sn2 ) = n − 1 σ 2 − σ 2 = σ
n n
Estimateur sans biais de la variance σ2
n
n 1 X 2
Ŝn2 = Sn2 = Xi − X̄n
n−1 n − 1 i=1
est un estimateur sans biais de la variance σ 2 car E(Ŝn2 ) = σ 2 . Ces calculs
peuvent être fait dans le cas d'un échantillon exhaustif.
n
Y
L= f (xi , θ) = L(x1 , . . . , xn , θ)
i=1
d
L(x1 , . . . , xn , θ) = 0
dθ
(xi − θ)2
1
f (x, θ) = √ .exp −
2πσ 2σ 2
n
Y
L(x1 , . . . , xn , θ) = f (xi , θ)
i=1
Xn
ln L(x1 , . . . , xn , θ) = ln f (xi , θ)
i=1
n
(x − θ)2
X 1
= ln √ −
i=1
2πσ 2σ 2
n n
X −2(x − θ) X
G0 = (ln L)0 = =0 ⇔ (xi − θ) = 0
i=1
2σ 2 i=1
n
X
⇔ n.θ̂ = xi
i=1
n
1 X
Soit θ̂ = xi
n i=1
n
1 X
Sn2 = (xi − X̄n )2
n i=1
n
1 X
Ŝn2 = (xi − X̄n )2
n − 1 i=1
X̄n − µ
√ N (0, 1)
n
nous donne cet intervalle de conance. t α2 est déni par la loi de Student à
(n − 1) degrés de liberté. De même, on aura :
!
Ŝn2 Ŝn2
−t 2
α √ + X̄n 6 m 6 t 2
α √ + X̄n
n n
Ŝn2
Z = n. X 2 (n − 1)
σ2
!
Ŝ 2
P a ≤ n. n2 ≤ b =1−α
σ
à 100(1 − α)%.
Y N (µY , σY )
et
n
2 1 X
SX = Sn2X = . (xi − X̄nx )2
nX i=1
n
1 X
SY2 = Sn2Y = . (yi − Ȳny )2
nY i=1
80 CHAPITRE 9. ESTIMATIONS
Proposition 9.3.4.
2
SX
2
σX
F = SY2
F(nX − 1, nY − 1)
2
σY
F = F(nX − 1, nY − 1)
Remarque 9.3.4.
1. Nous avons considéré dans tout ce qui précède, des intervalles bilaté-
raux. On pourrait aussi chercher des intervalles de la forme [a, +∞[,
] − ∞, b] ou [a, b] non symétriques en appliquant la même logique.
2. Dans tout ce qui précède, nous n'avons considéré que des populations
gaussiennes, mais ces résultats restent valablent pour des échantillons
de taille susamment grande, quelque soit la loi considérée. Mais, pour
des échantillons de petite taille et des lois quelconques, c'est du cas
particulier qu'il faut faire.
Chapitre 10
TESTS STATISTIQUES
10.1 INTRODUCTION
81
82 CHAPITRE 10. TESTS STATISTIQUES
- Type 1 : Hypothèse H0 : P = P0 ;
Hypothèse H1 : P > P0 ;
- Type 2 : Hypothèse H0 : P = P0 ;
Hypothèse H1 : P < P0 ;
- Type 3 : Hypothèse H0 : P = P0 ;
Hypothèse H1 : P 6= P0 .
f − P0
T =q N (0, 1)
P0 (1−P0 )
n
On trouve :
r
P0 (1 − P0 )
l = P0 + tα .
n
Décision :
Si la fréquence observée est supérieure à l, on rejette l'hypothèse H0 ,
c'est-à-dire l'hypothèse H1 est retenue.
Si la fréquence observée est inférieure à l, on retient l'hypothèse H0 .
- Type 1 : Hypothèse H0 : m = m0 ;
Hypothèse H1 : m > m0 ;
- Type 2 : Hypothèse H0 : m = m0 ;
Hypothèse H1 : m < m0 ;
- Type 3 : Hypothèse H0 : m = m0 ;
Hypothèse H1 : m 6= m0 .
Si la population d'origine est normalement distribuée (population gaussienne)
ou si l'échantillon est susamment grand, X̄n suit approximativement la loi
de Laplace-Gauss de paramètres (m, √σn ) où m est la moyenne inconnue et
σ l'écart-type de la variable X dans l'ensemble de la population. On peut
noter que sous l'hypothèse H0 , on ne peut entièrement déterminer la loi de
X̄n parce que σ est en général inconnu. Deux cas se présentent alors :
L'écart-type σ est connu
Dépendant donc du type de test considéré, on détermine la région cri-
tique R en notant que :
m0
T = X̄n − N (0, 1)
√σ
n