Вы находитесь на странице: 1из 39

����������������������������

�����������������
Jean-Marc Fédou
2 ��� M1Cours1.nb

�������������
L’objet de ce cours est d’une part de réviser les bases de probabilités et de statistiques de l’an dernier, en complétant les rappels et compléments de
mathématiques. Nous aborderons également des problèmes de corrélaton et d’apprentissage.
Variables aléatoires discrètes (rappels)
Variables aléatoires continues (rappels)
Vecteurs aléatoires-Algèbre linéaire
Estimation statistique
Tests statistiques
Apprentissage
On utilisera le logiciel Mathematica comme outil d’aide et de test.
M1Cours1.nb ���3

�����������
���������� ��������
��� ���������� ��������� �� ��� �� �� ������� ���������
��� ��� ���������� ���� �� � ��� ������ �� �������� ��
�� ���� ��� ������� �� �������� � � ���������� ��� �� ������
������� ��� �� ���� ����������
� � ������� �� �������� �����������
��� � � �������� �� ���� ��� ��������� ٠= {�� �� �� �� �� �}
��������� �� � � ����������
�� évènement aléatoire ��� �� � � ��������� ������� �� ������
���� - �������� �� ٠��������� �� ���� � � � �� �
� = {�� �} ⊂ Ω
�� ��� �� � �� ��������� ��� �� �� ���� ���������� �� �� ������� ��
réalisé ������ � �� ���������� � � ��������� � � � ��� ��� ��������
� � � �������� �� �� � � ��� �� �� ���� �� �� ������� ��
�� ��������� ��� ��� ����������� � � ��������� {�} ��� �� ���������
������ � �� �� �������� �� � �� �����������
���� ��������
4 ��� M1Cours1.nb
M1Cours1.nb ���5

����������������������������������������������������������������������������
6 ��� M1Cours1.nb

���������������������������
◼ p(Ω)=1

◼ L’évènement impossible est l’ensemble vide ⌀ et p(⌀)=0

◼ Si A⊂B, alors p(A)≤p(B)

◼ Si A et B sont incompatibles, c’est à dire lorsque A⋂B=⌀, alors


p(A⋃B)=p(A)+p(B)

◼ L’évènement contraire de A est A, complémentaire de A dans Ω, et vérifie


p(A) = 1 - p(A)

◼ Si A et B ne sont pas incompatibles, alors


p(A⋃B)=p(A)+p(B)-p(A⋂B)
M1Cours1.nb ���7

�����������������������
Deux évènements sont dits indépendants lorsque le résultat de l’un ne dépend pas du résultat de l’autre.

�������������������������������������������������������������������������⋂�����������
Exemples. Tous les problèmes de tirage avec remise

���������
Une urne contient 3 boules blanches et 5 boules noires. Quelle est la probabilité d’obtenir deux boules blanches en 2 tirages avec remise.
8 ��� M1Cours1.nb

���������������������������������������������������
Définition. Soient A et B deux évènements avec p(A)≠0.
p(A⋂B)
La probabilité conditionnelle de B sachant A est p(B A) =
p(A)

Exemples. Tous les problèmes de tirage sans remise

��������
Une urne contient 3 boules blanches et 5 boules noires. Quelle est la probabilité d’obtenir deux boules blanches en 2 tirages sans remise.
M1Cours1.nb ���9
10 ��� M1Cours1.nb

�������������������
Definition. Une variable aléatoire est une fonction de l’ensemble des évènements dans ℝ (pour le moment).

��������

�����������������������������������������������������������������������’���������������
������� �[�_] �= �����[ �������������[�� {�}] � �] / �
�[��]
� = ��� ����
� = ���
������� = �����[�[�]� {�}]�
���������[�������� {���}� �������������� ���������������� → �����]

�������
��
0.24574
0.25

0.20426 0.20472
0.20

0.15

������� 0.11565 0.11936

0.10

0.04444 0.04467
0.05

0.0098 0.00949
0.00096 0.00091
0.2 0.4 0.6 0.8 1.0
M1Cours1.nb ���11

������������������
Definition. La loi de probabilité d’une variable aléatoire X sur un univers Ω est la fonction de ℝ dans [0,1] définie par f(x)=p(X=x) .

Certains auteurs l’appellent également fonction de densité, ici nous réserverons le terme de fonction de densités aux variable aléatoires continues.
La loi de probabilité de la variable aléatoire somme de deux dés est définie par le tableau suivant

�����������������������������������������������
������� �[�_] �= �������������[{�� �}] + �������������[{�� �}]
� = ��� ����
� = ���
������� = �����[�[��]� {�}]�
� = �����[{�� �����[�������� �] / �}� {�� �� ��}]�
��������[�� ������� → ����� ��������� → ���]

0.15

0.10
��������

0.05

2 4 6 8 10 12
12 ��� M1Cours1.nb

������������������
��������������������������������������������������� ##��� ����������
��� ���������

� � � � � � � � � �� �� ��
� � � � � � � � � � �
� (�) = � (� = �) �� �� �� �� �� �� �� �� �� �� ��
M1Cours1.nb ���13

��������

������� = ������[�����[�]� {�}]


� = ������[�������]
������� = ���[������ �������]
������� = �����[�����[�������� �]� {�� �� ��}] / �
�����[�������]
��������[�������� ����������� → �����[��] + �� ���������������� → �����]
�������� {{�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}�
{�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}�
{�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}}

�������� ��

�������� {�� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� ��� �� �� �� �� ��� ��� �� �� �� ��� ��� ��}

� � � � � � � � � � �
��������  � � � � � � � � � � 
�� �� �� � �� � �� � �� �� ��
�������� �

6
5 5

36 36
1 1

9 9
1 1
��������
12 12
1 1

18 18
1 1

36 36

2 3 4 5 6 7 8 9 10 11 12
14 ��� M1Cours1.nb

�����������������������
Definition. La fonction de répartition d’une variable aléatoire X sur un univers Ω est la fonction de ℝ dans [0,1] définie par F(x)=p(X≤x) .

� � � � � � � � � �� �� ��
� � � � � � � � � � �
� (�) = � (� = �) �� �� �� �� �� �� �� �� �� �� ��

La fonction de répartition de la variable aléatoire somme de deux dés est définie par le tableau suivant
� � � � � � � � � �� �� ��
� � � �� �� �� �� �� �� �� ��
� (�) = � (� ≤ �) �� �� �� �� �� �� �� �� �� �� ��
=�
M1Cours1.nb ���15

��������

����������� = ����������[�������]
��������[������������ ����������� → �����[��] + �� ���������������� → �����]

� � � � � � �� � �� ��
��������  � � � � � � � � � � �
�� �� � �� �� �� �� � �� ��
35
11 1
1.0 36
5 12

13 6
0.8
18
7

12
0.6
�������� 5

12
5
0.4
1 18

1 6
0.2
1
12
36
0.0
2 3 4 5 6 7 8 9 10 11 12
16 ��� M1Cours1.nb

����������
◼ Une loi de probabilité prend des valeurs entre 0 et 1
N
◼ La somme des valeurs de la loi de probabilité est égale à 1 : ∑i=1 f (xi ) = 1
◼ La fonction de partition est positive ou nulle, croissante, et sa plus grande valeur est 1
M1Cours1.nb ���17

���������
L’espérance E(X) d’une variable aléatoire X correspond à la moyenne des valeurs que l’on obtiendrait en faisant une infinité de tirages. C’est la moyenne
des valeurs de la variable aléatoire pondérées par leur probabilité
N N
E(X)=∑i=1 xi p(X = xi ) = ∑i=1 xi f (xi )

���������������������������
� � � � � � � � � �� �� ��
� � � � � � � � � � �
� (�) = � (� = �) �� �� �� �� �� �� �� �� �� �� ��

�������� �������
�������� {{�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}�
{�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}�
{�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}}

�������� ���[������ �������]


����[���[������ �������]]
�������� {�� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� ��� �� �� �� �� ��� ��� �� �� �� ��� ��� ��}

�������� �
18 ��� M1Cours1.nb

����������������������
La variance Var(X) d’une variable aléatoire X correspond à la moyenne de carrés des distances à l’espérance E(X), que l’on obtiendrait en faisant une
infinité de tirages.
Var(X ) = E (X -E(X ))2 
N
= ∑i=1 (xi - E(X ))2 p(X = xi )
N
= ∑i=1 (xi - E(X ))2 f (xi )
L’écart-type σ d’une variable aléatoire X est la racine carrée de la variance

σ= Var (X )

���������������������������������������’���������������������������’����������
� � � � � � � � � �� �� ��
� � � � � � � � � � �
� (�) = � (� = �) �� �� �� �� �� �� �� �� �� �� ��

�������� �������
�������� {{�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}�
{�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}�
{�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}� {�� �}}
M1Cours1.nb ���19

�������� � = ���[������ �������]


�� = ����[�]
����[(� - ��) � �]
����[(�) � �]
����[(�) � �] - ����[(�)] � �
��������[�]
�������� {�� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� �� ��� �� �� �� �� ��� ��� �� �� �� ��� ��� ��}

�������� �

��
��������

���
��������

��
��������

�������� �
20 ��� M1Cours1.nb

����������
Théorème de König :
Var(X ) = EX 2 - E (X )2
M1Cours1.nb ���21

�����������������������������
Le problème est, à partir de deux variables aléatoires discrètes X et Y, indépendantes, de déterminer la loi de probabilité de la variable aléatoire S=X+Y.
Pour simplifier, on supposera que X et Y sont à valeurs dans ℕ.
La loi de probabilité de S est alors

x
P(S=x)=P ⋃ (X = i ⋂ Y = x - i) ces évènements sont disjoints donc
i=0
x
=∑i=0 P(X=i ⋂Y=x-i) X et Y sont indépendantes donc
x
=∑i=0 P(X=i)P(Y=x-i) par définition de f et g
x
=∑i=0 f (i) g(x - i)

x
��������������������������
���������
������������������������������������������*�����∑i=� f (i) g(x - i)
22 ��� M1Cours1.nb

����������

������������������������������������������������������������������������������������������������������������������
����������������������������������������������������������������������
x
�*������∑i=� f(i) g(x - i)

�����������’�������������������������������������������������������������������������������������������
�������������������������

������������������������������������������������������������������������������������������������������������
��������������������������������

��������������������������������������X =� �n �∑i=�
n
Xi �������������������������������������Xi �����������������’����
σ�
����������������������������(X) = n
M1Cours1.nb ���23

�����������
◼ Une variable aléatoire est dite centrée si son espérance est nulle.

Remarque. Si X est une variable aléatoire d’espérance E(X) alors X-E(X) est centrée

◼ Une variable aléatoire est dite réduite si son écart type est égal à 1.
X
Remarque. Si X est une variable aléatoire de variance σ 2 alors est réduite
σ

◼ Une variable aléatoire réduite et centrée est dite standardisée


X -E(X )
Remarque. Si X est une variable aléatoire d’espérance E(X) et de variance σ 2 alors est réduite
σ
24 ��� M1Cours1.nb

����������������������
Une variable aléatoire de Bernouilli est une variable aléatoire discrète qui ne peut prendre que les deux valeurs 1 et 0 avec probabilité p et q=1-p.
� � �
� (�) = � (� = �) � �

�����������������������������������������������������������������������������������������������������������������
�������������������
����������������������������������
p (X = �) = ��

p(X = �) = �

�����������������������������������������������������������������������������������������
M1Cours1.nb ���25

����������������������
Si X est une variable de Bernouilli de paramètre p,
• E(X)=p
• V(X)=pq
26 ��� M1Cours1.nb

����������������������
On appelle Distribution Binomiale la répétition de n épreuves de Bernouilli indépendantes où la variable aléatoire est le nombre de succès (obtention
de la valeur 1).

Cela revient à tirer au hasard un mot de longueur n sur l'alphabet {0,1}, chaque 0 ayant une probabilité q d'apparaitre et chaque 1 une probabilité p.
La probabilité qu’un mot particulier w = w1 w2 .. wn apparaisse ne dépend que du nombre de 0 et de 1 dans w et est égal à pw1 qw0 .
n n k n-k
Il y a mots de longueur n ayant exactement k lettres égales à 1et on en déduit que p(X = k) = p q
k k

�����������������������������������������������������������������������������������������
M1Cours1.nb ���27

����������������������
�������� ����������[
���[{
��������[�����[���[��������������������[�� �]� �]� {�� �� �}]� ��������� → {{- ��� ����}� {- ��� �}}�
������ → {���������[���]� ��������[�� ���� �]� �����[{� * � + �� �}]}� ��������� → {���� ���}]�
��������[�����[���[��������������������[�� �]� �]� {�� �� �}]� ��������� → {{- ��� ����}� {- ��� �}}�
������ → {���������[���]� ��������[�� ���� �]� �����[{� * � + �� �}]}� ��������� → {���� ���}]
}]�
{{�� ��� �� ������ �� ��������}� �� ��� �� ���������� → ���������}�
{{�� ��� ������������ � ������� �����}� �� �� ���������� → ���������}]
28 ��� M1Cours1.nb

� ������ �� ������� ��

����������� � ������� ���� ���

��������
M1Cours1.nb ���29

����������������������
Si X suit une Distribution Binomiale de paramètres n et p,
• E(X)=np
• V(X)=npq
30 ��� M1Cours1.nb

������������������������
On appelle Distribution géométrique la répétition d’épreuves de Bernouilli indépendantes jusqu’à obtention d’un succès (obtention de la valeur 1), où
la variable aléatoire est le nombre de répétitions.

Dire que X=k signifie que les (k-1)premiers tirages ont été défavorables et qu’un succès au k-ième tirage a été réalisé, on a donc
p (X = k) = qk-1 p

������������������������������������������������������������������������������������������
M1Cours1.nb ���31

������������������������
�������� ����������[���[{
��������[�����[���[���������������������[�]� �]� {�� �� ��}]�
��������� → ���� ��������� → ���� ������ → {���������[���]� ��������[�� ���� �]� �����[{� + �� �}]}]�
��������[�����[���[���������������������[�]� �]� {�� �� ��}]� ��������� → ���� ��������� → ����
������ → {���������[���]� ��������[�� ���� �]� �����[{� + �� �}]}]}]� {{�� ��� �����������}� ���� ���}]

���������

0.5

0.4

0.3

0.2

0.1

��������
0.0

1.0
32 ��� M1Cours1.nb

0.8

0.6

0.4

0.2

0.0
M1Cours1.nb ���33

������������������������
�����������������������
�������� ��������� = ���[ � � � � (� - �)� {�� �� ��������}] /� (� → � - �)

��������

�������� �������� = ��������[(���[� � � � � � (� - �)� {�� �� ��������}] /� (� → � - �)) - ��������� � �]


�-�
��������
��

Si X suit une Distribution Géométrique de paramètres n et p,


1
• E(X)=
p
q
• V(X)=
p2

�����������������������������������
La somme de deux Distributions Géométriques de paramètres n1 , p et n2 , p est la distribution géométrique de paramètre n1 + n2 ,p
�����������������������
La distribution de Poisson intervient dans tous les problèmes d’occurences d’évènements rare en un laps de temps fixé.On peut considérer soit le nombre
d’occurences de ces évènements dans un laps de temps fixé, soit l’intervalle de temps entre deux évènements consécutifs.
À titre d’exemple, une unité de production emploie 300 ouvriers et le taux moyen d’absentéisme est de 5 %. Sur le site, il est quasi impossible de trouver 25
intérimaires en même temps. Quel risque y a-t-il d’enregistrer au moins 25 absences simultanément ? Le paramètre de la loi de Poisson est de 300 × 0,05
M1Cours1.nb ���35

�����������������������
�����������������������
�������� ���[ � ���[- λ] λ � � / � !� {�� �� ��������}]
�������� λ

�������� ���[� � � ���[- λ] λ � � / � !� {�� �� ��������}]

�������� λ + λ�

�������� ���[(� - λ) � � ���[- λ] λ � � / � !� {�� �� ��������}]


�������� λ

Si X suit une Distribution de Poisson de paramètre λ,


• E(X)=λ
• V(X)=λ

���������������������������������
La somme de deux Distributions de Poisson de paramètres λ1 et λ2 est la distribution de Poisson de paramètre λ1 + λ2
36 ��� M1Cours1.nb

�����������������������
�������� ����������[���[{
��������[�����[���[�������������������[������]� �]� {�� �� ��}]� ��������� → {- ��� ��}�
��������� → ���� ������ → {���������[���]� ��������[�� ���� �]� �����[{������ + �� �}]}]�
��������[�����[���[�������������������[������]� �]� {�� �� ��}]� ��������� → {- ��� ��}� ��������� → ����
������ → {���������[���]� ��������[�� ���� �]� �����[{������ + �� �}]}]}]� {{������� �� �����������}� �� ��}]

���������

��������
M1Cours1.nb ���37
38 ��� M1Cours1.nb

���������������’�����������������������������������������
Lorsque n est assez grand (n>30) et pour p petit (p<0,1) tels que np(1-p)<10, on peut approcher une loi Binomiale ℬ(n,p) par une loi de Poisson (λ) où
λ=np.

�������� ����������[
����[{
��������[�����[���[��������������������[�� �]� �]� {�� �� �}]�
������������� → (�����[{���������� ����}� #] �)� ���������� → �������[���]� ��������� → {���� ���}]�
��������[�����[���[�������������������[� �]� �]� {�� �� �}]� ������������� → (�����[{����������� �����}� #] �)�
���������� → �������[���]� ��������� → ���]
}]�
{{�� ��� �� ������ �� ��������}� ��� ���� �� ���������� → ���������}�
{{�� ���� ������������ � ������� �����}� ������� �� ���������� → ���������}]
M1Cours1.nb ���39

� ������ �� ������� ��

����������� � ������� ���� ����

��������

Вам также может понравиться