Академический Документы
Профессиональный Документы
Культура Документы
STATISTIQUE I
C OURS D ’ INTRODUCTION À LA STATISTIQUE ,
PARTIE I, NIVEAU BA
Laurent Donzé
Laurent.Donze@UniFr.ch
Remarque préliminaire
Ces notes n’ont comme ambition que de résumer les points traités au cours. Elles ne
constituent en aucun cas un texte définitif sur le sujet et ne dispensent pas l’étudiant-e
d’une présence au cours, de résolutions d’exercices ou de lectures complémentaires.
c L. Donzé, 18 septembre 2018
@asamunifr
Table des matières
1 Chapitre introductif 7
1.1 Population et unité statistique . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Distributions empiriques 10
2.1 Variables catégorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Variables quantitatives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Histogramme et fonction de distribution cumulée . . . . . . . . . . . . . 13
2.4 Estimation de distributions par fonction kernel . . . . . . . . . . . . . . . 14
2.5 Formes des fonctions de distribution . . . . . . . . . . . . . . . . . . . . 16
Références 42
Index 43
SA 2018 7
1 Chapitre introductif
Le besoin d’informations sur des sujets d’intérêt ou tout simplement notre curio-
sité nous incitent à collecter des données et à les analyser. Les données collectées
sont appelées dans le grand public des « statistiques », tandis que la science qui
propose les méthodes de collecte, de gestion puis d’analyse des données s’appelle
« statistique ».
Selon AGRESTI et F RANKLIN (2013), « statistics is the art and science of learning
from data. »
Les données concernent une population pour laquelle on aimerait extraire une
information.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
8 I NTRODUCTION À LA STATISTIQUE I
1.2 Variables
Notation 1.1.
Soit s := {1, ... , n} un échantillon de n unités statistiques. Considérons une va-
riable d’étude y. Lorsque l’on observe l’unité statistique i = 1, ... , n, on enregistrera la
modalité (la valeur) yi obtenue par la variable y pour l’unité statistique i. On dira que
yi est la i-ème observation sur la variable y.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 9
continue
z }| {
quantitative
discrète
}
catégorielle
{z
ordinale
z }| {
qualitative
nominale
|
— On regroupe sous l’appellation « catégorielles », les variables ordinales et no-
minales.
Remarque 1.1.
Une variable binaire (dichotomique, muette) est une variable catégorielle à deux
catégories, notées en général par 0 et 1 et indiquant qu’un événement a eu lieu ou
non ou qu’une caractéristique est présente ou non.
On peut résumer les types de variables par la figure 1 (cf. P OWERS et X IE (2000),
p. 7).
En pratique, il peut être admissible de considérer comme continues des variables
discrètes. Par contre, les variables continues doivent être « discrétisées », par exemple
en construisant des classes, si on veut les considérer comme variables discrètes.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
10 I NTRODUCTION À LA STATISTIQUE I
2 Distributions empiriques
2.1 Variables catégorielles
Soit y une variable catégorielle. Les valeurs que peut prendre y sont appelées
« catégories », « classes » ou « modalités ». Par exemple, la variable y désignant
le sexe d’une personne a deux modalités : H et F. On désignera par Mj , j = 1, ... , M,
les M modalités d’une variable. Enfin, on dispose sur y d’une série de n observations
{y1 , y2 , ... , yi , ... , yn }. La valeur yi est la modalité observée de l’unité statistique i.
nj
fj := .
n
M
X
n1 + n2 + ... + nM = nj = n;
j=1
M
X
fj = 1.
j=1
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 11
j
X
Fj := f1 + ... + fj = fh .
h=1
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
12 I NTRODUCTION À LA STATISTIQUE I
Notons tout d’abord qu’une variable quantitative discrète, avec un nombre fini de
valeurs distinctes, peut être traitée comme une variable catégorielle, chaque valeur
distincte étant une catégorie.
D’autre part, une variable quantitative continue est caractérisée par un nombre
infini de modalités ou de valeurs distinctes. Pour l’analyse en termes de fréquence,
il faudrait au préalable « discrétiser » la variable en créant des classes. On pourrait
alors à nouveau calculer des fréquences absolues, relatives et cumulées.
Définition 2.5 (Classe, centre et largeur de classe).
1. Une classe C est un intervalle I ⊂ R ;
2. Soit C =]a, b], a et b ∈ R deux constantes. On appelle centre de classe, noté m,
la quantité
a+b
; m :=
2
3. On appelle largeur de classe, notée h, la quantité
h := b − a.
C1 C2 C3 Cc
x0 x1 x2 x3 . . . . xc−1 xc R
| {z } | {z } |{z} | {z }
h1 h2 h3 hc
Remarques 2.1.
1. On peut également considérer des intervalles ouverts à droite pour les classes,
i.e. [a, b[ ;
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 13
où {y1 , ... , yn } est une série d’observations sur une variable quantitative continue y ;
Cj est une classe de largeur h ; j ∈ Z.
Remarques 2.2.
1. L’estimation de l’histogramme, i.e. de la fonction f̂h dépend non seulement du
choix de h, mais aussi de l’origine x0 ;
2. Si mj est le centre de la classe Cj , on peut vérifier que f̂h (x) donne pour chaque
x ∈ Cj =]mj − h/2; mj + h/2] la même estimation f̂h (mj ). La fonction est donc en
escalier.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
14 I NTRODUCTION À LA STATISTIQUE I
La table 2 nous donne la liste des fonctions kernel les plus utilisées. Prenons à
titre d’exemple la fonction kernel uniforme :
1
K (u) = 1{|u|≤1} .
2
Son graphe est représenté dans la figure 3.
1/2
-1 0 1 R
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 15
Kernel K (u)
1
Uniforme 2 1{|u|≤1}
Triangle (1 − |u|)1{|u|≤1}
3
Epanechnikov 4 (1 − u 2 )1{|u|≤1}
15
Quartic (Biweight) 16 (1 − u 2 )2 1{|u|≤1}
Gaussien √1 exp(− 12 u 2 )
2π
1 X
f̂h (x) = 1{x−h≤yi ≤x+h} ,
2hn
i
ou de manière équivalente :
1 X
f̂h (x) = 1{−1≤ x−yi ≤1} .
2hn h
i
Ainsi :
1 X1
f̂h (x) = 1 x−yi ,
hn 2 {| h |≤1}
i
1 X x − yi
= K( ),
hn h
i
où K (·) est la fonction kernel uniforme. On constate donc que la fonction histogramme
peut être écrite en utilisant une fonction kernel. Dans ce cas, la fonction kernel uni-
forme pondère les fréquences par 1/2 ou 0.
De manière générale, on considérera la classe d’estimateurs de type kernel sui-
vante :
1X
f̂h (x) = Kh (x − yi ),
n
i
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
16 I NTRODUCTION À LA STATISTIQUE I
Remarques 2.3.
— Comme une somme de fonctions « lisses » est également « lisse », on obtient
une densité empirique estimée lissée ;
— L’estimation f̂h est une moyenne ;
— Le paramètre h est une constante positive appelée « bandwidth » ; il règle le de-
gré de « lissage » de la courbe ; plus h est petit, plus la densité est concentrée ;
— La qualité de l’estimation de f̂h dépend du nombre d’observations à disposition.
h = 1.059σ/n1/5 ,
où σ est l’écart-type empirique des données (voir infra). Cette dernière solution marche
bien pour des kernels gaussiens et des données distribuées approximativement selon
une loi normale (voir infra).
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 17
n
1X
ȳ := yi ;
n
i=1
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
18 I NTRODUCTION À LA STATISTIQUE I
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 19
IQR := Q3 − Q1 .
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
20 I NTRODUCTION À LA STATISTIQUE I
n
1X
σ 2 := (yi − ȳ)2 .
n
i=1
Les études empiriques montrent que fréquemment les distributions traitées s’ap-
prochent d’une distribution dite « normale » (cf. infra). Sur cette base, on pourra dire
que :
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 21
F IGURE 4 – Box-plot
aberrantes
supérieure
adjacente
adjacente
aberrante
inférieure
valeurs
valeur
valeur
valeur
Q1 Q2 ȳ Q3
| {z }
IQR
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
22 I NTRODUCTION À LA STATISTIQUE I
yi − ȳ
z := .
s
Les valeurs standardisées sont appelées z-scores.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 23
β1 = µ23 /µ32 ;
et β2 = µ4 /µ22 .
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
24 I NTRODUCTION À LA STATISTIQUE I
Pn
et supposons que i=1 yi > 0.
Soit alors la part hr de la r -ème observation à la valeur totale :
y[r ]
hr := Pn , r = 1, ... , n.
i=1 yi
0 ≤ h1 ≤ h2 ≤ ... ≤ hn .
1 1 2 2 n−1 n−1
(0, 0), ( , L( )), ( , L( )), ... , ( , L( )), (1, 1).
n n n n n n
Propriétés 3.6.
1. La courbe est monotone croissante et convexe ;
2. La disparité est minimale lorsque y[1] = y[2] = ... = y[n] , i.e. lorsque h1 = h2 = h3 =
... = hn , ce qui implique que L( ni ) = ni pour i = 0, 1, ... , n. La courbe de Lorenz est
dans ce cas la diagonale reliant (0, 0) à (1, 1) ;
3. La disparité est maximale lorsque y[n] = ni=1 y[i] , y[1] = y[2] = ... = y[n−1] = 0, i.e.
P
lorsque hn = 1, h1 = h2 = ... = hn−1 = 0, ce qui implique que L( nn ) = L(1) = 1 et
L( ni ) = 0 pour i = 0, 1, ... , n − 1.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 25
∆
G := .
2ȳ
Propriétés 3.7.
1. Si les données sont ordonnées par ordre croissant, on peut calculer G comme :
Pn Pn
i=1 (2i − n − 1)y[i] 2 i=1 i hi − (n + 1)
G= = ;
n2 ȳ n
2. G = 0 ssi y1 = y2 = · · · = yn [disparité minimale] ;
1
3. G = 1 − n
ssi y1 = y2 = · · · = yn−1 = 0, yn > 0 [disparité maximale] ;
4. 0 6 G 6 1 − n1 .
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
26 I NTRODUCTION À LA STATISTIQUE I
On retrouve cependant des cas ambigus, par exemple lorsque les courbes de Lorenz
se coupent. On ne peut plus alors affirmer qu’il y a une évolution vers plus ou moins
d’égalité. Les courbes de Lorenz généralisées peuvent dans certaines situations dis-
siper l’ambiguïté.
(y − µ)2
2 1
ϕ(y|µ, σ ) = √ exp − ,
2πσ 2σ 2
où y ∈ R, µ ∈ R, σ > 0. On notera la distribution N(µ,σ 2 ).
Si y1 , y2 , ... , yi , ... , yn sont des observations d’une distribution N(µ,σ 2 ), alors les
observations standardisées z1 , z2 , ... , zi , ... , zn (z-scores), où
yi − µ
zi := ,
σ
auront une distribution N(0,1).
Remarques 3.3.
1. La distribution normale cumulée est notée Φ(y|µ, σ 2 ) ;
2. La fonction quantile d’une distribution normale est Q(α) = Φ −1 (α).
3. Il existe pour la distribution N(0,1) des tables reproduisant les valeurs de Φ(y|0, 1).
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 27
On peut aisément par un outil graphique, appelé graphe des quantiles ou q-q plot,
comparer deux distributions et vérifier si celles-ci sont « identiques » ou « diffèrent ».
Soient x1 , ... , xn , et y1 , ... , ym deux séries de valeurs observées sur les variables x
et y . Supposons que m < n. Nous aimerions vérifier à l’aide d’un graphe des quantiles
si la distribution empirique de x est identique à celle de y.
Trouvons les statistiques d’ordre :
Évaluons pour chaque valeur x[i] et y[j] , i = 1, ... , n et j = 1, ... , m, les proportions
cumulées pi et pj des observations plus petites que respectivement x[i] et y[j] . Pour ce
faire, on peut utiliser la règle de calcul suivante :
i − 1/2 j − 1/2
pi := et pj := .
n m
Pour la série d’observations sur y, y[j] est le pj -quantile de la distribution. Comme
m < n, il s’agit de trouver dans la distribution des x, le pj -quantile. Notons cette valeur
par x[i]∗ . Le q-q plot sera le graphe des points (x[i]∗ , y[j] ).
L’interprétation du q-q plot est la suivante. Si les distributions des x et des y sont
« identiques », alors le graphe sera une droite. Tout diagramme de dispersion qui
s’écarte d’une droite indique que les distributions des deux séries sont différentes.
Le graphe des quantiles peut également servir à comparer une distribution empi-
rique avec une distribution théorique. Par exemple, on pourrait se poser la question de
savoir si la série d’observations sur la variable y est distribuée selon une loi normale.
Soient y[1] ≤ ... ≤ y[n] , les statistiques d’ordre des observations yi . On peut trouver
n statistiques d’ordre u[1] ≤ ... ≤ u[n] d’une loi normale standard en prenant :
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
28 I NTRODUCTION À LA STATISTIQUE I
−1 i − 3/8
u[i] := Φ .
n + 1/4
Un graphe des probabilités normales qui s’écarte d’une droite en tout ou partie
signale la non-normalité de la série y.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 29
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
30 I NTRODUCTION À LA STATISTIQUE I
cas favorables m
P(A) = = ;
cas possibles n
2. Si tous les résultats possibles {ω1 , ω2 , ... , ωn } ne sont pas équiprobables, mais
de probabilités respectivement {p1 , p2 , ... , pn }, alors la probabilité de l’événe-
ment A := {ω1 , ... , ωm } est donnée par
P(A) = p1 + p2 + ... + pm .
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 31
∞
X
P(∪∞
i=1 Ai ) = P(Ai ).
i=1
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
32 I NTRODUCTION À LA STATISTIQUE I
r3(B)
r1(B)
P(A ∩ B)
P(A|B) = ,
P(B)
où P(B) > 0.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 33
P(A ∩ B)
P(A|B) = = P(A), [car indépendance]
P(B)
et donc P(A ∩ B) = P(A)P(B).
Le révérend Thomas Bayes (1701–1761) (B AYES (1763)) a formulé une règle qui
est à l’origine et à la base de la statistique bayésienne.
On aimerait par le biais d’une fonction associer à chaque résultat possible d’un
événement un nombre. Le concept de variable aléatoire va nous permettre cela.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
34 I NTRODUCTION À LA STATISTIQUE I
Il faut noter que dans la définition d’une variable aléatoire, le concept de probabilité
n’apparaît pas. Par contre, on tâchera de relier les valeurs prises par la variable à des
probabilités.
Alors, f est appelée fonction de densité (« probability density function (pdf) », « density
function ») de la variable aléatoire X . Dans ce cas, la variable aléatoire X est dite
continue.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 35
Remarques 4.3.
1. Soit F (x), la fonction de distribution de la variable aléatoire X . On dira que X
« est distribuée selon » ou « suit » F (x) et on écrira
X ∼ F (x);
2. Si F est la fonction de distribution de la variable aléatoire continue X , alors la
fonction de densité f (x) de la variable aléatoire X est
dF (x)
f (x) = ;
dx
3. Soient f et F respectivement la fonction de densité et la fonction de distribution
de la variable aléatoire continue X . Alors,
Z b
P(a ≤ X ≤ b) = f (x)dx = F (b) − F (a).
a
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
36 I NTRODUCTION À LA STATISTIQUE I
Loi normale : N µ, σ 2
Loi chi-carrée : χ2ν
Loi Student ou loi t : tν
Loi de Fisher-Snedecor ou F : Fν1 ;ν2
Loi uniforme (cas continu) : U (a, b)
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 37
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
38 I NTRODUCTION À LA STATISTIQUE I
critique ou zone de rejet du test. Cette zone de rejet est construite de manière ad hoc
selon le test que l’on effectue.
Décision
Accepter H0 Rejeter H0
H0 Décision juste Erreur de type
Vraie I
H1 Erreur de type Décision juste
II
Un test optimal serait celui qui minimiserait les deux types d’erreur. Or il est im-
possible de les minimiser simultanément. La stratégie adoptée est de fixer α et sous
cette condition de minimiser β.
On va construire la règle de décision du test en choisissant α. On fixe d’habitude
α petit, e.g. 10%, 5%, 1%.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 39
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
40 I NTRODUCTION À LA STATISTIQUE I
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 41
Références
AGRESTI, Alan et Christine F RANKLIN (2013). Statistics. The Art and Science of Lear-
ning from Data. The Art and Science of Learning from Data. Third Edition, Inter-
national Edition. Pearson, p. 757.
B AYES, Thomas (23 déc. 1763). “An essay towards solving a problem in the doctrine
of chances”. In : The Philosophical Transactions of the Royal Society of London
53, p. 370-418.
B EN -N AIM, Arieh (2015). Discover Probability. How to Use It, How to Avoid Misusing
It, and How It Affects Every Aspect of Your Life. World Scientific Publisching Co.
Pte. Ltd.
B ERMAN, Jules J. (2013). Principles of Big Data. Elsevier. 261 p. ISBN : 978-0-12-
404576-7.
B ERNOULLI, Jakob (1713). Ars conjectandi, opus posthumum. Accedit Tractatus de
seriebus infinitis, et epistola gallicé scripta de ludo pilae reticularis. Basel : Thur-
neysen Brothers.
C LEVELAND, William S. (1993). Visualizing data. Hobart Press.
— (1994). The elements of graphing data. Hobart Press.
D E G ROOT, Morris H. et Mark J. S CHERVISH (2012). Probability and Statistics. Fourth
Edition. Pearson Education, Inc.
G INI, C. (1910). Indici di concentrazione e di dipendenza. Tipografia Nazionale di G.
Bertero e C. URL : http://books.google.ch/books?id=sb3BoAEACAAJ.
— (1912). Variabilitä e mutabilità : contributo allo studio delle distribuzioni e delle
relazioni statistiche. ptie. 1. Tipogr. di P. Cuppini. URL : http://books.google.ch/
books?id=fqjaBPMxB9kC.
H AHN, Corinne et Sandrine M ACÉ (2012). Méthodes statistiques appliquées au ma-
nagement. Pearson, p. 342.
H ARRIS, Robert L. (1999). Information Graphics. A Comprehensive Illustrated Refe-
rence. Oxford University Press.
H YNDMAN, Rob J. et Yanan FAN (1996). “Sample Quantiles in Statistical Packages”.
In : The American Statistician 50.4, p. 361-365. ISSN : 00031305. URL : http :
//www.jstor.org/stable/2684934.
KOLMOGOROV, Andrey Nikolaevich (1933). Grundbegriffe der Wahrscheinlichkeits-
rechnung. Berlin : Julius Springer.
L ORENZ, M. O. (1905). “Methods of Measuring the Concentration of Wealth”. In : Publi-
cations of the American Statistical Association 9.70, p. 209-219. ISSN : 15225437.
URL : http://www.jstor.org/stable/2276207.
P OWERS, D. A. et Y. X IE (2000). Statistical Methods for Categorical Data Analysis.
Academic Press, p. 305.
R OBBINS, Naomi B. (2005). Creating More Effective Graphs. John Wiley & Sons, Inc.
R OSS, Sheldon M (2007). Initiation aux probabilités. Presses polytechniques et uni-
versitaires romandes.
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
42 I NTRODUCTION À LA STATISTIQUE I
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
Index
Aléatoire, 29 asymétrique, 16, 19
expérience, 29 bimodale, 16
Arbre de probabilités, 32 curtosie, 16
empirique, 10, 13, 18
Bandwidth, 15 exponentielle, 26
Bayes fonction, 26
Théorème, 33 fonction cumulée empirique, 14
Box-plot, 21 Gauss (de), 26
gaussienne, 26
Caractéristique, 7 graphe des probabilités normales, 27
Catégorie, 10 graphe des quantiles, 27
Centile, 18 leptocurtique, 16
Classe, 10, 12 mésocurtique, 16
centre (de), 12 multimodale, 16
largeur (de), 12 non aplatie, 16
Coefficient normale, 26
β1 et β2 de Pearson, 23 standardisation, 26
asymétrie (d’), 23 normale cumulée, 26
curtosie (de), 23 platycurtique, 16
Fisher (de), 23 q-q plot, 27
Gini (de), 25 standard normale, 26
variation (de), 22 symétrique, 16, 19
Concentration théorique, 26
indice de Gini, 23 unimodale, 16
relative, 23 Données
Courbe de Lorenz, 23, 24 centrer, 21
généralisée, 25 réduire, 21
Curtosie, 16 standardiser, 21
43
44 I NTRODUCTION À LA STATISTIQUE I
événements, 29 Indépendance, 32
probabilités, 29 Indice de concentration de Gini, 23
Espérance mathématique, 35 Inférence, 29
Étendue, 19 Intervalle de confiance, 39
Événement, 30
disjoints, 30 Kernel, 14
indépendance, 32 bandwidth, 14
indépendants, 32 Epanechnikov, 16
mutuellement exclusifs, 30 fonction, 14
probabilité conditionnelle, 32 optimal, 16
Expérience aléatoire, 29 Lissage, 15
conditions, 29 Loi
essai, 29 probabilité (de), 26, 33, 34, 36
Fonction Médiane, 18, 19
densité (de), 26, 34 robuste, 19
densité empirique, 15 Mesure
distribution (de), 26 asymétrie (d’), 17, 22
cumulée, 34 curtosie (de), 17, 22
kernel, 14 dispersion (de), 17, 19
kernel uniforme, 14 échelle (d’), 17
probabilité (de), 34 localisation (de), 17
quantile tendance centrale (de), 17
distribution normale, 26 Modalité, 8, 10
quantile empirique, 18 Mode, 17, 19
répartition (de), 34 Moment empirique, 22
Fréquence, 10 centré d’ordre k, 22
absolue, 10 ordre k (d’), 22
relative, 10 Moyenne, 19
relative cumulée, 11 observations groupées, 17
Graphe pondérée, 17
probabilités normales (des), 28 simple, 17
Graphique par secteur, 11 Multiplication
principe, 31
Histogramme, 13
algorithme, 13 Niveau
fonction, 13 confiance (de), 39
Hypothèse signification (de), 38
alternative, 37 Observation, 8
nulle, 37
statistique, 37 Pondération
test, 37 poids, 17
travail (de), 37 Population, 7
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)
SA 2018 45
taille, 7 T-test, 39
Probabilité
a posteriori, 33 Unité, 7
a priori, 33 Univers, 29
arbre, 32 Valeur
conditionnelle, 32 aberrante, 19, 21
Définition axiomatique, 31 adjacente
Définition en termes de fréquences, 31 inférieure, 21
Définition informelle, 30 supérieure, 21
fonction (de), 34 Variable, 8
loi (de), 33 aléatoire, 33
normale, 28 continue, 34
Théorie (des), 29 discrète, 34
totale, 33 binaire, 8
P-value, 38 catégorielle, 8, 10
q-q plot, 28 continue, 8
α-quantile, 18 dichotomique, 8
Quartile, 18 discrète, 8
inférieur, 18 étude (d’), 8
supérieur, 18 intérêt (d’), 8
Quintile, 18 muette, 8
nominale, 8
Seuil ordinale, 8
signification (de), 38 polytomique, 8
Statistique, 7 qualitative, 8
bayésienne, 33 quantitative, 8, 12
inférence, 37 statistique, 8
ordre (d’), 18 Variance, 20, 36
test, 29, 37 empirique, 20
test (de), 37 estimateur sans biais, 20
unité, 7 observations groupées, 20
Statistique d’ordre, 27 Vraisemblance, 33
Stochastique, 29
Zone
Table de contingence, 11 critique (de), 37
Tableau croisé, 11 rejet (de), 37
Tableau statistique, 11 z-score, 21
Taille, 7
Test, 29
espérance mathématique (de l’), 39
hypothèse statistique (d’une), 37
hypothèses (d’), 37
statistique, 37
c L. Donzé, Département d’informatique, Université de Fribourg (Suisse)