Вы находитесь на странице: 1из 4

ANOVA

A partir d’un échantillon de n individus, on regroupe la population en des groupes clairement


identifiables grâce aux modalités des variables qualitatives. Ces variables sont appelées
facteurs. En effet, quand on parle de facteur c’est qu’il y a un phénomène à expliquer. Et quand
on parle de variance c’est qu’on veut en déceler la précision de cette explication. L’ANOVA
(analysis of variance) répond bien à cette problématique et suppose donc une certaine intuition
que l’on souhaite vérifiée. On confirme ou non cette intuition par des tests statistiques après
avoir formaliser le modèle. S’il y a une différence significative en moyenne entre les groupes,
cette différence sera imputée, toute chose étant égale par ailleurs, à la variable qui a servi à
catégoriser les individus statistiques.

1. Les conditions d’application


a) L’homoscédasticité
L’homoscédasticité désigne le caractère d’une liaison entre deux variables lorsque la variance
de Y est la même pour toutes les valeurs de X et réciproquement. Cette condition doit être
remplie pour que toutes les prévisions faites sur Y à partir de X (ou sur X à partir de Y) aient le
même degré de précision. Il existe plusieurs tests possibles en fonction des situations
expérimentales rencontrées : (Test de levene, test de Breuch-Pagan, test de Goldfled et Quandt
,est de Bartlett,test de Brown- Frosythe).

b) La condition de normalité :
On doit s’assurer que les variables sont distribués selon la loi normale. Si cela est le cas, les
tests d’hypothèse classiques sont applicables, si la condition de normalité est violée, il faudra
trouver une alternative dite non paramétrique au test d’hypothèse à réaliser.
2- Décomposition de la variance :

Certaines méthodes statistiques et notamment l’analyse de la variance permettent de


décomposer la variance ou la variabilité totale d’un ensemble de résultats en deux ou
plusieurs sources de variation. On peut décomposer la variabilité totale en deux parties.
Nous avons d’abord la part de la variance due à l’effet d’une variable dont on souhaite étudier
l’influence. On parle à cet égard de variable systématique ou explicative. Toutefois, la
variance totale comprend une 2ème composante qui n’est pas expliquée par la variance
considérée. Cette composante ne peut jamais être complétement éliminée puisqu’elle résulte
simplement le fait que les individus sont tous différents les uns des autres, quel que soit
l’homogénéité des groupes auquel ils appartiennent. Elle est souvent qualifiée de variance
résiduelle, inexpliquée, aléatoire ou d’erreur.

3- ANOVA : Le test et le modèle statistique :


a) Interprétation statistique :
Le tableau d’ANOVA nous donne le rapport entre la variance factorielle et la variance
résiduelle. Ce rapport suit une distribution de Fisher, tous les logiciels retournent une
significativité associée au test, lorsque celle-ci est inférieur au seuil de significativité fixé par
le chercheur, l’hypothèse de l’absence d’effet de facteur est rejetée.

b) Interprétation pratique :

Si le test de Fisher amène à conclure à l'existence d'un effet significatif du facteur, deux
questions peuvent être posées pour parfaire l'interprétation de l'analyse et lui donner une
portée pratique. La première est celle de la signification pratique : le test indique un effet du
facteur, mais quelle est l'importance des facteurs manipulés dans les variations de la variable à
expliquer ?

Par le coefficient de détermination : La part de variance, expliquée par le modèle de


régression.

La seconde question est celle des effets spécifiques des différentes modalités du facteur
Tests de comparaisons multiples :
Lorsqu’on a déterminé qu’il existe des différences parmi les moyennes, les tests d’intervalle
post hoc et de comparaisons multiples par paires déterminent les moyennes qui diffèrent. Ces
tests servent à connaître, parmi plusieurs niveaux de modalités, ceux qui sont
significativement différents des autres. Ils sont utilisés après que l’analyse de variance a été
effectuée, si un facteur est significatif, et ils ne concernent que les facteurs ayant plus de deux
niveaux. Les tests post hoc les plus courants sont ceux de Duncan, de Tukey, de Scheffé et de
Bonferroni.
4-Analyse de la variance à plusieurs facteurs :
L’ANOVA à plusieurs facteurs consiste à tester l’hypothèse d’égalité des moyennes d’une
variable quantitative selon plusieurs variables qualitatives. Par exemple, on pourra tester les
variations de salaire selon le diplôme et le sexe de l’employé. Le test de significativité est un
test F. Il s’appuie sur la décomposition de la variance qui comprend : les effets principaux, les
effets d’interaction et un terme résiduel.
MANOVA
L’analyse de la variance multi variée est une extension de l’ANOVA dans laquelle les effets
de facteurs sont évalués sur une combinaison de plusieurs variables réponses. Avec une
MANOVA on est donc capable de tester conjointement toutes les hypothèses que testent une
ANOVA et on a plus de chances d’observer les différences entre les niveaux de facteurs.
1- Les conditions d’application :
a) La condition d’homoscédasticité

La condition d’homoscédasticité des matrices de variance-covariance des variables


explicatives selon les modalités de la variable à expliquer doit être remplie. Elle peut être
vérifiée grâce au test M de box qui permet de vérifier l’égalité de covariance entre les
groupes. Par conséquent la significativité de ce test est déterminée à alpha= 0.001.
b) La condition de normalité multivariée

L’examen des indices d’aplatissement et d’asymétrie univariés ne semble plus être suffisant
pour préjuger de la distribution multivariée. Le recours à des tests de normalité multivariée
tels que le coefficient de Mardia et le test de Van der Waerden s’avère actuellement
nécessaire et très pratique.
c) La condition de linéarité et la multicolinéarité

Les variables explicatives doivent entretenir des relations linéaires et ne pas présenter une trop
forte multicolinéarité.
Pour la multicolinéarité : On peut la détecter par une matrice de corrélation (vérifier dans la
matrice de corrélation qu'aucune paire de variable n'est corrélée au-delà de 0,7).
2- Modèle de MANOVA (interprétation statistique) :

La décomposition de la variance se fait au plan matriciel selon un principe analogue à celui de


l'ANOVA. Plusieurs tests permettent de conclure à l'existence de différences entre les
vecteurs de moyennes des groupes :
• La trace de Pillai
• Le lambda de Wilks
• La trace d’Hotelling
• La plus grande racine de Roy

Test d’existence d’un effet du facteur


H0 : le facteur n’a pas d’effet
On rejette H0 si les variances et covariances inter sont suffisamment grandes par rapport aux
variances et covariances résiduelles.
3- Interprétation pratique :

De façon similaire à l'ANOVA, plusieurs tests permettent de comparer les groupes deux à
deux afin de repérer précisément les différences entre groupes, le cas échéant : Scheffé, HSD
(honestly significant difference) de Tuckey, etc.
En ce qui concerne l'importance de l'effet, ou le pourcentage de variance expliquée, elle peut
être estimée par le calcul de Tf ajusté (êta carré ajusté) :
Tf ajusté = 1-[1-(1-A)] [(N-1) / (N-min (Ki-1)-1)
où A est le lambda de Wilks, m est le nombre de facteurs, k {est le nombre de modalités du
facteur i et Nie nombre d'observations. Variant entre 0 et 1, il s'interprète comme (R2
précédemment vu dans le cadre de l'analyse de variance.)

Вам также может понравиться