Академический Документы
Профессиональный Документы
Культура Документы
Carlos Camacho
Universidad de Sevilla
1
ANLISIS DE LA VARIANZA
1.- Introduccin
Podemos considerar el anlisis de la varianza (ANOVA) como una generalizacin del contraste de
medias. En el contraste de medias comparbamos 2 medias, ahora podemos comparar 2 o ms. En este
sentido incluye el contraste de medias, que tambin puede realizarse mediante el anlisis de la varianza,
aunque por su simplicidad y facilidad de clculo se aconseja el contraste de medias para cuando
comparamos 2 medias.
Supongamos que en lugar de comparar nios con nias en matemticas, que es lo que haramos en el
contraste de medias, quisiramos comparar raza (blancos, negros e hispanos) en la mencionada prueba de
matemticas. Aqu ya tendramos 3 medias, y aunque nada impedira realizar 3 contrastes de medias por
separado (blanco con negros, blanco con hispanos y negros con hispanos), est claro que este
procedimiento puede resultar laborioso, especialmente si hay una cierta cantidad de medias, como 4 o 5.
En este sentido, el ANOVA presenta la ventaja que en un nico anlisis ya podemos determinar si las
medias son iguales o no. Saber cules no lo son en caso de que no lo sea, ya es otra cosa, como veremos.
El contraste se denomina anlisis de la varianza (y no contraste o anlisis de medias, por ejemplo)
porque analizando la varianza de las medias ya podemos saber si ests son iguales o no. Si la varianza de
las medias observadas es mayor que la esperada por azar desde la perspectiva de la hiptesis nula (todas
las medias proceden de poblaciones iguales) supondremos que son diferentes. Lo explicamos.
1 = 2 = 3 . =
Obsrvese que la Hiptesis alternativa indica que no todas las medias son iguales, que no equivale a
decir que todas son distintas. Basta que una sea diferente y el resto iguales para que ya no se cumpla la
Hiptesis nula.
En trminos matemticos se trata de comparar la varianza observada de las medias con la varianza que
debera haber si todas las medias procediesen de poblaciones con igual media.
Con respecto a la varianza observada de las medias tenemos que:
2
Siendo:
= ( )2 1
1
Y respecto a la varianza de las medias procedentes de poblaciones con igual media, se sabe que la
distribucin muestral de medias de tamao n extradas de una cierta poblacin con media y
varianza 2 tiene por valor:
2 = 2
Tenemos pues, dos varianzas: la varianza de las medias observadas y la varianza que tendran las medias
si stas procediesen de poblaciones con igual media (que es equivalente a decir que de una misma
poblacin).
La prueba estadstica que nos permite comparar varianzas es la F de Snedecor (tambin FisherSnedecor). Se trata de calcular el cociente entre dos varianzas dadas y determinar si ambas varianzas
proceden de poblaciones con igual varianza. Para ello se calcula la distribucin muestral de cocientes de
varianzas procedentes de poblaciones con igual varianza, y se comprueba si el cociente entre las dos
varianzas objeto de nuestro estudio se encuentra dentro de esta distribucin muestral.
F de Snedecor
Como se sabe hay dos procedimientos, uno prehistrico, reflejado en la figura anterior, consistente en
marcar una ciertas fronteras y decidir aceptar o rechazar la Ho si el cociente est dentro o fuera de estas
fronteras y el segundo, ms realista, consistente en calcular la probabilidad exacta de pertenencia de tal
cociente. Mientras que en primero podramos concluir con el impreciso discurso de con un riesgo
mximo de equivocarnos del 0.05 (o 0.01), (y que puede ser en realidad 0.0499 o bien 0.000001), en el
segundo especificaramos con toda precisin la probabilidad de equivocarnos en tal decisin.
Calculemos, pues, el cociente entre estas dos varianzas:
2
2
= 2 = 2
En cuanto al numerador, ya hemos indicado la expresin de la varianza de las medias, que no es ms que
la varianza normal y corriente, pero en lugar de aplicarse a puntuaciones individuales se aplican a
medias. Y en cuanto al denominador hay que decir que la varianza poblacional es desconocida si slo
trabajamos con muestras. Lo que hacemos (desde la Ho: todas las muestras proceden de poblaciones
iguales) es estimar la varianza poblacional a partir de las varianzas muestrales. Si tenemos varias
muestras, lo razonable es la media de esas varianzas. Por tanto:
2 = 2
=1
Haciendo operaciones:
2
=1
2
2
2
= 1 = ( 1) =
=1 =1
=1 =1
=1 =1
Por tanto:
=
2
2
=1( )2 1
=
=
2
2
2
=1 =1
Cuyo numerador expresa la varianza entre las medias de los grupos multiplicado por el nmero de
individuos por grupo. El resultado ser la varianza de los distintos individuos entre las medias de los
grupos. Si elegimos la media de cada grupo como su valor representativo, entonces dicho numerador
refleja la varianza de los individuos entre los grupos. Se denomina, por ello, varianza intergrupo.
Tambin se suele denominar, varianza debida a los tratamientos, si los grupos son el resultado de aplicar
diferentes tratamientos. Por otro lado, si nos encontramos en un contexto experimental, la
denominaremos varianza experimental. O bien, si estamos hablando, en un sentido ms amplio, de un
cierto modelo a contrastar, varianza explicada por el modelo.
4
En denominador indica cmo varan los datos, por trmino medio, dentro de los distintos grupos. Por
esta razn se conoce como varianza intragrupo. Si suponemos que los sujetos de un grupo han sido
sometidos todos ellos al mismo tratamiento, la variabilidad entre ellos ser debida a aquellas variables
que no hemos podido controlar en nuestra investigacin; por lo que tambin se suele llamar
(especialmente en contexto experimental), varianza del error. Desde el punto de vista del modelo que
estamos ensayando, varianza no explicada. Tambin tiene denominaciones tales como varianza debida
al azar, varianza aleatoria o varianza residual, todos ellas correspondientes al mismo concepto
En base a lo expuesto pueden ofrecerse diferentes perspectivas en el anlisis de la varianza. Si
entendemos el cociente F como el cociente entre la varianza intergrupo y la varianza intragrupo, nos
planteamos entonces, si los sujetos varan ms entre grupo y grupo que dentro de los grupos. Si sucediera
que los individuos variaran ms de grupo a grupo que dentro de los mismos grupos, ser indicativo que
los grupos son distintos entre s, lo que traducido en trminos estadsticos reflejara que dichos grupos
proceden de diferentes poblaciones.
Si nos planteamos el cociente entre la varianza experimental (o debida a los tratamientos) y la varianza
debida al error, concluiremos, de ser este cociente significativo, que los tratamientos son efectivos, que
la experimentacin ha mostrado diferencias significativas, que dominan sobre el componente de error (lo
que se encuentra fuera de control experimental).
Por ltimo, si estamos hablando de un cierto modelo (psicolgico, social, biolgico etc.) y el cociente
F es significativo concluiremos que la parte que explica nuestro modelo es mayor que aquella parte que
la parte queda sin explicar, y que por tanto, nuestro modelo es vlido
Denominaremos al numerador de la varianza intergrupo, suma de cuadrados intergrupo. Expresa el
cuadrado de las desviaciones de los individuos, en cuanto grupo, de la media total. Esto es:
. . = ( )2
=1
. . =
=1 =1
Ejemplo1.- Supongamos que tenemos tres grupos de estudiantes de matemticas a los que hemos
aplicado tres mtodos de enseanza distintos: A, B y C. Tenemos los siguientes resultados:
A
B
C
_____________
6
5
7
7
6
6
6
5
6
5
5
7
4
4
8
5
5
8
7
5
7
5
6
6
_____________
Podemos considerar que existen diferencias entre los distintos mtodos de enseanza?
SOL:
Apliquemos (1):
=
Calculemos en primer lugar las medias:
=
=
=
=1( )2 1
2
=1 =1
6 + 7 + 6 + 5 + 4 + 5 + 7 + 5 45
=
=
= 5.625
8
8
5 + 6 + 5 + 5 + 4 + 5 + 5 + 6 41
=
=
= 5.125
8
8
7 + 6 + 6 + 7 + 8 + 8 + 7 + 6 55
=
=
= 6.875
8
8
3
3
2 =
2 =
2 =
2 =
=1( )2 1
2
=1 =1
8 1.625/2
13/2
6.5
=
=
= 8.737
(7.875 + 2.877 + 4.872)/21 15.624/21 0.744
Hemos desglosados detalladamente las operaciones para ver ms claramente los elementos implicados y
tambin para una mayor comprensin de tabla de resultados que ms tarde obtendremos con el SPSS. De
Acuerdo con esto, de la anterior expresin tenemos lo siguiente:
= 13
= 2
= 15.624
= 21
= 6.5
= 0.744
() = 8.737
Para comprobar la efectividad de los mtodos de enseanza, tenemos los dos procedimientos
mencionado anteriormente. El primero consiste en comparar el valor F obtenido con la frontera que
hemos indicado, que marca el lmite de aceptacin/rechazo de la Ho. Este lmite depende del valor de F
7
obtenido y de los grados de libertad de la varianza intergrupo e intragrupo. En este caso, el valor F es
8.737 y los grados de libertad intergrupo, 2 y la intragrupo, 21. Hemos de comparar, pues con
(8.737,2,21). Buscamos en las tablas de F de Snedecor:
Observamos que su valor es 3.47. Por tanto, 8.737 > 3.47. En consecuencia, rechazamos la Ho con un
riesgo de equivocarnos (mximo) de 0.05. Como hemos dicho este procedimiento slo indica el riesgo
mximo posible, pero no el real. Si hemos de ser ms precisos, ya que no tenemos el SPSS para que nos
lo haga, recurriremos a tablas estadsticas on line:
La probabilidad que de dos poblaciones con igual varianza extraigamos por azar una varianza que sea
8.737 veces mayor que la otra (o ms) es 0.0017. Como es mucha casualidad que justamente esta vez sea
ese caso, concluimos que esas dos varianzas no proceden de dos poblaciones con igual varianza, pero
para no pillarnos los dedos, porque podra ocurrir, ponemos la coletilla de con un riesgo de
equivocarnos de 0.0017, que son las veces que podra ocurrir por azar. Aqu ya andamos con ms
precisin, no decimos que como mximo es 0.05, sino que concretamos bastante ms.
8
Y a continuacin:
Los resultados:
Obsrvese que los resultados son equivalentes a los que ya vimos anteriormente, y que volvemos a
mostrar:
=1( )2 1
2
=1 =1
8 1.625/2
13/2
6.5
=
=
= 8.737
(7.875 + 2.877 + 4.872)/21 15.624/21 0.744
10
La salida anterior es la ms simple que nos proporciona el SPSS, pero tenemos opciones para mejorarla.
La primera hace referencia a los supuestos del modelo, que son exactamente los mismos que los del
contraste de medias, esto es, normalidad de los grupos en las poblaciones orgenes e igualdad de
varianzas en esasmismas poblaciones. La primera no es muy restrictiva y podemos obviarla con muestras
grandes, y con muestras chicas tampoco hay que preocuparse mucho por cuanto el error no suele ir ms
all de 0.06 o 0.07 que no se puede decir que sea tan distinto del 0.05 de la probabiliad que establece la
Ho en el supuesto de normalidad. De hecho en el ANOVA de SPSS no se contempla el supuesto de
normalidad. Habitualmente los recursos son grficos, lo que ya indica que el ojmetro es practicamente
suficiente como medida de normalidad. No obstante uno puede irse a Descriptivos/Exploratorio donde
podr aplicar la pruebas ms rigurosas de Kolmogov y Shapiro. En el caso de no cumplirse el supuesto
de normalidad para el ANOVA se aplica la prueba no paramtrica de Kruskal Wallis.
La exigencia de igualdad de varianzas es algo ms restrictiva, aunque tampoco demasiado, en el sentido
de que las pruebas paramtricas son bastantes robustas en la violacin de sus supuestos. No obstante,
dada su mayor importancia ya se contempla en el SPSS. En caso de no existir igualdad de varianzas se
aplica la prueba de Welch. Y la prueba para comprobar la igualdad de varianzas es, como se sabe, la
prueba de Levene.
En este sentido podemos mejorar nuestro anlisis de la siguiente manera:
Marcamos Opciones:
11
Se ofrecen los descriptivos habituales, como la media y la desviacin tipo (o estndar). Los errores tipo
(o estndar) son precisamente las desviaciones tipo de las distintas distribuciones de medias, que tienen
espcial inters en los contrastes. Los intervalos de confianza nos dicen que por ejemplo, en el mtodo A
el 95% de las medias oscilan entre 4.73827 y 6.51173 puntos. Esto ya es de por s un indicador (con
ciertas precauciones) para comprobar si las medias observadas proceden o no de poblaciones iguales.
As, si comparamos el mtodo A con el B vemos que sus intervalos de confianza se solapan bastante, lo
que nos indica que hay posibles poblaciones comunes de donde podra proceder, por tanto no podramos
concluir que el mtodo A y el B sean diferentes. Por el contrario, si comparamos el mtodo B con el C,
vemos que no hay solpamiento en sus intervalos de confianza, lo que nos indicarn que no habr
poblaciones comunes de donde puedan proceder y enconsecuencia concluyamos que sus poblaciones
orgenes son diferentes, o sea, que los mtodos B y C difieren.
12
El grfico nos sugiere que el mtodo C es ms efectivo, pero hay que verlo analticamente.
13
= 1 1 0.05 = 0.0085
Esto es, en el caso de los 6 ensayos hemos de partir de una valor de = 0.0085 para que al final nos
equivoquemos en el valor de = 0.05. Este procedimiento se denomina correccin de Bonferroni.
Como este clculo puede resultar laborioso, tenemos una frmula alternativa no tan precisa pero bastante
aceptable:
=
14
Donde
: valor de por contrate (Per Comparation)
: valor de para el total (FamilyWise)
C: nmero de comparaciones
As en nuestro caso:
=
0.05
=
= 0.0083
En este sentido, el SPSS ofrece toda un conjunto de contrastes. El ms sencillo se denomina DMS
(Diferencia Mnima Significativa). Est basada en la t de Student y no efecta ninguna correccin (hay
que decir que no todos los investigadores estn de acuerdo con estas correcciones). El procedimiento a
seguir es:
15
16
Los resultados:
Obsrvese que es coincidente con el procedimiento DMS de Tukey, pero las probabilidades hay que
multiplicarlas por 3 (tantas como contrastes realizados). Obsrvese, por ejemplo, que 0.778 = 3*0.259.
Al efectuar 3 contrastes pasamos de una probabilidad de equivocarnos de 0.259 con Tukey a 0.778 con
Bonferroni.
Hay que decir que hay bastantes autores inventando contrastes post hoc, cada uno arreglando lo que no
arregla el otro, pero para no perdernos, mencionemos uno de especial inters que es el de Sheff, que
tambin efecta correcciones sobre (tambin llamado error tipo 1):
17
Similar a Bonferroni.
nos interesa estudiar presenta una cierta variabilidad en sus datos de inters, y que de esa variabilidad
(variabilidad total) conseguimos explicar una parte (variabilidad explicada), que queremos sea lo mayor
posible, pero lamentablemente nos queda un resto sin explicar (variabilidad no explicada). De esta
forma:
= +
Por ejemplo en relacin a los datos con los que estamos trabajando:
Tenemos en el primer grfico las puntuaciones de los sujetos en los diferentes mtodos de enseanza, y
en el segundo grficos, la puntuacin media en tales mtodos.
Tomemos el mtodo C. Vamos a seleccionar el primer sujeto, que ha obtenido 7 puntos y vamos a
descomponer su distancia respecto a la media total y luego explicaremos que significa cada una de estas
distancias. Tenemos que:
(7 5.875) = (7 6.875) + (6.875 5.875)
Los nombres de estas distancias son los siguientes:
= +
La idea es la siguiente. Imaginemos que aplicamos los tres tratamientos a estos 24 sujetos y a una
persona ajena, que no sabe nada de la investigacin (slo el conjunto de datos, pero sin saber qu
puntuacin corresponde a quin), se le pregunta cul ser la puntuacin del primer sujeto del grupo C. Si
no sabe nada, lo ms razonable es dar la media del conjunto de datos, esto es, 5.875. En ausencia de
informacin de los mtodos de enseanza, esta persona se ha equivocado:
(7 5.875) = 1.125
Ahora le comunicamos que el sujeto en cuestin (sigue sin saber quin es) pertenece al grupo C y que la
gente de ese grupo han sido sometidos s un mtodo de enseanza, cuya media es 6.875. Igual que antes,
lo ms razonable es dar le media del grupo de pertenencia, por tanto dicha persona afirmar que lo ms
probable es esa media. En este caso, con la informacin de los mtodos de enseanza, el error ha sido:
19
(7 6.875) = 0.125
Cuando no saba nada de los mtodos de enseanza dijo 5.875 y cuando conoci el proyecto de
investigacin ya dijo 6.875. Est claro que la informacin de los mtodos de enseanza ha permitido
mejorar su pronstico en:
(6.875 5.875) = 1
Podemos decir entonces que la desviacin total es el error en ausencia de informacin, la desviacin
explicada es la ganancia que hemos tenido gracias a la aplicacin de los mtodos de enseanza, y la
desviacin no explicada es la que no logramos todava explicar con tales mtodos. As pues:
(7 5.875) = (7 6.875) + (6.875 5.875)
Como hemos dicho antes:
1.125
0.125 +
= +
( ) = +
Esto es:
2
2
2
= +
= +
= +
A partir de esta igualdad podemos obtener un estadstico de extraordinaria importancia, que nos ayudar
a entender en trminos sencillos la capacidad explicativa del modelo del anlisis de la varianza. Este
estadstico, denominado 2 hace referencia a la proporcin de variabilidad (o variacin) explicada.
Esto es:
2
. .
=
=
2
. .
20
En el caso del ANOVA, la suma de cuadrados explicada es precisamente la intergrupo o la debida a los
tratamientos, mientras que la no explicada equivale a la intragrupo (dentro de los grupos). As pues,
retomando la tabla del ANOVA:
Tenemos que:
2
13
= 0.4541
28.625
Podemos afirmar que los mtodos de enseanza explican un 45.41% de la variabilidad obtenida en
matemticas. Y la proporcin no explicada ser 1 0.4541 = 0.5459, esto es, el 54.59%.
7.- Tamao de efecto
Apliquemos la siguiente expresin:
=
2
0.4541
=
= 0.9121
2
1
1 0.4541
21
22