Вы находитесь на странице: 1из 22

ANLISIS DE LA VARIANZA

1.- Introduccin ....................................................................................................................2


2.- Hiptesis y anlisis estadstico .......................................................................................2
3.- Aplicacin prctica. Clculo manual ..............................................................................6
4. -Aplicacin prctica. SPSS ..............................................................................................9
5.- Comparaciones a posteriori ..........................................................................................14
6. - Componentes de variacin...........................................................................................18
7. -Tamao de efecto..........................................................................................................21

Carlos Camacho
Universidad de Sevilla
1

ANLISIS DE LA VARIANZA

1.- Introduccin
Podemos considerar el anlisis de la varianza (ANOVA) como una generalizacin del contraste de
medias. En el contraste de medias comparbamos 2 medias, ahora podemos comparar 2 o ms. En este
sentido incluye el contraste de medias, que tambin puede realizarse mediante el anlisis de la varianza,
aunque por su simplicidad y facilidad de clculo se aconseja el contraste de medias para cuando
comparamos 2 medias.
Supongamos que en lugar de comparar nios con nias en matemticas, que es lo que haramos en el
contraste de medias, quisiramos comparar raza (blancos, negros e hispanos) en la mencionada prueba de
matemticas. Aqu ya tendramos 3 medias, y aunque nada impedira realizar 3 contrastes de medias por
separado (blanco con negros, blanco con hispanos y negros con hispanos), est claro que este
procedimiento puede resultar laborioso, especialmente si hay una cierta cantidad de medias, como 4 o 5.
En este sentido, el ANOVA presenta la ventaja que en un nico anlisis ya podemos determinar si las
medias son iguales o no. Saber cules no lo son en caso de que no lo sea, ya es otra cosa, como veremos.
El contraste se denomina anlisis de la varianza (y no contraste o anlisis de medias, por ejemplo)
porque analizando la varianza de las medias ya podemos saber si ests son iguales o no. Si la varianza de
las medias observadas es mayor que la esperada por azar desde la perspectiva de la hiptesis nula (todas
las medias proceden de poblaciones iguales) supondremos que son diferentes. Lo explicamos.

2.- Hiptesis y anlisis estadstico


Supongamos que tenemos k medias observadas en k muestras. Nos preguntamos si tales medias son
iguales, o su equivalente en trminos estadsticos, si proceden de poblaciones con igual media. Como en
toda prueba de decisin estadstica, tenemos 2 posibles hiptesis:
Hiptesis nula (H0):
Las k medias proceden de k poblaciones caracterizadas por la misma media

Hiptesis alternativa (H1):

1 = 2 = 3 . =

Las k medias proceden de k poblaciones no todas caracterizadas por la misma media


1 2 3 .
2

Obsrvese que la Hiptesis alternativa indica que no todas las medias son iguales, que no equivale a
decir que todas son distintas. Basta que una sea diferente y el resto iguales para que ya no se cumpla la
Hiptesis nula.
En trminos matemticos se trata de comparar la varianza observada de las medias con la varianza que
debera haber si todas las medias procediesen de poblaciones con igual media.
Con respecto a la varianza observada de las medias tenemos que:

2
Siendo:

= ( )2 1
1

: La media del grupo


: La media total

Y respecto a la varianza de las medias procedentes de poblaciones con igual media, se sabe que la
distribucin muestral de medias de tamao n extradas de una cierta poblacin con media y
varianza 2 tiene por valor:
2 = 2

Tenemos pues, dos varianzas: la varianza de las medias observadas y la varianza que tendran las medias
si stas procediesen de poblaciones con igual media (que es equivalente a decir que de una misma
poblacin).
La prueba estadstica que nos permite comparar varianzas es la F de Snedecor (tambin FisherSnedecor). Se trata de calcular el cociente entre dos varianzas dadas y determinar si ambas varianzas
proceden de poblaciones con igual varianza. Para ello se calcula la distribucin muestral de cocientes de
varianzas procedentes de poblaciones con igual varianza, y se comprueba si el cociente entre las dos
varianzas objeto de nuestro estudio se encuentra dentro de esta distribucin muestral.

F de Snedecor

Como se sabe hay dos procedimientos, uno prehistrico, reflejado en la figura anterior, consistente en
marcar una ciertas fronteras y decidir aceptar o rechazar la Ho si el cociente est dentro o fuera de estas
fronteras y el segundo, ms realista, consistente en calcular la probabilidad exacta de pertenencia de tal
cociente. Mientras que en primero podramos concluir con el impreciso discurso de con un riesgo
mximo de equivocarnos del 0.05 (o 0.01), (y que puede ser en realidad 0.0499 o bien 0.000001), en el
segundo especificaramos con toda precisin la probabilidad de equivocarnos en tal decisin.
Calculemos, pues, el cociente entre estas dos varianzas:

2
2
= 2 = 2

En cuanto al numerador, ya hemos indicado la expresin de la varianza de las medias, que no es ms que
la varianza normal y corriente, pero en lugar de aplicarse a puntuaciones individuales se aplican a
medias. Y en cuanto al denominador hay que decir que la varianza poblacional es desconocida si slo
trabajamos con muestras. Lo que hacemos (desde la Ho: todas las muestras proceden de poblaciones
iguales) es estimar la varianza poblacional a partir de las varianzas muestrales. Si tenemos varias
muestras, lo razonable es la media de esas varianzas. Por tanto:

2 = 2
=1

Haciendo operaciones:

2
=1

2
2
2
= 1 = ( 1) =
=1 =1

=1 =1

=1 =1

Por tanto:
=

2
2
=1( )2 1
=
=
2
2
2

=1 =1

Cuyo numerador expresa la varianza entre las medias de los grupos multiplicado por el nmero de
individuos por grupo. El resultado ser la varianza de los distintos individuos entre las medias de los
grupos. Si elegimos la media de cada grupo como su valor representativo, entonces dicho numerador
refleja la varianza de los individuos entre los grupos. Se denomina, por ello, varianza intergrupo.
Tambin se suele denominar, varianza debida a los tratamientos, si los grupos son el resultado de aplicar
diferentes tratamientos. Por otro lado, si nos encontramos en un contexto experimental, la
denominaremos varianza experimental. O bien, si estamos hablando, en un sentido ms amplio, de un
cierto modelo a contrastar, varianza explicada por el modelo.
4

En denominador indica cmo varan los datos, por trmino medio, dentro de los distintos grupos. Por
esta razn se conoce como varianza intragrupo. Si suponemos que los sujetos de un grupo han sido
sometidos todos ellos al mismo tratamiento, la variabilidad entre ellos ser debida a aquellas variables
que no hemos podido controlar en nuestra investigacin; por lo que tambin se suele llamar
(especialmente en contexto experimental), varianza del error. Desde el punto de vista del modelo que
estamos ensayando, varianza no explicada. Tambin tiene denominaciones tales como varianza debida
al azar, varianza aleatoria o varianza residual, todos ellas correspondientes al mismo concepto
En base a lo expuesto pueden ofrecerse diferentes perspectivas en el anlisis de la varianza. Si
entendemos el cociente F como el cociente entre la varianza intergrupo y la varianza intragrupo, nos
planteamos entonces, si los sujetos varan ms entre grupo y grupo que dentro de los grupos. Si sucediera
que los individuos variaran ms de grupo a grupo que dentro de los mismos grupos, ser indicativo que
los grupos son distintos entre s, lo que traducido en trminos estadsticos reflejara que dichos grupos
proceden de diferentes poblaciones.
Si nos planteamos el cociente entre la varianza experimental (o debida a los tratamientos) y la varianza
debida al error, concluiremos, de ser este cociente significativo, que los tratamientos son efectivos, que
la experimentacin ha mostrado diferencias significativas, que dominan sobre el componente de error (lo
que se encuentra fuera de control experimental).
Por ltimo, si estamos hablando de un cierto modelo (psicolgico, social, biolgico etc.) y el cociente
F es significativo concluiremos que la parte que explica nuestro modelo es mayor que aquella parte que
la parte queda sin explicar, y que por tanto, nuestro modelo es vlido
Denominaremos al numerador de la varianza intergrupo, suma de cuadrados intergrupo. Expresa el
cuadrado de las desviaciones de los individuos, en cuanto grupo, de la media total. Esto es:

. . = ( )2
=1

Su denominador hace referencia a los grados de libertad intergrupo:


. . = 1

Igualmente, el numerador de la varianza intragrupo expresa el cuadrado de las desviaciones de los


individuos respecto a la media de su grupo. Se denomina suma de cuadrados intragrupo:


. . =
=1 =1

y el denominador de la varianza intragrupo corresponder a los grados de libertad intragrupo:


. . =
5

3.- Aplicacin prctica. Clculo manual


En este apartado para una mayor comprensin del planteamiento realizado procederemos a resolver un
problema de anlisis de la varianza mediante clculo a mano. En el siguiente aparatado lo haremos
mediante SPSS y mostraremos las equivalencias.

Ejemplo1.- Supongamos que tenemos tres grupos de estudiantes de matemticas a los que hemos
aplicado tres mtodos de enseanza distintos: A, B y C. Tenemos los siguientes resultados:
A
B
C
_____________
6
5
7
7
6
6
6
5
6
5
5
7
4
4
8
5
5
8
7
5
7
5
6
6
_____________
Podemos considerar que existen diferencias entre los distintos mtodos de enseanza?

SOL:
Apliquemos (1):
=
Calculemos en primer lugar las medias:
=
=
=

=1( )2 1
2


=1 =1

6 + 7 + 6 + 5 + 4 + 5 + 7 + 5 45
=
=
= 5.625

8
8

5 + 6 + 5 + 5 + 4 + 5 + 5 + 6 41
=
=
= 5.125

8
8

7 + 6 + 6 + 7 + 8 + 8 + 7 + 6 55
=
=
= 6.875

8
8

La media total ser:

5.625 + 5.125 + 6.875 17.625


=
=
= 5.875

3
3

Y la varianza de las medias:

2 =

=1( )2 (5.625 5.875)2 + (5.125 5.875)2 + (6.875 5.875)2 1.625


=
=
= 0.8125
1
2
2

Y en relacin a las varianzas de los grupos:

2 =
2 =
2 =

=1( )2 (6 5.625)2 + (7 5.625)2 + (6 5.625)2 + + (5 5.625)2 7.875


=
=
= 1.125
1
7
7
=1( )2 (5 5.125)2 + (6 5.125)2 + (5 5.125)2 + + (6 5.125)2 2.877
=
=
= 0.411
1
7
7
=1( )2 (7 6.875)2 + (6 6.875)2 + (6 6.875)2 + + (6 6.875)2 4.872
=
=
= 0.696
1
7
7

=1( )2 1
2


=1 =1

8 1.625/2
13/2
6.5
=
=
= 8.737
(7.875 + 2.877 + 4.872)/21 15.624/21 0.744

Hemos desglosados detalladamente las operaciones para ver ms claramente los elementos implicados y
tambin para una mayor comprensin de tabla de resultados que ms tarde obtendremos con el SPSS. De
Acuerdo con esto, de la anterior expresin tenemos lo siguiente:
= 13
= 2
= 15.624
= 21
= 6.5
= 0.744
() = 8.737

Para comprobar la efectividad de los mtodos de enseanza, tenemos los dos procedimientos
mencionado anteriormente. El primero consiste en comparar el valor F obtenido con la frontera que
hemos indicado, que marca el lmite de aceptacin/rechazo de la Ho. Este lmite depende del valor de F
7

obtenido y de los grados de libertad de la varianza intergrupo e intragrupo. En este caso, el valor F es
8.737 y los grados de libertad intergrupo, 2 y la intragrupo, 21. Hemos de comparar, pues con
(8.737,2,21). Buscamos en las tablas de F de Snedecor:

Observamos que su valor es 3.47. Por tanto, 8.737 > 3.47. En consecuencia, rechazamos la Ho con un
riesgo de equivocarnos (mximo) de 0.05. Como hemos dicho este procedimiento slo indica el riesgo
mximo posible, pero no el real. Si hemos de ser ms precisos, ya que no tenemos el SPSS para que nos
lo haga, recurriremos a tablas estadsticas on line:

La probabilidad que de dos poblaciones con igual varianza extraigamos por azar una varianza que sea
8.737 veces mayor que la otra (o ms) es 0.0017. Como es mucha casualidad que justamente esta vez sea
ese caso, concluimos que esas dos varianzas no proceden de dos poblaciones con igual varianza, pero
para no pillarnos los dedos, porque podra ocurrir, ponemos la coletilla de con un riesgo de
equivocarnos de 0.0017, que son las veces que podra ocurrir por azar. Aqu ya andamos con ms
precisin, no decimos que como mximo es 0.05, sino que concretamos bastante ms.
8

4.- Aplicacin prctica. SPSS


Retomemos estos datos y realicemos ahora los clculos con SPSS. Veremos la equivalencia con los
anlisis previos. El formato de los datos ha de ser una primera columna, que hace referencia a la variable
mtodo de enseanza con 3 niveles: 1, 2 y 3. La segunda columna son las puntaciones en matemticas:

Procedemos de la siguiente manera:

Y a continuacin:

Los resultados:

Obsrvese que los resultados son equivalentes a los que ya vimos anteriormente, y que volvemos a
mostrar:

=1( )2 1
2


=1 =1

8 1.625/2
13/2
6.5
=
=
= 8.737
(7.875 + 2.877 + 4.872)/21 15.624/21 0.744

En cuanto a la probabilidad, si hacemos doble clic sobre su valor de significacin:

Obtendremos exactamente el mismo valor de 0.0017

10

La salida anterior es la ms simple que nos proporciona el SPSS, pero tenemos opciones para mejorarla.
La primera hace referencia a los supuestos del modelo, que son exactamente los mismos que los del
contraste de medias, esto es, normalidad de los grupos en las poblaciones orgenes e igualdad de
varianzas en esasmismas poblaciones. La primera no es muy restrictiva y podemos obviarla con muestras
grandes, y con muestras chicas tampoco hay que preocuparse mucho por cuanto el error no suele ir ms
all de 0.06 o 0.07 que no se puede decir que sea tan distinto del 0.05 de la probabiliad que establece la
Ho en el supuesto de normalidad. De hecho en el ANOVA de SPSS no se contempla el supuesto de
normalidad. Habitualmente los recursos son grficos, lo que ya indica que el ojmetro es practicamente
suficiente como medida de normalidad. No obstante uno puede irse a Descriptivos/Exploratorio donde
podr aplicar la pruebas ms rigurosas de Kolmogov y Shapiro. En el caso de no cumplirse el supuesto
de normalidad para el ANOVA se aplica la prueba no paramtrica de Kruskal Wallis.
La exigencia de igualdad de varianzas es algo ms restrictiva, aunque tampoco demasiado, en el sentido
de que las pruebas paramtricas son bastantes robustas en la violacin de sus supuestos. No obstante,
dada su mayor importancia ya se contempla en el SPSS. En caso de no existir igualdad de varianzas se
aplica la prueba de Welch. Y la prueba para comprobar la igualdad de varianzas es, como se sabe, la
prueba de Levene.
En este sentido podemos mejorar nuestro anlisis de la siguiente manera:

Marcamos Opciones:

11

Obtenemos, adems de la tabla de anlisis de varianza, ya mostrada:

Se ofrecen los descriptivos habituales, como la media y la desviacin tipo (o estndar). Los errores tipo
(o estndar) son precisamente las desviaciones tipo de las distintas distribuciones de medias, que tienen
espcial inters en los contrastes. Los intervalos de confianza nos dicen que por ejemplo, en el mtodo A
el 95% de las medias oscilan entre 4.73827 y 6.51173 puntos. Esto ya es de por s un indicador (con
ciertas precauciones) para comprobar si las medias observadas proceden o no de poblaciones iguales.
As, si comparamos el mtodo A con el B vemos que sus intervalos de confianza se solapan bastante, lo
que nos indica que hay posibles poblaciones comunes de donde podra proceder, por tanto no podramos
concluir que el mtodo A y el B sean diferentes. Por el contrario, si comparamos el mtodo B con el C,
vemos que no hay solpamiento en sus intervalos de confianza, lo que nos indicarn que no habr
poblaciones comunes de donde puedan proceder y enconsecuencia concluyamos que sus poblaciones
orgenes son diferentes, o sea, que los mtodos B y C difieren.

12

La prueba de Levene sobre igualdad de varianzas:

Se cumple la igualdad de varianzas. Aunque no es necesaria, aplicamos la prueba de Welch, que es la


alternativa al ANOVA cuando no se cumple homocedasticidad:

Y obtenemos un resultado equivalente a la prueba paramtrica del ANOVA.


Aparte de ello, una salida grfica para las medias, que ya es una cierta aproximacin en la toma de
decisiones:

El grfico nos sugiere que el mtodo C es ms efectivo, pero hay que verlo analticamente.

13

5.- Comparaciones a posteriori


La prueba anterior del anlisis de la varianza es una prueba genrica, denominada mnibus, que slo nos
indica si todas las medias son iguales o no. Si lo son, se cumple la Ho, y no hay que seguir ms adelante
porque ya sabemos que todas las medias son iguales. Si no se cumple, lo que se concluye es que no son
todas iguales, lo que no significa que sean todas diferentes. Basta que una no lo sea aunque lo sean todas
las dems para rechazar la Ho. Por esta razn, cuando esto sucede hay que proceder a una segunda
prueba para decidir, cuales son diferentes y cules son iguales. Es lo que se llama comparaciones a
posteriori o post hoc. Se comparan todas las medias dos a dos y se observan cules son diferentes.
El problema de los contrastes post hoc, es que no se hace uno sino unos cuantos e incluso pueden ser
bastantes. En el caso que nos ocupa slo hay 3 posibles contrastes (A-B, A-C y B-C), lo que corresponde
a la siguiente frmula: k*(k-1)/2, que aqu ser 3*2/3 = 3, pero si tuviramos 5 grupos ya la cosa se
complicara y seran 5*4/2 = 10. El problema de cuando se hacen varios contrastes es que es ms
probable que resulte uno significativo cuando no lo es, lo que significa que aumenta nuestra probabilidad
de tomar decisiones equivocadas. Si tiramos diez monedas muchas veces es ms probable obtener alguna
vez 8 caras que si la tiramos slo una vez. De la misma manera que si un alumno se presenta a un
examen de eleccin mltiple varias veces, ser ms probable que alguna de ellas apruebe por azar.
Si nuestra probabilidad de equivocarnos es mayor del 0.05 (o 0.01) que suponamos, hemos de efectuar
correcciones para volver a nuestra probabilidad de partida. Bsicamente consiste en aumentar la
exigencia de nuestra prueba, aunque en el caso del alumno, lo dejaremos.
La lgica de todo ello es como sigue. Si efectuamos un nico contraste la probabilidad de no
equivocarnos ser 1 , pero si realizamos n contrastes independientes, la probabilidad de no
equivocarnos ser entonces (1 ) . En consecuencia, la probabilidad de equivocarnos alguna vez ser
1 (1 ) . Por ejemplo, si operamos con un nivel = 0.05 y realizamos 6 contrastes, la
probabilidad de equivocarnos alguna vez ser 1 (1 0.5)6 = 0.302, valor muy superior a 0.05.

Qu hemos de hacer si queremos que se mantenga nuestro 0.05 de probabilidad de equivocarnos


durante varios ensayos?. Pues hemos de modificar el valor de para que en el total de los contrastes
nuestra probabilidad de error sea 0.05, que es lo establecido (mejor, convenido). En el caso de estos 6
ensayos:
1 (1 )6 = 0.05
Despejando tenemos que:

= 1 1 0.05 = 0.0085

Esto es, en el caso de los 6 ensayos hemos de partir de una valor de = 0.0085 para que al final nos
equivoquemos en el valor de = 0.05. Este procedimiento se denomina correccin de Bonferroni.
Como este clculo puede resultar laborioso, tenemos una frmula alternativa no tan precisa pero bastante
aceptable:
=

14

Donde
: valor de por contrate (Per Comparation)
: valor de para el total (FamilyWise)
C: nmero de comparaciones
As en nuestro caso:
=

0.05
=
= 0.0083

En este sentido, el SPSS ofrece toda un conjunto de contrastes. El ms sencillo se denomina DMS
(Diferencia Mnima Significativa). Est basada en la t de Student y no efecta ninguna correccin (hay
que decir que no todos los investigadores estn de acuerdo con estas correcciones). El procedimiento a
seguir es:

Hacemos clic en Post hoc:

15

Y seleccionamos DMS. El resultado:

El mtodo C es diferente al A y el B, pero el A y el B no son diferentes entre ellos. Si queremos aplicar


Bonferroni:

16

Los resultados:

Obsrvese que es coincidente con el procedimiento DMS de Tukey, pero las probabilidades hay que
multiplicarlas por 3 (tantas como contrastes realizados). Obsrvese, por ejemplo, que 0.778 = 3*0.259.
Al efectuar 3 contrastes pasamos de una probabilidad de equivocarnos de 0.259 con Tukey a 0.778 con
Bonferroni.
Hay que decir que hay bastantes autores inventando contrastes post hoc, cada uno arreglando lo que no
arregla el otro, pero para no perdernos, mencionemos uno de especial inters que es el de Sheff, que
tambin efecta correcciones sobre (tambin llamado error tipo 1):

17

Cuyo resultado es:

Similar a Bonferroni.

6.- Componentes de variacin


Vamos a plantear ahora el anlisis de la varianza como un cierto modelo explicativo de la realidad. De
esta manera las pruebas estadsticas son modelos que intentan explicar (hasta cierta medida) una
determinada parcela de la realidad. Visto as, tenemos que:
REALIDAD = MODELO + ERROR
Los modelos estadsticos no siempre son completos y siempre hay una parte que se nos pierde, pero
tambin hay que decir que hay una cierta parte que explica y que esa parte podemos cuantificarla y
hacernos una idea de la calidad de nuestro modelo. Veremos en las siguientes lneas que la parcela que
18

nos interesa estudiar presenta una cierta variabilidad en sus datos de inters, y que de esa variabilidad
(variabilidad total) conseguimos explicar una parte (variabilidad explicada), que queremos sea lo mayor
posible, pero lamentablemente nos queda un resto sin explicar (variabilidad no explicada). De esta
forma:
= +

Por ejemplo en relacin a los datos con los que estamos trabajando:

Tenemos en el primer grfico las puntuaciones de los sujetos en los diferentes mtodos de enseanza, y
en el segundo grficos, la puntuacin media en tales mtodos.
Tomemos el mtodo C. Vamos a seleccionar el primer sujeto, que ha obtenido 7 puntos y vamos a
descomponer su distancia respecto a la media total y luego explicaremos que significa cada una de estas
distancias. Tenemos que:
(7 5.875) = (7 6.875) + (6.875 5.875)
Los nombres de estas distancias son los siguientes:
= +

La idea es la siguiente. Imaginemos que aplicamos los tres tratamientos a estos 24 sujetos y a una
persona ajena, que no sabe nada de la investigacin (slo el conjunto de datos, pero sin saber qu
puntuacin corresponde a quin), se le pregunta cul ser la puntuacin del primer sujeto del grupo C. Si
no sabe nada, lo ms razonable es dar la media del conjunto de datos, esto es, 5.875. En ausencia de
informacin de los mtodos de enseanza, esta persona se ha equivocado:
(7 5.875) = 1.125

Ahora le comunicamos que el sujeto en cuestin (sigue sin saber quin es) pertenece al grupo C y que la
gente de ese grupo han sido sometidos s un mtodo de enseanza, cuya media es 6.875. Igual que antes,
lo ms razonable es dar le media del grupo de pertenencia, por tanto dicha persona afirmar que lo ms
probable es esa media. En este caso, con la informacin de los mtodos de enseanza, el error ha sido:
19

(7 6.875) = 0.125

Cuando no saba nada de los mtodos de enseanza dijo 5.875 y cuando conoci el proyecto de
investigacin ya dijo 6.875. Est claro que la informacin de los mtodos de enseanza ha permitido
mejorar su pronstico en:
(6.875 5.875) = 1

Podemos decir entonces que la desviacin total es el error en ausencia de informacin, la desviacin
explicada es la ganancia que hemos tenido gracias a la aplicacin de los mtodos de enseanza, y la
desviacin no explicada es la que no logramos todava explicar con tales mtodos. As pues:
(7 5.875) = (7 6.875) + (6.875 5.875)
Como hemos dicho antes:

1.125

0.125 +

= +

Ya ms formalmente, para el sujeto i del tratamiento j:

( ) = +

Y para el conjunto de los sujetos, se demuestra:

Esto es:

2
2
2
= +

= +

Que son los indicadores de los distintos componentes de variabilidad:

= +

A partir de esta igualdad podemos obtener un estadstico de extraordinaria importancia, que nos ayudar
a entender en trminos sencillos la capacidad explicativa del modelo del anlisis de la varianza. Este
estadstico, denominado 2 hace referencia a la proporcin de variabilidad (o variacin) explicada.
Esto es:
2
. .
=
=
2
. .

20

En el caso del ANOVA, la suma de cuadrados explicada es precisamente la intergrupo o la debida a los
tratamientos, mientras que la no explicada equivale a la intragrupo (dentro de los grupos). As pues,
retomando la tabla del ANOVA:

Tenemos que:
2

13
= 0.4541
28.625

Podemos afirmar que los mtodos de enseanza explican un 45.41% de la variabilidad obtenida en
matemticas. Y la proporcin no explicada ser 1 0.4541 = 0.5459, esto es, el 54.59%.
7.- Tamao de efecto
Apliquemos la siguiente expresin:
=

2
0.4541
=
= 0.9121
2
1
1 0.4541

Tomemos como referencia la siguiente tabla:

Valor superior a 0.40. Efecto grande.

21

22

Вам также может понравиться