Академический Документы
Профессиональный Документы
Культура Документы
paramétricos poderosos para probar la significación cuando se usan más de dos condiciones o
cuando están involucradas diversas variables independientes.
ANOVA
En este apunte abordaremos el ANOVA unidireccional que prueba la hipótesis nula para observar si
se obtienen dos o más muestras de la misma poblacional al comparar las medias aritméticas.
La prueba incluye comparar la varianza de las medias de la muestra (variación entre grupos) con la
varianza intergrupos (un promedio de las varianzas al interior de cada muestra). Si las medias difieren
entre sí mucho más que lo que la gente difiere al interior de los grupos, entonces la razón F será
mayor a 1 (uno), a una magnitud significativa evaluada de las tablas utilizando los grados de libertad
asociados con el efecto (la VI) y los grados de libertad asociados con el error (la varianza residual
intragrupos).
Las pruebas de comparaciones específicas son ya sea a priori (planeadas antes de la prueba, ya
que predice a partir de un razonamiento teórico) o post hoc (evaluada sólo porque la diferencia
parece significativa una vez que se tienen los resultados).
31 33 37 41 43 45
35 39 47
En el ANOVA podemos considerar cada puntuación en una muestra como descompuesta de una
manera similar. Entonces, pasando de lo individual a un grupo:
Para el individuo:
Desviación de Juan de la Media Total = Desviación de la media del grupo + Desviación de Juan de la media
de Juan de la Media Total de su grupo
ERROR
El ANOVA estima el grado en el que la desviación de cada persona de la Media Total puede ser
explicada por la desviación de la media de sus grupos de las medias de otros grupos. El restante, la
variación intragrupos, se conoce como “ERROR” porque es la cantidad de la variación total NO
EXPLICADA por la variación entre las medias del grupo. Es una medición de qué tanto la gente varía
al interior de sus grupos, alrededor de su media, como resultado de variables desconocidas.
La muestra está constituida por todos los elementos a los que se aplica la prueba, los que pertenecen
a cada uno de los grupos bajo análisis.
TRATAMIENTO: Son las condiciones de cada uno de los grupos en que se separó la muestra, en lo
que hace a la variable independiente.
El método constituye una variable y los grupos sus categorías. Suele denominarse factor a esta
variable independiente y niveles de factor a sus categorías.
Las diferencias que se observen entre los elementos (individuos) estarán dadas en parte por los
diferentes tratamientos a los que son sometidos y en parte a otros factores (características
individuales) a los que NO interesa tomar en consideración.
La idea del ANOVA es la de separar la Varianza Total de la muestra en dos componentes aditivas:
Una de ellas debida a los efectos de la variable independiente y otra en la que se contemplan
los efectos debidos al resto de las variables que NO se consideran en el modelo.
Notación:
Xij: Es el valor que asume la variable dependiente. El primer subíndice (i) representa un elemento
(individuo), el segundo (j) representa el tratamiento o grupo al que pertenece.
El segundo miembro, el primer término es el indicador de lo que se aleja del grupo (representado por
su media aritmética; Xj) del promedio general (X) . Esta diferencia es la que atribuimos al tratamiento
que hemos aplicado. El segundo término, es la distancia a la que se encuentra el elemento (individuo)
del promedio de su grupo y esta diferencia sólo obedece a características propias del sujeto que se
considera error (Xij X).
Cuando este mismo concepto se generaliza para todos los individuos de la muestra se obtiene
la expresión descripta más adelante. Como se trata de desvíos entorno de la media, será
necesario elevarlas al cuadrado para que la de los desvíos respecto de la media aritmética sea
distinta de cero ().
El factor nj en la suma de cuadrados explicada, cumple con la función de tener en cuenta los
diferentes tamaños de los tratamientos, asignándoles un peso diferencial a cada uno de ellos.
Se conoce como factor de ponderación.
El análisis de la varianza consiste en comparar las varianzas originadas en los tres tipos de variación
(total, explicada y residual), ahora bien la sumas de cuadrados que se ha definido, NO constituyen
varianzas, son sólo el numerador de las mismas. Para obtener las respectivas varianzas es necesario
dividir a la suma de los cuadrados por sus respectivos GRADOS DE LIBERTAD.
Se denominará n al tamaño de la muestra total, la cual se divide entre grupos (o tratamientos) en
cada uno de los cuales se incluye a una cantidad de elementos (individuos) que puede ser igual o no.
Llamaremos a esta cantidad nj, señalando con el subíndice j el grupo al que corresponde. De esta
manera, la suma de los individuos que constituyen los k grupos es igual al tamaño de la muestra n.
n = n1 + n2 + ... + nk
Para la obtención de las varianzas es necesario calcular los grados de libertad correspondiente a
cada una de las sumas de cuadrados y del número de parámetros que deban estimarse para su
calculo.
Así, para la Suma de Cuadrados Total (SCT), se encuentran n valores de x y sólo se ha estimado la
media general (X). Los grados de libertad serán entonces n (casos) menos 1 (número de parámetros
estimados) [n 1].
Los grados de libertad par la Suma de Cuadrados Explicada (SCEX) contiene k variables (las medias
del tratamiento) y sólo un parámetro que se estima (la media poblacional) de ello resulta que los
grados de libertad son k 1.
En el caso de la Suma de Cuadrados Residual (SCRES) tenemos n valores de x y k medias de grupo o
tratamientos (para cada una de las Xj) que se ha estimado. Los grados de libertad correspondiente es
n k.
Dado que el razonamiento original se basa en la comparación de la DISPERSIÓN encontrada entre
los grupos (varianza explicada, debida a los tratamientos) y la que se verifica dentro de ellos
(varianza residual, debido a factores ajenos a los tratamientos). Tendremos como estimadores de
las respectivas varianzas a las sumas de los cuadrados divididos por los correspondientes
grados de libertad.
Estos estimadores de varianzas se conocen como Cuadrados Medios (CM). Los mismos asumirán los
valores
H0 = 1 = 2 = 3 = n
HA = Al menos una de la medias difiere
La H0 será rechazada cuando las diferencias debida a los tratamientos (expresadas en CMEX) sean
más importantes que las debidas al azar (que son medidas por CMRES).
El problema es decidir si CMEX es significativamente mayor que CMRES. Para ello tomaremos su
cociente CM . Este cociente recibe el nombre de razón F
EX obs
CMRES
Se utiliza una distribución de probabilidad especial conocida como distribución F de Fischer (En
general es utilizada para describir la distribución de muestreo del cociente de varianzas). Esta
distribución provee para cada nivel de significación dado y los grados de libertad del numerador y
denominador, el puntaje critico, que determina el valor a partir del cual las diferencias han de
considerarse significativas. Cuando se utiliza el NIVEL DE SIGNIFICACIÓN del 5% (normalmente
esta condición la estable el investigador a priori) sólo se requiere especificar los grados de libertad
para CMEX y CMRES para obtener el puntaje crítico.
Cómo el interés está dado por saber si CMEX es significativamente mayor que CMRES ; entonces se
rechaza la H0 para un valor observado grande del cociente de cuadrados medios.
Se trata de una prueba unilateral derecha y la zona de rechazo de H0 se sitúa a la derecha del valor
crítico de F.
El procedimiento consiste en calcular las Sumas de Cuadrados, dividirlas por los correspondientes
grados de libertad para obtener los Cuadrados Medios, luego, dividir entre ellos (CMEX; CMRES) y
observar si el valor obtenido para ese cociente (FOBS), supera el valor crítico de F, obtenido por tabla.
Si lo supera , se rechaza la H0 y se concluye que los tratamientos tienen efectos diferentes.
Si el valor FOBS es inferior al puntaje crítico se acepta la H0 y se concluye en que no hay diferencias
entre los efectos producidos por los diferentes tratamientos.
EJEMPLO
Sea una muestra de 15 estudiantes a los que se los divide en 3 grupos (recuerde que no es necesario
que los grupos tengan el mismo tamaño). Los denominaremos G1;G2; G3, cada grupo contiene 4,5 y 6
individuos respectivamente.
Los estudiantes de cada grupo (también denominados tratamiento) han asistido a un curso de
traducción de un idioma extranjero (que se supone conocían con anterioridad) durante un periodo de
2 meses y se quiere evaluar si las técnicas usadas con cada uno de los grupos producen
aprendizajes significativamente diferentes.
H0 afirmará que NO HAY DIFERENCIAS entre los resultados obtenidos por los alumnos que
aprendieron con distintos métodos ( equivale a decir que las diferencias observadas sólo se deben al
azar)
HA será que los resultados difieren entre sí, debido a los diferentes procedimientos utilizados.
Expresado en forma de notación Aritmética:
H0 = 1 = 2 = 3 = n
HA = Al menos una de la medias difiere
GRUPOS DE TRATAMIENTO
G1 G2 G3
8 7 5
9 8 6
9 9 6
10 8 5
7 7
9
n1= 4 n2= 5 n3= 6
Tamaño de la muestra : n1 + n2 + n3 = n = 4 + 5 + 6 = 15 n = 15
Número de Tratamientos: k = 3
k=3
ESTIMACIÓN DE LOS GRADOS DE LIBERTAD
GRUPO 1: XG1 = = =9
XG1 8 + 9 + 9 + 10
XG1= 9
n1 4
GRUPO 2: XG2 = = = 7,8
XG2 7+8+9+7+9
XG2 = 7.8
N2 5
GRUPO 3: XG3 = = = 6.33
XG3 5+6+6+5+7+9
XG3 = 6,33
N3 6 GENERAL
CALCULO DE LA MEDIA ARITMÉTICA
SCEX = 17,64
SCRES = + + =
(XG1j XG1)2 (XG2j XG2)2 (XG3j XG3)2
= (8 – 9)2 + (9 – 9)2 + (9 – 9)2 + (10 – 9)2 + (7 – 7,8)2 + (8 – 7,8)2 + ( 9 – 7,8)2 + (8 – 7,8)2 +
= 16,33 G3
G2
SCRES = 16,33
Se realiza la comprobación haciendo el calculo de la Suma de Cuadrados Totales (SCT).
SCT = + + = 33.73
CMEX = = = 8,82
SCEX 17,65
CMEX = 8,82
k–1 2
CALCULO DEL CUADRADO MEDIO RESIDUAL (diferencias individuales)
CMRES = = = 1,34
CMRES = 1,34
SCRES 16,13
RAZÓN F n – k
12
FOBS = = = 6,6
CMEX 8,82
FOBS = 6,6
CMRES 1,34
VALOR CRÍTICO (obtenido en tabla)
INTERPRETACIÓN
Dado que el valor observado (FOBS. = 6,6), que supera el valor crítico F = 3,89, la decisión es rechazar
la H0 y concluir que a un nivel de significación del 5% al menos, uno de los tres métodos difiere de los
demás.
Otra manera de Interpretar: Las diferencias de puntajes obtenidas en la prueba no se deben a que los
alumnos tengan distintos rendimientos por sus características individuales sino que se explican por
los diferentes métodos.
BÚSQUEDA DE LA SIGNIFICACIÓN DE F
Se requiere consultar las tablas de la razón F y utilizarlas como sigue. En primer lugar busque en la
tabla la p<0,05, debido que éste es el valor más alto de probabilidad en el que podemos esperar
significación. Para encontrar el valor crítico debemos utilizar los grados de libertad para el efecto
involucrado (numerador de la razón F) y los grados de libertad para el error de la varianza estimada
(denominador). Si se alcanza la significación con p< 0,05, se puede entonces consultar para ver si el
F observado es mayor que los valores críticos obtenidos para valores de probabilidad (p) más
pequeños.
Lo que sabemos del resultado obtenido, es que al menos una media difiere significativamente de
al menos otra media. No es posible saber cual puede ser de estas medias. Si es posible identificar a
partir de las medias del grupo (G1 = 9 ; G2 = 7.8; G3 = 6,33) que la diferencia más significativa
probable entre el grupo G1 y el G3, con el siguiente G2 y G3. Para decidir qué grupos difieren en modo
significativo se aplica diversas pruebas t, para ello se requiere considerar lo que se conoce como
COMPARACIONES A PRIORI y POST HOC.
Para que se comprenda mejor este punto, lo trataremos por medio de una ejemplificación
(a) Lunes (b) Martes (c) Miércoles (d) Jueves (e) Viernes
A partir de un estudio acerca de la memoria, donde las medias de las celdillas representan la media
del recuerdo de reactivos de una lista de 25 palabras, por distintos grupos de participantes que se
evaluaron desde el lunes hasta el viernes.
Supongamos que la hipótesis nula es verdadera y que para la población muestreada el recuerdo no
difiere de manera significativa a lo largo de los días de la semana (1= 2= 3 = 4 = 5). En otras
palabras, las medias teóricas para cada día de la semana son todas del mismo valor. Ahora bien,
suponga que en esta ocasión de evaluación en particular tuviéramos un resultado casual donde la
media del lunes sí difiere de manera significativa de la del miércoles, utilizando una prueba t no
relacionada. En esta ocasión ha ocurrido un error de tipo I si rechazamos la hipótesis nula de que
estas dos medias provienen de poblaciones con las mismas medias.
COMPARACIONES A PRIORI
Por otro lado, si se hubiera decidido, con base de nuestra teoría general, qué sólo se probarían las
medias del lunes y viernes porque se cree, que la gente estará más cansada hacia el fin de semana
más que al principio , no se cometería este error tipo I. Cualquiera que haya sido la predicción
inicial sólo se tendría una oportunidad en diez (p = 0,1) de cometer un error de tipo I, dado los
resultados como ocurrieron. Habían 10 predicciones para hacer ( a con b, a con c, a con d, a con e; b
con c, b con d, b con e; c con d, c con e; d con e) y solo uno de los resultados que se hubiera
predicho sería “significativo”. Esto supone que la predicción concierne sólo dos medias ( conocida
como COMPARACIÓN POR PARES). Las comparaciones a priori (“planeadas” son, entonces,
comparaciones que podemos hacer, hecha una predicción específica basada en argumentos teóricos
antes de conducir una prueba de ANOVA. Esto le debe recordar las pruebas de una y dos colas
porque, en un experimento de dos condiciones, una hipótesis de una cola es una comparación
planeada a priori.
Hacer todas las comparaciones posibles produce una más alta probabilidad de cometer un error de
TIPO I que si realizamos comparaciones a priori selectas y predeterminadas. De hecho, decidir de
antemano hacer todas las pruebas posibles de comparación es lo mismo que conducir pruebas post
hoc. Éstas implican inspeccionar todo y probar lo que parece posible. Las primeras significan lo
mismo, ya que el plan inicial es evaluar todo y ver que resulta ser “más significativo”, a menos que
haya un buen argumento teórico para que todas las posibles diferencias sean significativas.
TASA DE ERROR
Si se conduce X pruebas de significación en datos ordenados de manera aleatoria, es mucho más
probable que obtenga una diferencia “significativa”. Ésta es la lógica de evaluar la significación. Se
buscan resultados que sólo podrían ocurrir por azar cinco veces entre 100 y los consideramos como
significativos si los predijimos antes de someterlos aprueba. Entonces , si se fija la significación en
una probabilidad del 0,05 y realizamos múltiples pruebas con datos ordenados de manera aleatoria.
Se sabe que existe la oportunidad de 0,05 de que cualquier comparación que se haga se considere
en forma errónea como significativa, ejemplo cometer un error de tipo I Se dice que se está
trabajando con una TASA DE ERROR POR COMPARACIÓN del 0,05, este tipo de error, es la
probabilidad de cometer al menos un de error tipo I al realizar múltiples pruebas.
PRUEBAS PARA COMPARACIONES A PRIORI
Puede haber ocasiones donde se quiere probar la significación entre combinaciones de medias, en
el ejemplo mencionado se podría pensar combinar entre las medias de lunes y martes contra las
medias combinadas de jueves y viernes. Cuando esto ocurre es necesario usar el enfoque del
CONTRASTE LINEAL.
Cuando esta comparación (o dos) incluye las medias de las combinaciones de grupos,
utilice contrastes lineales.
Si se desea comparar todos los pares de medias posibles o realizar más de dos
comparaciones planeadas donde hay diversos grupos, utilice la prueba de Newman –
Keuls ( o por seguridad, Tukey DRS).
Si desea comparar todos los pares de medias posibles cuando existen pocos grupos
(cinco o más), utilice la prueba de Tukey DRS.
Si desea realizar todos los contrastes posibles ( por ejemplo, no sólo “por pares”, sino
también todas las posibles combinaciones de medias contra otras), utilice la prueba de
Scheffé.
Existen otras alternativas específicas dependiendo del diseño particular del estudio y de sus
objetivos. Todas las comparaciones mencionadas se encuentran en programas de estadística
como SPSS MR pero, deberá verificar alguno de los textos avanzados sobre el tema.