Вы находитесь на странице: 1из 10

El conjunto de procedimientos conocidos como ANOVA (Análisis de la varianza) son métodos

paramétricos poderosos para probar la significación cuando se usan más de dos condiciones o
cuando están involucradas diversas variables independientes.
ANOVA
En este apunte abordaremos el ANOVA unidireccional que prueba la hipótesis nula para observar si
se obtienen dos o más muestras de la misma poblacional al comparar las medias aritméticas.

La prueba incluye comparar la varianza de las medias de la muestra (variación entre grupos) con la
varianza intergrupos (un promedio de las varianzas al interior de cada muestra). Si las medias difieren
entre sí mucho más que lo que la gente difiere al interior de los grupos, entonces la razón F será
mayor a 1 (uno), a una magnitud significativa evaluada de las tablas utilizando los grados de libertad
asociados con el efecto (la VI) y los grados de libertad asociados con el error (la varianza residual
intragrupos).

Las pruebas de comparaciones específicas son ya sea a priori (planeadas antes de la prueba, ya
que predice a partir de un razonamiento teórico) o post hoc (evaluada sólo porque la diferencia
parece significativa una vez que se tienen los resultados).

MODELOS DE ANOVA – Condiciones de uso

 Diferencias o correlación Diferencias (entre conjuntos de medias).

 Nivel de medición de datos Intervalos iguales o cocientes o razones

 Tipo de Diseño No relacionado- entre grupos /sujetos

Relacionado – intragrupos / sujetos

Mixto – entre e intravariables de grupo

 Acotaciones especiales Se emplea mayor fuerza con más de una VI,


cada una con diversos valores, cuando cada
VI puede ser relacionada o no relacionada.
Necesitan ajustarse a suposiciones
paramétricas
¿DE QUE SE TRATA EL ANOVA?
Todas las puntuaciones, consideradas como un conjunto, varían.
Varían por dos razones –
A) porque el grupo difiere y
B) porque los elementos difieren al interior de cada grupo.
En el ANOVA, la variación de todos los valores de los datos juntos se divide en la variación entre las
condiciones y la variación “residual”, atribuible a un error aleatorio general al interior de cada
condición. Si las medias aritméticas varían mucho, relativas a la variación restante, entonces es más
factible que haya una diferencia real entre condiciones. Se debe recordar que estamos estimando la
amplitud de puntuaciones en torno a la media aritmética.
Observación: El termino variación se utiliza al hablar de diferencias entre valores de datos, más que
varianza.
En general, variación significa (definida no teóricamente) amplitud de puntuaciones o valores dentro
de un mismo conjunto.

TEORÍA GENERAL QUE SUBYACE AL ENFOQUE DEL ANOVA


La hipótesis nula que se prueba con el ANOVA es que las muestras que se obtienen provienen de
poblaciones con la misma media, si tenemos una teoría que predice diferencias entre grupos,
estamos interesados en rechazar, con seguridad, la hipótesis nula. Para poder rechazar la misma se
espera obtener una medida de probabilidad pequeña.
CONCEPTO FUNDAMENTAL
La prueba de ANOVA hace una comparación directa entre la cantidad en que varían las medias
de las muestras y la cantidad en las que varía cada muestra alrededor de su propia media.
RAZÓN F
El corazón del cálculo del ANOVA es la razón F. Para el caso unidireccional la describimos de
la siguiente manera:

Varianza estimada desde medias muestrales VARIANZA ENTRE GRUPOS


F= = VARIANZA INTRAGRUPOS
Varianza estimada desde intragrupos

De hecho, el numerador y el denominador de la ecuación son la suma total de dos estimados de la


varianza de la población. El denominador es un promedio de las varianzas de cada muestra. Ya que
la prueba es paramétrica, hemos asumido la homogeneidad de la varianza para que todas las
muestras combinadas nos dieran un estimado fiel de la varianza de la población. El numerador de la
ecuación utiliza las medias que obtuvimos para estimar cuanto variaría la población para producir
medias tan distantes como éstas. Es de suponer que la hipótesis nula es verdadera y que las
poblaciones, en efecto, tienen las mismas medias.
El punto crucial es, si las medias varían demasiado, relativo a la variación promedio intragrupos,
entonces, el numerador será grande, F será grande y se puede rechazar, en cierto modo, la idea de
que las medias de la población son las mismas.
COMPONENTES DE LA VARIANZA EN EL ANOVA UNIDIRECCIONAL
El punto central en el pensamiento del ANOVA es la idea de que la variación total de todos los
valores alrededor de la MEDIA TOTAL (Gran Media) se pueden dividir en diversos componentes de
variación. En un ANOVA unidireccional los dos componentes son los descriptos más arriba, la
variación de valores alrededor de las medias de los grupos (error) y las variación de las medias del
grupo (efecto).
Una manera de comprender esto es considerar el modo en que cada puntuación individual puede
descomponerse.
EJEMPLO
Supongamos que observamos la variable edad y que tomamos dos muestras, una de 10 mujeres y la
otra de 10 varones. La muestra de varones tiene una media de edad de 35 años y una persona de la
muestra (Juan) tiene 47 años de edad. La media de edad para la muestra de mujeres es de 39 años.
La MEDIA TOTAL para las 20 edades es de 37 años.
EN RESUMEN:
Media aritmética de la edad para la muestra de mujeres = 39
Media aritmética de la edad para la muestra de varones = 35
MEDIA TOTAL = 37 años
Edad de Juan = 47 años
Desviación de la edad de Juan respecto de la Media Total = 10 años
Y esto se compone de:
Desviación de Juan de la media aritmética de su muestra = 12
Desviación de la muestra de Juan respecto de la Media Total = - 2.
Obsérvese el siguiente diagrama
Media Total

Media de la muestra de mujeres


Media de la muestra de varones
10
2
Edad de Juan
12

31 33 37 41 43 45
35 39 47

En el ANOVA podemos considerar cada puntuación en una muestra como descompuesta de una
manera similar. Entonces, pasando de lo individual a un grupo:

Para el individuo:

Desviación de Juan de la Media Total = Desviación de la media del grupo + Desviación de Juan de la media
de Juan de la Media Total de su grupo

10 años = ( 2) años + 12 años

Para la muestra completa

Variación total = Variación entre grupos+ Error (variación residual o intragrupo)

ERROR

El ANOVA estima el grado en el que la desviación de cada persona de la Media Total puede ser
explicada por la desviación de la media de sus grupos de las medias de otros grupos. El restante, la
variación intragrupos, se conoce como “ERROR” porque es la cantidad de la variación total NO
EXPLICADA por la variación entre las medias del grupo. Es una medición de qué tanto la gente varía
al interior de sus grupos, alrededor de su media, como resultado de variables desconocidas.

PROCEDIMIENTO CONOCIDO COMO ANÁLISIS DE LA VARIANZA (ANOVA).

La muestra está constituida por todos los elementos a los que se aplica la prueba, los que pertenecen
a cada uno de los grupos bajo análisis.
TRATAMIENTO: Son las condiciones de cada uno de los grupos en que se separó la muestra, en lo
que hace a la variable independiente.
El método constituye una variable y los grupos sus categorías. Suele denominarse factor a esta
variable independiente y niveles de factor a sus categorías.
Las diferencias que se observen entre los elementos (individuos) estarán dadas en parte por los
diferentes tratamientos a los que son sometidos y en parte a otros factores (características
individuales) a los que NO interesa tomar en consideración.
La idea del ANOVA es la de separar la Varianza Total de la muestra en dos componentes aditivas:
Una de ellas debida a los efectos de la variable independiente y otra en la que se contemplan
los efectos debidos al resto de las variables que NO se consideran en el modelo.
Notación:
Xij: Es el valor que asume la variable dependiente. El primer subíndice (i) representa un elemento
(individuo), el segundo (j) representa el tratamiento o grupo al que pertenece.

Xj: Representa el promedio del grupo (j).


X: Es el promedio general de todos los individuos de todos los grupos.

Para un elemento (individuo) dado:

( Xij X) = (Xj X) + (Xij Xj) En forma aritmética


El primer miembro es la diferencia entre un valor particular y el promedio general o total (Xij X).

El segundo miembro, el primer término es el indicador de lo que se aleja del grupo (representado por
su media aritmética; Xj) del promedio general (X) . Esta diferencia es la que atribuimos al tratamiento
que hemos aplicado. El segundo término, es la distancia a la que se encuentra el elemento (individuo)
del promedio de su grupo y esta diferencia sólo obedece a características propias del sujeto que se
considera error (Xij X).
Cuando este mismo concepto se generaliza para todos los individuos de la muestra se obtiene
la expresión descripta más adelante. Como se trata de desvíos entorno de la media, será
necesario elevarlas al cuadrado para que la de los desvíos respecto de la media aritmética sea
distinta de cero ().

(Xij X)2 = (Xj X)2nj + (Xij X)2

Suma de Cuadrados Total Suma de Cuadrados Explicada Suma de Cuadrados Residual


(SCT) (SCEX) ( SCRes)

SCT = Xij X)2 Variación Total


SCEx = Xj X)2 Variación Explicada, son aquellas que pueden atribuirse al modelo que se
pone a prueba (Explicadas por el modelo)
SCRES = (Xij Xj)2 Variaciones debidas a diferencias individuales (residuales o no explicadas por el
modelo, son las que se denominan error)

El factor nj en la suma de cuadrados explicada, cumple con la función de tener en cuenta los
diferentes tamaños de los tratamientos, asignándoles un peso diferencial a cada uno de ellos.
Se conoce como factor de ponderación.
El análisis de la varianza consiste en comparar las varianzas originadas en los tres tipos de variación
(total, explicada y residual), ahora bien la sumas de cuadrados que se ha definido, NO constituyen
varianzas, son sólo el numerador de las mismas. Para obtener las respectivas varianzas es necesario
dividir a la suma de los cuadrados por sus respectivos GRADOS DE LIBERTAD.
Se denominará n al tamaño de la muestra total, la cual se divide entre grupos (o tratamientos) en
cada uno de los cuales se incluye a una cantidad de elementos (individuos) que puede ser igual o no.
Llamaremos a esta cantidad nj, señalando con el subíndice j el grupo al que corresponde. De esta
manera, la suma de los individuos que constituyen los k grupos es igual al tamaño de la muestra n.

n = n1 + n2 + ... + nk

Para la obtención de las varianzas es necesario calcular los grados de libertad correspondiente a
cada una de las sumas de cuadrados y del número de parámetros que deban estimarse para su
calculo.
Así, para la Suma de Cuadrados Total (SCT), se encuentran n valores de x y sólo se ha estimado la
media general (X). Los grados de libertad serán entonces n (casos) menos 1 (número de parámetros
estimados) [n 1].
Los grados de libertad par la Suma de Cuadrados Explicada (SCEX) contiene k variables (las medias
del tratamiento) y sólo un parámetro que se estima (la media poblacional) de ello resulta que los
grados de libertad son k 1.
En el caso de la Suma de Cuadrados Residual (SCRES) tenemos n valores de x y k medias de grupo o
tratamientos (para cada una de las Xj) que se ha estimado. Los grados de libertad correspondiente es
n k.
Dado que el razonamiento original se basa en la comparación de la DISPERSIÓN encontrada entre
los grupos (varianza explicada, debida a los tratamientos) y la que se verifica dentro de ellos
(varianza residual, debido a factores ajenos a los tratamientos). Tendremos como estimadores de
las respectivas varianzas a las sumas de los cuadrados divididos por los correspondientes
grados de libertad.
Estos estimadores de varianzas se conocen como Cuadrados Medios (CM). Los mismos asumirán los
valores

SCT SCEX SCRES


CMTotal = CMEx = CMRES =
n 1 k 1 n k

Se trata de determinar si los diferentes tratamientos producen efectos diferentes. Se intenta


determinar si las medias de varias poblaciones difieren en si o sí las diferencias sólo se deben a
efectos del azar.
La H0 (Hipótesis Nula) será entonces que NO HAY DIFERENCIAS ENTRE LAS MEDIAS de los k
tratamientos, mientras que la HA (Hipótesis Alternativa) planteará que al menos una de las medias
difiere.

H0 =  1 =  2 =  3 = n
HA = Al menos una de la medias difiere

La H0 será rechazada cuando las diferencias debida a los tratamientos (expresadas en CMEX) sean
más importantes que las debidas al azar (que son medidas por CMRES).
El problema es decidir si CMEX es significativamente mayor que CMRES. Para ello tomaremos su
cociente CM . Este cociente recibe el nombre de razón F
EX obs

CMRES
Se utiliza una distribución de probabilidad especial conocida como distribución F de Fischer (En
general es utilizada para describir la distribución de muestreo del cociente de varianzas). Esta
distribución provee para cada nivel de significación dado y los grados de libertad del numerador y
denominador, el puntaje critico, que determina el valor a partir del cual las diferencias han de
considerarse significativas. Cuando se utiliza el NIVEL DE SIGNIFICACIÓN del 5% (normalmente
esta condición la estable el investigador a priori) sólo se requiere especificar los grados de libertad
para CMEX y CMRES para obtener el puntaje crítico.
Cómo el interés está dado por saber si CMEX es significativamente mayor que CMRES ; entonces se
rechaza la H0 para un valor observado grande del cociente de cuadrados medios.
Se trata de una prueba unilateral derecha y la zona de rechazo de H0 se sitúa a la derecha del valor
crítico de F.

Fuente de Variación Suma de Grados de Cuadrados Valor Observado


Cuadrados Libertad Medios

EXPLICADA SCEX k–1 CMEX


CMEX
F = CMRES
RESIDUAL SCRES n–k CMRES OBS

TOTAL SCT n–1 CMTotal

El procedimiento consiste en calcular las Sumas de Cuadrados, dividirlas por los correspondientes
grados de libertad para obtener los Cuadrados Medios, luego, dividir entre ellos (CMEX; CMRES) y
observar si el valor obtenido para ese cociente (FOBS), supera el valor crítico de F, obtenido por tabla.
Si lo supera , se rechaza la H0 y se concluye que los tratamientos tienen efectos diferentes.
Si el valor FOBS es inferior al puntaje crítico se acepta la H0 y se concluye en que no hay diferencias
entre los efectos producidos por los diferentes tratamientos.

EJEMPLO
Sea una muestra de 15 estudiantes a los que se los divide en 3 grupos (recuerde que no es necesario
que los grupos tengan el mismo tamaño). Los denominaremos G1;G2; G3, cada grupo contiene 4,5 y 6
individuos respectivamente.
Los estudiantes de cada grupo (también denominados tratamiento) han asistido a un curso de
traducción de un idioma extranjero (que se supone conocían con anterioridad) durante un periodo de
2 meses y se quiere evaluar si las técnicas usadas con cada uno de los grupos producen
aprendizajes significativamente diferentes.
H0 afirmará que NO HAY DIFERENCIAS entre los resultados obtenidos por los alumnos que
aprendieron con distintos métodos ( equivale a decir que las diferencias observadas sólo se deben al
azar)
HA será que los resultados difieren entre sí, debido a los diferentes procedimientos utilizados.
Expresado en forma de notación Aritmética:

H0 =  1 =  2 =  3 = n
HA = Al menos una de la medias difiere

GRUPOS DE TRATAMIENTO

G1 G2 G3
8 7 5
9 8 6
9 9 6
10 8 5
7 7
9
n1= 4 n2= 5 n3= 6

Tamaño de la muestra : n1 + n2 + n3 = n = 4 + 5 + 6 = 15 n = 15

Número de Tratamientos: k = 3
k=3
ESTIMACIÓN DE LOS GRADOS DE LIBERTAD

Desvío Totales (Variación Total) = n – 1 = 15 – 1 = 14 gl totales = 14

Desvío Entre Tratamientos (Variación explicada) = k – 1 = 3 – 1 = 2 gl Ex = 2

Desvío dentro de los Tratamientos (Variación Residual) = n – k = 15 – 3 = 12 gl RES = 12

CALCULO DE LA MEDIAS ARITMÉTICAS DE LOS GRUPOS

GRUPO 1: XG1 = = =9
XG1 8 + 9 + 9 + 10
XG1= 9
n1 4
GRUPO 2: XG2 = = = 7,8
XG2 7+8+9+7+9
XG2 = 7.8
N2 5
GRUPO 3: XG3 = = = 6.33

XG3 5+6+6+5+7+9
XG3 = 6,33
N3 6 GENERAL
CALCULO DE LA MEDIA ARITMÉTICA

MEDIA GENERAL = X = = 7,53


8 + 9 + 9 + 10 + 7 + 8 + 9 + 7 + 9 + 5 + 6 + 6 + 5 + 7 + 9
15
CALCULO DE LA SUMA DE CUADRADOS EXPLICADA
X = 7,53
SCEX = + + =
(XG1 X)2nG1 (XG2 X)2nG2 (XG3 X)2nG3
= (9 – 7,53)2.4 + (7,8 – 7,53) 2 .5 + (6.33 – 7,53)2 .6 = (1,47)2 .4 + (0,27)2 .5 + (- 1,2)2 .6 =

= 8,64 + 0,36 + 8,64 = 17,64.

SCEX = 17,64

CALCULO DE LA SUMA DE CUADRADOS RESIDUALES (Diferencias Individuales)

SCRES = + + =
(XG1j XG1)2 (XG2j XG2)2 (XG3j XG3)2
= (8 – 9)2 + (9 – 9)2 + (9 – 9)2 + (10 – 9)2 + (7 – 7,8)2 + (8 – 7,8)2 + ( 9 – 7,8)2 + (8 – 7,8)2 +

+ (7 – 7,8)2 + (5 – 6,33)2 + (6 – 6,33)2 + (6 – 6,33)2 + (5 – 6,33)2 + (7 – 6,33)2 + (9 – 6,33)2 =


G1 G2

= 16,33 G3
G2

SCRES = 16,33
Se realiza la comprobación haciendo el calculo de la Suma de Cuadrados Totales (SCT).

SCT = + + = 33.73

(XG1j X)2 (XG2j X)2 (XG3j X)2 SCT= 33,73

CALCULO DEL CUADRADO MEDIO EXPLICADO

CMEX = = = 8,82
SCEX 17,65
CMEX = 8,82
k–1 2
CALCULO DEL CUADRADO MEDIO RESIDUAL (diferencias individuales)

CMRES = = = 1,34
CMRES = 1,34

SCRES 16,13
RAZÓN F n – k
12

FOBS = = = 6,6
CMEX 8,82
FOBS = 6,6
CMRES 1,34
VALOR CRÍTICO (obtenido en tabla)

F = 3,89 para el 5% de significación


F = 3,89

INTERPRETACIÓN

Dado que el valor observado (FOBS. = 6,6), que supera el valor crítico F = 3,89, la decisión es rechazar
la H0 y concluir que a un nivel de significación del 5% al menos, uno de los tres métodos difiere de los
demás.
Otra manera de Interpretar: Las diferencias de puntajes obtenidas en la prueba no se deben a que los
alumnos tengan distintos rendimientos por sus características individuales sino que se explican por
los diferentes métodos.

BÚSQUEDA DE LA SIGNIFICACIÓN DE F

Se requiere consultar las tablas de la razón F y utilizarlas como sigue. En primer lugar busque en la
tabla la p<0,05, debido que éste es el valor más alto de probabilidad en el que podemos esperar
significación. Para encontrar el valor crítico debemos utilizar los grados de libertad para el efecto
involucrado (numerador de la razón F) y los grados de libertad para el error de la varianza estimada
(denominador). Si se alcanza la significación con p< 0,05, se puede entonces consultar para ver si el
F observado es mayor que los valores críticos obtenidos para valores de probabilidad (p) más
pequeños.

INTERPRETACIÓN DE LOS RESULTADOS DE LA PRUEBA F EN EL ANOVA

Lo que sabemos del resultado obtenido, es que al menos una media difiere significativamente de
al menos otra media. No es posible saber cual puede ser de estas medias. Si es posible identificar a
partir de las medias del grupo (G1 = 9 ; G2 = 7.8; G3 = 6,33) que la diferencia más significativa
probable entre el grupo G1 y el G3, con el siguiente G2 y G3. Para decidir qué grupos difieren en modo
significativo se aplica diversas pruebas t, para ello se requiere considerar lo que se conoce como
COMPARACIONES A PRIORI y POST HOC.

COMPARACIONES A PRIORI Y POST HOC

Para que se comprenda mejor este punto, lo trataremos por medio de una ejemplificación
(a) Lunes (b) Martes (c) Miércoles (d) Jueves (e) Viernes

Xl = 16,71 Xm = 14,56 Xmie = 10,45 Xj = 13,78 Xv = 14,23

A partir de un estudio acerca de la memoria, donde las medias de las celdillas representan la media
del recuerdo de reactivos de una lista de 25 palabras, por distintos grupos de participantes que se
evaluaron desde el lunes hasta el viernes.
Supongamos que la hipótesis nula es verdadera y que para la población muestreada el recuerdo no
difiere de manera significativa a lo largo de los días de la semana (1= 2= 3 = 4 = 5). En otras
palabras, las medias teóricas para cada día de la semana son todas del mismo valor. Ahora bien,
suponga que en esta ocasión de evaluación en particular tuviéramos un resultado casual donde la
media del lunes sí difiere de manera significativa de la del miércoles, utilizando una prueba t no
relacionada. En esta ocasión ha ocurrido un error de tipo I si rechazamos la hipótesis nula de que
estas dos medias provienen de poblaciones con las mismas medias.

COMPARACIONES POST HOC


Las comparaciones POST HOC son aquellas que se realizan después de inspeccionar los resultados
de nuestra prueba ANOVA. Suponga que una vez obtenidos los resultados generales del cuadro, se
decide hacer todas las pruebas posibles entre pares de medias y considerar cualquier diferencia
significativa como justificación para rechazar la hipótesis nula. De esta forma se estaría cometiendo
un ERROR DE TIPO I, ya que se tendría que probar las medias del lunes y miércoles junto con todas
las demás.

COMPARACIONES A PRIORI
Por otro lado, si se hubiera decidido, con base de nuestra teoría general, qué sólo se probarían las
medias del lunes y viernes porque se cree, que la gente estará más cansada hacia el fin de semana
más que al principio , no se cometería este error tipo I. Cualquiera que haya sido la predicción
inicial sólo se tendría una oportunidad en diez (p = 0,1) de cometer un error de tipo I, dado los
resultados como ocurrieron. Habían 10 predicciones para hacer ( a con b, a con c, a con d, a con e; b
con c, b con d, b con e; c con d, c con e; d con e) y solo uno de los resultados que se hubiera
predicho sería “significativo”. Esto supone que la predicción concierne sólo dos medias ( conocida
como COMPARACIÓN POR PARES). Las comparaciones a priori (“planeadas” son, entonces,
comparaciones que podemos hacer, hecha una predicción específica basada en argumentos teóricos
antes de conducir una prueba de ANOVA. Esto le debe recordar las pruebas de una y dos colas
porque, en un experimento de dos condiciones, una hipótesis de una cola es una comparación
planeada a priori.
Hacer todas las comparaciones posibles produce una más alta probabilidad de cometer un error de
TIPO I que si realizamos comparaciones a priori selectas y predeterminadas. De hecho, decidir de
antemano hacer todas las pruebas posibles de comparación es lo mismo que conducir pruebas post
hoc. Éstas implican inspeccionar todo y probar lo que parece posible. Las primeras significan lo
mismo, ya que el plan inicial es evaluar todo y ver que resulta ser “más significativo”, a menos que
haya un buen argumento teórico para que todas las posibles diferencias sean significativas.

TASA DE ERROR
Si se conduce X pruebas de significación en datos ordenados de manera aleatoria, es mucho más
probable que obtenga una diferencia “significativa”. Ésta es la lógica de evaluar la significación. Se
buscan resultados que sólo podrían ocurrir por azar cinco veces entre 100 y los consideramos como
significativos si los predijimos antes de someterlos aprueba. Entonces , si se fija la significación en
una probabilidad del 0,05 y realizamos múltiples pruebas con datos ordenados de manera aleatoria.
Se sabe que existe la oportunidad de 0,05 de que cualquier comparación que se haga se considere
en forma errónea como significativa, ejemplo cometer un error de tipo I Se dice que se está
trabajando con una TASA DE ERROR POR COMPARACIÓN del 0,05, este tipo de error, es la
probabilidad de cometer al menos un de error tipo I al realizar múltiples pruebas.
PRUEBAS PARA COMPARACIONES A PRIORI

CONTRASTES LINEALES – PROBANDO COMBINACIONES DE MEDIAS

Puede haber ocasiones donde se quiere probar la significación entre combinaciones de medias, en
el ejemplo mencionado se podría pensar combinar entre las medias de lunes y martes contra las
medias combinadas de jueves y viernes. Cuando esto ocurre es necesario usar el enfoque del
CONTRASTE LINEAL.

REGLAS PARA DETERMINAR COEFICIENTES DE CONTRASTE


1.- Todos los coeficientes juntos deben sumar cero.
2.- La suma de coeficientes para una media o combinación de medias debe igualar la suma de
coeficientes para la otra media o combinación de medias, pero con signo opuesto
3.- el coeficiente de cualquier media no probada debe ser cero.
Nota: se requiere de programas estadísticos como el SPSS MR o similar

PRUEBAS PARA COMPARACIONES POST HOC.

Éstas se utilizarán en cualquiera de estas situaciones:

1.- Cuando se desean todas las comparaciones posibles, decididas a priori


2.- cuando las comparaciones sólo se hacen después de la examinación de los resultados de ANOVA
y no debido a cualquier predicción teórica
Existen diversas pruebas, cada una con variaciones y complicaciones, para conducir comparaciones
post hoc, las más populares son : Prueba de Newman – Keuls y la Prueba de Tukeya (diferencia real
significativa).

OPCIONES GENERALES PARA COMPARACIONES CON EL ANOVA

 Para una comparación planeada ( o quizás dos, disminuyendo el nivel de significación)


entre pares de medias ( por pares), utilice pruebas t individuales (especial) o
contrastes lineales.

 Cuando esta comparación (o dos) incluye las medias de las combinaciones de grupos,
utilice contrastes lineales.

 Si se van a realizar diversas comparaciones planeadas (por pares o por combinación)


utilice el método de la prueba t de Bonferroni.

 Si se desea comparar todos los pares de medias posibles o realizar más de dos
comparaciones planeadas donde hay diversos grupos, utilice la prueba de Newman –
Keuls ( o por seguridad, Tukey DRS).

 Si desea comparar todos los pares de medias posibles cuando existen pocos grupos
(cinco o más), utilice la prueba de Tukey DRS.

 Si desea realizar todos los contrastes posibles ( por ejemplo, no sólo “por pares”, sino
también todas las posibles combinaciones de medias contra otras), utilice la prueba de
Scheffé.

Existen otras alternativas específicas dependiendo del diseño particular del estudio y de sus
objetivos. Todas las comparaciones mencionadas se encuentran en programas de estadística
como SPSS MR pero, deberá verificar alguno de los textos avanzados sobre el tema.

Вам также может понравиться